Sitemap

Ein Publisher teilte John Mueller von Google mit, dass die Google Search Console (GSC) über fünfhundert Backlinks von zwei Domains gemeldet habe.Der Publisher berichtete, dass die Backlinks mit einem Traffic-Einbruch von 50 % einhergingen.

John Mueller von Google kommentierte den Zusammenhang zwischen Referral-Links und einem Rückgang des Traffics.

Der Publisher teilte mit, dass GSC Backlinks von zwei Domains zu jeder Seite seiner Website anzeigte.

Als der Herausgeber diese Seiten besuchte, sah er, dass sie leer waren, es gab keinen Inhalt auf dieser Seite.

Sie gaben an, dass das Erscheinen dieser verweisenden Links mit einem 50-prozentigen Rückgang des Verkehrs korrelierte.

Das hat der Verlag gefragt:

In den letzten Wochen habe ich eine stetig steigende Anzahl von Backlinks in der Suchkonsole von zwei Domains zu meiner Website von diesen beiden Domains bemerkt.

Jede einzelne Seite meiner Website ist etwa zwei- bis dreimal verlinkt, wodurch sich in den letzten vier bis acht Wochen mehr als 500 Backlinks angesammelt haben.

Beim Betrachten der Ursprungs-URLs in der Suchkonsole sah ich, dass diese Ursprungs-URLs von zwei Domains leere Seiten sind.

Die Homepage auf diesen beiden Domains ist einfach eine leere Seite.

Der Herausgeber sagt, dass das Erscheinen der Links mit einem Rückgang des Verkehrs zusammenfällt:

Meine Entdeckung dieses Problems korreliert mit einem Rückgang des Datenverkehrs um 50 %.Diese Backlinks werden in anderen SEO-Tools nicht angezeigt, sondern nur in der Suchkonsole.

Der Herausgeber weist auf diese Links als „verweisende Seiten“ hin.

Aber sie beziehen sich wahrscheinlich auf das Backlink-Tool der Suchkonsole:

Da diese Ursprungs-URLs leere Seiten sind, haben Sie eine Ahnung, warum sie in der Suchkonsole als verweisende Seiten angezeigt werden?

Der Herausgeber fragte dann, ob sie disavowen sollten:

Und ist das ein Szenario, in dem das Disavow-Tool sinnvoll ist, oder werden sie von Google als unnatürlich erkannt und als Ranking-Signal ignoriert?

John Mueller von Google kommentierte das Geheimnis der „leeren“ Seiten und was diese sein könnten:

„Es ist wirklich schwer zu sagen, was Sie hier sehen. Es ist durchaus möglich, dass es Seiten gibt, die den Nutzern eine leere Seite zeigen und dann dem Googlebot eine ganze Seite zeigen.“

Das ist ein Verweis auf eine Seite, die Google eine Seite und allen anderen eine andere Seite zeigt.Diese Praxis wird Cloaking genannt.

Mueller erklärt, dass die Seite möglicherweise getarnt ist.Dies ist eine Erklärung dafür, was der Publisher möglicherweise sieht, und geht nicht auf das zweite Problem der Rangliste ein.

Mueller weist die Empfehlungsseiten weiterhin als technische Fehler ab und nicht als böswilligen Versuch, die Rankings des Herausgebers zu sabotieren.

Er sagte:

„Aus dieser Sicht würde ich diese Seiten einfach ignorieren.“

Er schlug dann vor, die Seiten mit Googles Mobile Friendly Test zu untersuchen, um zu sehen, wie die Seite aussieht, wenn GoogleBot sie sieht.Das ist ein Cloaking-Test, um zu sehen, ob eine Seite eine Seite für Google und eine andere Seite für Nicht-Googlebot-Besucher anzeigt.

Mueller kommentierte dann die Korrelation zwischen den betrügerischen Backlinks und dem 50-prozentigen Rückgang des Traffics:

„Ich glaube nicht, dass Sie das ablehnen müssen.

Im Link-Bericht sieht es wahrscheinlich komisch aus, aber ich würde mir wirklich keine Gedanken darüber machen.

In Bezug auf den Traffic-Rückgang, den Sie sehen, würde das aus meiner Sicht wahrscheinlich nichts mit diesen Links zu tun haben.

Es gibt keine wirkliche Situation … wo ich mir vorstellen könnte, dass im Wesentlichen leere Seiten ein Problem in Bezug auf Links verursachen würden.

Also ich würde das einfach ignorieren.

Wenn Sie sich trotzdem dafür entscheiden, sie in die Disavow-Datei aufzunehmen, denken Sie daran, dass dies keinen Einfluss darauf hat, wie wir die Daten in der Suchkonsole anzeigen.Der Link-Bericht würde diese also weiterhin anzeigen.

Ich glaube nicht, dass es in diesem speziellen Fall einen Grund gibt, eine Disavow-Datei zu verwenden.Also würde ich sie einfach in Ruhe lassen.“

Siehe auch: So analysieren Sie die Ursache eines Ranking-Crashs

Was hat der Herausgeber gesehen?

Was der Publisher sah, ist ein altes und weit verbreitetes Phänomen namens Empfehlungs-Spam.Der ursprüngliche Grund für Referral-Spam war, dass Anfang der 2000er Jahre bestimmte kostenlose Analyseprogramme Listen von Referrern in Form von Links veröffentlichten.

Dadurch entstand die Möglichkeit, eine Website mit gefälschten Verweisen von der Spam-Website auf eine andere Website zu spammen, um einen Link von der öffentlichen Analyseseite zu erstellen.

Diese Analyseseite wurde von keiner anderen Seite einer Website verlinkt.Es existierte einfach unter einer automatisch generierten URL.

Die meisten Websites haben diese Analyseseiten nicht mehr.Aber die Praxis geht weiter, vielleicht in der Hoffnung, dass, wenn genügend Publisher auf die Links klicken, Google dies als eine Form der Popularität sehen wird, die ihr Ranking verbessern würde.

Was der Publisher in diesem Hangout wahrscheinlich betrachtete, war eine fabrizierte Empfehlung.

Der Referrer war nicht echt.Nicht einmal der Link existierte.Dies ist typischerweise bei Referrer-Spam der Fall.

Verwandt: So identifizieren Sie eine mögliche negative SEO-Kampagne

In zwanzig Jahren der Erstellung von Websites habe ich noch nie eine Website veröffentlicht, die keine seltsamen Links angezogen hat, einschließlich sogenannter Referrer-Spam.

Phantomlinks zu meinen Seiten, die in Backlink-Tools auftauchen, haben keine Auswirkungen auf meine Platzierungen.

Der Grund, warum die Website des Publishers fünfzig Prozent ihres Rankings verloren hat, liegt wahrscheinlich an etwas anderem.

Der lokale Suchalgorithmus ist seit April im Fluss und Google hat Anfang Mai ein umfassendes Kernalgorithmus-Update angekündigt.

Sehen Sie sich den Google Webmaster-Hangout an:

Alle Kategorien: Blog