Sitemap

Un editore ha detto a John Mueller di Google che Google Search Console (GSC) ha segnalato oltre cinquecento backlink da due domini.L'editore ha riferito che i backlink erano correlati a un calo del traffico del 50%.

John Mueller di Google ha commentato la correlazione tra i link di riferimento e un calo del traffico.

L'editore ha riferito che GSC ha mostrato backlink da due domini a ogni pagina del loro sito.

Quando ha visitato quelle pagine, l'editore ha visto che erano vuote, che non c'erano contenuti in quelle pagine.

Hanno affermato che la comparsa di quei link di riferimento era correlata a un calo del traffico del 50%.

Questo è ciò che l'editore ha chiesto:

Nelle ultime settimane ho notato un numero in costante aumento di backlink nella console di ricerca da due domini al mio sito Web da questi due domini.

Ogni singola pagina del mio sito Web è collegata circa due o tre volte, accumulando più di 500 backlink nelle ultime quattro o otto settimane.

Guardando gli URL di origine nella console di ricerca ho visto che questi URL di origine da due domini sono pagine vuote.

La home page di questi due domini è semplicemente una pagina vuota.

L'editore afferma che l'aspetto dei link coincide con un calo del traffico:

La mia scoperta di questo problema è correlata a un calo del traffico del 50%.Questi backlink non vengono visualizzati in altri strumenti SEO, solo nella console di ricerca.

L'editore fa riferimento a questi collegamenti come "pagine di riferimento".

Ma probabilmente si riferiscono allo strumento di backlink della console di ricerca:

Poiché questi URL di origine sono pagine vuote, hai idea del perché vengano visualizzati nella console di ricerca come pagine di riferimento?

L'editore ha quindi chiesto se dovessero sconfessare:

E questo è uno scenario in cui lo strumento di disconoscimento ha senso o Google li rileva come innaturali e li ignorerà come segnale di ranking?

John Mueller di Google ha commentato il mistero delle pagine "vuote" e di quali potrebbero essere:

“È davvero difficile dire cosa stai vedendo qui. È certamente possibile che ci siano pagine là fuori che mostrano una pagina vuota agli utenti e poi mostrano una pagina intera a Googlebot".

Questo è un riferimento a una pagina che mostra una pagina a Google e un'altra pagina a tutti gli altri.Questa pratica è chiamata occultamento.

Mueller sta spiegando che c'è la possibilità che la pagina possa essere cloaking.Questa è una spiegazione di ciò che l'editore potrebbe vedere e non affronta il secondo problema delle classifiche.

Mueller continua a respingere le pagine di riferimento come errori tecnici piuttosto che un tentativo dannoso di sabotare le classifiche dell'editore.

Egli ha detto:

"Da quel punto di vista, ignorerei semplicemente quelle pagine."

Ha quindi suggerito di ispezionare le pagine con il test Mobile Friendly di Google per vedere come appare la pagina quando GoogleBot le vede.Questo è un test per il cloaking, per vedere se una pagina mostra una pagina a Google e un'altra pagina a visitatori non Googlebot.

Mueller ha poi commentato la correlazione tra i backlink canaglia e il calo del 50% del traffico:

“Non credo che questo sia qualcosa che devi sconfessare.

Probabilmente sembra strano nel rapporto sui collegamenti, ma non mi preoccuperei davvero di questo.

Per quanto riguarda il calo di traffico che stai vedendo, dal mio punto di vista probabilmente non sarebbe correlato a questi link.

Non c'è una situazione reale... in cui potrei immaginare che le pagine essenzialmente vuote potrebbero causare un problema per quanto riguarda i collegamenti.

Quindi lo ignorerei.

Se decidi di inserirli comunque nel file di disconoscimento... tieni presente che ciò non influirà sul modo in cui mostriamo i dati nella console di ricerca.Quindi il rapporto sui collegamenti continuerebbe a mostrarli.

Non credo che ci sia alcun motivo per utilizzare un file di disconoscimento in questo caso particolare.Quindi li lascerei stare".

Correlati: come analizzare la causa di un crash di classifica

Cosa ha visto l'editore?

Ciò che l'editore ha visto è un fenomeno vecchio e comune chiamato spam di riferimento.Il motivo originale dello spam da referral era che nei primi anni 2000 alcuni programmi di analisi gratuiti pubblicavano elenchi di referrer sotto forma di link.

Ciò ha creato l'opportunità di inviare spam a un sito con falsi referral dal sito di spam a un altro sito al fine di creare un collegamento dalla pagina di analisi pubblica.

Questa pagina di analisi non è stata collegata da nessun'altra pagina di un sito.Esisteva semplicemente in un URL generato automaticamente.

La maggior parte dei siti non ha più quelle pagine di analisi.Ma la pratica continua, forse nella speranza che se un numero sufficiente di editori fa clic sui link, Google lo vedrà come una forma di popolarità che aiuterebbe il loro posizionamento.

Quello che probabilmente l'editore in questo Hangout stava guardando era un referral artificiale.

Il referrer non era reale.Anche il collegamento non esisteva.Questo è in genere il caso dello spam di riferimento.

Correlati: come identificare una possibile campagna SEO negativa

In vent'anni di creazione di siti Web, non ho mai pubblicato un sito che non attirasse link strani, incluso quello che è noto come referrer spam.

I collegamenti fantasma ai miei siti visualizzati negli strumenti di backlink non hanno avuto alcun effetto sulle mie classifiche.

Il motivo per cui il sito dell'editore ha perso il cinquanta percento delle loro classifiche è probabilmente dovuto a qualcos'altro.

L'algoritmo di ricerca locale è in evoluzione da aprile e Google ha annunciato un ampio aggiornamento dell'algoritmo di base all'inizio di maggio.

Guarda l'Hangout per webmaster di Google:

Tutte le categorie: Blog