Sitemap

Um editor disse a John Mueller, do Google, que o Google Search Console (GSC) relatou mais de quinhentos backlinks de dois domínios.O editor relatou que os backlinks se correlacionaram com uma queda de 50% no tráfego.

John Mueller, do Google, comentou sobre a correlação entre links de referência e uma queda no tráfego.

O editor relatou que o GSC mostrou backlinks de dois domínios para todas as páginas do site.

Ao visitar essas páginas o editor viu que elas estavam vazias, não havia conteúdo naquelas páginas.

Eles afirmaram que o aparecimento desses links de referência estava relacionado a uma queda de 50% no tráfego.

Isto é o que o editor perguntou:

Nas últimas semanas, notei um número cada vez maior de backlinks no console de pesquisa de dois domínios para o meu site desses dois domínios.

Cada página do meu site está vinculada cerca de duas a três vezes, acumulando mais de 500 backlinks nas últimas quatro a oito semanas.

Observando os URLs de origem no console de pesquisa, vi que esses URLs de origem de dois domínios são páginas vazias.

A página inicial nesses dois domínios é simplesmente uma página vazia.

O editor diz que a aparência dos links coincide com uma queda no tráfego:

Minha descoberta desse problema se correlaciona com uma queda de 50% no tráfego.Esses backlinks não aparecem em outras ferramentas de SEO, apenas no console de busca.

O editor faz referência a esses links como “páginas de referência”.

Mas eles provavelmente estão se referindo à ferramenta de backlink do console de pesquisa:

Como esses URLs de origem são páginas vazias, você tem ideia de por que eles apareceriam no console de pesquisa como páginas de referência?

A editora então perguntou se eles deveriam rejeitar:

E esse é um cenário em que a ferramenta de rejeição faz sentido ou o Google os detecta como não naturais e os ignora como um sinal de classificação?

John Mueller, do Google, comentou sobre o mistério das páginas “vazias” e o que elas podem ser:

“É muito difícil dizer o que você está vendo aqui. Certamente é possível que existam páginas por aí que mostrem uma página vazia para os usuários e depois mostrem uma página inteira para o Googlebot.”

Essa é uma referência a uma página que está mostrando uma página para o Google e outra página para todos os outros.Essa prática é chamada de camuflagem.

Mueller está explicando a possibilidade de que a página possa estar camuflada.Esta é uma explicação do que o editor pode estar vendo e não abordando a segunda edição do ranking.

Mueller passa a descartar as páginas de referência como erros técnicos, em vez de uma tentativa maliciosa de sabotar as classificações do editor.

Ele disse:

“Desse ponto de vista, eu simplesmente ignoraria essas páginas.”

Ele então sugeriu inspecionar as páginas com o teste de compatibilidade com dispositivos móveis do Google para ver como a página fica quando o GoogleBot as vê.Isso é um teste de cloaking, para ver se uma página está mostrando uma página para o Google e outra página para visitantes que não são do Googlebot.

Mueller então comentou sobre a correlação entre os backlinks desonestos e a queda de 50% no tráfego:

“Eu não acho que isso é algo que você precisa negar.

Provavelmente parece estranho no relatório de links, mas eu realmente não me preocuparia com isso.

Com relação à queda no tráfego que você está vendo, do meu ponto de vista, isso provavelmente não estaria relacionado a esses links.

Não existe uma situação real… onde eu poderia imaginar que páginas essencialmente vazias estariam causando um problema em relação aos links.

Então eu simplesmente ignoraria isso.

Se você decidir colocá-los no arquivo de rejeição de qualquer maneira... lembre-se de que isso não afetaria a forma como mostramos os dados no console de pesquisa.Assim, o relatório de links continuaria a mostrar isso.

Não acho que haja motivo para usar um arquivo de rejeição neste caso específico.Então, eu os deixaria em paz.”

Relacionado: Como analisar a causa de uma falha de classificação

O que o editor viu?

O que o editor viu é um fenômeno antigo e comum chamado spam de referência.O motivo original do spam de referência foi que, no início dos anos 2000, certos programas de análise gratuitos publicaram listas de referenciadores na forma de links.

Isso criou a oportunidade de enviar spam a um site com referências falsas do site de spam para outro site, a fim de criar um link da página de análise pública.

Esta página de análise não foi vinculada a nenhuma outra página de um site.Ele simplesmente existia em um URL gerado automaticamente.

A maioria dos sites não tem mais essas páginas de análise.Mas a prática continua, talvez na esperança de que, se um número suficiente de editores clicar nos links, o Google o veja como uma forma de popularidade que ajudaria seus rankings.

O que o editor neste hangout provavelmente estava vendo era uma referência fabricada.

O referenciador não era real.Nem o link existia.Este é normalmente o caso de spam de referência.

Relacionado: Como identificar uma possível campanha de SEO negativa

Em vinte anos de criação de sites, nunca publiquei um site que não atraísse links estranhos, incluindo o que é conhecido como spam de referência.

Links fantasmas para meus sites que aparecem nas ferramentas de backlinks não tiveram nenhum efeito nos meus rankings.

A razão pela qual o site do editor perdeu cinquenta por cento de seus rankings provavelmente se deve a outra coisa.

O algoritmo de busca local está em fluxo desde abril e o Google anunciou uma ampla atualização do algoritmo central no início de maio.

Assista ao Hangout para webmasters do Google:

Todas as categorias: Blog