Sitemap

Un éditeur a déclaré à John Mueller de Google que Google Search Console (GSC) avait signalé plus de cinq cents backlinks provenant de deux domaines.L'éditeur a signalé que les backlinks étaient corrélés à une baisse de trafic de 50 %.

John Mueller de Google a commenté la corrélation entre les liens de référence et une baisse du trafic.

L'éditeur a expliqué que GSC affichait des backlinks de deux domaines vers chaque page de son site.

Lors de la visite de ces pages, l'éditeur a vu qu'elles étaient vides, il n'y avait aucun contenu sur ces pages.

Ils ont déclaré que l'apparition de ces liens de référence était corrélée à une baisse de 50 % du trafic.

Voici ce que l'éditeur a demandé :

Au cours des dernières semaines, j'ai remarqué une augmentation constante du nombre de backlinks dans la console de recherche de deux domaines vers mon site Web à partir de ces deux domaines.

Chaque page de mon site Web est liée environ deux à trois fois, accumulant plus de 500 backlinks au cours des quatre à huit dernières semaines.

En regardant les URL d'origine dans la console de recherche, j'ai vu que ces URL d'origine de deux domaines sont des pages vides.

La page d'accueil sur ces deux domaines est simplement une page vide.

L'éditeur affirme que l'apparition des liens coïncide avec une baisse du trafic :

Ma découverte de ce problème est en corrélation avec une baisse de 50 % du trafic.Ces backlinks n'apparaissent pas dans d'autres outils de référencement, uniquement dans la console de recherche.

L'éditeur fait référence à ces liens en tant que "pages de référence".

Mais ils font probablement référence à l'outil de backlink de la console de recherche :

Comme ces URL d'origine sont des pages vides, savez-vous pourquoi elles apparaîtraient dans la console de recherche en tant que pages de référence ?

L'éditeur a alors demandé s'ils devaient désavouer :

Et est-ce un scénario où l'outil de désaveu a du sens ou Google les détecte-t-il comme non naturels et les ignorera-t-il comme un signal de classement ?

John Mueller de Google a commenté le mystère des pages "vides" et ce qu'elles pourraient être :

"C'est vraiment difficile de dire ce que vous voyez ici. Il est certainement possible qu'il existe des pages qui affichent une page vide aux utilisateurs, puis qu'elles affichent une page complète à Googlebot. »

C'est une référence à une page qui montre une page à Google et une autre page à tout le monde.Cette pratique s'appelle le camouflage.

Mueller explique qu'il est possible que la page soit masquée.Il s'agit d'une explication de ce que l'éditeur pourrait voir et ne pas aborder le deuxième problème du classement.

Mueller poursuit en rejetant les pages de référence comme des erreurs techniques plutôt qu'une tentative malveillante de saboter le classement de l'éditeur.

Il a dit:

"De ce point de vue, j'ignorerais simplement ces pages."

Il a ensuite suggéré d'inspecter les pages avec le test Mobile Friendly de Google pour voir à quoi ressemble la page lorsque GoogleBot les voit.C'est un test de camouflage, pour voir si une page montre une page à Google et une autre page aux visiteurs non-Googlebot.

Mueller a ensuite commenté la corrélation entre les backlinks malveillants et la baisse de 50 % du trafic :

« Je ne pense pas que ce soit quelque chose que vous devez désavouer.

Cela semble probablement bizarre dans le rapport sur les liens, mais je ne m'inquiéterais vraiment pas à ce sujet.

En ce qui concerne la baisse de trafic que vous constatez, de mon point de vue, cela ne serait probablement pas lié à ces liens.

Il n'y a pas de situation réelle… où je pourrais imaginer que des pages essentiellement vides causeraient un problème en ce qui concerne les liens.

Donc je l'ignorerais simplement.

Si vous décidez quand même de les mettre dans le fichier de désaveu… gardez simplement à l'esprit que cela n'affectera pas la façon dont nous affichons les données dans la console de recherche.Ainsi, le rapport sur les liens continuerait à les montrer.

Je ne pense pas qu'il y ait une raison d'utiliser un fichier de désaveu dans ce cas particulier.Alors je les laisserais tranquilles.

En relation: Comment analyser la cause d'un crash de classement

Qu'est-ce que l'éditeur a vu ?

Ce que l'éditeur a vu est un phénomène ancien et courant appelé spam de parrainage.La raison initiale du spam de référencement était qu'au début des années 2000, certains programmes d'analyse gratuits publiaient des listes de références sous forme de liens.

Cela a créé la possibilité de spammer un site avec de fausses références du site de spam vers un autre site afin de créer un lien à partir de la page d'analyse publique.

Cette page d'analyse n'a été liée à aucune autre page d'un site.Il existait simplement à une URL générée automatiquement.

La plupart des sites n'ont plus ces pages d'analyse.Mais la pratique se poursuit, peut-être dans l'espoir que si suffisamment d'éditeurs cliquent sur les liens, Google y verra une forme de popularité qui aiderait leur classement.

Ce que l'éditeur dans ce hangout cherchait probablement était une référence fabriquée.

Le référent n'était pas réel.Même le lien n'existait pas.C'est généralement le cas dans les spams de référence.

En relation : Comment identifier une éventuelle campagne de référencement négative

En vingt ans de création de sites Web, je n'ai jamais publié un site qui n'attirait pas de liens étranges, y compris ce qu'on appelle le spam de référencement.

Les liens fantômes vers mes sites qui apparaissent dans les outils de backlink n'ont eu aucun effet sur mon classement.

La raison pour laquelle le site de l'éditeur a perdu cinquante pour cent de son classement est probablement due à autre chose.

L'algorithme de recherche locale est en pleine mutation depuis avril et Google a annoncé une large mise à jour de l'algorithme de base début mai.

Regardez le Hangout Google pour les webmasters :

Toutes catégories: Blogs