6 choses qui se produisent lorsque Googlebot ne peut pas explorer votre site Web

Vous êtes-vous déjà demandé ce qui se passerait si vous empêchiez Google d’explorer votre site Web pendant quelques semaines ? L’expert technique en référencement Kristina Azarenko a publié les résultats d’une telle expérience.

Six choses surprenantes qui se sont produites. Que s’est-il passé lorsque Googlebot n’a pas pu explorer le site d’Azarenko du 5 octobre au 7 novembre :

  • Favicon a été supprimé des résultats de recherche Google.
  • Les résultats de la recherche vidéo ont été durement touchés et ne se sont toujours pas rétablis après l’expérience.
  • Les positions sont restées relativement stables, sauf qu’elles ont été légèrement plus volatiles au Canada.
  • Le trafic n’a connu qu’une légère diminution.
  • Une augmentation du nombre de pages indexées signalées dans Google Search Console. Pourquoi? Les pages avec des balises méta robots noindex ont fini par être indexées car Google ne pouvait pas explorer le site pour voir ces balises.
  • Alertes multiples dans GSC (par exemple, « Indexé, bien que bloqué par robots.txt », « Bloqué par robots.txt »).

Pourquoi nous nous en soucions. Les tests sont un élément crucial du référencement. Tous les changements (intentionnels ou non) peuvent avoir un impact sur votre classement, votre trafic et vos résultats. Il est donc bon de comprendre comment Google pourrait éventuellement réagir. De plus, la plupart des entreprises ne sont pas en mesure de tenter ce type d’expérience, c’est donc une bonne information à connaître.

L’expérience. Vous pouvez tout lire dans Résultats inattendus de mon expérience d’exploration Google.

Un autre expérience similaire. Patrick Stox d’Ahrefs a également partagé les résultats de bloquer deux pages de haut rang avec robots.txt pendant cinq mois. L’impact sur le classement a été minime, mais les pages ont perdu tous leurs extraits de code.


Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine