La mise à jour principale de Google de mars 2024 apporte un changement sismique dans l'industrie du référencement. Cette mise à jour majeure pourrait balayer le Web de la même manière que les mises à jour Panda et Penguin.
Son impact est énorme et répandu et tous les spécialistes du marketing chevronnés à qui j'ai parlé conviennent que cette mise à jour est une grosse affaire. Votre site Web a-t-il été touché par la mise à jour principale de mars 2024 ?
Voici cinq choses que vous devez savoir pour éviter d’être pénalisé et maintenir votre bonne réputation dans les résultats de recherche.
1. Google désindexe complètement les sites Web
Imaginez que vous vous réveilliez et que votre site Web ait disparu des résultats de recherche de Google. C’est exactement ce qui est arrivé à de nombreux sites Web après le déploiement de la mise à jour de mars 2024.
Dans son annonce du 5 mars, Google a souligné son objectif de réduire les contenus inutiles, non pertinents et non originaux des résultats de recherche.
Cette campagne de nettoyage promet de supprimer jusqu'à 40 % des sites Web de mauvaise qualité qui fournissent des informations inutiles et une mauvaise expérience utilisateur – des pages créées uniquement pour répondre à des requêtes de recherche spécifiques.
Les sites Web qui enfreignent les directives de Google ou qui emploient des tactiques de référencement douteuses seront non seulement pénalisés, mais également complètement supprimés des résultats de recherche et de l'index.
Dans les jours qui ont suivi cette annonce, le monde du SEO a basculé.
Voici un tweet de Jeff Coyle :
2. Les sanctions sont rapides
Ce qui est remarquable à propos de cette mise à jour, c'est que les sanctions ont été sévères et rapides, les propriétaires de sites se bousculant pour obtenir des réponses.
Examinons pas moins de 10 sites Web désindexés :
Pour vérifier si votre site a été impacté par la mise à jour de Google, recherchez votre site Web dans Google en tapant « site:website.com » et voyez si vous apparaissez dans les résultats de recherche.
Il est important de noter que les sites concernés par la mise à jour principale ou la mise à jour anti-spam de mars 2024 « ne seraient pas informés d'une baisse de classement via la visionneuse d'actions manuelles de Google Search Console », comme l'a souligné Barry Schwartz.
« Les mises à jour algorithmiques sont automatisées et Google n'informe pas le propriétaire du site lorsqu'un site est impacté négativement (ou positivement) par une mise à jour de l'algorithme », écrit Schwartz.
3. Les sites Web qui ont survécu aux mises à jour précédentes ne sont pas à l’abri
Les sites Web plus anciens ne sont pas non plus épargnés. Ceux qui n’ont pas été touchés par les mises à jour précédentes de l’algorithme sont désormais également confrontés à des répercussions.
Certaines personnes applaudissent, affirmant qu'il est temps que ces sites de mauvaise qualité démarrent après des années à jouer avec le système et à rester dans les SERP.
Ceci est un exemple d'une « agence de création de liens » qui a été expulsée :
Mais d’autres se grattent la tête, se demandant pourquoi l’ensemble de leur réseau a disparu.
Lors d’une discussion au sein du groupe privé Affiliate SEO Mastermind, un membre a partagé la malheureuse expérience d’un éditeur dont tout le réseau s’est effondré.
Selon le message, les huit sites concernés de l'éditeur, tous créés au cours des deux dernières années, couvraient divers sujets de niche. L’auteur a souligné que le contenu était principalement écrit par des humains avec une assistance minimale de l’IA.
Les huit sites Web affichent désormais zéro impression de trafic.
C’est là que l’EEAT aurait pu jouer un rôle crucial.
Le large éventail de sujets abordés par ces sites indique un manque de connaissances thématiques approfondies – expérience et expertise – que Google privilégie lors du classement des sites Web.
4. Les sites obsolètes et remplis d'erreurs sont vulnérables
En parlant d'EEAT, regardez comment Google a maintenant ajouté un autre facteur en considérant le contenu comme non fiable et avec l'EEAT le plus bas :
Le contenu est généré par l’IA, il est obsolète et n’est pas exempt d’erreurs.
Ce sont des moyens infaillibles d’être déclassé !
5. Même les petits sites de contenu IA ont été affectés
Une évolution intéressante est la façon dont les petits sites de contenu d’IA ont été examinés de près. La capacité de Google à détecter le contenu généré par l'IA est devenue plus raffinée, ce qui entraîne des sanctions même pour les petits acteurs dans ce domaine.
Craig Griffiths pense que le principal indicateur d'un site Web d'IA est la fréquence à laquelle il publie du contenu.
Mais ce n'est pas le cas ici:
En approfondissant cette conversation, on révèle des signaux plus spécifiques que Google pourrait rechercher :
Soyons clairs : Google ne s'attaque pas au contenu de l'IA. Ce que Google veut nettoyer de ses résultats de recherche, c'est le contenu inutile, répétitif et non original, qu'il soit écrit par des humains, par l'IA ou les deux.
La dernière mise à jour vise à supprimer les mauvais sites Web qui ne font rien pour les gens tout en faisant remonter à la surface les bons sites Web avec un contenu précieux.
Il s’agit d’un signal d’alarme pour les propriétaires de sites Web qui pensaient que leur héritage assurerait leur sécurité. Cela prouve une fois de plus que l’adaptation est la clé de la survie dans le monde numérique.
Si vous gérez l’un de ces domaines plus anciens et plus petits, ne paniquez pas encore. Commencez par effectuer un audit complet du site et résolvez ces problèmes immédiatement.
À retenir : la qualité l'emporte sur la quantité
L'accent de Google a toujours été mis sur l'originalité, la profondeur et la valeur pour le lecteur. Les sites Web supprimés et désindexés reposaient souvent largement sur du contenu léger ou dupliqué sans fournir d’informations ou de perspectives uniques.
Pour lutter de front contre ce problème, améliorer EEAT devient essentiel. Les principes d'EEAT montrent à Google – et, plus important encore, à vos lecteurs – que vous êtes une autorité qui mérite d'être écoutée. Cela inclut de citer des sources réputées au sein de votre niche et de présenter clairement l'expertise de l'auteur sur votre site.
L’expérience utilisateur occupe également une place centrale avec les dernières modifications d’algorithme. Votre site doit être beau et être simple et intuitif pour les visiteurs. Les sites Web se concentrant uniquement sur l’optimisation des mots clés plutôt que sur les principes holistiques de conception UX seront pénalisés.
Prêter attention à la vitesse des pages, à la convivialité mobile et aux appels à l'action clairs aidera les utilisateurs à rester engagés plus longtemps, envoyant des signaux positifs en remontant la chaîne alimentaire du référencement.
N'oubliez pas qu'en effectuant ces ajustements, vous ne vous contentez pas de jouer gentiment avec les moteurs de recherche ; vous créez un meilleur espace en ligne pour tous ceux qui le visitent.
S'adapter ou prendre du retard
Le grand nombre de sites Web désindexés signalés par la communauté du marketing de recherche confirme le projet de Google de mettre en œuvre un remaniement majeur de ses systèmes de classement.
Il est prudent d'étudier les modèles de sites Web affectés par des événements algorithmiques pour repérer les tendances communes afin que vous puissiez découvrir les propres faiblesses de vos sites Web et recalibrer vos stratégies.
- Concentrez-vous sur la qualité du contenu.
- Améliorez l’expérience utilisateur.
- Commencez à auditer votre site et apportez des modifications.
Le chemin à parcourir peut sembler intimidant, mais rappelez-vous que chaque étape vers l’amélioration est un pas de plus vers l’enfer de Google.
Les opinions exprimées dans cet article sont celles de l’auteur invité et ne sont pas nécessairement celles de Search Engine Land. Les auteurs du personnel sont répertoriés ici.