LEAK GOOGLE : Les secrets SEO enfin dévoilés ?

Ecrit par
le

Le leak de Google dévoilé par Rand Fishkin de SparkToro et confirmé par Mike King de iPullRank provient d’un email anonyme reçu le 5 mai 2024. Cette fuite contient plus de 2 500 pages de documentation API interne de Google, exposant 14 014 attributs du « Content API Warehouse ».

Elle révèle des pratiques de Google comme l’utilisation extensive des données de clics via le navigateur Chrome, la catégorisation des liens en fonction des clics, et l’existence de listes blanches pour certains secteurs. Cette fuite contredit plusieurs déclarations publiques de Google concernant leurs critères de classement.

Ce document propose une classification des facteurs en quatre thématiques principales : Sémantique, Technique, Critères off site (Chrome), et Netlinking, pour mieux interpréter leur impact sur le ranking.

Sémantique

La sémantique englobe plusieurs éléments clés influençant le SEO :

  • Auteurs et entités : Google prend en compte les auteurs et vérifie s’ils sont des entités dans le Knowledge Graph, ce qui peut influencer le classement. A minima, penser à mettre un lien vers le profil LinkedIn de vos rédacteurs.
  • Longueur du contenu : Google a une limite sur le nombre de caractères ou de mots qu’il peut traiter. Il est donc crucial de placer le contenu le plus important au début de la page.
  • Titles de page : Les titles de page doivent être optimisés et proches des mots clés de la requête.
  • Les dates : Google prend en compte différentes dates, notamment la date indiquée sur la page, la date dans le titre et les dates trouvées dans le contenu. Pensez à mettre à jour vos contenus, changer les dates (meilleures machines à café 2023 2024) et des dates de publication de vos contenus.
  • Contenu généré par l’IA : Google semble capable de détecter si un contenu a été écrit par un humain ou généré par une intelligence artificielle. (Méta est déjà à l’initiative de cette approche). On peut imaginer que Google traite de manière différente ces deux types de production de contenus.
  • Dévaluation des petits blogs : Google pourrait dévaluer les petits blogs par rapport aux sites d’entreprise. On connaissait déjà le phénomène de la Sandbox pour les nouveaux sites qui se lancent. Maintenant, on sait que si vous restez petit, vous resterez derrière les gros. L’édition de site doit s’orienter vers des gros sites d’autorité plus qu’une multitude de sites d’une dizaine de pages.
  • Contenu court : Google souligne l’originalité du contenu court. On peut imaginer que cette analyse concerne particulièrement les actualités.

Technique

Les aspects techniques du SEO comprennent des éléments variés :

  • Indexation à trois niveaux : Google dispose de trois niveaux d’index : primaire, secondaire et tertiaire, chaque niveau ayant une importance différente pour le classement. Le primaire inclut certainement les contenus qui s’indexent vite de Google News / Discover, secondaire, les pages d’un contenu froid qui s’indexent assez vite et tertiaire, ce qui ne s’indexe pas.
  • Modulateurs (Tweeters) : Les modulateurs, appelés « Tweeters » par Google, ajustent le classement en fonction de facteurs tels que la fraîcheur du contenu et les signaux des utilisateurs.
  • Bébé Panda (Mini Panda) : Baby Panda, ou Mini Panda, semble être lié à la mise à jour de l’algorithme Panda et pourrait être l’équivalent de la HCU (Helpful Content Update). Ces mises à jour s’intéressent à la qualité de vos contenus et sévissent maintenant depuis plusieurs années.
  • Dégradation du classement : Plusieurs facteurs peuvent dégrader le classement d’une page, notamment les liens incohérents, une mauvaise expérience utilisateur, un faible CTR et un contenu de mauvaise qualité.
  • Historique des URL : Google conserve jusqu’à 20 versions différentes d’un site web. Cela pose donc le problème d’un rachat d’un site ou d’un nom de domaine car si vous changez la thématique du site, Google pourrait ne plus vous attribuer l’historique précédemment acquis puisque le site n’aurait plus rien à voir.
  • PageRank de la page d’accueil : Le PageRank de la page d’accueil est corrélé à la puissance de toutes les pages du site. La stratégie d’obtenir des liens vers uniquement cette page a donc du sens pour les pages internes de votre site à condition que celles-ci soient correctement maillées.
  • Mise en Gras et taille de police : Google prend en compte le mise en gras des termes ainsi que la taille de la police des ancres de liens, ce qui peut influencer le classement.
  • Pingouin : L’algorithme Pingouin, qui cible le spam de liens, affecte également les liens internes. Vous devez trouver un équilibre sur l’utilisation des ancres trop optimisées, varier la sémantique convexe du terme cible.

Critères off site (Chrome)

Google utilise les données des utilisateurs et de Chrome pour influencer les classements :

  • L’algorithme Mustang : Mustang est l’algorithme principal de classement de Google. Il comprend un algorithme initial appelé Astro et neuf boosts basés sur des facteurs tels que le CTR, le comportement sur le site et la fraîcheur du contenu.
  • CTR : Google utilise le CTR pour évaluer la pertinence des résultats de recherche, malgré les affirmations contraires de Gary Illyes. L’affichage de votre résultat est à bien prendre en compte.
  • Signaux Chrome : Google utilise les signaux Chrome, comme le nombre de sessions, pour influencer le classement.
  • Âge du domaine et expiration : L’âge du domaine et la date de sa dernière expiration sont des facteurs de classement.

Netlinking

Les liens restent un élément crucial du SEO :

  • Autorité du domaine : Le domaine Authority est un facteur de classement prouvé, contrairement à ce qu’affirmait Google.
  • Bac à sable : L’existence d’une sandbox, liée à l’âge du site, est confirmée.
  • Liens et indexation : La valeur d’un lien dépend du niveau d’index de la page cible (primaire, secondaire ou tertiaire). Les liens provenant de pages d’index primaire ont le plus de valeur.
  • Vélocité des liens : L’acquisition rapide d’un grand nombre de liens peut être considérée comme du spam et d’évaluer ces liens.

Conclusion

Face aux récentes révélations sur les algorithmes de Google, il est important de rester prudent et critique. Les documents divulgués peuvent manquer de contexte et être obsolètes, comme le souligne Google, et il est essentiel de ne pas tirer de conclusions hâtives. La complexité des algorithmes de classement nécessite une approche nuancée et informée. En comprenant et en appliquant ces différents facteurs, les professionnels du SEO peuvent mieux optimiser leurs stratégies et améliorer le classement de leurs sites web. Toutefois, il est essentiel de rester à jour avec les dernières évolutions et ajustements des algorithmes de Google pour maintenir et améliorer la visibilité en ligne