Ce premier jour du SMX Paris, les participants ont pu assister à une « keynote » d’Eric Enge, personnage influent dans la communauté SEO notamment par ses articles visionnaires et son ouvrage de référence « The Art of SEO« . Le sujet « How Machine Learning Will Transform Digital Marketing » (comment le Machine Learning va transformer le marketing digital) était une démonstration de l’usage de cette technologie par les algorithmes de Google.

En bref : le Machine Learning permet aux algorithmes de mieux générer des résultats de recherche pertinents, par rapport à des facteurs communs entre les éléments (les pages web). Il renforce les piliers traditionnels du SEO que sont le contenu et les liens, ainsi que le dernier en date qu’est l’Expérience utilisateur.

La pertinence du contenu, votre priorité

Un algorithme comme Rankbrain tire partie du Machine Learning afin de mieux comprendre le langage naturel et l’intention derrière une requête. Le contenu reste le critère principal de qualité d’une page. Sur un sujet donné, un contenu à la fois riche et pertinent aura les faveurs du moteur. Le remplissage par du texte hors-sujet n’apportera rien : si on cherche à vendre une voiture Ford à Seattle, un paragraphe générique sur la ville aura moins de poids que des renseignements complémentaires sur le modèle concerné et ses termes associés (un tutoriel, une vidéo, des pièces de rechange). Couvrir au mieux les intentions possibles des internautes arrivant sur votre page doit être un grand principe de votre création de contenu (et d’optimisation de page stratégique).

C’est une question à la fois d’expérience utilisateur mais également de positionnement : pour une requête donnée, une comparaison du champ lexical des pages mieux positionnées dans les SERP que la votre soulignera leurs mots-clés communs sur lesquels vous seriez absent. Ces mots-clés sont les compléments qui rendent une page davantage qualitative pour l’utilisateur et ainsi pour Google.

smx-paris-google-machine-learning

Quelle part de vos visiteurs trouve ce qu’elle cherche sur votre page ?

L’incontournable poids des liens

Le cœur de l’algorithme est centré à l’origine sur les liens entre les sites, et le poids du netlinking reste incontournable. Le positionnement d’une page est largement corrélé sur le nombre de liens reçus. Un lien reste une réelle recommandation d’un site vers un autre : c’est une action manuelle et volontaire, permanente et altruiste (un éditeur de site accorde assez d’importance au lien qu’il accepte que ses visiteurs quittent son site pour le consulter). Les liens directs vers la page sont le signal le plus fort qu’elle puisse recevoir. Là aussi, le Machine Learning aide l’algorithme de Google (dans sa partie Penguin) à nuancer : il apprendra à repérer des signaux dépréciatifs (lien en footer ou en navigation, lien masqué, ancre sans rapport).

Réseaux sociaux et SEO ?

On remarque que la corrélation entre positionnement et partage social est fréquente : ce n’est en toute logique pas une causalité. D’une part, Google a du mal à crawler un réseau social semi-privé au rythme de publication élevé comme Facebook, et n’a pas d’intérêt à se baser sur les algorithmes d’un concurrent. D’autre part, les contenus les plus partagés sont majoritairement les plus courts, ce qui va à l’encontre de la logique de Google de valoriser des contenus riches et développés.

Le SXO : l’importance de l’expérience utilisateur en SEO

Enfin, le moteur ne s’arrête pas une fois la page de résultats générée, il s’améliore constamment. Le Machine Learning dans ce domaine est à l’oeuvre lorsque le moteur présente des variantes de pages de résultats pour une même requête, et se sert des données de comportement (Taux de clic, rebonds, temps passé) générées par les internautes pour affiner les résultats finaux.

Le Machine Learning est au final une composante des algorithmes de Google, les rendant plus performants et renforçant ainsi le poids des facteurs courants de SEO, pour lesquels la qualité est l’optimisation principale.

Olivier Perbet | @operbet