En février dernier, Google, par l’intermédiaire de son incubateur Jigsaw, annonçait le déploiement de l’API Perspective, une API dont l’objectif annoncé est de faciliter la mise en place de « conversations de meilleure qualité » (« better conversations » en VO). Perspective est un projet qui n’en est qu’à ses débuts mais dont les ambitions sont importantes lorsque l’on observe les acteurs qui se sont fédérés autour de ce projet : entre autres, Wikipedia, The Guardian, The New York Times et The Economist.

Capture

L’API Perspective se base sur des modèles de Machine Learning permettant de scorer les commentaires. Le premier modèle mis à disposition des développeurs et éditeurs permet d’identifier le niveau de toxicité d’un commentaire au sein d’une discussion.

La toxicité n’est, ici, pas défini a priori sur la base de règles strictes mais dépend de données préalablement recueillies auprès d’utilisateurs, auxquels il a été demandé de noter des milliers de conversations sur une échelle allant de « très toxique » à « très sain » (« Very toxic » à « Very healthy » en VO).

En effet, la toxicité est quelque chose de relativement subjectif et de ce fait difficilement détectable. Nous réagissons de manière assez différente à un commentaire désobligeant en fonction de notre niveau de sensibilité ou de susceptibilité. C’est ici que le Machine Learning prend tout son intérêt.

Il ne s’agit pas ici de scorer un commentaire en fonction d’une liste prédéfinie de mots clés plus ou moins désobligeants. Non, le modèle de Machine Learning ici appliqué tente de scorer le niveau de toxicité d’un commentaire en se basant sur des milliers de tests préalablement réalisés par les utilisateurs, tentant de traduire la subjectivité de chaque utilisateur en un modèle réutilisable et automatisable (= supervised machine learning).

La toxicité ayant été décrite comme un commentaire vulgaire, non respectueux, peu raisonnable qui pourrait vous amener à quitter la conversation en cours.

Dans son application primaire, ce modèle de détection de la toxicité peut être utilisé à plusieurs niveaux : au niveau développeur pour automatiser la détection de commentaires abusifs, au niveau Community Manager pour faciliter le travail de modération des commentaires, au niveau utilisateur pour l’orienter vers un commentaire plus respectueux.

Alors, quel est l’intérêt d’un tel outil pour Google (hormis de rendre bien sûr le monde meilleur) ? Et surtout, si nous revenons à notre dada, le SEO, est-ce que cet outil pourrait être utilisé par Google pour classer les sites ?

Le projet Perspective marque la capacité qu’est en train de développer Google de pouvoir scorer des éléments de plus en plus subjectifs. La toxicité n’est qu’un début et d’autres modèles de scoring devraient être proposés sous peu par le projet Perspective. Mais, on peut déjà imaginer de nombreuses applications possibles au niveau SEO.

Nous pourrions en effet imaginer que Google puisse tenter d’analyser le niveau de toxicité d’une page, d’un article ou plus globalement les sentiments associés à une page. Quelles en seraient les conséquences ?

Imaginons. 2019, Google publie un article sur son blog officiel > « Sentiment as a ranking factor ».

Chaque site se verra attribué une note de confiance dépendante des citations et des sentiments associés à ces citations. Si un site ou une marque cumule de nombreux commentaires négatifs, le site se verra déclassé dans les SERPs. Vous allez me dire, mais c’est le serpent de mer du Trust Rank qui remonte à la surface. Et oui, mais avec une application qui pourrait être bien réelle.

Cette perspective n’est probablement pas pour tout de suite dans la mesure où il faudra probablement une puissance de calcul énorme pour pouvoir déployer cela au niveau du web (et que l’API ne fonctionne qu’en anglais à l’heure actuelle).

Mais, la possibilité que cela puisse être déployé à court terme en test par Google sur une partie de ses résultats n’est pas improbable. Wait and see.