La semaine dernière, un article du quotidien anglais Guardian épinglait le moteur Google pour avoir placé en tête des résultats un site négationniste. Mardi, le moteur annonçait qu’ils avaient modifié leur algorithme pour éviter que ce type de sites apparaisse en tête des résultats.

La façon dont Google a réagi est révélatrice.

Dans un premier temps, ils ont tenu le discours habituel : l’algo fait des choix sur des critères objectifs, si le classement ne vous plait pas, ce n’est pas de notre faute, c’est le reflet du monde réel.
Voici le verbatim de leur réponse :
“We are saddened to see that hate organisations still exist. The fact that hate sites appear in search results does not mean that Google endorses these views.”
Et la traduction : nous sommes tristes de constater que des organisations prônant la haine continuent d’exister. Le fait que ces sites prônant la haine apparaissent dans les résultats de recherche ne signifie pas que Google approuve leur vision des choses”

La neutralité des algorithmes est un mythe

Mais il y a bien un problème de fond. Le discours sur la neutralité des algorithmes est un moyen habile, souvent utilisé par les GAFA pour se sortir de situations délicates. Des concurrents se plaignent d’être rendus invisibles dans les classements ? On se retranche derrière les choix faits par un algorithme, censé ne pas faire de traitements de faveur. Un réseau social est accusé de propager de fausses nouvelles ? Ce sont des algorithmes qui poussent ces informations aux membres, et le réseau social nie toute responsabilité.

Mais en réalité, les algorithmes ne peuvent pas être “neutres”. Ils ont été programmés par des humains, qui ont défini les objectifs de ces programmes et les contraintes à respecter. Et ces humains sont responsables de ce que font les outils qu’ils ont créés.
On trouverait ridicule la défense d’un criminel qui dirait “c’est le couteau qui a tué ma victime, ce n’est pas moi, donc je ne suis pas responsable”. Mais transposée dans le monde de l’informatique et de l’internet, cette ligne de défense est de plus en plus courante : “c’est un algorithme qui a pris cette décision, pas nous, donc nous ne sommes pas responsables”.
Mais dans le fond, c’est bien sûr la même chose, et c’est tout aussi ridicule.

Les acteurs de l’internet doivent agir comme des personnes responsables

Se cacher derrière des algorithmes, ou demain derrière des outils exploitant des technologies d’intelligence artificielle, ne tient pas la route très longtemps. Les acteurs de l’internet doivent assumer comme tout le monde, une responsabilité juridique, économique, sociale, sociétale, environnementale…

Et quand leur algo se met à promouvoir, même à leur corps défendant, un site négationniste, Google est bien obligé d’admettre qu’il y a un souci, qu’ils en sont responsables, et que cette situation doit être corrigée.

Finalement, Google a modifié son algorithme

Mardi, le journal américain Fortune a révélé qu’un porte parole de Google avait annoncé que la firme de Mountain View avait finalement décidé de modifier son algorithme pour que les sites négationnistes soient déclassés. Voici un extrait de ses propos rapportés dans Fortune.

« Juger quelles pages sur le web sont la meilleure réponse à une requête est un problème ardu, et il nous arrive de ne pas y arriver. Nous avons récemment apporté des améliorations à notre algorithme qui vont aider à faire émerger plus de contenu de haute qualité et doté d’une bonne crédibilité… »

Oui, l’algorithme n’est pas parfait, et Google assume ses responsabilités quand son algorithme met en avant autre chose que ce qu’il devrait, en le corrigeant. Et ce changement d’attitude mérite d’être salué.

L’article de Fortune donnant la réponse finale de Google
L’article du Guardian

 

Share on Facebook0Share on Google+0Tweet about this on Twitter6Share on LinkedIn11