Le mois dernier se sont déroulées les conférences State of Search et SMX East, auxquelles laquelle assistait Gary Illyes, porte-parole de Google. Chacune de ses interventions est scrutée et interprétée comme parole d’évangile, aussi bien lors de conférences que sur Twitter (@methode) où beaucoup de questions précises lui sont posées.

Il était question de Google Panda : le filtre empêchant les sites au contenu de mauvaise qualité d’être trop visibles dans les résultats de recherche. Depuis 2011, les sites produisant des pages soit quasiment dupliquées, soit quasiment vides de contenu sont balayés au détriment de concurrents plus méritants. Le chantier classique de sortie de pénalité Panda consistait à nettoyer son site des pages faibles : suppressions, noindex, blocages au crawl… C’était même recommandé par ce même Gary Illyes en 2015. Changement de bord : il a annoncé que cette stratégie ne fonctionnait pas, et encourage à concentrer ses efforts sur l’amélioration des pages existantes.

Difficile à admettre : cette méthode a bien des effets positifs, dans un chantier global d’amélioration du site. Google dispose heureusement de plusieurs porte-paroles : à l’occasion d’un Hangout pour Webmasters, John Mueller a pu apporter des précisions : tout en insistant sur la nécessaire amélioration du contenu existant, il admet qu’il est parfois nécessaire de faire un grand ménage en supprimant des pages.

On the other hand if you can’t improve the quality of that content because it’s just so much, maybe you auto-generated it at some point and you can improve some small fraction of it. Then that makes sense to get rid of this and clean up.

Résumé en un Tweet et une image : “Si vous avez trop de contenu faible et ne pouvez pas l’améliorer, éliminez-le (404 ou noindex”.

— Glenn Gabe (@glenngabe) 31 octobre 2017

Dans le détail, les deux approches se justifient : Google Panda n’est pas le même qu’à son premier déploiement, ni à son année phare de 2013. A l’époque, la qualité d’un site était jugée dans son ensemble : réduire le nombre de pages faibles était donc pertinent. Depuis, Panda impacte également des pages individuelles. Un site subissant Google Panda doit donc supprimer le superflu et améliorer l’existant.

A moins d'un gros travail d'amélioration, on se sort difficilement de Panda

A moins d’un gros travail d’amélioration, on se sort difficilement de Panda

Olivier Perbet | @operbet