L’analyse des logs, combinée avec l’étude du crawl constitue sans conteste l’approche la plus productive en SEO. Jadis affaire d’experts et de spécialistes, de nombreux outils sont apparus qui rendent ces analyses accessibles au plus grand nombre.

Mais est-ce bien le cas ?

Les outils d’analyses logs + crawl se démocratisent

Ces dernières années, la pratique du SEO a été révolutionné par l’apparition d’outils d’analyses de logs et de crawlers dotés d’interfaces conviviales et de fonctionnalités qui facilitent ces approches. On peut citer Splunk, et son alternative open source Graylog2 pour l’analyse de logs, Screaming Frog et Deepcrawl pour les crawlers. On peut également utiliser ELK (c’est à dire utiliser de manière groupée Elastic Search, Logstash, et Kibana). Pour finir, je citerai aussi Kelo.gs, l’outil de Paul Courtois et Quentin Adt.


Un dashboard fait avec Graylog2

Des outils plus perfectionnés (et encore plus utiles) ont fait leur apparition, qui autorisent des analyses combinées logs+crawl :
la Watussi Box de Jean-Benoit Moingt
Botify
Oncrawl
– …

Un des graphiques obtenus avec Botify. Ce diagramme de Venn est emblématique de la méthodologie d’analyse logs+crawl, et montre que de nombreuses urls crawlées par Google ne font pas partie de l’arborescence et que de nombreuses urls de l’arborescence sont ignorées par Googlebot !

Ces applications rendent les analyses beaucoup plus faciles à mettre en oeuvre, et permettent même de mettre en place un suivi automatique (notamment les applications en mode SaaS comme Botify et Oncrawl).

Ok, j’ai de beaux graphiques, mais ensuite…

Nous rencontrons de plus en plus de cas où ces outils sont utilisés par les experts SEO in house. C’est une réelle avancée. Par contre, dans de trop nombreux cas, nous constatons que les données de ces outils :
– soit sont sous-utilisées
– soit sont mal interprétées

Il arrive même que l’on se rende compte que ces outils ne sont plus regardés par personne, faute de savoir comment tirer des données des chantiers opérationnels à mener qui peuvent s’avérer VRAIMENT efficaces (et efficients).

 

Avec ces outils (ici Kibana/ELK Stack), on peut produire quelque chose qui ressemble à un « tableau de bord de Boeing », ce qui ne pose pas de problèmes … si on sait piloter.

SF met en place une formation à l’analyse logs+crawl

Comme nous disposons de nombreux experts seniors qui effectuent ce type d’analyses au quotidien depuis plus de dix ans, Search Foresight a créé un module de formation « inter » dans le cadre de son centre de formation « SF University » sur ce sujet.

Si vous voulez apprendre la méthodologie d’analyse logs+crawl, choisir l’outil qui vous convient, et être « coaché » dans vos premiers pas sur cette approche, cette formation est faite pour vous.

FORMATION CONSTRUIRE ET METTRE EN OEUVRE UNE ANALYSE DE LOGS+CRAWL

La prochaine session est prévue le 20 juin à Paris.

Contactez-nous sans plus attendre pour vous inscrire ou organiser une session de formation sur mesure dans vos locaux pour mieux répondre à vos besoins, vos contraintes et votre équipe.
Notre équipe est à votre écoute au 01 74 18 29 42 ou par email formations@search-foresight.com