L’été est bien terminé. La rentrée derrière nous. L’occasion de faire le point sur les mises à jour prioritaires de cet été. Car, si vous avez bien déconnecté cet été, Google, lui, n’a pas cessé ses mises à jour. HTTPs, alertes sur les pages de résultats mobiles, pénalisation de réseaux de liens : l’actualité a été riche ! Voici les 7 points à retenir :

1. HTTPS as a ranking signal – Faut-il y aller ?

security

Probablement une des infos majeurs de cet été : l’annonce faite par Google le 6 août dernier de l’HTTPS comme critère de ranking. En quelques semaines, cette info a fait couler beaucoup d’encre sur la toile. Que retenir et quelle position adopter ?

Il s’agit pour l’instant d’un critère de ranking à l’impact très très faible. Moins d’1% des requêtes est impacté. Google pourrait cependant renforcer le poids de ce critère dans un avenir plus ou moins proche. A l’heure actuelle, l’éventuel bénéfice SEO est quasi inexistant (cf. l’étude Search Metrics sur ce point) et l’annonce ressemble plus à de la com’ qu’autre chose.

Ainsi, le HTTPS présente plus de risques que d’opportunités : mise en place de redirections 301, maitrise des événtuels effets de bord (linking interne, balises canonical, robots.txt…), coût de la mise en place (certificat + production), potentiel impact sur la vitesse du site, … Face à ce constat, nous conseillons pour l’instant de ne pas basculer en HTTPS pour le seul bénéfice SEO mais de coupler le passage en https à une refonte.

Le HTTPS est surement un point prioritaire à mettre dans votre liste de réflexion (d’autant plus que Google risque de continuer son lobbying sur le sujet). mais surement pas une urgence. Envisagez le switch vers https dans le cadre d’une refonte en prenant en compte également le bénéfice utilisateur. Gardez en tête que le https ne sera probablement jamais un critère majeur et qu’il y a des dizaines de points d’optimisations plus prioritaires ou urgents en SEO.

2. Pénalisation de réseaux de liens – La liste s’allonge !

La série des réseaux de liens pénalisés s’est allongée cet été avec l’annonce le 18 août dernier de la sanction des réseaux Teliad et Rankseller. Cette annonce vient compléter la longue liste des réseaux pénalisés (cf. les tweets de Matt Cutts). L’étau continue de se resserer et Google est de plus exigeant/strict dans l’évaluation de votre linking.

Si vous avez déjà fait ce type d’opérations, nettoyez de manière préventive vos liens :
– Demandez suppression ou passage en « nofollow » des liens potentiellement risqués
– Contactez les plateformes pour supprimer les liens
– Désavouvez les pages/domaines en question
– Faites notamment l’historique de vos opérations de « posts sponsorisés »

3. Penguin – Mise à jour imminente ? 

muller-penguin

La mise à jour Penguin semble être chez Google une réelle difficulté. Avec la dernière itération datant du 4 octobre 2013, cela fait désormais 12 mois sans mise à jour du filtre Penguin ! Certe, il faut prendre son mal en patience, mais là ça commence à faire long pour les sites ayant été impacté par Penguin. En effet, à la différence d’une action manuelle, ici pas de rémission possible sans mise à jour du filtre Penguin. Vous aurez beau faire des demandes de réinclusion, ça ne servira à rien. En somme, les résultats actuels ne reflètent pas les efforts réalisés dernièrement par les webmasters pour “nettoyer” leurs sites impactés par Penguin.

L’espoir fait vivre… et cet été plusieurs annonces de Matt Cutts et de John Muller nous laissent entrevoir un nouveau passage de Penguin dans un avenir proche (d’ici fin 2014 ?). Wait and see … enfin, si vous aviez été touché par Penguin, c’est encore le moment de nettoyer vos backlinks dans l’attente de la prochaine mise à jour.

4. Authorship – Dead or Alive ?

authorship

Une des surprises de l’été, la disparition de l’authorship dans les SERPs officiellement annoncée le 29 août 2014. Alors que Google, depuis 2011, poussait l’adoption du balisage rel=author, ce dernier est mis au rebut sans préavis. Pour rappel, l’authorship permettait de signer un contenu grâce à un lien avec son profil Google+. En retour, le contenu apparaissait dans les SERPs avec des données additionnelles relatives à l’auteur (photo, prénom, nom et nombres de cercles Google+).

L’authorship disparait certes mais cela ne veut pas pour autant dire que Google ne s’intéresse plus à l’autorité ou au caractère référent d’un auteur. Au contraire, il est bien probable que l’author rank reste dans la feuille de route de Google mais avec la volonté de détecter les auteurs via d’autres moyens (balisages structurés du type schema.org/person, et balisages non structurés comme les bylines).

5. Le Mobile – Vers une distinction des SERPs Desktop et Mobile ?

Le mobile continue d’avancer doucement mais surement chez Google. Cet été, Google a lançé sur le marché anglophone US des alertes informant les mobinautes du caractère inadapté du site sur mobile (alerte redirection, alerte flash). On peut penser que ces petits pas aboutiront à plus ou moins court terme à une véritable différenciation des pages de résultats Desktop et Mobile.

6. Search Box – Pour plus d’Adwords ?

Une des dernières actus de taille de l’été annoncée le 5 septembre : l’arrivée de Search Box dans les SERPs. Ces search box viennent s’insérer entre le lien principal et les sitelinks et renvoient soit vers votre moteur de recherche interne, soit vers une nouvelle page de résultats Google. Là où le bât blesse, c’est que la nouvelle page de résultats Google proposée qui doit renvoyer vers vos contenus propose également des liens Adwords vers vos concurrents ! A lire sur le sujet : Sitelinks Search : Au secours où est passé mon trafic ?. Bref, si vous faites partie des sites sélectionnés pour cette search box (annonce dans votre GWT), empressez vous de baliser votre home page (en JSON-LD ou microdonnées) pour favoriser la remontée de votre propre moteur. Sans garantie pour l’instant…

7. Robots.txt – Le fichier le plus crawlé du web fête ses 20 ans !

Dernière news de l’été plus anecdotique, le fichier Robots.txt a fêté ses 20 ans cet été, le 30 juin exactement. Initiallement créé par Martijn Koster, ce fichier a été rapidement adopté par les principaux moteurs. L’occcasion de rappeler que le Robots.txt vous permet de maitriser le crawl de vos pages et non l’indexation. Un fichier peut être bloqué par votre robots.txt et tout de même indexé par Google. Google est très explicite sur ce point : « Même si nous n’explorons ni n’indexons le contenu bloqué par le fichier robots.txt, nous pouvons quand même rechercher et indexer des informations relatives à des URL bloquées ailleurs sur le Web. Par conséquent, l’adresse URL et, potentiellement, d’autres informations accessibles au public, comme le texte d’ancrage dans les liens qui redirigent vers le site, peuvent s’afficher dans les résultats de recherche Google. » Si vous souhaitez empêcher l’indexation d’une page, préférez la balise meta noindex.

Ci-dessous la synthèse de ces 7 points via la présentation faite en webconf EBG le 19/09 dernier :

 

Share on Facebook0Share on Google+0Tweet about this on Twitter0Share on LinkedIn0