“Mais, Reine Rouge, c’est étrange, nous courons vite et le paysage autour de nous ne change pas ?” Et la reine répondit : “Nous courons pour rester à la même place”.
L’auteur d’Alice au Pays des Merveilles nous raconte l’histoire d’un endroit étonnant où le repos n’a pas sa place. Dans ce monde imaginaire, toujours en mouvement, vous êtes contraint d’avancer pour rester à votre place et, surtout, pour ne pas reculer. Ce monde existe bel et bien et vous évoluez certainement en son sein, tout comme Google. Dans nos métiers, cesser de progresser et de se remettre en question, renoncer à abandonner ses dogmes pour de nouvelles certitudes, revient à avancer moins vite que ses concurrents et donc reculer.
Le marché des moteurs de recherche n’échappe pas à cette vérité et Google, malgré sa position ultra dominante, sait qu’il ne peut cesser d’innover et s’endormir sur ses lauriers. Cesser d’innover, c’est à plus ou moins brève échéance finir par ne plus exister.
L’innovation à l’origine même de la machine Google
L’innovation technologique se situe au coeur même du moteur de recherche Google. Larry Page et Sergueï Brin ont à l’origine pensé Google dans le cadre de leurs études, réfléchissant à des solutions techniques pour mieux exploiter la notion de popularité et produire des résultats de meilleure qualité. Conscients du potentiel révolutionnaire de leurs idées, ils ont créé leur propre moteur de recherche, misant avant tout sur la simplicité d’utilisation et la pertinence des pages web proposées, que l’expression soit longue ou courte, formulée en anglais ou dans l’une des autres langues étrangères traitées par l’algorithme.
C’est cette innovation initiale qui a rendu possible le succès fulgurant de Google et, avec lui, un modèle économique s’appuyant sur une formidable machine à cash, la régie publicitaire Adwords qui ramène 90% des revenus de l’entreprise si on croit le site officiel abc.xyz d’Alphabet. Les ingénieurs de Google s’assurent donc, au quotidien, que le flot d’utilisateurs ne se tarisse pas : le moteur assure une très large part de l’audience Search d’Adwords, garantit la visibilité des autres solutions Google et renforce la confiance des internautes : si Google est si performant en recherche en ligne, il doit en aller de même pour le cloud, la messagerie en ligne, etc…
Toutes les innovations mises en place par Google depuis 1998 poursuivent en réalité les mêmes objectifs. Nous pouvons distinguer plusieurs volontés complémentaires :
- améliorer la pertinence et la qualité des résultats
- lutter contre les pratiques abusives, qui faussent la qualité des résultats
- s’adapter aux nouveaux comportements des internautes
Améliorer la pertinence et la qualité des résultats
La pertinence de Google a été à la source de son succès, couplée à une facilité d’utilisation alors inégalée. Mais maintenir la pertinence des résultats demande des efforts permanents, et de nombreuses mises à jour répondent à cet objectif :
Boston (février 2003) et Fritz (juillet 2003) ont notamment contribué à améliorer la qualité de l’index Google, en proposant des contenus plus fréquemment actualisés. D’une actualisation mensuelle, la photographie du web sur laquelle Google s’appuie pour fournir des résultats pertinents est passée à une actualisation quotidienne.
L'amélioration de la pertinence passe aussi par un travail continu sur une meilleure compréhension de la sémantique.
Brandy (février 2004) a permis un élargissement sans précédent de l’index Google, mais a aussi favorisé un travail plus fin sur la sémantique : prise en considération des synonymes, amélioration du netlinking avec un travail complet sur les ancres et sur le contexte autour des liens, etc…
Parmi les mises à jour qui ont participé à une amélioration de la qualité des résultats, nous pouvons aussi citer Bourbon (mai 2005), Big Daddy (décembre 2005), Caffeine (août 2009). En novembre 2011, Freshness Update a accordé une prime de visibilité temporaire à des résultats nouveaux, favorisant la variété des contenus proposés aux internautes. Le Mobilegueddon annoncé en avril 2015 procède de cette logique, en écartant de la version mobile du moteur des résultats qui ne seraient pas optimisés pour un affichage sur smartphone.
Contrer les pratiques frauduleuses des référenceurs
Les enjeux économiques autour des premières places de Google sont colossaux et de nombreux éditeurs de sites sont prêts à tout pour obtenir les meilleurs résultats. Mais au même titre que le dopage nuit à une compétition sportive, favorisant les tricheurs au détriment des meilleurs athlètes, des contenus dont la pertinence a été artificiellement augmentée peuvent ne pas répondre aux attentes des internautes en termes de pertinence et de qualité.
Plusieurs mises à jour visent ainsi explicitement les pratiques frauduleuses des éditeurs de sites, aussi bien au niveau des sur-optimisations au niveau du site que touchant au netlinking.
Google Panda (2011) et Google Penguin (2012), régulièrement actualisées, demeurent au coeur des préoccupations : la première s’intéresse aux contenus de faible qualité, la seconde aux manipulations de popularité via notamment un netlinking abusif. Elles ne sont pourtant pas les premières mises à jour à faire grincer des dents chez certains référenceurs.
Cassandra (avril 2003) écarte des pratiques spécieuses comme l’insertion de liens ou textes cachés dans un contenu (par exemple avec une police de même couleur que le fond), ou encore la création massive de liens entre sites appartenant à la même personne. Quelques mois après, Florida est venue enfoncer le clou en condamnant d’autres pratiques qui ont fait les beaux jours du SEO à la fin des années 1990’s, comme le keyword stuffing. Les mises à jour de ce type sont fréquentes : citons encore, par exemple, Doorway Page Update (avril 2015) visant à restreindre la visibilité de pages satellites, écrites uniquement pour le SEO et sans valeur ajoutée réelle pour l’internaute.
S’adapter aux comportements des internautes
Les évolutions permanentes des technologies et des solutions digitales à la disposition des internautes provoquent aussi des changements constants de comportements, auxquels un moteur comme Google doit répondre. Parmi ces révolutions, les médias sociaux et l’explosion sans précédent des terminaux mobiles ne sont pas les moindres.
Le développement des requêtes locales est ainsi pris très au sérieux par Google depuis plusieurs années. Google Venice (février 2012) a marqué un tournant en identifiant les expressions à vocation locale et en proposant aux internautes des résultats correspondant à leur localisation. Par exemple, des requêtes comme “femme de ménage” ou “restaurant fruits de mer” marquent implicitement des attentes de résultats locaux, qu’il s’agit de satisfaire via la recherche universelle, mais aussi via les résultats du moteur principal. Google Hummingbird (août 2013) a travaillé sur la compréhension des intentions portées par les requêtes des internautes, parfois formulées sous un mode conversationnel ou demandant implicitement des résultats géolocalisés. Google Pigeon (juillet 2014) a renforcé la convergence entre l’algorithme local et l’algorithme principal, tout en modifiant certaines requêtes locales sur les pages de résultats.
Cette volonté de faire sens est consubstantielle à Google, qui a en effet compris très tôt que des pages web n’étaient pas forcément les meilleures réponses aux attentes des internautes. Le déploiement d’Universal Search (mai 2007) a permis de diversifier les types de contenus proposés selon les requêtes : images, vidéos, actualités, résultats locaux, etc… Par exemple, il est normal de considérer qu’une vidéo soit attendue par un internaute qui tape le nom d’un film accompagné du mot-clé “bande-annonce”, ou qu’un utilisateur apprécie de découvrir des images quand il tape “Paysages d’Ecosse”.
Google se positionne de plus en plus comme un moteur de réponses, et plus simplement comme un moteur de recherches.
Le déploiement du Knowledge Graph (mai 2012) l’illustre parfaitement : la première page n’affiche plus simplement que des résultats, mais peut proposer directement la réponse à une demande formulée par une requête. Quand un internaute tape “calculatrice”, il se voit proposer en plus de sites web une calculatrice intégrée à la première page. Qu’il entre “taille Gérard Depardieu” et il obtient l’information directement en première page (ça ne marche pas avec “poids Gérard Depardieu”).
L’injection d’intelligence artificielle avec Rankbrain (octobre 2015) permet à l’algorithme d’être encore plus proactif pour mieux répondre aux comportements des internautes, et proposer des résultats naturels les plus pertinents possibles en limitant les effets de bords provoqués par des pratiques non déontologiques de référenceurs.
Considérez les mises à jour comme des atouts
Chaque mise à jour majeure de Google est susceptible de modifier en profondeur les résultats affichés en première page. Ne les voyez pas comme de sombres nuées planant au-dessus de vos têtes, cataclysmes capables de balayer en quelques jours ou quelques semaines les efforts de plusieurs années, mais comme des occasions de redistribuer les cartes durablement, à votre profit.
En gardant à l’esprit les motivations qui poussent les collaborateurs de Google à mettre à jour quotidiennement son algorithme, vous pourrez d’autant mieux anticiper les évolutions prochaines et en profiter pour gagner en visibilité. Nous aborderons dans un second article les stratégies pour anticiper les futures mises à jour de Google.