Le futur du search : quel impact sur le SEO #semrushconf

Alina Petrova

janv. 06, 20177 min de lecture
Le futur du search : quel impact sur le SEO #semrushconf

Fin septembre, nous avons eu le plaisir de recevoir Yann Sauvageon, expert en référencement naturel et payant, et directeur de l’Expertise Search Foresight.

Dans ce webinaire, il a partagé avec nous sa vision sur la manière dont la recherche allait évoluer durant ces prochaines années. Préparez-vous à des changements radicaux !

Bien qu’en 2016 il y ait eu au minimum 2 000 milliards de recherches, Yann pense que nous ne sommes qu’au début de cette pratique et que ce volume va exploser. La recherche va devenir omniprésente et invisible. Elle va être intégrée à nos vies, c’est-à-dire qu’on va tout le temps rechercher sans s’en rendre compte.

La Recherche vocale

On constate que toutes les grandes marques (Google, Amazon, Apple, etc.) intègrent la recherche vocale sur leurs devices télé. On connaît Amazon et sa tablette Fire, mais il existe également la Fire TV, avec une télécommande dont la principale fonctionnalité est la recherche vocale.

Pourtant, Yann nous prévient que la télécommande vocale est déjà devenue un device du passé, puisqu’elle est en train d’être intégrée dans nos smartphones sous forme d’application (Chromecast, Amazon Fire TV Remote App).

Côté voiture, certains d’entre vous ont peut-être déjà cette fonctionnalité. Ça commence avec Android Auto, une déclinaison miroir d’Android directement dans sa voiture. Son intérêt est évident : on ne va pas aller taper avec un clavier dans sa voiture... Il existe aussi Apple Car : il suffit de brancher son smartphone en s’installant dans sa voiture pour pouvoir effectuer des recherches vocales. Ça existe en USB et c’est en train d’arriver en wifi et bluetooth.

Ford a annoncé qu’en 2017 toutes ses voitures seraient équipées de CarPlay et d’Android Auto, et d’ici 2020, 75 % des voitures intégreront des fonctionnalités de connectivité vocale.

Pour le poignet, nous avons beaucoup entendu parler des montres connectées l’année dernière. C’est maintenant le tour de bornes connectées, avec Amazon Echo, qui est bien installé sur le marché américain.

Google a annoncé également en début d’année le lancement de Google Home : une borne interactive en permanence chez vous, sur laquelle il n’y a plus de clavier, la seule interaction étant vocale.

Nous ne sommes qu’au début de ce type de produit. Mais si l’on regarde la courbe d’adoption d’Amazon Echo sur le marché nord-américain, on est déjà à 1,6 million de foyers équipés. C’est un ordre de grandeur qui est loin d’être négligeable.

Ce qui est certain, c’est que l’interaction va devenir vocale. On peut se dire que c’est la fin du clavier, ou en tout cas que son usage va être considérablement limité.

Quels sont les acteurs en présence sur la recherche vocale ?

  • Cortana

  • Google

  • Apple Siri

  • Alexa (Amazon Echo)

Yann rassure les plus sceptiques : s’il y a encore quelque temps la recherche vocale ne fonctionnait pas très bien, ces dernières années on a vraiment connu une amélioration conséquente d’efficacité.

Il nous fait part alors d’un indicateur largement utilisé pour donner un niveau d’efficacité de ce processus : le taux d’erreur Mot clé. Un graphe ayant été communiqué par Google indique qu’on est passé d’un taux d’erreur de 23 % en 2013 à 8 % en 2015.

Entre temps, Apple s’est positionné avec un taux de 5 % tandis que le taux de transcription humaine se situe entre 4 et 2 %.

On considère que d’ici quelques années, la recherche vocale va devenir le moyen de recherche numéro un.

On peut prévoir un passage de 7 % de recherche vocale en juin 2015 à 50 % en 2020. Et Google a communiqué le chiffre de 20 % en 2016 (des recherches Google Mobile sur Android).

Cette évolution va largement changer la typologie des recherches, puisqu’on va passer au langage naturel avec des formulations de phrases, et notamment beaucoup de questions. Et Google s’est déjà adapté, puisqu’on a ce qu’on appelle les réponses directes, qui apparaissent de plus en plus sur nos devices.

La Recherche visuelle

Yann ouvre ensuite le second volet de l’avenir du search : la recherche visuelle. Il s’agit de la capacité à faire des recherches grâce aux appareils photo ou aux vidéos de nos smartphones, mais également grâce aux fameuses Google Glass ou d’autres devices qui permettent de scanner visuellement.

Par exemple, je scanne une guitare, et on va l’identifier et me donner des informations dessus.

Il y a un outil qui s’est positionné sur ce secteur, et qui est très avancé, c’est : Blippar. Yann nous invite à installer cette application, disponible sur Android et sur IOS. Nous pourrons alors blipper, comme on dit, scanner des produits et recevoir des nuages de tags.

Évidemment, on ne peut pas parler du search sans évoquer Google, qui se positionne depuis quelques années sur la recherche visuelle. À partir d’une photo que vous avez en stock dans votre smartphone, ou à partir du scanning d’un lieu dans lequel vous êtes, Google a la capacité de rattacher ce lieu à une entité qu’il connaît. Autre exemple, en scannant un médicament, il peut retrouver le nom du générique qui lui est associé.

La recherche visuelle peut aller très loin. On a parlé des Google Glass, mais demain on pourrait avoir des lentilles capables de scanner des produits. Ce n’est pas de l’ordre de la science-fiction, nous avertit Yann, parce qu’il y a déjà des chercheurs qui déposent des brevets sur ce sujet.

Tout comme la recherche vocale, la recherche visuelle a largement évolué au cours de ces dernières années. On est maintenant capable de détourer les objets d’une image au pixel près.

En 2010, il y avait 30 % d’erreurs sur la reconnaissance d’image, alors qu’en 2015 on est passé en dessous du taux d’erreur humain...

Compréhension de la vidéo

Yann rentre directement dans le vif du sujet avec l’exemple de la Google Car. Elle fonctionne avec des détecteurs, mais également avec des caméras embarquées.

On voit bien que les informations détectées par la Google Car peuvent être utilisées pour nous apporter des suggestions de réponse avant même qu’on fasse des recherches.

La frontière entre la recherche et l’assistance devient de plus en plus ténue.

Recherche dans le monde réel

Il s’agit de cette capacité qu’aurait Google, et d’autres acteurs demain, à détecter et à indexer le monde réel. Il y a notamment un projet open source, lancé en 2014 par Google, qui s’appelle Physical Web. C’est un projet qui a pour objectif de coller des capteurs bluetooth directement sur des objets et des lieux afin de les transformer en URLs. Si j’équipe la devanture de mon restaurant, je pourrai être trouvé sur Google par ce nouveau type de recherche.

Les nouvelles propriétés de la recherche

Selon Yann, la recherche va devenir conversationnelle, elle intégrera du prédictif, et elle sera de plus en plus personnalisée.

Il existe déjà des sortes d’API pour les développeurs qui permettent d’interagir avec le langage naturel.

Avec Facebook M, si je discute avec un ami qui me propose d’aller prendre un burger, on me suggère directement de faire une réservation. Au lieu d’avoir à faire la recherche, on me propose l’action.

Google Allo émet aussi des suggestions directement dans la conversation.

Ça nous facilite la tâche, mais ça pose des questions en termes du search : comment se rendre visible sur ces lieux-là ? On ne va donc plus nécessairement référencer une page web, mais référencer une entité, référencer un lieu avec ces nouveaux enjeux de recherche.

En se fondant sur diverses déclarations de grands acteurs du search, Yann se risque à prévoir à quoi va bientôt ressembler la recherche : il y aura une entité, une sorte d’humain, qui sera en permanence à l’écoute et qui pourra vous apporter des suggestions, une voix humanoïde qui pourra répondre intelligemment à n’importe quelle question ou requête.

On va passer d’un moteur de réponses à un assistant personnel

Google et les autres ont accès aux capteurs de vos smartphones : vitesse, direction, lumière ambiante, son, proximité, humidité, pression atmosphérique... Yann nous invite à aller voir Google My Activity, par exemple. En agrégeant toutes vos recherches (Google, Youtube, smarphone, tablette, etc.), et en les regroupant toutes par thématiques, on peut déceler quelles sont vos passions.

Un autre élément en search, c’est la capacité qu’auront les moteurs de recherche à prédire un niveau de satisfaction. C’est ce qu’on va appeler l’ère post-pagerank. Et l’on pourrait voir arriver progressivement une diminution du critère des liens au profit du critère de la satisfaction.

Mais de nouveaux critères seront probablement pris en compte. On sait que l’analyse de la voix peut en dire beaucoup sur vous. Elle permet de détecter les émotions (joie, tristesse, stress...), l’état de santé, la région d’appartenance ou de provenance, et le contexte audio (avec le son).

En plus, avec la caméra de votre smartphone, il est possible d’identifier votre état d’esprit par l’analyse des éléments suivants :

  • Augmentation de la température du corps

  • Dilatation de la pupille

  • Contraction des yeux

  • Rougissement

  • Clignement des yeux

  • Rythme cardiaque

Toutes ces données permettront de classer des pages de résultats.

Demain Google sera donc un algorithme hyperpersonnalisé. Chacun aura une expérience de recherche complètement différente, qui sera de l’ordre de l’assistant virtuel.

Pour clôturer ce webinaire dense et passionnant, Yann nous donne un précieux conseil pour bien appréhender la recherche de demain : la finalité de nos actions est de faire en sorte qu’un internaute puisse avoir accès à une action directement dans l’assistant, et de cibler une intention.

Un grand merci à lui pour cet extraordinaire tour d’horizon !

Youtube video thumbnail
Partager
Author Photo
Speaker, blogger and Content Marketing expert with more than 5 years of experience in developing content strategy. Creator of the French Semrush Blog, one of the most popular corporate marketing blogs in France. Passionate about languages, modern art and new technologies.