Au sujet de la « crise » de désindexation Google en 2019

par | 1 Juil 2019 | Web, digital | 0 commentaires

Depuis les récents incidents techniques à répétition qui ont amené des sites majeurs de l’industrie du web à être temporairement désindexés par Google, des articles d’opinion fleurissent sur le sujet. Ces derniers nous expliquent à quel point la perte en chiffre d‘affaire dû à la désindexation massive a été l’occasion de révéler la vulnérabilité d’un très grand nombre de sites web dans la structure de leur apport en traffic. C’est une vision bien singulière qui mérite d’être discutée ici.

 

Les réseaux sociaux au secours des sites web

Un certain nombre de référenceurs et de marketeurs ont orienté leurs travaux vers les réseaux sociaux ces dernières années. Depuis, ils martèlent que la structure d’apport de traffic d’un site web doit être à tout pris diversifiée et qu’il faudrait même activement travailler à réduire la part de Google dans celle-ci. C’est tout à fait logique de la part de libertaires (et ils sont nombreux dans ce secteur) qui ne veulent en aucun cas être dominé. C’est même une saine démarche de sécurité économique pour un site web de ne pas dépendre d’une source de traffic trop proéminente. Il semblerait que, selon ces même fameux référenceurs “idéologisés”, les réseaux sociaux soient le Graal pour ces sites web en mal de traffic, comme des sauveurs providentiels alors que nous verrons plus loin qu’ils ne le sont pas nécessairement. Et le sauvetage aurait lieu à grand coups d’apport de traffic à même d’apporter la croissance nécessaire au site web et de contrebalancer l’hégémonie de Google qui domine le terrain pour la majorité des sites web, encore aujourd’hui.

Donc, comme il est attendu dans les dogmes (simplistes ?) du pilotage de projet moderne que, quand un problème est identifié, on se doit de lui apporter une solution rapide et efficiente, aussi rapide à concevoir et inappropriée qu’elle puisse être. Et dans notre cas, la première idée qui est passé dans l’esprit des experts s’est arrêtée sur les réseaux sociaux. Est-ce le fruit du hasard ? Est-ce qu’un apport de traffic via cartes imprimées et distribuées dans la rue aurait connu la même popularité ? Comme les réseaux sociaux semblent avoir été retenus sans grande réflexion préalable vue la faible qualité de la réponse qu’ils apportent au problème posé, c’est alors probable…

 

Analyser la nature propre des réseaux sociaux

Quand on envisage les réseaux sociaux comme mesure compensatoire d’apport de traffic face au danger que représente Google, on omet d’analyser leur nature propre. On se dit simplement qu’ils brassent un traffic massif et qu’il suffirait donc de positionner quelques offres de service, posts et autres invitations à cliquer aux endroits stratégiques sur ces plateformes pour que le traffic commence à affluer vers le site à sauver. Cela n’est pas complètement illogique mais le niveau des interactions, dont les partages, s’est très fortement érodé au fil des années, et, en l’ayant constaté de manière directe, je peux même avancer que l’apport de traffic naturel depuis ces mêmes réseaux sociaux devient quasi inexistant aujourd’hui. Le sauvetage n’est donc pas certain…

Mais étudier la répartition proportionnelle des apports de traffic d’un site consiste aussi, et cela me semble encore plus important que les volumétries, à analyser la nature même de ce traffic. Il faut alors identifier les attentes du client et ses modes d’interaction. Par exemple un site de ecommerce qui reçoit un traffic massif mais dont les visiteurs ne font qu’utiliser ses images pour les épingler sur Pinterest plutôt que passer des commandes, reçoit donc du traffic qui n’a aucune valeur intrinsèque. Nous avons trop souvent cédé aux sirènes de la volumétrie, plutôt que de nous adonner à cette science quelque peu rigoriste qui se nomme “qualification du traffic”. Cette dernière est une des grandes oubliées du marketing moderne alors qu’elle est primordiale. Beaucoup trop de site perdent leur rentabilité et même leur raison d’être en faisant la course au traffic. Celui-ci doit impérativement être qualitatif car, s’il ne l’est pas, il coûte cher en moyens techniques pour l’accueillir alors que son ROI est inexistant.

 

Un traffic de faible qualification

Et c’est certainement là que le traffic des réseaux sociaux pose le plus problème. Ce traffic provient de deux types d’offre de service : le brand content et la publicité. Je ne connais pas, à ce jour, d’autres natures impactantes capables d’attirer massivement l’attention des internautes lorsqu’ils visitent les réseaux sociaux. Or, ce traffic d’opportunité est faiblement qualitatif (qualifié) pour une majorité de sites commerciaux car il y a peu de chance que l’achat d’un canapé ou d’un nouveau vêtement ne résulte directement d’un clic basé sur une telle offre de service. Il peut s’agir de recrutement, de valorisation de la visibilité mais rarement de transaction. Dans ce contexte, la visibilité obtenue par les marques sur les réseaux sociaux ressemble trait pour trait à celle obtenue via des publicité télé : faible impact et grosses volumétries.

Comme je l’écrivais plus haut, la faible qualité de ces offres de service, doublé de volumétries en baisse, ne laisse que peu de chances aux réseaux sociaux de contrebalancer l’hégémonie de Google. Je n’envisage même pas la nécessité de payer la diffusion du contenu ou des publicités dans ce cadre car cette démarche parachèverait alors de démontrer son inutilité. Quel référenceur envisagerait de payer pour un traffic si faiblement qualifié, alors qu’en plus il peut déjà l’obtenir dans une proportion moindre gratuitement ?

Les réseaux sociaux sont donc souhaitables dans la structure de traffic d’un site, mais pas dans leur rôle qu’on veut leur faire jouer.

 

Le référencement naturel reste le « Graal » pour la qualification du traffic

A contrario, quand le travail de référencement naturel est réalisé avec talent, il apporte un traffic extrêmement qualifié. En effet, qui tape dans son moteur de recherche “achat billet d’avion” lorsqu’il recherche des conseils conjugaux. Je vais donc l’écrire pour lever toute ambiguité : selon moi, une telle recherche est celle d’un internaute qui envisage d’acheter des billets d’avion de manière imminente, au moins imminente dans la majorité des cas et à court ou moyen terme dans les autres cas. Obtenir un tel niveau de qualification de l’attente d’un internaute entrant sur un site web depuis un réseau social est techniquement impossible car il ne découvre les offres de service qui lui sont faites qu’à l’opportunité hasardeuse de sa navigation (je pars du principe que la sérendipité est la règle sur ces réseaux). Google est, quant à lui, à même d’avoir un avantage concurrentiel puissant quand il s’agit d’identifier les attentes des internautes et par là même de générer du traffic qualifié car il n’expose par une offre passivement : il analyse une demande précise et circonstanciée et tente de retourner les résultats et propositions les plus pertinentes face à cette requête.

Il est donc tout à fait normal qu’un site web normalement constitué et convenablement référencé tire la majorité de son traffic de Google ou d’autres moteurs de recherche au fonctionnement similaire. Je ne connais pas, à ce jour, d’autres solution techniques qui permettent à l’internaute d’exprimer ses besoins et de se voir présenter une liste d’offres de services, classés qualitativement, pour y répondre. Et le tout en moins d’une seconde !

 

J’estime donc qu’à ce jour, la réelle vulnérabilité d’un site web est d’être mal référencé, et donc de ne pas avoir l’opportunité de rencontrer l’audience qu’il mérite ou du moins qui manifeste un besoin vis-à-vis de l’offre de service formulée. Un déréférencement massif des pages d’un site web financièrement rentable ou dont l’activité est lucrative peut avoir des conséquences dramatiques en matière de chiffre d’affaire mais il est constitutif de la nature même de celui-ci.

 

Qui imaginerait avoir du plaisir à chanter sur scène en playback alors que c’est précisément le risque de se tromper en direct qui rend la démarche artistique et sensible ?

L’exposition médiatique d’un site internet lui fait courir le risque de la perte de traffic car, s’il en perd, c’est qu’il en a. Et c’est toujours plus dramatique pour un site qui en a beaucoup, car cela se voit plus ! De la même manière, aucun journal ne peut être vendu lorsque les kiosquiers sont en grève. Il n’a pour autant pas été envisagé de supprimer le droit de grève de ces derniers (sauf peut-être par les groupes de presse eux-même !).

Je reconnais que sécuriser ses investissements en garantissant une multitude d’apports de traffic à un site web est une mesure de bon sens, mais continuer à claironner qu’un site fortement exposé à Google est vulnérable est inconscient. Cette affirmation laisse penser qu’il y a un problème et qu’il faut le régler. Mais malheureusement, faute d’alternative viable, c’est toujours Google qui mène la danse, cette vulnérabilité est donc constitutive de la nature même d’un site web.

Nous n’avons pas été capables ces dix dernières année ni d’envisager une alternative viable à Google en tant que moteur de recherche, ni de proposer d’autre forme d’apport de traffic, basé sur la prédiction des besoins triviaux des internautes. Google reste aujourd’hui le seul moyen de questionner largement le web pour obtenir des réponses personnalisés. Les seules tentatives d’alternatives connues consistent à concevoir d’autres moteurs de recherche, comme récemment celui de ahref. Mais il s’agit toujours de moteurs de recherche, même les assistants vocaux ne font rien d’autre que des recherches traditionnelles, donc rien de nouveau sous le soleil…

 

A quand une nouvelle catégorie de services web à même de nous accompagner dans la formulation de nos besoins quotidiens ?

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Journaux de bord récents