raphael richard
 Le premier guide 100% électronique
les nouvelles régles de l'Internet Economy
 
Télécharger l'ebook/ Acheter le livre
Interview/Presse
Communauté
L'auteur
Extraits
Critiques
   

Les défis du tracking : not provided et blocage de cookies

2010 fut une année bénie pour le web analytics.

Après 15 longues années d'attente, les plateformes de tracking étaient arrivées à maturité. Les webmasters disposent d'outils bon marché, voire même gratuits, comme Google analytics, qui leur permettent de déterminer avec précision d'où vient le trafic d'un site, quelle partie de ce travail génère des ventes ou des demandes d'informations commerciales rentables, quelles parties du site fonctionnent le mieux, quelles sont celles qui sont les plus efficaces. Les plus fortunés peuvent même retargeter par bannière, faire du tracking de la transformation première touche, dernière touche, tracker les first cliks, last cliks, middle cliks...

C'était l'âge d'or du web analytics : le moindre site comme Cadhoc, qui pouvait déterminer si c'était la page X ou Y qui enregistrait le meilleur taux de transformation, si c'était le trafic issu d'une position naturelle sur le mot chèque cadeau ou le trafic issu de la marque en Adwords qui générait les meilleurs panier d'achat moyen.Un site comme Truckplus pouvait mettre en place un système de tracking pour déterminer le nombre de visiteurs en concession généré par les pages camion à vendre ou remorque occasion. Un organisme de formation comme Audencia, pouvait même déterminer si c'était les pages master of science ou master of business administration qui avait permis d'attirer le plus grand nombre d'élèves ayant postulé et ayant réussi les examens d'admission et même de réaliser des comparaison avec la qualité du trafic issu de la marque en Adwords.

Mais dès la fin de l'année 2010, les choses ont commencé à se détériorer : les systèmes de blocage de cookies ont commencé à se diffuser, certains éditeurs de logiciels de navigation ont commencé à bloquer les cookies par défaut, les allers et venues des internautes entre leurs différents terminaux (desktop, smartphone, tablette) se sont multipliés rendant le tracking de la transformation encore plus difficile.

Courant 2012, Google a donné le coup de grâce en privant les webmasters de la parfaite visibilité qu'ils avaient sur leur première source de trafic : c'est l'apparition du syndrome du not provided. Les webmasters ne savent désormais quasiment plus quels sont les mots clés qui leur génèrent du trafic et des ventes.

Le paradoxe est que l'année 2012 a été l'année du Big Data, qui devait marquer le passage au stade supérieur du web analytique. Mais à quoi sert le big data lorsque les webmasters ont perdu la visibilité sur l'origine de la moitié de leur trafic ? C'est tout le paradoxe de l'époque actuelle : on peut retargeter par emailing, retargeter sur Facebook, retargeter sur Twitter, faire du cloning d'audience sur les deux mêmes réseaux, faire appel à des 3rd party data providers pour limiter l'affichage de ses bannières aux cibles prioritaires, mais à mesure que l'ecommerçant ordinaire accède à des outils de plus en plus puissants, il perd ce qui était un acquis depuis les débuts de l'internet commercial : les mots clés générant du trafic sur son site.


 
 

 Copyrights