Les changements dans l’univers de la web analytique sont essoufflants. Ton ami qui s’entraîne pour un triathlon est à deux doigts de publier ses séances de GA4 sur Strava. Le rythme imposé par l’innovation, la réglementation et bientôt l’intelligence artificielle nous relègue au banc de spectateurs réactifs.
Mais derrière cette course anxiogène se cache un autre narratif. L’objectif de cet article est de transformer votre essoufflement en esprit critique. Depuis la naissance de Jésus-Christ, j’ai observé trois phases distinctes de web analytique. L’ère de la vérité, qui est révolue, l’ère de l’échantillon, que nous vivons, et l’ère de la simulation, qui s’en vient.
De la vérité à l’échantillon
J’ai commencé à faire de l’analyse web en 2015. J’étais intéressé par les valeurs absolues et les métriques de vanité. Pas le meilleur analyste donc, mais au moins, il y avait une certaine fiabilité dans les données. Outre les failles naturelles dans le suivi par cookie, comme le cross-device ou l’appareil partagé, les données dans un outil comme Google Analytics étaient un portrait plutôt réaliste de la vérité.
RGPD, ad-blocker et App Tracking Transparency, le nom de MC de trois mouvements qui enterrent l’ère de la vérité. D’autres mouvements émergents se joindront au groupe. L’ère de la collecte de données parfaite est officiellement derrière nous.
Nous avons maintenant entre les mains un échantillon, la plupart du temps significatif, mais tout de même un échantillon de la vérité. Les valeurs absolues sont mortes. Elles n’auront pas de funérailles nationales puisqu’elles demeurent moins pertinentes que les ratios ou les tendances, mais elles sont mortes. Fondamentalement, le travail de l’analyste ne change pas, seulement un plus grand doute s’installe dans la pratique.
Psychose
Si le doute se fait sentir chez l’analyste, celui-ci se transforme en paranoïa chez les entreprises qui bénéficient le plus de la web analytique, soit Google, Meta et Microsoft. Dans l’ère de l’échantillon, le volume de conversions attribuées à leurs canaux est plus faible que le volume dans l’ère précédente. On a bien beau avoir la hauteur intellectuelle de ne pas considérer les valeurs absolues, c’est une situation difficilement acceptable pour ces entreprises.
Google, qui a tant profité du modèle d’attribution last-click dans l’ère de la vérité, est subtilement sur le coup depuis plusieurs années. D’abord, l’introduction de sa nouvelle version de son outil analytique, GA4, dont personne ne saisit le pourquoi ni le comment, ne peut s’expliquer que par la logique suivante:
Alors que la source de données devient moins coopératrice et que les performances publicitaires du réseau Google semblent diminuer au sein des rapports, il est logique de briser les références historiques en changeant de «paradigme de suivi» (guillemets sarcastiques) via un nouvel outil d’analyses qui, au final, offre moins d’information et plus de maux de tête. Le projet est une réussite en ce sens que le discours ambiant n’est pas «je pense que mes publicités sont moins performantes qu’avant», mais plutôt «je n’arrive plus à bien juger la performance de mes publicités Google dans GA4, ça doit être moi le problème».
C’est tout de même un sacré subterfuge que d’introduire un nouvel outil analytique qui ne présente même pas de taux de conversion, mais qui diminue l’estime de soi professionnel de ses utilisateurs plutôt que de mettre en lumière l’anguille sous roche.
L’ère de la simulation
Mais ce subterfuge n’était jamais une solution à long terme. La perte de donnée devient trop grande, le risque trop important. En 2023, l’introduction du Google Consent Mode, dorénavant passé en mode V2, marquait le début de l’ère de la simulation.
Il s’agit d’une fonction qui deviendra obligatoire dans les marchés avec un consentement requis aux cookies et qui promet de simuler les données perdues des utilisateurs refusant d’être suivis.
C’est évidemment une application logique de l’IA. On continue de nourrir les algorithmes publicitaires avec autant de conversions, qu’elles soient réelles ou simulées, et on retourne à des valeurs absolues plus élevées.
Mais derrière la façade de l’innovation se cache un problème important.
Biais
En simulant les données web analytique, Google devient joueur et arbitre. Bien qu’il y ait toujours eu des biais documentés dans le compte rendu de conversion de Google ou de Meta, qui étrangement tous deux s’attribuaient davantage de conversions que leur homologue, le problème s’apprête à être pire et plus insidieux.
Je n’ai pas de problème avec la simulation de données, qui est vouée à devenir de plus en plus précise. Mon problème repose dans le conflit d’intérêt entre le rôle de simulateur et celui de bénéficiaire des décisions basées sur ces données.
Est-ce qu’on accepterait qu’une société cotée en bourse simule ses propres résultats financiers? Qu’une compagnie pharmaceutique simule elle-même ses résultats d’essais cliniques?
Donc on fait quoi?
Voilà donc un exemple frappant de la pensée critique requise dans un monde où l’IA occupe davantage de place. Alors que chaque grand bénéficiaire de publicités numériques développe présentement ses propres modèles de simulation de données, pour ensuite automatiser l’interprétation de celles-ci, le rôle de l’humain capable de juger des différents biais et de trancher sera plus important que jamais.
Il y a des outils à mettre en place pour nous préparer à jouer ce rôle. D’abord, l’implantation d’un outil de cookie-less tracking, pour obtenir une vision agrégée de l’utilisation de son site, sans identification unique, mais surtout sans simulation, est primordiale.
Ensuite, le développement de son propre Mix Marketing Model (MMM), une modélisation qui vise à attribuer un lift des ventes en fonction de chaque initiative marketing, deviendra un outil de base pour évaluer la causalité de ses investissements médias. Ce qui est ironique, c’est que même dans les mots du VP Analytics de Meta, c’est inévitable que les MMM deviennent la référence en attribution. Meta et Google ont récemment annoncé mettre à disposition du public leur modèle respectif de MMM. Encore une fois, la dynamique des biais demeure la même.
Finalement, la centralisation de ses données clients propriétaires, qui sera forcément moins fournie de données comportementales numériques, mais gardera la même granularité de données transactionnelles, devrait recevoir plus d’amour que par le passé simplement parce qu’on se trouve toujours dans l’ère de la vérité avec celles-ci.
Toujours à bout de souffle? N’accordez pas ce privilège aux géants du web. Laissons-les courir pendant que nous prenons un pas de recul.
Merci à Maude Hallé pour l’illustration.