Organiser sa collecte de données au service de sa stratégie d’acquisition : le cas d’Orchestra
Lors de notre événement Digital Rise, nous avons eu le plaisir de recevoir Abdelilah Halim, responsable Acquisition Europe chez Orchestra. Notre client revenait sur la manière dont il a organisé et optimisé la collecte de données dans son écosystème digital.
Dans cet article, nous reviendrons sur le processus qu’il a mis en place pour s’assurer du bon fonctionnement de son acquisition. Mais si vous voulez l’entendre de vive voix, voici le lien de notre webinaire !
Planter le décor
Orchestra est une enseigne de puériculture présente dans une multitude de pays à travers le monde. En chiffres :
- 380 magasins dans le monde, dont 246 en France ;
- 6 sites internet (France, Belgique, Espagne,Grèce, Suisse et Maroc) ;
- 5 marques
- plusieurs milliers d’euros de budget d’acquisition par pays.
Dans cet environnement complexe, alliant réseau physique et digital, normes légales différentes et audiences variées, Abdelilah Halim cherche à répondre à 4 objectifs :
- Adhésion à la carte Orchestra (programme de fidélité) ;
- E-commerce (développer le chiffre d’affaires en ligne) ;
- Drive to Store (faciliter la venue des utilisateurs dans le réseau de magasins) ;
- Liste de naissance (augmenter le nombre de créations).
Pour cela, il était nécessaire de mettre en place un socle technique homogène et performant sur l’ensemble de ces sites. Le but étant de trouver une granularité fine pour pouvoir maîtriser son acquisition (maîtrise du coût et de la performance), nourrir son CRM, créer des reportings nécessaires au suivi de l’activité et accroître la connaissance de son audience. Mais pour cela, il faut de la donnée fiable.
À la recherche de la data
Ces dernières années, nous avons basculé d’un dépôt de cookies tiers abusif à la protection de la vie privée des internautes européens. La donnée devient une denrée rare, alors que les algorithmes en réclament de plus en plus pour maximiser la performance de leurs solutions (sans parler de la montée en puissance de l’IA). Abdelilah Halim nous guide sur sa manière d’appréhender les choses et d’organiser sa collecte.
1. La bascule dans l’ère du consentement et l’arrivée des bannières cookies
Lors de la mise en place du Cookie Management Plateforme (CMP), les premiers résultats sont durs : 44% de la visibilité du trafic à disparu. Une fois l’obligation légale actée, il faut déployer un plan d’action pour rassurer les internautes et maximiser les chances de collecte. D’autant plus que cette perte de données engendre une flambée des coûts d’acquisition (moins de données, donc moins de performance).
Le choix de la solution est central dans cette quête. Les critères d’Orchestra étaient les suivants :
- la solution doit être identifiée par la CNIL (motif de réassurance pour ses utilisateurs) ;
- roadmap et développement important ;
- flexibilité dans la personnalisation ;
- budget ;
- facilité d’intégration.
Le choix s’est donc porté sur Axeptio !
S’ensuit plusieurs itérations pour tester le meilleur message possible via l’IA avec une volonté de rassurer et dédiaboliser l’utilisation des cookies (dans un contexte de défiance). Aujourd’hui, Orchestra affiche un taux de consentement de près de 80%.
2. Le server-side, une technologie poussée par SEA
Les prestataires qui aident à la gestion des campagnes payantes ont rapidement sollicité Abdelilah Halim pour la mise en place d’un tracking server-side. Bien que souhaitée, la technologie était fraîche et complexe à mettre en place (il ne s’agit pas de cocher une option). En plein essor et avec de nombreuses évolutions (une modification tous les deux mois), il n’était pas question de mettre en place une infrastructure sans monitoring (donc impossible en interne).
Le choix s’est porté sur Addingwell, société qui affichait la plus belle roadmap en termes de R&D (Recherche et développement). En plus de regagner en visibilité sur les données perdues par les adblockers et les navigateurs qui ont déjà supprimés les cookies-tiers, Orchestra a pu également :
- Gagner en souveraineté sur ses données : « on voit ce qu’on envoie et on peut contrôler ».
- Maximiser la performance web : les scripts ne sont plus chargés pendant la navigation de l’utilisateur, mais bien en parallèle depuis le serveur.
- Uniformiser du tracking : tout passe désormais par un seul format -> le client GA4.
3. Uniformisation du dataLayer : un plan de taggage homogénéisé et personnalisé
Le dataLayer est fondamental dans la remontée de données. Cette couche de code permet de rendre visible par GTM les informations dont nous avons besoin. Dans un contexte de migration vers l’outil GA4 et de cohabitation avec Universal Analytics, les dataLayers ont dû être optimisés pour répondre aux besoins spécifiques du server-side.
Besoin de mettre en place un plan de taggage ?Nous avons donc œuvré à reprendre l’ensemble des besoins marketings (besoin de dashboards) et les besoins des technologies server-side. Une fois nettoyées et optimisées, toutes ces données sont envoyées via le client GA4 et sont à la disposition des prestataires.
4. Nourrir de la bonne donnée les technologies utilisées
Le socle technique étant optimisé (récolte aux maximum avec le niveau de finesse souhaité), il faut désormais prioriser l’envoi aux prestataires. Deux facteurs importants selon Abdelilah Halim :
- Le niveau de maturité
Il est important d’observer si la technologie proposée est mature et aura un réel impact sur la performance des campagnes. Si l’installation est à refaire dans quelques mois ou si elle ne fait pas gagner réellement de plus value, c’est une perte de temps. Nous sommes revenus sur l’évolution du tracking de TikTok qui, au début, ne proposait aucun tag server-side. La technologie a évolué pour devenir très proche du cas Meta (référence sur le sujet).
- Le budget
Il est important également de prioriser les technologies avec un fort investissement. Sans surprise, c’est Meta et Google Ads qui se sont retrouvés au sommet de la pile d’Orchestra. Désormais, la volonté d’Abdelilah Halim est de passer l’ensemble de ses technologies en server-side pour maintenir sa webperf et cette homogénéité de tracking. La version server-side devient un argument dans le choix de nouvelles technologies.
La quête se poursuit
Adelilah Halim insiste sur le fait que le socle technique n’est pas une fin en soi. Les évolutions sur notre marché sont nombreuses et si on perd le fil de la veille, on peut rapidement se faire dépasser. Nous sommes revenus sur le Consent Mode V2.
Annoncé en fin 2023, Google impose à ses utilisateurs de rendre opérationnel ce mode de collecte en mars 2024. Une telle décision a un impact sur la roadmap interne et doit être priorisée. Il faut également historiser ses modifications pour anticiper d’éventuels effets de bords.
Mais les évolutions ne sont pas que technologiques, elles peuvent aussi être légales. Nous nous souvenons tous du combat entre la CNIL et GA, qui a forcé un certain nombre d’entre vous à changer de plateforme Analytics. Cette menace, bien que plus discrète, est toujours réelle. Si, demain, la CNIL décide de rendre GA4 contraire au RGPD, des changements importants devront être opérés. Il faut savoir les anticiper sans céder aux effets d’annonces. C’est ce qu’a fait Abdelilah Halim dans ce cas précis, en utilisant la solution SaaS de Matomo (conserver un outil de tracking fiable et stable dans le temps) et en se renseignant sur la proxification de Google Analytics 4.