Ad-Exchange, analyses et expertise technique AdTech et MarTech
DATA INTERVIEW MESURE PERFORMANCE PROGRAMMATIQUE

Quand le ciblage contextuel fait la différence : l’expérience de Reworld Media (interview J. Parola)

Partager sur Linkedin

Alors que l’industrie se prépare à la suppression des cookies tiers à de fins publicitaires, la régie du groupe Reworld Media (Closer, Science&Vie, AutoPlus, Top Santé, Télé Star, etc.) propose une alternative : le ciblage « hyper » contextualisé. La solution procurerait des performances de 30 % supérieures en moyenne à celles obtenues avec la data 3rd party. Jérémy Parola, directeur des activités numériques du groupe, nous livre tous les détails. Occasion pour ad-exchange de connaître son avis sur les différentes initiatives visant à remplacer les cookies tiers.

Vous séparez ce qui relève d’un ciblage « data » du ciblage hyper contextuel que vous proposez, qui intègre des segments sociodémo et intentionnistes. Quelle est la différence ?
Jérémy Parola, Reworld Media.
Jérémy Parola, Reworld Media.

La notion de data renvoie à la typologie 1st, 2nd et 3rd party. La 1st  englobe les clusters sociodémographiques et d’affinité que les éditeurs proposent en segmentant leurs audiences à l’aide de leur DMP. La 2nd est celle que l’on obtient en synergie avec les annonceurs, notamment pour toucher des bases de fidèles ou pour la prospection. Vient enfin la data 3rd, qui correspond au gros des data accessibles nativement dans les SSP, fournies par des tiers comme Nielsen, Sirdata, etc.

Nous sommes partis du constat fortement partagé par notre profession selon lequel il est courant que la data 3rd ne génère pas de performances additionnelles. La raison est que l’offre a perdu en qualité. Partant de ce constat, nous avons cherché chez Reworld Media à développer des segments basés sur d’autres critères. En testant, nous avons compris que lorsque vous croisez des données contextuelles et sémantiques avec les enseignements de l’analytics vous pouvez récupérer plein d’informations sur les audiences !

Prenons l’exemple d’un article employant quatre fois le mot « Ikea » et trois fois le nom d’un produit vendu par l’enseigne. Admettons que cet article génère un trafic à 80 % issue des moteurs de recherche et qu’il est lu 10 000 fois par jour. On peut conclure que cet article fédère des Ikea lovers. On attribue alors un système de points à un certain nombre d’éléments constitutifs du contenu. On retranscrit cette notation dans des segments sociodémo ou d’intentionnistes, avant de les réinjecter dans notre ad server et de les proposer à nos clients. C’est une logique de scoring.

Cela fait penser aux thématiques de la 3rd party mais c’est de la donnée propriétaire de l’éditeur de surcroît sans recours aux cookies. C’est cela ?

Cela vient en effet remplacer les 3rd party tout en nous permettant d’aller dans l’ultra détail sans avoir recours aux cookies. La raison est que nous disposons de 42 sites affinitaires qui alimentent en temps réel notre serveur. Cela nous permet d’atteindre un niveau de granularité extrêmement fin. Si l’annonceur souhaite diffuser sa publicité sur une vidéo qui parler de la Peugeot 3008, il peut le faire.

Quels retours cela procure ?

Nous avons démarré nos tests il y a environ un an et demi avec nos meilleurs clients. Nous avons constaté des différences de performance de 30 % en moyenne, comparé à la data 3rd. Le taux de clic et le temps passé en post clic sont beaucoup plus important avec nos segments.

Le fait que ces segments soient bâtis sans recours aux cookies ni aux ID est à la fois leur force et leur faiblesse. Leur force parce qu’ils sont totalement exploitables dans ce contexte de disparition prochaine des cookies tiers. Leur faiblesse en revanche vient du fait que pour le moment ils ne peuvent fonctionner dans l’open auction. Ils sont utilisables uniquement en gré à gré, en deal ID et dans le programmatique garanti. D’un autre côté, le fait que ce ne soit pas achetable en open auction nous permet de vendre nos segments dans le cadre de relations privilégiées où l’on maîtrise les volumes et le prix de vente.

Mais est-ce techniquement envisageable ?

Pour qu’ils puissent être achetés dans le cadre de l’open auction, deux alternatives sont possibles. La première consisterait à changer les protocoles de l’open auction pour que ce système puisse être nourri de ces segments contextuels. La seconde serait d’adopter une terminologie qui nous permette de faire rentrer nos segments dans les tuyaux de distribution. À ce jour, tout l’open auction repose sur des ID stockés dans les cookies tiers. La tuyauterie n’est pas prête pour permettre de gérer des segments sans cookies tiers sur plusieurs SSP . C’est tout l’enjeu des discussions en cours dans le marché.

L’initiative Rearc de l’IAB vise précisément à modifier cette tuyauterie. N’est-ce pas une occasion idéale pour promouvoir ce changement ?

Cela doit se passer au niveau de l’IAB, c’est une certitude. Mais Rearc relève plutôt d’une logique consistant à modifier la manière dont ces ID sont stockés. C’est de l’ID dont il s’agit, pas du remplacement de la data par un autre protocole.

La tuyauterie n’est pas prête pour permettre de gérer des segments sans cookies tiers sur plusieurs SSP . C’est tout l’enjeu des discussions en cours dans le marché.

 Ces deux chantiers peuvent-ils être conduits en parallèle ?

On aimerait bien que ce soit le cas. Au moins que l’on puisse proposer dans l’open auction des produits de substitution dans les cas où l’internaute ne donne pas son consentement pour partager ses données.

Considérez-vous ces segments contextuels comme des produits de substitution ?

Oui, parce qu’il faut se mettre à la place des agences. Ces dernières n’aiment pas revenir au contextuel. Elles ont l’impression de faire des bonds en arrière, alors qu’elles ont beaucoup investi en solutions pour explorer ces données. L’idée pour nous est donc de respecter cela, tout en leur démontrant que le contextuel peut apporter une vraie différence. Il y a encore beaucoup de pédagogie à faire sur ce sujet. Après tous les efforts que nous avons déployés en header bidding, ce serait dommage de ne pas pouvoir explorer ces segments en programmatique ouvert. Par ailleurs, n’oublions pas que le cookie ne concerne pas uniquement le ciblage, la data. Il touche à tout ce qui a trait au capping et à l’attribution.

Pour la mesure et l’attribution que pourrait-il se passer ?

Pour tout ce qui touche à la mesure, les ad servers et ssp peuvent travailler sans cookies. On trouvera les solutions techniques pour y arriver. L’arrêt du cookie risque en revanche de faire mal à l’attribution post view. C’est le last clic qui s’en sortira renforcé.

Y aurait-il d’autres limites au contextuel ?

Oui. Avant de pouvoir transformer un contexte en une segmentation qui parle aux annonceurs, beaucoup de tests sont nécessaires. Ce système exige beaucoup de travail. L’éditeur qui veut s’y lancer doit s’attendre à la complexité de cette tâche et investir en technologie. Il faut à la fois beaucoup d’algorithmes et beaucoup de ressources en serveur car on doit stocker et analyser en temps réel énormément de données.  Pour un groupe comme le nôtre, cela fait beaucoup de contenus à analyser. Nos 42 sites produisent entre 500 et 600 nouveaux articles par jour qu’il faut analyser et classifier. Cela demande de la ressource mais c’est rentable. Non seulement il s’agit de notre donnée et de nos outils, comme l’annonceur revient.

Cette donnée est-elle chère ?

Nous sommes dans le même niveau de pricing que pour les campagnes utilisant la data classique. Ce qui coûte plus cher est la définition de segments sur mesure. Dans ce cas c’est le prix de la rareté.

Propos recueillis par Luciana Uchôa-Lefebvre

Laisser un commentaire