Contact
France
Contact us
Replay
Restez informés

Découvrez nos dernières actualités, articles et événements.

News & Insights

Parcourir tous les sujets

Tous les sujets
Artificial intelligence
Creativity
Customer Journey
Data science
Marketing
Mobile
News
Online to offline

{{topic.name}} {{ article.published_date }}

{{ article.title }}

{{ article.teaser }}

En voir plus
Lexique

Êtes-vous des pros du digital ?

Artefact décrypte les notions clés du digital

A-B

A/B Testing

Le A/B testing est une méthode qui tente de déterminer quelle est la meilleure version d’un produit. Par exemple, une voiture est-elle mieux en rouge ou en vert ? Un site e-commerce est-il mieux lorsque le bouton “ajouter au panier” est en haut à droite ou en bas à gauche de la page ?
Pour cela, le A/B testing propose de raisonner ceteris paribus, c’est-à-dire tout chose égale par ailleurs. Un test A/B va donc utiliser deux versions d’un même produit qui ne diffère que sur un aspect (e.g. deux pages internet exactement identiques, sauf pour l’emplacement du bouton LogIn). On va ensuite comparer les performances des versions A et B afin de déduire quelle est la meilleure version de la caractéristique testée.

Ad Tech

Les « AdTech » ou « Ad Tech » pour Advertising Technology, sont des termes qui désignent les technologies publicitaires ou les acteurs proposant ces technologies.

Internet est aujourd’hui le principal organe de diffusion et de vente des produits. Face à l’évolution des technologies et l’infinité d’opportunités offertes aux annonceurs pour faire de la publicité en ligne, les entreprises doivent se doter de solutions logicielles performantes pour communiquer et vendre. Les entreprises spécialisées dans l’AdTech ont donc fait leur apparition pour améliorer le rapport des individus à la publicité et rendre cette dernière plus efficace.

L’écosystème Ad Tech comprend l’intégralité des outils de programmatique qui permettent d’automatiser et optimiser l’achat et la vente d’espaces publicitaires en ligne : DSP, SSP, AdExchange, Trading Desks…

L’Ad Tech est un secteur en pleine croissance comptant aujourd’hui une multitude d’acteurs. Les principaux acteurs s’appellent Google ou Facebook, mais on peut également citer Criteo, expert du retargeting, ou Teads pour la vidéo out stream.

Adserver

Ce que c’est ? A quoi sa sert ?

Un Ad server (ou serveur de publicité en français) est un serveur web qui héberge des publicités et gère leur diffusion sur différentes plateformes digitales telles que les sites internets, les réseaux sociaux ou les applications mobiles. Il en existe deux types :

L’adserver annonceur (ou d’agence média) : permet de gérer des campagnes publicitaires et de contrôler le placement média.

L’adserver éditeur (ou publisher) : permet à un éditeur de gérer les différents espaces publicitaires sur ses sites. L’adserver embarque plusieurs couches logicielles pour faciliter le pilotage de campagnes media : l’hébergement des bannières, la gestion de différents formats plus ou moins complexe (images, vidéos), ainsi que des outils de reporting et d’analyse.

Comment ca marche ?

L’éditeur définit en amont les endroits sur son site où il souhaite mettre à disposition des espaces publicitaires pour un annonceur. Autrement dit l’endroit sur le site où les bannières publicitaires pourront être diffusées et sous quels formats. Pour cela, il place des “AdTags”.

Lorsqu’un visiteur arrive sur le site de l’éditeur (par exemple lemonde.fr), l’adserver publisher est appelé pour savoir quelle publicité diffuser. Il sélectionne l’annonceur qui pourra diffuser sa publicité.

L’Adserver de l’annonceur envoie la création qui devra être affichée, le plus souvent via un Content Distribution Network (CDN). En effet, l’adserver ne sait pas gérer les problématiques de bande passante liées au service des créations (images ou vidéo lourdes). Le CDN permet donc d’optimiser le temps de chargement de la publicité.

Les adservers publishers et annonceurs vont également comptabiliser le nombre d’impressions et de clics. On peut toutefois atteindre un niveau de granularité plus important dans les statistiques, par exemple en ajoutant le critère de visibilité (le nombre de vue effective d’une bannière).

Batch

Le mot batch signifie “lot” en anglais. Il est notamment utilisé en data marketing pour parler d’envoi de lots de données. Ce terme est mis en opposition à un flux de données envoyé en continu et en temps réel d’un outil à un autre via une API.

Par exemple, avant le début d’une campagne de publicité display, on pourra envoyer par batch les audiences de la DMP à la DSP qui les utilisera pour miser sur des inventaires.

C-D

Capping

Le capping est un terme désignant le nombre maximum d’expositions d’un internaute à une publicité précise sur une période donnée. Imaginons qu’une entreprise A lance une campagne en ligne avec des vidéos et des bannières. Choisir un capping journalier de 3 pour les vidéos et de 5 pour les bannières signifie que pendant la campagne, un internaute ne verra jamais la vidéo plus de 3 fois par jour et les bannières plus de 5 fois par jour.

La technique du capping est apparue afin de répondre aux critiques qualifiant la publicité en ligne de trop intrusive ou gênante. Il est fortement recommandé d’avoir recours au capping lors d’une campagne en ligne, ne pas l’utiliser pouvant conduire à l’effet inverse de celui recherché (développement de sentiments négatifs vis-à-vis de la marque) et une faible performance de la campagne.

Cookie

Le cookie (ou témoin de connexion) est un petit fichier texte au format alphanumérique enregistré dans l’ordinateur de l’internaute lorsque ce dernier visite une page web. Il est posé par le serveur du site visité ou par un serveur tiers (régie publicitaire, service de web analytique etc.).

Généralement, on considère que les cookies permettent de reconnaître un visiteur lorsqu’il revient sur un site web. Techniquement, un cookie permet en fait de reconnaître la machine du visiteur et non réellement un utilisateur.

Il existe plusieurs cas d’utilisation possibles au cookie, à savoir :

  • se souvenir des identifiants de l’internaute pour le connecter automatiquement au site
  • enregistrer le nom d’un visiteur et lui souhaiter la bienvenue lors d’une prochaine connexion au site
  • reconnaître les préférences du visiteur pour lui proposer des annonces publicitaires ciblées
  • enregistrer les produits et les quantités d’un panier lorsqu’on effectue un achat sur un site de e-commerce
  • enregistrer des informations pour un service de web analytique
  • utiliser des méthodes de capping pour éviter de surexposer une publicité à un utilisateur, etc.

La durée de vie d’un cookie diffère selon chaque cas. Certains cookies sont non persistants et sont supprimés à la fermeture du navigateur. Pour les cookies persistants, une date de fin de vie est fixée lors de sa création par le serveur. La CNIL (Commission Nationale de l’Informatique et des Libertés) limite la durée de vie d’un cookie à 13 mois ce qui correspond à la durée de consentement des utilisateurs. Ils peuvent être également manuellement supprimés à tout moment par l’utilisateur via les options du navigateur.

DAM – Digital Asset Management

Un DAM (Digital Asset Management) est un outil permettant à une entreprise de regrouper ses actifs digitaux (tous les éléments visuels, vidéos, audios, documentaires etc.) pour communiquer sur toutes sortes de canaux. C’est ainsi une sorte de banque où chacun peut déposer les actifs digitaux qu’il a créés ou reçus, et réutiliser ceux qui s’y trouvent déjà (à ce titre Google Drive pourrait être considéré comme une forme très basique de DAM).

Les fonctionnalités d’un DAM couvrent principalement 3 types de besoins:

  • La création – La plupart des DAMs permettent de lancer des workflows pour gérer la création des actifs, du brief marketing à la validation finale. A la clé : la suppression de tâches répétitives et le gain de temps.
  • Le stockage – Le DAM permet de classer et de rechercher tous types d’actifs digitaux. A la clé : la réutilisation d’actifs au sein de l’entreprise et donc des gains de temps, et une harmonisation des créations des équipes.
  • La diffusion – Le DAM permet enfin de partager des actifs (par email ou lien partageable), et peut se connecter par API avec vos outils de diffusion (CMS, DCO…). A la clé : un reporting sur la performance de chaque actif et la possibilité de mieux contrôler à tout moment les actifs exposés par l’entreprise.

Data Layer

Un data layer est un ensemble de variables qui existent sur une page mais sont contenues au niveau du code et ne sont pas visibles. Les variables contenues dans un data layer sont par exemple le sexe, les articles mis dans le panier, le type d’appareil utilisé (mobile, desktop…), etc. Le data layer capte ces différentes informations qui sont ensuite relayées à d’autres systèmes (analytics, DMP, etc.).

Techniquement, le data layer est un fragment de code Javascript qui se trouve au niveau du code d’une page. Les variables qu’il contient peuvent être organisées de façon flat ou hiérarchique. Un data layer de type flat place toutes les variables qu’il contient au même niveau comme sur une liste. Par exemple si le data layer du site exemple.com est flat il contiendra à la suite les variables “userID”, “userEmail”, “productID” et “productName”. S’il est hiérarchique, les variables seront groupées dans des objets et le data layer sera de la forme “user” et “product”, “user” contenant “ID” et “Email”et “product” contenant “ID” et “Name”.

Data Scientist

Il ne s’agit pas simplement d’un nouveau terme à la mode pour désigner un « dataminer », mais d’individus ayant un ensemble élargi de compétence.

Aussi, tout comme le « Dataminer », le « Datascientist » possède des compétences d’analyse de données, de statistiques, de machine learning et intelligence artificielle.

En complément, le « Datascientist » comprend en profondeur et traduit les enjeux business en problématiques mathématiques et techniques. Il a des compétences avancées en computer science (il sait coder, il connaît et sait exploiter de façon optimisée selon les cas de figure les infrastructures et systèmes de calculs distribués) lui permettant d’extraire et manipuler des données brutes depuis un datalake, de les préparer pour leurs analyses et d’en extraire des enseignements et modèles actionnables par les équipes business. Il est également créatif (il sait paralléliser les tâches d’analyse, intégrer de nouvelles méthodes d’analyse) et il maîtrise le storytelling.

Face à une problématique d’attrition, par exemple, il saura mettre en place un modèle de scoring de risque de départ (tenant compte de données contractuelles et également de comportement de navigation ou d’interactions téléphoniques) et les compléter avec un modèle de labélisation (insatisfaction, contrat jeune arrivant à échéance, …) exploitable par des forces de vente.

Datalake

Un data lake est une plateforme technologique utilisée dans les projets big data (de méga données). Trop souvent défini comme une simple plateforme de stockage de données, le data lake permet en fait non seulement de stocker mais d’analyser directement dans l’outil l’ensemble des données générées par une entreprise. Pour cela, le data lake n’impose pas de schéma ou de format aux flux entrants et peut tout aussi bien ingérer des données très structurées et raffinées que des données brutes de n’importe quel format (image, audio, texte, etc.).

Plusieurs éléments différencient le data lake d’autres outils comme le data warehouse ou le data mart. En terme de traitement, le data lake est plus agile grâce au mode ELT (extract-load-transform) qui lui permet de retarder la transformation de la donnée contrairement à un data warehouse par exemple qui utilise le mode ETL (extract-transform-load). Le mode ELT a l’avantage d’éviter la perte de granularité de la donnée trop tôt dans le processus d’analyse. Il permet donc de conserver une certaine flexibilité et facilite le traitement de la donnée via des algorithmes de machine learning pour, par exemple, automatiser les reportings. De nombreux outils externes peuvent également se brancher directement à un data lake afin qu’il fasse office de data-on-demand (les outils iront directement se nourrir des analyses produites dans le data lake). En terme de stockage, un data lake est généralement moins cher à installer qu’un data warehouse car justement la donnée n’a pas besoin d’être transformée pour être stockée, mais les coûts d’exploitation sont par contre souvent plus élevés.

Data Viz

L’expression data viz est le diminutif de data vizualisation. Il désigne un processus visant à représenter des données de façon visuelle avec des schémas, des graphiques, etc. afin de favoriser leur compréhension en faisant apparaître par exemple des corrélations, des tendances, des répartitions ou autres.

La data viz permet de partager des résultats d’analyses basées sur la données à un public large et néophyte en rendant sa compréhension plus facile.

DCO – Dynamic Creative Optimization

Le DCO (Dynamic Creative Optimization) est un processus de création publicitaire personnalisée. Il permet de créer en temps réel une publicité digitale proposant un message personnalisé à la cible. Le DCO se compose de plusieurs éléments.

Le template : pour personnaliser les publicités, le DCO utilise un template prédéfini où à chaque zone de la publicité est assigné un élément de la publicité. Par exemple le slogan au milieu, le prix à gauche et une image à droite.
Les variables : ce sont les différents éléments de la publicité. Chaque variable est affectée à une zone précise de la publicité grâce au template prédéfini.
Les valeurs : c’est le contenu qui sera affiché. Par exemple, la variable slogan peut avoir plusieurs valeurs, chaque valeur correspondant à un slogan différent.
En résumé, le DCO permet la personnalisation facile et rapide d’une publicité selon la cible à laquelle s’adresse la publicité.

DMP – Data Management Platform

Une DMP (ou data management platform) est une plateforme dont la fonction première est la collecte de données 1st party. Les données collectées permettent de mieux comprendre les comportements des utilisateurs afin de mettre en place des actions marketing plus précises et pertinentes.

Le plus souvent proposée en mode SaaS, une DMP collecte des données de navigation grâce à un tag qui est posé sur les différentes pages d’un site internet. Ce tag permet à la DMP de récupérer les valeurs des différentes variables du data layer (e.g. sexe, articles mis au panier, etc.) et de les stocker. Les données collectées sont ensuite structurées grâce à une taxonomie et accessible dans l’interface de la DMP pour créer des segments d’internautes (e.g. création d’un segment contenant les internautes masculins de plus de 25 ans ayant regardé le contenu ABC)

Les données de navigation collectées par une DMP peuvent être enrichies avec des données CRM via un processus de CRM onboarding ou des données tierces achetées à des data brokers.

DSP – Demand Side Platform

Une DSP (ou demand side platform) est une plateforme faisant partie du système d’achat programmatique. Son objectif est de permettre aux entreprises l’optimisation de leurs achats d’inventaires publicitaires display.

La DSP fait le lien entre l’entreprise et la place de marché représentée par l’Ad Exchange. Alors que l’Ad Exchange propose un espace publicitaire à vendre, la DSP décide ou non d’enchérir sur cet espace selon la personne à qui est destiné cette publicité. Si la DSP reconnaît cette personne comme faisant partie de sa cible, elle enchérira pour toucher cette personne. Si non, elle laissera la place à un autre annonceur.

La valeur des enchères peut être définie par l’annonceur et programmée directement dans la DSP, mais beaucoup de plateformes peuvent également être pilotée par des algorithmes qui pourront automatiquement adapter la valeur des enchères selon les cibles et critères de la campagne pour optimiser les coûts.

G-H

Header Bidding

Le header bidding est une nouvelle pratique intégrée au programmatique dont l’objectif est de faire évoluer les stratégies de bidding d’espaces publicitaires digitaux. Elle consiste à ajouter un script sur la page d’un publisher. Ce script, ajouté au header du code source a pour but de permettre au publisher de récupérer les enchères de la part d’un maximum de SSPs et de les mettre en concurrence avec les ventes directes obtenues par la régie du publisher. Cela permet de mettre en concurrence 100% des acheteurs potentiels afin d’obtenir le prix de vente le plus élevé.

Le fonctionnement du header bidding est le suivant : lors du chargement de la page, le script appelle l’ensemble des SSPs partenaires et les interrogent pour obtenir les prix qu’ils peuvent mettre sur chaque emplacement. Ces prix sont récupérés de façon asynchrone et le chargement de la page continue de s’effectuer lors de l’opération. L’adserver du publisher va ensuite hiérarchiser les prix proposés par les SSPs et décide s’il attribue la vente à la régie publicitaire du publisher ou à une SSP.

Une des premières conséquences observées aux USA où la technologie est en cours de déploiement est une augmentation du CPM moyen (ce qui est logique car davantage d’acheteurs potentiels sont mis en concurrence). Les frais d’adserving sont également réduits ainsi que le temps de chargement de la page grâce à des chargements asynchrones. Cela permet donc aux publishers d’améliorer la performance de leur site et d’augmenter les revenus publicitaires.

I-J

IDFA – Identifier for Advertisers

L’IDFA (ou IFA) signifie Identifier for Advertisers. C’est un numéro de série aléatoire assigné aux devices avec système d’exploitation iOS (Apple) qui permet de tracker certaines activités de l’utilisateur. Ce numéro peut être activé ou désactivé par l’utilisateur. Il détecte l’activité de chaque utilisateur, qu’il transmet aux plateformes publicitaires qui, par la suite, affichent des publicités pertinentes compte tenu de l’activité de chacun. C’est sur cet identifiant que sont trackés le téléchargement et l’installation d’une application à la suite d’une campagne par exemple. En revanche, l’IDFA ne permet pas d’identifier l’identité de l’utilisateur. Il permet seulement de connaître les types de recherche et de navigation, afin de favoriser le ciblage de la publicité.

L’IDFA reste identique quels que soient les applications utilisées, contrairement aux cookies qui changent en fonction du navigateur ou du device (desktop et mobile) utilisé. Cela peut donc être très utile de pouvoir agréger le comportement des utilisateurs à travers tous ces différents environnements.

Environ 20% des utilisateurs Apple ont désactivé le tracking, ce qui peut limiter la puissance de l’IDFA. L’IDFA est venu remplacer l’UDID (Unique Device Identifier) pour des raisons de sécurité et de privacy.

K-L

Look Alike

Le Look-alike désigne une méthode d’acquisition d’audience qualifiée qui s’appuie sur des principes statistiques.

L’idée générale est la suivante : un annonceur dispose de sa base de clients et connaît certaines informations sur eux (âge, sexe, intérêts, montants dépensés, etc.). Il souhaite cibler avec ses offres des individus qui ne sont pas encore clients. L’annonceur peut utiliser une méthode de look-alike qui va cibler des individus inconnus de l’annonceur mais qui sont statistiquement similaires à ses clients actuels et donc probablement intéressés par le produit vendu par l’annonceur.

Concrètement, l’annonceur va partager avec un fournisseur de service look-alike une liste de clients ainsi que leurs informations. Le fournisseur du service va examiner les caractéristiques des clients en question et trouver dans sa base des individus qui sont statistiquement similaires (par exemple même âge, même sexe, même habitude de consommation) à ceux des clients de l’annonceur. Le fournisseur du look-alike obtient ainsi une liste de prospects qualifiés que l’annonceur peut cibler.

Les grands fournisseurs de service look-alike sont notamment Google (via DBM), Facebook (via Audiences Similaires) ou des fournisseurs de données tierces (Acxiom).

M-N

Machine Learning

Le machine learning, ou apprentissage automatique, est le champ d’étude en intelligence artificielle s’intéressant aux évolutions des machines, qui accomplissent de façon automatique des tâches de plus en plus complexes, voire impossibles pour un être humain.

La définition classique de l’apprentissage automatique est la suivante : une machine apprend de l’expérience “E” au regard de la série de tâches “T” et de la mesure de la performance “P” si sa performance pour accomplir “T” mesurée par “P” augmente avec l’expérience “E”. La machine va en effet adapter ses prochains comportements selon les réponses et réactions obtenues préalablement. L’algorithme va prendre des décisions et selon les résultats en découlant, va tendre à améliorer les performances de ses choix futurs.

L’enjeu de tout apprentissage machine est donc de construire de la connaissance à partir d’un ensemble de données. Cet apprentissage se fait grâce à des algorithmes qui peuvent être dits supervisés, semi-supervisés, non supervisés ou de renforcement (définitions à venir prochainement).

Métadonnées

Les métadonnées sont des données… sur les données. En d’autres termes, elles sont un ensemble d’informations qui qualifient et donnent des précisions sur une valeur dans une base de données. Par exemple, pour chaque client de sa base, une entreprise disposera de données comme son nom, son adresse, son email, son âge, les produits qu’il a achetés… Ici « Nom » ou « Age » sont des champs de métadonnées et « 31 ans » est une valeur du champ âge.

Les métadonnées prennent plusieurs formes ; dans cet exemple elles donnent la signification de la valeur, mais elles peuvent aussi en détailler les caractéristiques (est-ce que la valeur prend la forme d’un entier – integer ou de caractères – varchar…), la gestion opérationnelle (qui peut accéder à cette donnée ?), le lignage (quel est l’historique de cette valeur, quelles transformations a-t-elle vécues ?) etc.

Cette documentation est capitale pour s’assurer que le savoir de l’entreprise ne repose pas sur une seule personne mais qu’il est facilement accessible à tous (juridique, métier, BI, etc.) et que tout le monde puisse comprendre le sens des données. Il existe de nombreux outils permettant de mettre en place ces dictionnaires de la donnée (Collibra, Informatica…).

MVP – Minimum Viable Product

Le designer Tom Wujec livre dans un TED talk de 2010 une conclusion surprenante. Il a créé un jeu consistant à construire en équipe la plus haute tour possible avec 20 spaghettis, puis a demandé aux représentants de plusieurs milieux professionnels d’y jouer. Et parmi les meilleurs performers on trouve des élèves de la très prestigieuse…école primaire. Il constate en effet que ces derniers, au lieu de planifier longuement une construction optimale et de la réaliser, essayaient successivement plein de combinaisons et s’amélioraient à chaque essai.

C’est le principe du MVP (Minimum Viable Product) – créer la version la plus basique d’un produit, et itérer progressivement à partir de cette version en l’améliorant sur la base des enseignements qu’on en a tiré. Théorisée par Eric Ries dans son livre The Lean Startup, cette méthode est particulièrement adaptée dans le secteur du digital où les tendances évoluent de plus en plus vite. La donnée est un élément central de cette manière de procéder, en permettant notamment d’analyser et de comprendre les résultats obtenus par un produit afin de l’améliorer.

Pour voir la TED Talk

Native Advertising

Tout commence sur les réseaux sociaux : en 2013, voyant la baisse de l’efficacité des bannières traditionnelles, Facebook et Twitter commence à proposer aux annonceurs une nouvelle forme de publicité : des contenus sponsorisés apparaissent au milieu du fil d’actualité de l’utilisateur, similaire à des posts non publicitaires. C’est un succès : les internautes perçoivent ces publicités comme beaucoup moins intrusives, et s’intéressent plus au contenu des annonces.

Cette technique de fondre du contenu publicitaire dans la ligne éditoriale s’est ensuite étendue à toutes sortes de sites proposant des articles ou du contenu éditorial sous le nom de “native advertising”.

Le défi pour les entreprises reste alors d’être en cohérence à la fois avec les appétences de l’internaute et avec le contenu dans lequel elles se fondent.

 

O-P

OGC – Outil de Gestion de Campagne

Un outil de Gestion de Campagne vous permettra d’orchestrer vos relations clients sur tous les canaux en un seul endroit.

Cet outil permet en effet de construire des scénarios précis d’interaction avec une base CRM. Prenons l’exemple simple d’un assureur : l’abonnement d’un client est sur le point d’expirer. Dans ce cas il est possible de programmer en avance l’envoi d’un email pour lui proposer de renouveler son abonnement. S’il n’ouvre pas cet email, l’OGC envoie un deuxième email de relance. Si le premier email est ouvert mais que l’utilisateur ne renouvelle pas son abonnement, l’OGC envoie un SMS et ainsi de suite.

L’objectif de l’outil de gestion de campagne est donc une automatisation, simplification et une centralisation des actions CRM via de multiples canaux pour permettre une harmonisation de la communication des marques…

Onboarding

L’onboarding est le processus par lequel une entreprise peut unifier ses données personnelles du CRM (ex: adresse e-mail) aux données anonymes disponibles dans l’environnement digital et média (ex : cookie). L’objectif est de reconnaître une personne connue de l’entreprise dans l’écosystème digital.

Il existe 3 façons de relier les données personnelles du CRM aux données anonymes :

Via une solution de CRM onboarding :

Le processus d’onboarding se fait le plus souvent fait via un onboarder qui collecte les données CRM de l’entreprise pour les anonymiser en supprimant toutes les données personnelles et fait l’association aux cookies grâce à des clés d’identification (adresse email, numéro de téléphone etc.). Ces segments anonymisés sont ensuite renvoyés dans tous les outils marketing et média de l’entreprise (DMP, DSP…) qui pourront ensuite les réutiliser dans l’univers digital.

 

Via l’espace client de son site internet :

L’entreprise peut également se passer d’onboarder si celle-ci possède une partie logguée sur son site. Par exemple, si un utilisateur se connecte à son compte client sur le site web de l’entreprise, cette dernière pourra déposer un cookie et par la suite reconnaître ce cookie comme étant un utilisateur déjà client.

 

Via l’envoi d’emails :

L’entreprise peut également déposer un pixel dans les emails envoyés à sa base CRM. Si l’utilisateur ouvre cet email, le pixel se déclenche et un cookie est déposé dans le navigateur de l’utilisateur. L’entreprise pourra alors reconnaître par la suite l’utilisateur comme un client et le cibler en fonction. Attention, les pixels ne sont pas autorisés par Gmail ou par les application emails du type Outlook.

PII – Personally Identifiable Information

L’acronyme PII signifie Personally Identifiable Information (on parle aussi de SPI pour Sensitive Personal Information) et désigne l’ensemble des données et informations qui permettent, en étant utilisées seules ou combinées à d’autres données, d’identifier, de contacter ou de localiser un individu. On parle de données PII par opposition aux données anonymes. Des informations PII peuvent être par exemple le nom complet, la date de naissance, l’adresse (postale ou email), le numéro de passeport ou encore le numéro de téléphone.

La collecte de données, qu’elles soient PII ou anonymes, est une pratique largement répandue aujourd’hui, notamment dans le domaine du data marketing où annonceurs et publishers collectent le maximum de données permettant de qualifier le trafic de leurs sites. Afin de protéger les individus et leur vie privée des risques associées à la collecte de données PII (fuite, fichage, partage, vente), plusieurs instruments juridiques ont été mis en place.

En France, la Loi Informatique, Fichiers et Libertés de 1978 impose à toute personne, physique ou morale, souhaitant collecter des données PII, d’en faire la déclaration à la CNIL au préalable (la CNIL étant l’autorité française chargée de la protection des données personnelles).

Au niveau Européen, le règlement GDPR (General Data Protection Regulation), qui entrera en vigueur en mai 2018, a vocation à renforcer la protection de la vie privée des citoyens européens à travers de nouvelles directives adressées aux entreprises en matière de collecte de données personnelles (PII).

Pixel-to-Server

Quel est le principe du pixel-to-server ?

Le pixel-to-server est une manière pour des serveurs (DMP, DSP, Adwords…) de s’interroger entre eux afin de se transmettre de l’information – comme des données de comportement sur site – sur les cookies qu’ils ont vu passer sur un site internet.

Les cookies n’étant pas universels, deux serveurs donnent un cookie différent au même utilisateur. Pour pallier cela, les éditeurs de solution ont donc développé un processus permettant de synchroniser les cookies d’un serveur à un autre nommé pixel-to-server.

Par exemple, le cookie 1,2,3 créé par le serveur A (par exemple, une DSP) sera synchronisé avec le cookie a,b,c créé par le serveur B (la DMP); les 2 cookies appartenant, bien sûr, au même utilisateur.

Techniquement, comment cela fonctionne ?

A chaque fois qu’un utilisateur visite un site internet, son navigateur fait un appel au serveur qui a posé son tag sur le site (par exemple, une DSP). Si la DSP ne reconnaît pas cet utilisateur, elle lui crée un cookie 1,2,3.

La DSP fait ensuite un appel à la DMP via un pixel de redirection (d’où le terme pixel-to-server) en incluant le cookie 1,2,3 qu’elle vient d’attribuer à l’utilisateur. La DMP lit le cookie 1,2,3 et vérifie dans son propre domaine si elle a déjà un cookie pour cet utilisateur.

Si ce n’est pas encore le cas, la DMP créé également un user ID a,b,c pour cet utilisateur, qui sera associé à l’user ID 1,2,3 créé par la DSP.

Dans le cas d’un appel en server-to-server, une étape supplémentaire consiste pour la DMP à ranger les 2 user IDs associés dans une table de matching propre aux 2 serveurs en question (par exemple, DMP A et DSP B). Cette table de matching permettra de stocker de nombreux user IDs et ainsi d’envoyer directement entre les deux solutions toute sorte d’information collectée par l’une et mise à disposition de l’autre : comportement de navigation, intentions d’achat e-commerce, segmentation, etc…

Programmatique

L’achat programmatique désigne – par opposition au gré à gré – l’achat automatisé d’espaces publicitaires sur internet. Cette pratique a permis aux éditeurs de rentabiliser au maximum les espaces publicitaires dont ils disposent et de leur éviter de se retrouver avec des espaces invendus, ce qui arrivait fréquemment avant le recours à l’achat programmatique. Le processus d’achat programmatique repose sur différentes plateformes dont :

  • Les DSP (demand side plateform) qui achètent des inventaires de façon automatique pour le compte des annonceurs
  • Les SSP (supply side platform) qui vendent des inventaires de façon automatique pour le compte des éditeurs
  • Les Adex (adexchange) qui sont les plateformes sur lesquelles les DSP répondent aux appels d’offre des SSP et gagnent ou non les inventaires selon leur enchère

Les principaux atouts de l’achat programmatique sont une automatisation du processus d’achat et de vente d’inventaire (qui permet notamment l’optimisation des coûts), l’accès à un plus grand marché pour les éditeurs comme pour les annonceurs mais aussi la possibilité pour les annonceurs de limiter les achats d’inventaires pour ne cibler que certains types d’audience.

R

RCU – Référentiel Client Unique

Pour une entreprise, créer un Référentiel Client Unique, c’est regrouper sous un identifiant unique et dans une même base de données toutes les informations dont l’entreprise dispose sur chaque client. L’intérêt est de connaître et par la même occasion de reconnaître au mieux chaque client afin de lui apporter la meilleure expérience client possible.

La création d’un référentiel client unique répond à deux enjeux principaux. D’une part, l’enjeu de centralisation pour regrouper à un même endroit les informations client et donner accès au même niveau de granularité de données à toutes les directions de l’entreprise. D’autre part l’enjeu d’harmonisation; pour créer son référentiel client il faut réunir des informations clients provenant de bases différentes qui peuvent également utiliser un vocabulaire différent. Créer un RCU implique de créer un vocabulaire commun, des valeurs communes utilisées par toutes les parties prenantes.

RFM – Recency Frequency Monetary

La méthode RFM – pour récence, fréquence, montant – est une méthode de segmentation qui classe un ensemble de clients en fonction de :

  • La date de la dernière interaction avec la marque (achat, visite sur site etc.)
  • La fréquence des achats sur une période de temps donnée
  • Le montant de ces achats sur la même période

Pour segmenter une population avec la méthode RFM, il faut créer des catégories pour chaque dimension. Par exemple les clients ayant des montants d’achat supérieurs à 100€ et ceux ayant des montants d’achats inférieurs à 100€. Une fois les catégories définies pour chaque dimension, chaque client peut ensuite être classé dans une matrice.

Cette méthode a l’avantage d’être simple à mettre en oeuvre (elle ne nécessite pas de logiciel ou de technique avancée) mais comporte certaines limites comme l’absence de fonction prédictive.

Rich Media

Le « rich media » (ou « contenu interactif » en français) est un contenu publicitaire avancé proposant à l’utilisateur des interactions et/ou des contenus multimédia (vidéo et son) sur un format display (HTML5). Il s’agit notamment des formats « expand » dans lesquels l’utilisateur peut découvrir l’intégralité du contenu via un mouvement de la souris ou alors des formats « mastheads » dans lesquels une vidéo est agrémentée de métadonnées offrant du contenu supplémentaire. Le rich media se distingue des formats classiques (bannières, native ads, vidéos pre-roll) dans lesquelles l’utilisateur ne peut pas interagir

Le rich media permet aux marques de créer davantage d’engagement avec leurs audiences lors d’une exposition média au delà de la simple vue ou du clic. Un engagement générateur de précieuses données pour les reporting de campagne. Ils sont particulièrement utiles pour les campagnes de notoriété dans lesquelles il s’agit de faire connaître un nouveau produit et de créer de l’engouement. Pour le lancement d’un nouveau film ou d’une voiture par exemple, on ne cherche pas le clic ou la conversion sur le web mais plutôt un niveau de notoriété et d’engagement.

Enfin, ces formats s’achètent de la même façon que les formats classiques, en programmatique ou en gré-à-gré, avec des CPM bien plus élevés du fait de leur poids et leurs place sur la page du publisher.

S-T

SDK – Software Development Kit

Un SDK – software development kit – est un ensemble d’outils permettant le développement de logiciels, d’applications mobile pour des plateformes, de systèmes d’exploitation ou de composants electroniques divers.

Dans le cas du développement d’applications mobiles, les développeurs peuvent intégrer des SDKs de services tiers afin d’ajouter des fonctionnalités d’analytics, de push notification, de personnalisation afin de permettre une amélioration de l’expérience client globale.

Par exemple, pour utiliser les fonctionnalités de Google Analytics sur une application mobile et de mieux connaître ses utilisateurs, les deux solutions SDK proposées par Google sont les suivantes :

  • SDK Legacy Google Analytics
  • SDK Firebase

L’intégration de ces outils permettra d’accéder à Google Analytics (ou Google Analytics for Firebase) afin de faire l’analyse des actions in-app des utilisateurs.

SSP – Supply Side Platform

Une SSP (ou supply side platform) est une plateforme faisant partie du système d’achat programmatique. Elle est le pendant de la DSP et permet aux éditeurs de mettre en vente leur inventaire disponible de façon automatisée.

Alors que la DSP cherchera à optimiser le coût de son achat publicitaire, la SSP fera l’inverse en essayant de maximiser le rendement de ses espaces. Pour cela, les éditeurs peuvent également mettre en place des prix minimaux pour leurs impressions en dessous duquel les acheteurs ne peuvent pas enchérir.

Tout comme la DSP le fait avec l’annonceur, la SSP fait le lien entre l’éditeur voulant mettre en vente son espace publicitaire disponible et la place de marché représentée par l’Ad Exchange.

Tag

Un tag est un bout de code Javascript disposé dans le code source d’un site internet. Dès qu’un utilisateur navigue sur un site, les tags permettent d’appeler les services d’un ou plusieurs prestataires (analytics, retargeting, ad tech etc.).

Les sites internet comportent aujourd’hui de nombreux tags différents qui sont générateurs de problèmes. D’un côté, pour les utilisateurs, la superposition de tags sur une page d’un site internet ralentit le temps de chargement de cette page. De l’autre côté, pour les propriétaires du site, la multiplication des tags rend très dépendant à l’IT. En effet, l’ajout ou la suppression de tags demande leur intervention systématique. La modification du site ou l’ajout d’un tag peut également interférer avec un autre tag et le rendre caduque.

Ainsi, il existe un outil appelé TMS (Tag Management System) permettant de résoudre ces problèmes. Il s’agit d’un “super tag” contenant tous les tags dans un seul bout de code. Cette application facilite la manipulation des tags et peut donc directement être utilisée par les métiers. Vous trouverez la définition du TMS dans notre lexique data marketing.

Taxonomie

Le terme de taxonomie vient à la base d’une branche de la biologie dont le but est de décrire les organismes vivants en les regroupant et les classifiant en groupes homogènes partageant un certain nombre de caractéristiques communes. Dans le monde du marketing digital, le terme de taxonomie est proche de cette définition et désigne une structure arborescente permettant de classer les données collectées (le plus souvent on parle de taxonomie pour désigner la structure des données au sein d’une DMP).

Une taxonomie est donc un arbre composé de noeuds (aussi appelés traits). Chaque noeud de l’arbre définit un groupe qui contient tous les sous-groupes qu’il engendre. Une taxonomie pour classer des employés pourrait par exemple comprendre les noeuds “sexe”, “type de contrat” et “ancienneté”. L’arbre pourrait tout d’abord se scinder en deux branches selon le sexe de l’employé (homme ou femme) et chaque noeud (homme ou femme) serait ensuite scindé en plusieurs branches selon le type de contrat (CDI, CDD) qui donneront plusieurs noeuds à nouveau scindés par ancienneté. Le tout forme la taxonomie des employés de l’entreprise en question.

TMS – Tag Management System

Pour comprendre ce qu’est un tag management system (TMS), il convient tout d’abord de maîtriser la notion de tag. Un site internet utilise de nombreux services externes à des fins de publicité, de collecte de données ou autre. Ces services permettent aux équipes marketing de mieux connaître les visiteurs et leurs besoins. Les tags sont la liaison entre ces services externes (Google Analytics par exemple) et le site qui les utilise. Pour les installer, ils sont déployés au niveau du code HTML de chaque page.

Plus un site internet se développe, plus il fera appel à différents services externes pour affiner sa compréhension des consommateurs et leur proposer la meilleure expérience utilisateur. Cependant un nombre trop important de tag n’est pas sans conséquence : cela nuit à la performance du site (temps de chargement élevé) et rend complexe la gestion du site à cause des multiples taggages et retaggages à effectuer au niveau de chaque page.

C’est pour répondre à ces problème qu’a été créé le TMS. Un TMS permet de gérer l’ensemble des tags d’un site depuis une application unique. Cela simplifie grandement les problèmes de déploiement des tags sur les différentes pages d’un site. De plus, un TMS gère le chargement des différents tags de façon asynchrone afin que le temps de chargement de chaque page reste bas.

Trafficking

Le trafficking désigne tout le processus de mise en place d’une campagne de publicité display. Il est le pendant opérationnel de la création d’une campagne.

Le trafficking se compose de plusieurs étapes :

1. Envoi des créations publicitaires à l’Adserver qui lancera l’ordre de les afficher en temps voulu
2. Création du plan de tracking qui détermine les actions de l’internaute que l’on veut enregistrer (inscription, achat etc.)
3. Installation des pixels de tracking qui permettent de suivre les actions effectuées par l’internaute (les actions à suivre sont définies lors de l’étape 2)
4. Création des liens de redirection qui renverront l’internaute sur la page choisie par l’annonceur s’il clique sur la publicité

Une fois ces actions effectuées, la campagne est prête à être lancée.

Jun 5

Retrouvez-nous au Google Cloud Summit 2018 à Paris

En savoir plus
Parcourir tous les sujets

Inspirez-vous

{{ event.date }} | {{ event.location }} | {{ event.price }}

{{ event.teaser_title }}

{{ event.teaser_subtitle }}

En voir plus