Les Kpis du Marketing – du cockpit au fétiche.

L’invitation de l’Amarc à partager mes réflexions le 21 juin sur la question des indicateurs clés de performance – ces KPIs obsédants, et l’occasion de retrouver un vieux sujet partagé avec un vieux camarade dont la comptabilité est la spécialité, celui du contrôle organisationnel. Et c’est un sujet d’actualité, non seulement par la colonisation du monde par les kpis, les systèmes de notation, de ranking, de scoring, mais aussi parce que dans l’univers des plateformes le contrôle est exercé par le client.  La vidéo est éditée par la pétillante équipe de l’Amarc et je découvre qu’ils (m’) ont fabriqué un très joli mini Mooc.

 

 

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Publicité et digital : faut-il de nouvelles mesures ?

Friendfeed vs Twitter
[pour la Journée AFM GfK France – 1er avril 2011]
L’environnement publicitaire se caractérise d’abord par la multiplication des canaux et moyens d’actions dont les métriques varient sensiblement de ce à quoi on était habitué, chaque instrument par nature suscite ses propres indicateurs : les taux de clics, nombre de pages vues, nombres de vidéos vues, les niveaux de recommandation sur les réseaux sociaux, des indicateurs de sentiments, des scores d’influences, des taux d’ouverture, de conversion, de transformation, d’appétance. Cette multiplication des indicateurs cotoie sans complexe l’exigence du ROI, ce mot magique qui justement jamais ne donne le retour sur investissement, se contentant d’un ratio entre un effort et un résultat. Les As du ROI sont de piètres comptables, et souvent de mauvais économistes.
Si on peut croire qu’un indicateur peut refléter le résultat d’un effort effectué dans un canal et être comparé à travers différentes actions (le coût par clic en est un moyen), on voit mal comment comparer différents indicateurs d’un canal à un autre ( le coût du clic et celui de l’ODV). Il faudrait une échelle commune, où un critère définitif puisse trancher : quel impact sur les ventes, la part de marché, le profit ou mieux encore la valeur client ? Les myriades d’indicateurs que l’on constitue à mesure que des canaux nouveaux s’ouvrent, sont des indicateurs secondaires de performance, l’enjeu est de les lier aux mesures fondamentales.
Le caractère ad hoc des indicateurs est sans doute le problème le plus simple. Nous avions déjà rapporté l’argument de Gian Fulgoni à propos des taux de clics si faibles qu’on devrait abandonner l’usage des bannières, il sont de l’ordre de 0,1%, mais ils tiennent compte ni des effets de mémorisation ou d’image qu’on retrouve dans le glissement des ventes. C’est à travers la multiplicité des campagnes que l’on doit mesurer la performance. Le plan doit dominer sur les opérations. Les obsédés du ROI peuvent perdre de vue la stratégie. Et son résultat mesure l’effets de toutes les opérations sur les ventes.
Le problème le plus important vient des effets cross-canaux qui sont fortement intriqués. Les mass media incitent à fréquenter les sites, et la frequentation des sites accroit sans doute la performance des mass média. Le marketing direct peut pousser avec précision une marque et augmenter la fréquentation du site rendant un nombre important de consommateurs sensibles aux messages des mass-media. Les effet vont dans un sens et dans l’autre, ils sont récursifs.
La conséquence est qu’il est difficile de démêler les effets, sauf à comprendre les inductions dans le temps : comment un canal affecte la performance d’un autre. Les indicateurs d’un médium ne mesurent pas forcément l’effet unique de ce média, mais aussi l’influence des autres. Ce souci est augmenté par le fait que les campagnes sont désormais en continu, comment isoler l’effet d’une campagne de l’accumulation des effets des précédentes ?
C’est une question à laquelle Fulgoni propose une réponse simple. Pour analyser l’efficacité des bannières il ne faut pas regarder le taux de clics qui est extrêmement faible : 0.1%. L’effet d’une campagne peut difficilement être apprécié en tant que tel. Le clic représente une action, mais un silence n’est pas forcement sans effet, les expositions sans action peut aussi travailler la cible. C’est pourquoi il propose de regarder l’effet cumulé sur les ventes, et d’isoler ce “drift”, qui n’est rien autre qu’un calcul d’élasticité. On en revient à l’idée fondamentale d’un Little et de son decision calculus.
La différence est qu’aujourd’hui nous disposons de quelques trésors économétriques. La solution passe par un effort de modélisation sophistiqué qui est le seul moyen de distinguer les effets. Les solutions sont disponibles depuis plus de 10 ans avec les modèles VAR, VECM ou DLM dont l’intérêt principal est de tester simultanément les effets d’un indicateur sur un autre par un jeu simple d’équation d’auto-régression. Une batterie d’outils les accompagnent :
    1. les tests de causalité à la Granger qui aide à étudier le sens de la causalité, par exemple de nombre cumulés de membres de la page de fan influence-t-il la mémorisation d’une campagne TV et/ou la campagne TV influence-t-elle le nombre de membres de la page ?
    2. Des tests de cointégration qui sont essentiel dans la mesure où de nombreux nouveaux indicateurs sont des indicateurs cumulatifs : le nombre de membre twitter est la somme des précédent plus des nouveaux. Dans ce cas les séries sont intégrées.
    3. Des fonctions d’impulsion qui par simulation permettent de calculer et de représenter l’influence d’une variation unitaire d’une des variables sur les autres variables en examinant sa distribution dans le temps. Ce sont en fait les formes modernes de l’élasticité qui reste le seul critère de mesure d’efficience.
Que l’on dispose de la méthode est une chose. Mais ce n’est pas suffisant. C’est une connaissance plus fine des interactions des médias qui est nécessaire. L’écologie des médias en temps réel, tels que twitter, et des grands médias d’information est instructive : à l’examen des grands événements on devine assez nettement les interactions. L’info primaire qui y circule a d’autant plus de chance d’être reprise par les médias qu’elle est retwittée, mais en retour sa reprise par ces médias active les Rtwits. Mais à ce cycle, qui prend quelques heures ( par observation directe de certains événements la reprise par les grands médias se réalise quelques heures après – souvent le temps de vérification – et son effet sur les re-tweets dure on va dire 36h), s’ajoute un effet parallèle sur les blogs qui se nourrissent de cette double information mais dans un rythme plus lent, celui de quelques jours. Pour compliquer la chose, un certain nombre de nouveaux médias reprennent a posteriori l’information en la republiant (syndication). Cette activité d’ailleurs peut être institutionnalisée, c’est ainsi que le Monde réinternalise un certains nombre d’articles de Internet.actu. Pour achever cette analyse, rappelons que les adwords s’articulent sur le contenu !! L’exposition dépend de la production des informations. D’une écologie complexe.
C’est ce cycle d’information qui doit être l’objet de recherche approfondies, doit être mieux compris, non seulement dans l’ordre et l’importance des interactions, mais aussi dans la structure des populations qui l’animent : spécialiste de RP, blogueurs influents, fan de marques, leader d’opinion et ce grand public qui demeure en dépit de la socialisation de l’internet : 90% des consommateurs d’information ne font rien ou presque, le taux de recommandation n’est guère plus important que 5% et celui des contributions inférieur à 1%. Une écologie complexe de la communication publicitaire et non publicitaire est en train de se mettre en place. Il est essentiel d’en avoir une connaissance plus fine sur le plan empirique.
Nous avons les méthodes, nous avons les données, il reste à les réunir. Quand à la nécessité de nouveaux indicateurs et de nouvelles mesures laissons cela aux marketers des nouveaux services. En réalité on en a pas besoin. Il suffit de pouvoir mettre en ligne et en modèles, les données disponible. On examinera a postériori s’il permette de mieux rendre compte de la dynamique d’ensemble, et de savoir quelle place prendre dans le système à construire qui n’est rien d’autre qu’une forme de balanced scorecards
Alors oublions les mauvais comptables, coupons la tête au ROI, réapprenons ce que les spécialistes du contrôle de gestion nous apprennent depuis longtemps, prenons tous les indicateurs disponibles et cherchons quelles causalités les relient, et comment les tactiques contribuent à réaliser les objectifs de la stratégie. En marketing ces objectifs sont peu nombreux, ils se résument à la part de marché et à la valeur du portefeuille de clientèle.