Le commerce, des objets connectés, et du citron pour le poisson

by Jef Safi
by Jef Safi

C’était l’objet d’une des tables rondes organisées pour le Congrès Etienne Thil 2015. Nous avons eu l’honneur d’y participer avec Pierre Blanc du Picom et de Laurent Tonnelier de Mobilead. Une séance stimulante dont voici quelques réflexions.

La première est que dans une période d’un discours de révolution permanente, qui est peut-être aussi la période où l’innovation n’a jamais été aussi faible comme en témoigne l’effondrement des gains de productivité dans le monde développé et le monde émergent, il est nécessaire de modérer le propos. Pour le commerce, les objets connectés d’est d’abord l’opportunité de construire de nouveaux rayons, et de renouveler autant celui de l’électroménager que celui de l’électronique. C’est ensuite l’occasion de repenser la relation client, moins à l’aune d’un frigo qui recommanderait seul le lait qui lui manque, qu’à celui plus prosaïque d’un aménagement de l’espace de vente avec les beacons et les étiquettes électroniques, et plus encore à celle d’une nouvelle logistique commandée par les marketplaces,  qui va faire des grandes surfaces le terminal qui alimente la capillarité des modes de livraisons : casiers, points-relais, co-voiturage, drive ou livraison traditionnelle. C’est enfin, à plus long-terme, l’enjeu de penser une consommation appareillée, où le nudge joue un rôle central, la prise en charge des actes de consommation devient déterminante et où le service devient la capacité de venir au secours des gains de productivité de la consommation.

Avant de revenir sur ces trois points, rappelons notre réponse à la question de Pierre Blanc sur la typologie des objets connectés. Moins qu’une catégorisation sectorielle qui distingue la domotique, le soin de corps, l’aide à la cuisine, ou la vie urbaine, nous préférerons d’abord celle qui considère les objets moins comme des biens que comme des systèmes dont la particularité est de proposer à ces usagers une boucle de feed-back plus ou moins longues – un objet connecté au fond capte des données, les traite puis les restitue sous forme de notifications, de tableaux de bord ou de recommandation . Il y a des boucles locales qui n’ont guère besoin de se connecter à l’internet, et d’autres qui sans raison de consommation, mais de pouvoir, impose de passer par de vastes plateformes de données. Bref l’aspirateur-robot d’une part, et de l’autre la balance digitale. Cette typologie permet de mettre en évidence les différents business model en voie de constitution, et notamment le modèle de plateforme que certains acteurs veulent imposer, car dépositaires des données et maitres des algorithmes, il pourront plus facilement imposer les compteurs aux consommateurs qui n’en ont pas forcément besoin, en proposant des services à des tiers qui les prescriront aux premiers, pour des raisons évidentes d’un meilleur contrôle de la consommation. En équipant les salariés de bracelet de fitness, l’employeur peut ainsi espérer un coût moindre de l’assurance santé et l’assureur une sinistralité moins élevée, la plateforme (sans doute celle des gafa) se rémunérant par la location des APIs. Avec cette typologie, on comprend que le marché sera animé principalement par l’offre plutôt que par la demande. Pour le commerçant, l’impact est à la marge, la question est de savoir s’il sera fournisseurs des accessoires, les objets eux-même. Il y a peu de chance qu’il en soit l’opérateur, il sera donc plus intéressé par des objets autonomes dont l’acquisition apporte une valeur claire au consommateur.

A cette typologie s’en ajoute une seconde, plus anthropologique, qui s’interroge sur le rapport du sujet à l’instrument. S’inscrit-il dans la continuité du corps, comme le silex est un prolongement de la main ou se constitue-t-il comme un objet autonome qui prend seul des décisions, s’oppose à nos actions ( pensez à l’électronique embarqué qui nous pilote dans nos voitures) et devient un être social avec lequel on doive négocier. L’appropriation devient alors le critère principal et on pourra construire des catégories qui se détermine en fonction d’une distance à nos corps : des objets intra-corporels d’abord, qui ne semblent pas encore tout à fait acceptable, des objets épidermique qui sont l’ensemble des wearables et à proximité du corps en augmente l’efficacité, des objets proximaux qui à l’instar des balises, des voitures, des thermostats, prennent en charge notre environnement proche et pose des questions critiques quant à notre rapport au monde immédiat, qui ne sera plus constitué d’un espace inerte avec lequel à force nous nous familiarisons mais de cette informatique ambiante qui peut tout autant nous contraindre que nous prendre en charge. Il reste ces objets plus éloignés, les radars sur les routes, les caméras, les détecteurs de grippes qui font peser le poids de leur surveillance sans même que nous les imaginions précisément. Dans tout les cas c’est notre rapport au monde qui est en cause, un monde peuplé d’agents que la modernité avait éloignés ( les loups, les fantômes et les saints), laissant un espace inerte où nous construisions des usines, routes et des centres commerciaux. En d’autre termes, avec les objets nos paysages commerciaux ne sont plus seulement une anthropocène de béton, mais tapissée d’êtres presque vivants, agissants.

La faiblesse de ces deux typologies est de ne pas prendre en compte un fait fondamental : les objets communiquent moins avec nous-même via ces boucles de feed-back et leurs injonctions, qu’entre eux. Le monde des objets est celui où quittant une pièce le thermostat Nest ordonne à la lampe Philips de s’éteindre, et peut aussi peut-être signaler au centre de surveillance, une absence exagérément (pour l’algorithme)  longue. Laurent Tonnelier aura rappelé le service HP instant Ink où c’est l’imprimante qui commande l’encre qui va manquer, et dont on peut imaginer qu’elle soit livrée par le distributeur du coin. C’est donc l’idée de constellation d’objet qui dialoguent dans notre dos qui doit être pensée.

Et dans cette perspective, il faudra bien comprendre que le client n’est plus au centre. Dans les modèles d’affaire qui se dessine Uber peut aussi bien transporter un passager, qu’une pizza commandée par le voisin du premier au Pizza Pai du centre commercial. Le souci des commerçant dans cette perspective doit en conséquence de savoir quelle place occuper dans des chaine de valeur très compliquées, sachant que son avantage est d’être l’acteur le plus près des client, celui qui peut mettre en acte des chaines de services de prise en charge extrêmement complexe. Mais cela c’est pour le très long terme, même s’il faut le garder dans la ligne d’horizon.

Dans un avenir plus immédiat, il faut garder en tête qu’avec l’#iot c’est un internet trivial qui se déploie, un agenda universel qui améliore la productivité du consommateur, le soulage des tâches ancillaires, et lui permet de produire à plus faible coût des expériences plus valorisantes. Dans l’enceinte du magasin, je m’étonne qu’il n’y a pas encore de caddies autonomes, qui suivent le client, ou plutôt son smartphone,  dans ses déambulations ( ce serait bien mieux qu’un déambulateur dans une société vieillissante). Le rôle des objets doit être clairement de réduire l’effort dans une expérience que seul le consommateur peut produire.

Quant au présent, outre les nouveaux rayons qui peuvent être ouverts, restons attentif que le monde de l’électronique se traduit souvent par la faible fiabilité des appareils, la nécessité de les réparer ou de les remplacer, et surtout d’aider ceux qui les achètent à les utiliser au mieux. Pour les distribuer, le commerce aura à en faciliter l’usage, à défaut on se contentera de les louer.

Et à ce sujet livrons une dernière réflexion et une hypothèse à tester. Le modèle de l’abonnement, l’économie de l’accès, n’est pas forcément un aboutissement du marché. Il en est plutôt un stade intermédiaire, celui où l’acquisition est trop couteuse, les avantages flous, l’usage indéfini. C’est la stratégie du prudent et de celui qui ne veut pas s’engager dans une dépense dont les avantages, l’usage ou la valeur résiduelle, sont indéterminés. L’économie de la fonctionnalité est celle autant de l’incertitude que celle de l’indifférence. Le commerçant qui vit du transfert de propriété, et prend sa plus-value dans l’arbitrage, a besoin de la certitude de ses acheteurs. Il est le garant que les biens qu’il revend procurent un réel avantage.

A court ou à long terme, on comprendra que l’enjeu pour le commerçant n’est pas de changer de métier, mais d’apporter aussi ce quelque chose qui fait que le poisson sera bon, un citron ou un bouquet de persil. Faire en sorte que la promesse des objets connectés se réalise : réduire l’effort de la consommation.

 

 

 

 

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Les surprises du parcours client

Bernard Pivot – parcours client?
La gestion de la relation client connait depuis plus de vingt des évolutions qui vont comme le fleuve, sinuant entre les obstacles du relief, laissant ici et là des bras morts, creusant ailleurs des méandres.

La géologie de ce relief est formée bien souvent des mêmes matières : les technologies en composent une bonne partie, l’autre est formée essentiellement de cette vieille question de confiance et d’engagement, la troisième reste toujours et encore ce bon vieux processus d’évaluation et de décision des consommateurs. C’est sans doute lui qui réapparait au travers de la problématique de la gestion du parcours client.

Cette réapparition est motivée par les nouvelles vagues de technologies. Après avoir appris à structurer des bases de données, à utiliser de multiples canaux, nous apprenons désormais à disposer sur la route de nos clients une large quantités de capteurs qui multiplient les points de contacts et d’action. Remarquons que notre consommateur n’est pas plus complexe qu’autrefois, c’est nous qui compliquons les choses en multipliant les occasions d’interaction. Difficile d’y échapper d’ailleurs, c’est la règle de la concurrence. Plus on multiplie les points de contacts et plus on augmente les chances de contrôler ses décisions.
Un exemple simple est celui de l’achat d’un livre. Autrefois quand le besoin de lire se faisait sentir, nous allions flâner dans une librairie, passant des heures à ouvrir des bouquins, lisant le début ou la fin, les reposant sur des piles, n’en gardant que quelques un en main, jusqu’au moment décisif où la nuit tombant, nous nous dirigions à la caisse pour n’en choisir qu’un, ou deux, dans la limite d’un budget bien souvent dépassé. Et nous lisions. Nous en parlions passionnément à nos amis. Ce temps étant pour moi lointain, c’est au lycée, au moment des pauses que l’échange se faisait. Naturellement, le choix s’était préparé bien avant, au moment de ces pauses et plus rarement en lisant des critiques. C’était un temps où le marketing était simple. Il y avait les journaux, les bibliothécaires, et la librairie. Chaque canal de communication correspondait à une étape du processus de décision : les médias alimentaient la reconnaissance du besoin et la formation des préférences, et c’est dans la boutique que je décidais.
Depuis Amazon.com les choses se sont bien compliquées. Le nombre de points de contact s’est multiplié au cours du processus. D’abord au lieu d’emmener le livre acheté et emballé dans son sac de papier au premier banc public, comme nous l’avons commandé sur la plateforme, il faudra attendre plusieurs jours, pendant lesquels la cavalière décochent des mails pour nous informer du parcours de l’ouvrage, nous incitant au passage à réengager un nouveau processus d’achat. Ensuite, c’est plus récent, notre impatience peut nous conduire à commander la version électronique pour la lire de suite sur notre petit Kindle – bon ce n’est pas vraiment le cas en France mais le modèle va bientôt venir. On imagine qu’Amazon ne va pas en rester là, et qu’au cours même de la lecture en cliquant sur une phrase ou une autre, nous serons invités à lire autre chose. J’avoue aujourd’hui ne plus acheter de livre en librairie, j’y vais seulement pour humer l’humeur du temps. C’est au chaud de la maison que j’achète, et les critiques littéraires, je les lis plus souvent après la lecture, moins pour m’informer que pour confirmer mon jugement. Si Bernard Pivot a stimulé les désirs littéraires, c’est entre la république des livres ou non-fiction, qu’aujourd’hui je forme mes envies.
Bref, on comprendra qu’aujourd’hui non seulement les canaux de communication et de distribution se sont multiplié, mais qu’ils jouent un rôle important dans chacune des étapes de la décision. Pour ajouter à la complication, ces rôles différent selon les consommateurs. Il faut segmenter : tout le monde n’a pas un Kindle, ceux qui ont un I-pad ne sont pas des lecteurs, et il y a toujours des gens dans les librairies trop rare et des bibliothèques en pleine évolution. 
C’est cette triple évolution qui donne de la force à la notion de parcours client : multiplication des canaux, multiplication des stades de décision et multiplication des modèles de décisions. Cela pose donc la question de l’étude de ces comportement et de leur modélisation.
Pas de loi générale en la matière, mais une méthode. Un moyen simple en est le calcul probabiliste par le biais notamment des chaines de Markov. Un exemple est donné dans le tableau suivant. Imaginons que 5 canaux soient disponibles à chacune des 4 grandes étapes du processus de décision et d’achat. Nous restons classique, revenant à cette bonne vieille structure popularisée par Howard et Sheth en 1969 : reconnaissance du problème, recherche d’information, évaluation, décision, achat.
La première ligne donne la répartition des consommateur entre les canaux lorsqu’ils s’informent pour résoudre le besoin qu’ils éprouvent. La première matrice donne les probabilités conditionnelles qu’il évaluent les alternatives en fonction du canal utilisé pour s’informer. Ainsi dans le tableau, si on a utilisé les réseaux sociaux pour s’informer, alors il y a 80% de chance qu’on appuient sur eux pour évaluer et 10% de chance pour qu’on utilise un moteur de cherche afin de faire cette évaluation. Mais si on a utiliser un moteur de recherche pour s’informer, l’évaluation se fera dans 50% des cas sur la base du site web.
En multipliant la première ligne par le tableau en italique, on obtient la répartition des consommateurs entre les canaux utilisés pour l’évaluation.  Ces probabilités conditionnelles font que par exemple même si le canal de recherche est utilisé dans 30% des cas pour rechercher une information, il ne sera utilisé que dans 2% des cas pour évaluer les solutions.
Et l’on poursuit de la même manière pour les autres étapes. En obtenant pas enquête, ou analyse du traffic,  ces probabilités conditionnelles, nous aurons modélisé le processus cross-canal à travers les étapes du parcours clients. L’exemple est élémentaire, la réalité est naturellement beaucoup plus compliquée…
Ce type d’analyse d’un point de vue pratique est cependant très utile. Imaginons par exemple, que nous décidions d’investir dans les réseaux sociaux pour faire en sorte qu’ils jouent un rôle plus important dans l’évaluation ( c’est ce qu’indique la colonne en rose) on pourra analyser l’impact sur les canaux de vente. En supposant que la stratégie et les opérations marketing fassent que quelque soient les canaux utilisé pour évaluer le choix dépendent à 20% de ce qui se fait sur le réseaux social, examinons les conséquences. Elles sont données dans le tableau suivant :
Le résultats est que l’impact de cette stratégie est considérable. Le catalogue représentera 23% de plus de vente, quand le canal du web s’effondrera de 52%. Ce n’était  pas ce à quoi intuitivement on pouvait s’attendre.
Pour nombre de nos lecteurs , ces deux tableaux sont déjà une horreur, ils sont pourtant très simples, conceptuellement, ils représentent des simplification fortes de la réalité.

Ils ont l’avantage de dessiner une méthode pour appréhender sérieusement la problématique du cross canal dans la perspective d’une gestion optimale du parcours client. Ils permettent de mesurer l’impact que peut avoir l’effort porté sur une des étapes.Et tel est l’enjeu de l’analyse du parcours client à travers les canaux. Comment un changement de politique pour une des étapes du parcours peut influencer l’activité des canaux aux étapes suivantes de ce parcours.

On ne tirera pas de généralité de cet exemple dont la valeur n’est qu’illustrative ( même si elle s’inspire de l’analyse d’un cas que nous avons eu à traiter). Mais on considérera qu’agir sur une des étapes du parcours client peut modifier en profondeur ce qui se fait à une autre, et souvent de manière peu intuitive. Dans notre illustration le choix audacieux d’aller vers les réseaux sociaux, effondre la capacité de vendre du canal internet au profit du catalogue. Attendons-nous à de telles surprises dans un environnement qui n’est pas complexe, mais simplement compliqué.

Quel CRM pour le BOP?

Depuis l’article fameux de C.K Prahalad et S. Hart «Fortune at the  Bottom of the Pyramid » une littérature relativement importante s’est développée sur le thème du Business avec les plus pauvres à l’instigation de quelques auteurs clés , mais finalement a relativement trouvé peu d’écho en marketing. Dans la base Ebsco moins d’une vingtaine d’articles académiques sont recensés, dont une large part est due à un numéro spécial de Journal of Consumer Marketing.
En-deçà de la question sociale et politique des moyens d’améliorer le sort des 4 milliards de consommateurs pauvres du monde, la problématique avancée par ce groupe de chercheur est de connaître quels sont les modèles d’affaire qui permettent de réaliser des affaires avec les plus pauvres. En effet même si leur revenu annuel est inférieur à 1000 dollars annuels, la masse qu’ils constituent en fait un marché qui grosso modo pèse autant que les 150 millions d’humains les plus aisés et autant que les classes intermédiaires ( dans un scénario où 150 m ont un revenu de 30 000 dollars annuels, 1000 m de 4000 dollars et 4000 de 1000 dollars, chaque segment représente un tiers du pouvoir d’achat global).
D’un point de vue marketing, les stratégies BOP nécessitent naturellement des adaptation fortes en termes de produit et de prix, mais c’est sans doute les modes de distribution qui présentent l’originalité la plus importante : faire d’une partie des consommateurs des micro-entrepreneurs chargé de distribuer et de commercialiser les produits dans un environnement peu accessible par les méthodes traditionnelles, pour des raisons physique, sociale, ou culturelles. Des programmes tels que Ate vocé de Nestlé, Shakti d’Industan lever, les Grammeen Ladies de Danone en sont quelques exemples.
Ces cas qui sont relativement bien documentés, laisse cependant de côté une question essentielle : comment gérer une masse considérable de point de distribution ? Un seul exemple on évalue à près de 2 000 000 le nombre de warung en indonésie, Natura est réputé gérer 600 000 ambassadrices. On comprend qu’avec de tels volumes des outils de CRM peuvent être utiles pour gérer ce niveau intermédiaire de distribution alors qu’il est sans doute difficile de faire comme dans les pays riche de gérer directement la clientèle finale pour des raisons simple d’identification et de valeur unitaire. Ses buts seront sans doute différents. Et au-delà des outils classiques, s’intéresser à la manière dont ces agents utilisent les technologies de l’information : en voici un exemple. Ce domaine de recherche est immense, et manifestement inexploré. Que ce soit la question de ses formes : franchises, micro-entreprises, Marketing multi-niveau aussi, ou celle de leur contrôle.
Et en étudiant ces cas, leurs solutions, leurs inventions, soyons persuadés que nous découvrirons de nouvelles voies pour comprendre et imaginer les nouvelles formes de la relation client.

Plus de 24h pour les données – des nouvelles de l’AFM

Au congrès 2010 de l’AFM, qui avait lieu au Mans, nous avons été ravi d’animer avec Lars Meyer-Waarden une table ronde sur les panels, avec Matthieu Joly de MarketingScan et Jean-Pierre Gaucher de IRI.

Quelques questions simples et des réponses franches et éclairantes. Le bilan de ces dernières années est clair : une incroyable montée de la granularité et de l’étendue des données, la généralisation qui met à l’encan la théorie des sondages, une époque bien heureuse pour ceux qui se ravissent des bains d’information. Fraîches et précises, jamais elles n’ont été aussi détaillées, fidèles, précises, et utiles.

Un nouvel horizon? C’est celui de la confiance, et ceux qui possèdent les plus belles bases, celles qui sont constituées à partir des programmes de fidélité ne sont pas prêts encore à syndiquer leurs informations, ne serait-ce que par le biais d’échantillons larges. Mais cela n’empêche pas cette fusion des données de demeurer aujourd’hui l’horizon des panels.

Nous aurons senti dans cette rencontre qu’un appel fort est lancé auprès des académiques, non pas dans le développement de modèles que peu d’annonceurs sont prêts à comprendre, mais dans l’établissement de généralisations empiriques qui aident à la décision.

Nos interlocuteurs auront avoué au fond que la masse des données qu’ils recueillent et redistribuent auprès de leur client est assez peu travaillée dans sa généralité. Elles ont pourtant le potentiel de donner des indications précises sur l’efficacité générale des moyens du mix : le prix, la promotion, la marque et la publicité, sans doute l’effort promotionnel, toutes ces données sont désormais disponibles à une échelle qui est moins celle d’un échantillon que de celle d’une population, laquelle permet dans certains cas une finesse géographique qui au-delà de la dimension stratégique en font aussi des outils de pilotage opérationnel.

Remercions-les d’avoir ouvert leurs réflexions à la communauté de l’AFM, d’avoir dit sans fard l’état de leurs méthodes, et de donner l’espoir qu’une connaissance empirique sérieuse puisse se développer. On ne sait que peu de choses des marchés, on connait rarement la dynamique de leur essor, les présomptions sont plus fortes que les faits. Le travail que font ces sociétés n’est finalement pas que de donner aux acteurs une vision lucide de leurs affaires, mais aussi de permettre que l’on connaisse mieux l’état des marchés et les mécanismes qui les habitent. Il reste à nous organiser pour proposer les projets, les méthodes et les techniques qui feront parler les données.

Nous retiendrons que jamais on a connu une telle abondance de données, mais que jamais on a autant été éloigné des données du marché, au moins dans les milieux académiques. Le message laissé par nos invités est clair : il y a besoin de docteurs, il y a besoin de chercheurs, il y a besoin de donner du sens aux données. Et la panelisation des programme de fid, si elle est souhaitable, n’est pas encore possible…