Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

Publicité et digital : faut-il de nouvelles mesures ?

Friendfeed vs Twitter
[pour la Journée AFM GfK France – 1er avril 2011]
L’environnement publicitaire se caractérise d’abord par la multiplication des canaux et moyens d’actions dont les métriques varient sensiblement de ce à quoi on était habitué, chaque instrument par nature suscite ses propres indicateurs : les taux de clics, nombre de pages vues, nombres de vidéos vues, les niveaux de recommandation sur les réseaux sociaux, des indicateurs de sentiments, des scores d’influences, des taux d’ouverture, de conversion, de transformation, d’appétance. Cette multiplication des indicateurs cotoie sans complexe l’exigence du ROI, ce mot magique qui justement jamais ne donne le retour sur investissement, se contentant d’un ratio entre un effort et un résultat. Les As du ROI sont de piètres comptables, et souvent de mauvais économistes.
Si on peut croire qu’un indicateur peut refléter le résultat d’un effort effectué dans un canal et être comparé à travers différentes actions (le coût par clic en est un moyen), on voit mal comment comparer différents indicateurs d’un canal à un autre ( le coût du clic et celui de l’ODV). Il faudrait une échelle commune, où un critère définitif puisse trancher : quel impact sur les ventes, la part de marché, le profit ou mieux encore la valeur client ? Les myriades d’indicateurs que l’on constitue à mesure que des canaux nouveaux s’ouvrent, sont des indicateurs secondaires de performance, l’enjeu est de les lier aux mesures fondamentales.
Le caractère ad hoc des indicateurs est sans doute le problème le plus simple. Nous avions déjà rapporté l’argument de Gian Fulgoni à propos des taux de clics si faibles qu’on devrait abandonner l’usage des bannières, il sont de l’ordre de 0,1%, mais ils tiennent compte ni des effets de mémorisation ou d’image qu’on retrouve dans le glissement des ventes. C’est à travers la multiplicité des campagnes que l’on doit mesurer la performance. Le plan doit dominer sur les opérations. Les obsédés du ROI peuvent perdre de vue la stratégie. Et son résultat mesure l’effets de toutes les opérations sur les ventes.
Le problème le plus important vient des effets cross-canaux qui sont fortement intriqués. Les mass media incitent à fréquenter les sites, et la frequentation des sites accroit sans doute la performance des mass média. Le marketing direct peut pousser avec précision une marque et augmenter la fréquentation du site rendant un nombre important de consommateurs sensibles aux messages des mass-media. Les effet vont dans un sens et dans l’autre, ils sont récursifs.
La conséquence est qu’il est difficile de démêler les effets, sauf à comprendre les inductions dans le temps : comment un canal affecte la performance d’un autre. Les indicateurs d’un médium ne mesurent pas forcément l’effet unique de ce média, mais aussi l’influence des autres. Ce souci est augmenté par le fait que les campagnes sont désormais en continu, comment isoler l’effet d’une campagne de l’accumulation des effets des précédentes ?
C’est une question à laquelle Fulgoni propose une réponse simple. Pour analyser l’efficacité des bannières il ne faut pas regarder le taux de clics qui est extrêmement faible : 0.1%. L’effet d’une campagne peut difficilement être apprécié en tant que tel. Le clic représente une action, mais un silence n’est pas forcement sans effet, les expositions sans action peut aussi travailler la cible. C’est pourquoi il propose de regarder l’effet cumulé sur les ventes, et d’isoler ce “drift”, qui n’est rien autre qu’un calcul d’élasticité. On en revient à l’idée fondamentale d’un Little et de son decision calculus.
La différence est qu’aujourd’hui nous disposons de quelques trésors économétriques. La solution passe par un effort de modélisation sophistiqué qui est le seul moyen de distinguer les effets. Les solutions sont disponibles depuis plus de 10 ans avec les modèles VAR, VECM ou DLM dont l’intérêt principal est de tester simultanément les effets d’un indicateur sur un autre par un jeu simple d’équation d’auto-régression. Une batterie d’outils les accompagnent :
    1. les tests de causalité à la Granger qui aide à étudier le sens de la causalité, par exemple de nombre cumulés de membres de la page de fan influence-t-il la mémorisation d’une campagne TV et/ou la campagne TV influence-t-elle le nombre de membres de la page ?
    2. Des tests de cointégration qui sont essentiel dans la mesure où de nombreux nouveaux indicateurs sont des indicateurs cumulatifs : le nombre de membre twitter est la somme des précédent plus des nouveaux. Dans ce cas les séries sont intégrées.
    3. Des fonctions d’impulsion qui par simulation permettent de calculer et de représenter l’influence d’une variation unitaire d’une des variables sur les autres variables en examinant sa distribution dans le temps. Ce sont en fait les formes modernes de l’élasticité qui reste le seul critère de mesure d’efficience.
Que l’on dispose de la méthode est une chose. Mais ce n’est pas suffisant. C’est une connaissance plus fine des interactions des médias qui est nécessaire. L’écologie des médias en temps réel, tels que twitter, et des grands médias d’information est instructive : à l’examen des grands événements on devine assez nettement les interactions. L’info primaire qui y circule a d’autant plus de chance d’être reprise par les médias qu’elle est retwittée, mais en retour sa reprise par ces médias active les Rtwits. Mais à ce cycle, qui prend quelques heures ( par observation directe de certains événements la reprise par les grands médias se réalise quelques heures après – souvent le temps de vérification – et son effet sur les re-tweets dure on va dire 36h), s’ajoute un effet parallèle sur les blogs qui se nourrissent de cette double information mais dans un rythme plus lent, celui de quelques jours. Pour compliquer la chose, un certain nombre de nouveaux médias reprennent a posteriori l’information en la republiant (syndication). Cette activité d’ailleurs peut être institutionnalisée, c’est ainsi que le Monde réinternalise un certains nombre d’articles de Internet.actu. Pour achever cette analyse, rappelons que les adwords s’articulent sur le contenu !! L’exposition dépend de la production des informations. D’une écologie complexe.
C’est ce cycle d’information qui doit être l’objet de recherche approfondies, doit être mieux compris, non seulement dans l’ordre et l’importance des interactions, mais aussi dans la structure des populations qui l’animent : spécialiste de RP, blogueurs influents, fan de marques, leader d’opinion et ce grand public qui demeure en dépit de la socialisation de l’internet : 90% des consommateurs d’information ne font rien ou presque, le taux de recommandation n’est guère plus important que 5% et celui des contributions inférieur à 1%. Une écologie complexe de la communication publicitaire et non publicitaire est en train de se mettre en place. Il est essentiel d’en avoir une connaissance plus fine sur le plan empirique.
Nous avons les méthodes, nous avons les données, il reste à les réunir. Quand à la nécessité de nouveaux indicateurs et de nouvelles mesures laissons cela aux marketers des nouveaux services. En réalité on en a pas besoin. Il suffit de pouvoir mettre en ligne et en modèles, les données disponible. On examinera a postériori s’il permette de mieux rendre compte de la dynamique d’ensemble, et de savoir quelle place prendre dans le système à construire qui n’est rien d’autre qu’une forme de balanced scorecards
Alors oublions les mauvais comptables, coupons la tête au ROI, réapprenons ce que les spécialistes du contrôle de gestion nous apprennent depuis longtemps, prenons tous les indicateurs disponibles et cherchons quelles causalités les relient, et comment les tactiques contribuent à réaliser les objectifs de la stratégie. En marketing ces objectifs sont peu nombreux, ils se résument à la part de marché et à la valeur du portefeuille de clientèle.

Plus de 24h pour les données – des nouvelles de l’AFM

Au congrès 2010 de l’AFM, qui avait lieu au Mans, nous avons été ravi d’animer avec Lars Meyer-Waarden une table ronde sur les panels, avec Matthieu Joly de MarketingScan et Jean-Pierre Gaucher de IRI.

Quelques questions simples et des réponses franches et éclairantes. Le bilan de ces dernières années est clair : une incroyable montée de la granularité et de l’étendue des données, la généralisation qui met à l’encan la théorie des sondages, une époque bien heureuse pour ceux qui se ravissent des bains d’information. Fraîches et précises, jamais elles n’ont été aussi détaillées, fidèles, précises, et utiles.

Un nouvel horizon? C’est celui de la confiance, et ceux qui possèdent les plus belles bases, celles qui sont constituées à partir des programmes de fidélité ne sont pas prêts encore à syndiquer leurs informations, ne serait-ce que par le biais d’échantillons larges. Mais cela n’empêche pas cette fusion des données de demeurer aujourd’hui l’horizon des panels.

Nous aurons senti dans cette rencontre qu’un appel fort est lancé auprès des académiques, non pas dans le développement de modèles que peu d’annonceurs sont prêts à comprendre, mais dans l’établissement de généralisations empiriques qui aident à la décision.

Nos interlocuteurs auront avoué au fond que la masse des données qu’ils recueillent et redistribuent auprès de leur client est assez peu travaillée dans sa généralité. Elles ont pourtant le potentiel de donner des indications précises sur l’efficacité générale des moyens du mix : le prix, la promotion, la marque et la publicité, sans doute l’effort promotionnel, toutes ces données sont désormais disponibles à une échelle qui est moins celle d’un échantillon que de celle d’une population, laquelle permet dans certains cas une finesse géographique qui au-delà de la dimension stratégique en font aussi des outils de pilotage opérationnel.

Remercions-les d’avoir ouvert leurs réflexions à la communauté de l’AFM, d’avoir dit sans fard l’état de leurs méthodes, et de donner l’espoir qu’une connaissance empirique sérieuse puisse se développer. On ne sait que peu de choses des marchés, on connait rarement la dynamique de leur essor, les présomptions sont plus fortes que les faits. Le travail que font ces sociétés n’est finalement pas que de donner aux acteurs une vision lucide de leurs affaires, mais aussi de permettre que l’on connaisse mieux l’état des marchés et les mécanismes qui les habitent. Il reste à nous organiser pour proposer les projets, les méthodes et les techniques qui feront parler les données.

Nous retiendrons que jamais on a connu une telle abondance de données, mais que jamais on a autant été éloigné des données du marché, au moins dans les milieux académiques. Le message laissé par nos invités est clair : il y a besoin de docteurs, il y a besoin de chercheurs, il y a besoin de donner du sens aux données. Et la panelisation des programme de fid, si elle est souhaitable, n’est pas encore possible…

Retour vers la valeur du client


La mesure de la valeur client est désormais une chose ancienne. Si l’on datait les choses, peut-être pourrions nous fixer en 1987, il y a plus de vingt, une des formalisations les plus abouties qu’ont proposé Schmittlein, Morrison et Colombo(1). Nos lecteurs proposeront sans doute d’autres références, et des dates plus anciennes. C’est dans les années 90 que cette idée de mesure et de modélisation de la valeur client a pris son envol, dès 2002 des revues de littératures sont proposées(2). Plus récemment on ira voir Gupta, Hanssens et consorts (2006)

La sophistication et le raffinement des modèles est depuis à la mesure de leur floraison. Ils sont aujourd’hui comme les fleurs d’une prairie au printemps, occupant toutes les niches de l’écologie des marchés, même si des lignes de force claires en structure la variété. Entre les modèles de rétention (lost for good), les modèles de migration (always a share), les modèles purement probabilistes, déterministes, autorégressifs, markoviens, ceux en cohortes, les paramétriques et les non-paramétriques, les survies et les semi, les mélanges, la palette complète de l’outillage statistique est employée.

Et pourtant on reste encore dans une certaine confusion, la valeur client, la life time value, le capital client, forment encore une terminologie variée qui s’adressant à une même idée, a des difficultés à rendre compte de la nature des concepts qu’elle désigne. C’est en partie la faute de cette abondance, qui dans un esprit de compétition, a négligé le raisonnement économique et pris parti de la munificence technique.

Revenons donc au concept. L’idée fondamentale est empruntée à la finance sur la base de cette découverte des années 80, c’est la gestion de la relation qui est le véritable objet du marketing plus que celle des décisions d’achat, et cette idée considère que le client est un actif, dont la valeur est mesurable, par la méthode de l’actualisation. Bref, que la valeur d’un client est égale à la somme dans le temps de la valeur qu’on espère qu’il produise à chaque période. Dans ce raisonnement, et cette définition, chaque point est important.

Le premier est l’idée de cash-flow. La valeur vient de la différence entre ce que l’on engage, plus que des coûts mais des investissements, et la liquidité qu’on en obtient. De ce point de vue nombreux sont les modèles qui ont perdu de vue la définition, confondant le cash flow avec le profit, qui est difficilement calculable, mais pire avec le revenu. Nombre des modèles de Life Time Value, ce que nous traduisons par valeur actualisée du client, sont devenu à force des modèles de Customer Life Time revenue. Un comptable aura beaucoup de mal à confondre les deux notions, même si on comprend que dans l’esprit du marketeur les choses peuvent se confondre.

Le deuxième point est celui de l’unité d’analyse. De la même manière que la valeur d’un titre ne se confond pas avec la valeur du portefeuille, la CLTV est une notion propre à chaque actif du portefeuille de clientèle, à chaque client, à chaque relation avec le client. Et chaque actif se caractérise par son espérance de valeur, mais aussi par son risque, mesuré usuellement par la variance de cette espérance de valeur.

Le troisième point concerne justement cette notion d’espérance de valeur. Le gain futur n’est pas assuré. Il n’a de sens qu’au regard d’une politique mise en œuvre aujourd’hui dont on examine les prolongements dans le temps pour les ramener à la date présente. C’est le sens de l’actualisation, qui n’est pas une prévision mais une mise en équivalence. Que valent aujourd’hui les flux de cash dans le futur produit par la politique actuelle? Le financier pour résoudre ce problème corrige la valeur future par un coefficient qui représente soit un arbitrage d’opportunité, le rendement actuel des actifs, soit par une correction de la dégradation de la valeur de la monnaie. Il inclut aussi des espérances de croissance. Dans le cas du marketing, les choses sont un peu différentes dans la mesure où l’on n’espère pas que les actifs se maintiennent dans le temps. Les marketeurs sont pessimistes, ils savent qu’il y a peu de chance qu’un client aujourd’hui le soit encore dans 7 ans. Pour faire simple, si le taux d’attrition de la clientèle est de l’ordre de 30%, au bout de 5 ans la probabilité qu’un client le soit encore est inférieure à 20%. Autrement dit, si en finance l’espérance de gain est une moyenne constante dans le temps, pour le marketing elle est strictement décroissante.

Poursuivons sur ce point, en examinant cette notion d’espérance de gain. D’un point de vue mathématique l’espérance de gain est la somme des différentes éventualités, et chacune d’elle est le produit d’une valeur possible et de la probabilité qu’elle se réalise. Dans le cas de l’espérance de la valeur client, on suppose de la manière la plus large que la probabilité diminue dans le temps, en moyenne, et que le gain qu’on espère réaliser, varie aussi selon des chemins que le modélisateur doit déterminer. Souvent l’hypothèse est que l’espérance (la moyenne) de gain est constante, mais que la probabilité qu’il se réalise est strictement et fortement décroissante. Mais on peut imaginer que l’espérance de gain suive une trajectoire parabolique traduisant dans la vie de la relation qu’un apprentissage conduise à développer le revenu espéré du client, puis que comme toute chose dans ce monde, l’usure et la fatigue érode ce revenu. Et indépendamment, on peut se dire que le risque de n’être plus client s’accroisse dans l’amorce et la constitution de la relation, pour ensuite rester stable, peut être s’affaiblir plus tard, quand l’ennui prend le dessus. Naturellement ces trajectoires sont le propre de chaque individu, de chaque histoire.

Quatrième point, nous avons souligné que ces évolutions correspondaient à l’hypothèse que la politique marketing, autrement dit l’effort pour acquérir d’abord le client, puis pour le maintenir ou le développer, était le même à travers le temps. L’actualisation ne mesure pas un futur, mais un présent, elle vaut ce que l’on fait aujourd’hui et que l’on poursuit obstinément. L’effort d’acquisition conduit à sélectionner un certain type de client. On sait que s’il est important, il y a de fortes chances que ce client soit infidèle et opportuniste, on sait que s’il nous a choisi librement, sans qu’on le force il a de fortes chances d’être fidèle et généreux. De même si l’on ne fait rien pour nourrir la relation, il nous quittera rapidement. On peut donc imaginer des politiques optimales de gestion de ces clients. Les techniques d’optimisation dynamiques sont à notre service. L’idée centrale est donc bien que le CLTV dépend de l’effort d’acquisition, de rétention et de développement. Il y a donc au moins dans le principe l’idée d’une CLTV optimale à laquelle on doit comparer la CLTV actuelle.

La valeur d’un client n’est pas une chose donnée. Elle est la résultante de ce qu’il est, des circonstances, mais surtout de ce qu’on lui fait. C’est sans doute un des points les plus mal compris. Il n’y a pas de client à forte valeur ou à faible valeur, il y a des clients dont on exploite correctement le potentiel en lui attribuant les ressources nécessaires, et ceux que l’on néglige. C’est sans doute le point fondamental.

Ce raisonnement d’ailleurs permet une troisième idée, celle de la CLTV intrinsèque, qui se définit simplement comme la valeur produite par un client pour lequel on n’aurait fait aucun investissement. C’est cette valeur qu’il produit, indépendamment de l’effort marketing. On comprendra aisément que la problématique de la valeur du client tient dans une comparaison de ces trois indicateurs : celui d’une valeur intrinsèque qui ne requiert aucun investissement, celui de la valeur actuelle qui mesure la récompense de la politique d’investissement adoptée au jour du calcul, et celle d’une hypothétique valeur optimale qui correspondrait au meilleur des investissements.

A ce stade de l’analyse, nous avons fait presque le tour de ce que les modèles doivent être capables de rendre compte. Et nous devrions nous intéresser désormais à cette autre notion qui est la valeur du portefeuille, autrement le Customer Equity. Il faudra pour cela garder à l’esprit que si ce dernier est la somme des valeurs individuelles, il n’est pas un concept nouveau, mais se confond avec ce que nous avons analysé. Nous garderons pour un autre post cette discussion.

Il nous reste juste à prendre en compte une idée qui se développe depuis quelques années. Les clients ne sont pas seuls, et parlent à leurs voisins, ils recrutent eux-mêmes de nouveaux clients, ce qui a amené certain chercheurs à vouloir inclure ces gains secondaires dans les calculs de CLTV. Notre point de vue est que ce parti pris est erroné, moins par le principe que par ses conséquences, mais nous y reviendrons plus tard, nous contentant ici de réaffirmer que la force du concept de Customer Life Time Value, est de considérer aujourd’hui les conséquences futures de la politique marketing actuelle, en prenant en compte le plus raisonnablement possible, les trajectoires temporelles de la relation établie avec chacun des consommateurs qui participent la base de clientèle.

Références

(1) Schmittlein D., Morrison D. et Colombo R. (1987). Counting your Customers: Who are They and What will They do Next? Management Science, 33, 1, p. 1-24

(2) Gupta S., Lehman D. R. et Stuart J. A. (2002). Valuing customers. Journal of Marketing Research XLI, p. 7–18

Modéliser la valeur client

Depuis les années 90, avec le développement des recherche sur la satisfaction, l’orientation client, et le développement des outils de CRM, la valeur des clients (à distinguer de la valeur pour le client) s’est avérée être à la fois un thème central de recherche, mais aussi un enjeu de gestion pour les firmes. Des auteurs comme Blattberg ou Rust dès les années 2000 ont proposé d’en faire le socle de la gestion marketing.

Un premier problème s’est posé au travers de la mesure du capital client (Customer equity, CE) qui s’est fondée sur la notion de valeur actualisé du client (life time value, LTV), le capital client se définissant comme la somme des LTV. Un premier modèle est sans doute celui de Colombo schmittlein et Morrison en 1987, par la suite une multiplicité d’approches ont été engagées selon que l’on soit dans un cadre contractuel ou non, que l’on soit dan une situation de « perdu pour toujours » (lost for good) ou de « toujours un euro à ramasser » (always a share), que l’approche soit stochastique ou déterministe, la mesure individuelle ou agrégée, Villanueva et Hanssens (2007) donnent une typologie intéressante de ces familles de modèles.

Le sujet reste d’actualité. Parmi les problèmes qui restent posés quatre d’entre eux méritent une attention particulière :

Le premier est celui de la modélisation de la LTV. Le développement considérable d’une famille de modèle stochastiques fondés sur la distribution NBD, dont les différentes formulations correspondent à différentes hypothèses concernant le comportement du client et son hétérogénéité. L’enjeu principal est d’introduire dans ces modèles des variables individuelles par lesquelles non seulement ces modèles permettront une évaluation financière plus fine, mais aussi d’engager une segmentation plus opérationnelle, leur complexité devant être évalué au regard des techniques plus utilisées telles que les modèles logit utilisés pour l’évaluation du churn, les modèles de survie, ou encore le bon vieux RFM.

Un second problème est celui de l’introduction des variables d’actions marketing au sein de ces modèles. La valeur potentielle d’un client en effet n’est pas une chose donnée une fois pour toute, ce n’est pas comme on l’imagine trop souvent un élément exogène, la valeur potentielle du client dépend de l’effort qui lui est consacré. On aurait plus intérêt à considérer dans cet esprit la notion de valeur optimale du client, qui se définit simplement comme une valeur marginale : la valeur future du client produite en dépensant un euro de plus.

Le troisième problème découle des précédents. Il s’agit moins d’une question de formulation de modèle, que de tester les hypothèses courantes de la gestion de clientèle. Les clients qui ont la plus grande valeur sont-il les plus sensibles à l’action comme les praticiens le considèrent ? Quelle est la rémanence des actions de marketing client habituelles ? Dans quelle mesure la valeur future des clients dépend-t-elle de leur mode d’acquisition aujourd’hui ? Les gros clients aujourd’hui seront-il vraiment les plus fidèles ? La diversité des achats (cross et up selling) est-elle liée à l’ancienneté des clients ? Bref il s’agit de considérer comment l’action marketing et les caractéristiques des clients interagissent pour produire une plus ou moins grande valeur.

Il reste enfin un dernier problème qui est celui de la relation entre la valeur de la clientèle (CE) et la valeurs des clients (LTV). Si la LTV est analysée pour les clients en portefeuille, le CE doit prendre en compte la politique de renouvellement des clients, et il est peu probable que maximiser la LTV revienne à maximiser le CE, contrairement aux discours courants, il faut mieux sans doute réserver une part des ressources destinée à fidéliser pour acquérir et sélectionner ceux qui formeront la valeur future du portefeuille. Comment optimiser l’effort d’acquisition, de rétention et de développement de la clientèle ?

Ce sont ces questions qui seront discutées dans la séance du 9 octobre autour de la thèse d’Herbert Casteran, avec Michel Calciu et Lars Meyer-Waarden, Maîtres de conférences à l’USTL et à l’Université Toulouse III.