Work in progress : CRM à l’heure digitale

Voici un document de travail, l’esquisse d’un chapitre pour un ouvrage coordonnée par Thomas Stenger pour Dunod. Le développement d’un certain nombre d’idées qui serpentent dans ce blog.

Celle que l’information est produite plus que nous ne pouvons la traiter, que des processus psycho-sociaux font de cet espace un espace privé plus que public, que le prix de l’adaptation est celui d’une perte de vie privée, que les systèmes locaux favorisent les dynamique locale, microlocale. Qu’au delà des communautés c’est de les faire vivre en de petites sociétés qui est nécessaire.Quelque idées à tester, en cours de mise en forme, et pour lesquelles vos commentaires sont bienvenus.

credit photo

Impressions numériques…Le document est un média

Certaines technologies sont discrètes mais essentielles. Dans l’univers du marketing, l’impression numérique est sans doute la technologie qui a et qui aura le plus d’importance dans les pratiques. Permettant les petits tirages, et facilitant la personnalisation des documents, à des échelles de plus en plus vastes, plus que l’internet ce sont ces outils qui permettent les pratiques actuelles de marketing direct.

Au-delà de l’industrie du marketing direct, l’impression numérique transforme en profondeur l’industrie textile, l’édition, et l’industrie du packaging. Et dans chacun des cas, elle assure le dernier maillon de la chaine de la personnalisation. On ira voir ici quelques éléments factuels produits par le spécialiste du domaine : Frank Romero du Rochester Institute of technology. Si ces technologies sont apparues dès 1993, leur impact croissant vient de l’accroissement continu de la définition, de la taille des documents, de la vitesse (des centaines de pages par seconde) mais surtout des échelles grandissantes de production auxquelles elles surpassent les techniques de l’offset. On consultera les publications d’Interquest pour plus de détails sur l’économie du secteur.
Ainsi l’impression numérique a pour effet principal de transformer le papier en écran numérique, les possibilités techniques et économiques permettent d’obtenir sur le papier les même fonctions que sur un écran, finalement. Cela d’autant plus facilement que les offreurs de solutions (HP, Xerox, Kodak, Riso…mais aussi les spécialistes de la GED tels que CINCOM) associent à l’imprimante des solutions logicielles pour gérer les documents. Ces solutions forment le cœur de cette nouvelle industrie. En permettant d’aller chercher dans les bases de données des éléments d’informations variés, des documents personnalisés peuvent être composés puis produits. Ils seront diffusés sous forme numérique, ou papier. Le support compte finalement peu, c’est l’intégration de la chaine documentaire et de la chaine d’édition qui devient essentielle. L’imprimante n’est alors plus qu’un terminal comme les autres, et la production peut alors se faire au plus près de la consommation. Nous en somme au stade du PoD ( Printed on Demand).
Il est assez évident que les solutions matérielles et logicielles ouvrent depuis plusieurs années un champ immense d’applications et de modèles d’affaires. C’est le cas notamment pour le marketing direct de cette approche à la dénomination malheureuse, mais importante : la transpromo. L’association des bases de données documentaires (GED), des systèmes CRM, de l’éditique, et de l’impression numérique permet aujourd’hui de transformer n’importe quel document transactionnel (une facture) en un support publicitaire. Toute la production documentaire de l’entreprise, devient un média à part entière. Un nouveau canal, personnalisé.

Gestion des contacts et gestion de la relation

L’approche client en marketing a gagné de manière évidente, au moins par le vocabulaire. On ne peut que s’en féliciter, sauf si par un esprit chagrin, on remarque que ce qui est appelé relation-client se limite à de simples contacts.
Ainsi les centres de gestion de la relation client sont souvent un rhabillage sémantique de centre de contact que les lieux où la relation se construit. L’ambiguïté n’est pas nouvelle, elle était déjà en germe dans les systèmes de gestion de CRM, qui le plus souvent ne font que les comptabiliser, éventuellement les analyser, beaucoup plus rarement les développer. La confusion des termes donne cependant l’opportunité de souligner l’importance de ces deux niveaux d’actions et d’analyse : le contact et la relation.
Ce qu’une littérature bien ancrée du marketing relationnel  souligne est qu’au delà des moments d’achats et plus largement des moments de vérité, un élément important et préalable joue un rôle crucial dans les décisions du consommateur : la relation. Celle-ci est un état, une atmosphère, une expérience, une prédisposition à l’égard de la marque qui est indépendante de l’offre, mais en conditionne le choix pour plusieurs raisons. La principale est qu’une relation de bonne qualité crée de la confiance, réduit le risque perçu, renforce l’appétence, facilite la recherche d’information, encourage l’échange, facilite la résolution des conflits.
Naturellement cette relation se construit sur la base de la multitude des interactions et des contacts. Dans un univers aux médias abondants, ces contacts n’ont jamais été aussi nombreux. Et il importe naturellement que chacun d’eux soit satisfaisant. En multipliant les points et les moments de contacts, c’est l’effet immédiat des technologies de l’information, une plus grande exigence est demandée en la matière. Elle est opérationnel et vise que jamais des processus s’exécute de manière fiable.
Gestion de la relation et gestion des contacts sont deux niveaux distincts d’analyse et d’action même s’ils sont interdépendants. La question est de savoir quel niveau est prioritaire? Pour certains, c’est la thèses des petits effets, c’est par une gestion impeccable des contacts que la relation est conforté, pour d’autre c’est la relation elle-même, le degré de confiance et d’attachement qui doit être la cible des efforts.
Ces deux niveaux diffèrent dans leurs horizons temporels. L’unité du contact est relative à un instant, des secondes, des minutes, au plus des heures. L’unité de la relation est celle de son histoire, des jours, des mois des années. L’une se répète, l’autre se poursuit, et si la première nécessite une formalisation élevée, la seconde exige une attention personnalisée.

C’est toute la différence de ces deux gestions parallèles : le succès de la gestion des contacts vient de la capacité à en assurer une qualité régulière à grandes échelle, celui de la relation a créer dans l’esprit de chaque consommateur un sentiment durable de confiance et d’attachement étroitement associé à sa reconnaissance. Et pour donner une échelle aux choses considérons par exemple le cas d’une clientèle bancaire qui serait de l’ordre de 5 millions de clients. Tous reçoivent un relevé bancaire mensuel, la moitié consulte leur compte 5 à 8 fois par mois, on passe au distributeur de billet hebdomadairement, et disons que l’on consulte son conseiller deux à trois fois pas an. L’arithmétique seule fait jaillir une quantité de contacts qui se chiffre en milliard quand le nombre de relations gérée par conseillers est de l’ordre de quelques centaines, éventuellement quelques milliers. Pour quelques contacts intenses et structurant de la relation, la majorité résultent d’automatisme et d’une logique d’ingéniérie.

Toute la question est donc de faire coexister et collaborer ces deux niveaux de gestion. Ce serait une erreur de les confondre.

crédit photos

La panelisation des systèmes CRM – next step ?

Pour le vieux data-miner, celui qui utilisait SPSS en DOS et les codes SAS, celui qui a été nourri au lait de l’analyse des données et des algorithmes de classification, les vingt dernières années ont été une période plus que faste, joyeuse, munificente.

La taille des fichiers double chaque année, la vitesse de calcul rattrape cette taille, rendant obsolète cette vieille théorie des sondages à mesure que les populations dépassaient les milliers d’individus, puis les dizaines de milliers, et les centaines, comptant aujourd’hui en millions, voire dizaines de millions. Les Oracles, les IBM, ont largement contribué à la construction logique de ces bases. D’autres solutions émergent fondées sur le calcul dans les nuages.

Bien sûr en parallèle de ce mouvement, de nouveaux modèles, les algorithmes s’adaptent à ces nouvelles données, et de nombreux modèles sont apparus même s’ils ne sont pas si systématiquement employés par l’industrie : réseaux de neurones, réseaux bayésiens, modèles multi-niveaux, modèles de mélanges, cointégration et modèles VAR, juste pour en citer quelques- uns.

Mais le fait dominant reste dans la dimensions des bases de données. Et il peut être bien d’en caractériser les principales structures.

  • La structure de données élémentaires est celle des enquêtes ad-hoc. Autrefois limitées à quelques centaines d’interviews en face à face, on peut envisager désormais des enquêtes électroniques de plusieurs dizaines de milliers de personnes. Ces données sont transversales, couvrent une ou plusieurs populations, et sont constituées de réponses à un questionnaire. Elles concernent des dimensions attitudinalles : connaissances et jugements.

  • Bien avant l’internet un souci aigu s’est manifesté pour mesurer l’impact des médias de masse. Les panels en sont la solution. Longitudinaux par nature, ils contrôlent l’évolution de valeurs agrégées telles que la part de marché, des taux de pénétration, d’audience, de couverture de la distribution, de prix moyens pratiqués. Les modèles fondamentaux sont les modèles de part de marché qui évalue l’impact des moyens du mix sur le choix des consommateurs. Panel de distributeurs ou de consommateurs, ils saisissent une population dans sa continuité par des données journalières. Internationaux ils couvrent désormais des dizaines de milliers d’individus dont ils suivent quotidiennement les consommations. Trois sociétés dominent : GFk, Homescan, et IRI avec Médiamétrie pour les audiences.

  • Une des conséquences de la révolution des TI a été l’introduction et le développement des système CRM qui capturent avec un grand détail les comportements d’une clientèle. Le volume de ces données peut aller jusqu’à plusieurs millions d’individus, pour lesquels plusieurs dizaines d’actes d’achats sont enregistrés ainsi qu’un nombre équivalent de contacts marketing. La limite de ces données est de limiter la vue avec ceux dont on est au contact, pour le reste du marché on devient aveugle. Segmentation et scoring en sont les outils privilégié.

L’internet bouleverse ce paysage de trois manières :

  • Il généralise la géolocalisation et en fait la clé universelle de mise en relation des bases de données.

  • Il introduit des matrices de relations sociales et permet de mesurer plus que les attitudes, les comportements et les expositions mais aussi les interactions sociales. C’est le graphe social.

  • Il permet l’association de plusieurs bases de données par la mise à disposition d’API au service des développeurs d’application, faisant du mash -up la nouvelle frontière des bases de données : leur interopérabilité.

Dans cette perspective, on peut se demander si on ne va pas vers nouvel outil de mesure ? Très certainement, on peut en imaginer les traits. Il sera d’abord un outil hybride qui associe différentes sources, par exemple en échantillonnant les bases de données CRM des principaux concurrents sur un marché. La juxtaposition de ces bases neutraliserait leur caractère partiel, égocentré, en donnant une vue panoptique du marché.

Mais elle exige une stricte anonymisation. L’unité de matching des données devra par conséquent se réaliser à un autre niveau d’analyse que l’individu et ses identifications (nom, adresses, numéros de comptes..). Un bon candidat est la position géographique, qui permettrait de faire coïncider les données avec celles du web, peut aussi dessiner un niveau très fin d’agrégation très proche de l’individu.

Ainsi le CRM analytique ne s’appuiera plus seulement sur les données comportementales de la clientèle, y compris les contacts, mais s’élargissant aussi par la dimension sociale, il puisera dans dans bases externes, les éléments utile pour mieux comprendre le marché et chacun de ses agents. Reste à identifier les clés légitimes d’appariement des données.

Contre le droit à l’oubli, pour la burqa numérique…

L’idée du sujet s’est forgée dans l’idée de l’intériorité. L’intime serait donc ce que l’on livre de manière contrôlée au désespoir que donnant tout à l’autre aimé, à ce moment l’intimité disparaît. L’amour, on le sait, est ce qui laisse à nu et, libre-choix du sujet, cependant l’anéantit.

Mais l’ordinaire social ne connait peu d’amour et le sujet est en droit de préserver cette intériorité qui le constitue, l’intimité est ce voile qui le défend. Un voile de plomb, juste une gaze, pourvu que ce soit le sujet qui en maîtrise la texture. Le droit au secret est cela qui fait le sujet, ou plutôt en garde l’existence : être le fruit de sa propre volonté n’est possible pour le commun que s’il garde le jeu de sa volonté d’autres influences. Le droit au secret est le moyen des âmes faibles d’échapper à l’aliénation. On peut imaginer que certains n’en aient nul besoin, les âmes bien trempées ne se soucient pas d’être observées.

Bref si le libre arbitre nécessite le droit de s’exercer dans le silence et le noir de la nuit, ce droit n’est pas premier, il résulte d’une faiblesse, les corps à nu peuvent être si faibles que leur volonté s’évanouit.

C’est de cette idée que découle le fait que le droit à contrôler les données personnelles peut paraître être un droit fondamental au titre que les inégalités de condition interdisent que tous puissent affirmer un libre arbitre, librement. Le sujet ne naît pas seulement par la puissance du vouloir, il est fondamentalement un accident. Pour que l’idée du sujet se généralise empiriquement le droit est nécessaire pour en généraliser l’expérience. Un droit donc fondamental dans l’exercice d’une liberté que menace l’inégalité des conditions. Le droit de porter un voile. Ce que certains peuvent appeler le droit à la burqa numérique.

Celui de dresser un firewall autour de nos désirs fragiles, d’interdire à autrui de regarder ce que nous produisons, y compris l’espace public, le droit d’entourer nos sillages d’une traîne hermétique, celui de traverser la rue, sans que les caméras ne scrutent nos intentions. Il est évident que plus nombreuses seront les caméras et plus épaisses seront les burqas (d’ailleurs à suivre l’actualité on peut prédire qu’elle ne seront plus confectionnées de coton mais de latex).

On peut ainsi mieux comprendre la valeur d’un droit à l’oubli qui est la fausse extension de la burqa numérique. Ne serions-nous pas totalement responsables de nos actes, notre volonté pouvant être débordée par nos inconsciences, il devient nécessaire d’étendre le droit à contrôler nos traces au-delà de leur production, et de donner le droit de revenir sur des actes qui ont dépassé nos intentions. Ce droit semble absolument naturel. Sauf qu’il s’oppose à deux grands principes.

Le premier est celui de la responsabilité. Admettre le droit à l’oubli c’est admettre l’irresponsabilité de nos actes, de corriger ce qui a été au-delà de notre volonté, de notre libre arbitre. C’est au fond une violation du sujet. Autant la burqa préserve le sujet faible de la concupiscence, autant le droit à l’oubli célèbre l’irresponsabilité. Il est moins un voile qu’une sorte de papier hygiénique destiné à effacer des traces honteuses.

Le second est celui de la sincérité. Le droit à l’oubli est aussi un droit de correction, en affirmerions-nous la primauté, nous en ferions l’instrument même du mensonge. Qu’importe de laisser des traces si nous pouvons les effacer. Le droit à l’oubli ne serait finalement que la reconnaissance de la cosmétique. La retouche prendrait le pas sur le vif. Ce serait substituer au voile un fort maquillage.

Alors pour préserver le sujet, dans la reconnaissance des conditions inégales de son expression, préférons la burqa numérique au maquillage cybernétique. Le droit à l’oubli est le droit au grimage, au trucage, un droit irresponsable, un faux-droit. Un droit qui en affectant la sincérité de la parole condamne l’existence de l’espace public si nécessaire à l’expression de la démocratie.

Inutile de construire un droit nouveau qui en autorisant la correction généralisera le mensonge, quand l’essentiel est de donner la force aux plus faibles de maintenir en dépit de forces adverses le secret qui fonde la liberté.

Ne pas oublier la politique de produit ! Une affaire de bouquet.


Que le marketing se focalise sur la question de la relation est une évidence vieille de plus de vingt ans, et si la multiplication des canaux électroniques en renforce l’importance par le fait qu’ils permettent de donner chair à une relation qui a surtout été pensée comme une atmosphère (climat de confiance et degré d’engagement), il ne faut pas oublier ses conséquences en matière de politique de produits et de services.

Dans un petit ouvrage, Philippe Moati, souligne le fait autour de la notion de l’économie des effets utiles et plus concrètement dans l’analyse des bouquets. Ce qu’il appelle l’économie des effets utiles est une idée familière aux spécialistes de marketing. Le consommateur consomme moins les produits que les fonctions et les avantages que ceux-ci produisent. Cette idée va cependant au-delà de cette idée classique de Lancaster que l’on consomme des paniers d’attributs. Ce sont les effets de ces attributs qui doivent être au centre de l’analyse. En achetant un pneu, c’est moins ses caractéristiques de durabilité, de rigidité, de capacité d’évacuation de l’eau sur les routes trempées qui sont achetées que la sécurité ou l’économie que ces attributs produisent.

Nous aurions l’impression de rappeler une évidence si n’y avait un fait important : pour que les attributs du produit fassent leur effet il faut souvent que le consommateur participe et révèle cet effet par ses actions, c’est notamment le cas dans le domaine des services, et plus généralement dans ce qu’on appelle depuis quelques années les consommations expérientielles. De ce point de vue, les perspectives qui mettent l’accent sur le fait que le consommateur participe à la production de la valeur, qu’il est co-concepteur, co-producteur, co-distributeur, bref un prosumer pour reprendre la vieille expression de Toffler, touchent du doigt un point essentiel, même si leurs conclusions sont excessivement naïves et optimistes.

Un bon exemple est celui de la musique, quand autrefois dans nos années de lycée nous achetions une oeuvre conceptuelle tenant en 12 morceaux et une pochette que nous nous échangions, la qualité de la musique désormais provient de ce qu’elle est insérée avec talent dans une play-list composée avec plus ou moins de talent. La valeur d’un titre dépend autant de sa propre musicalité que de l’accord établis avec les autres titres. Quand autre fois le concept-album réalisait cette fonction, c’est le talent de l’auditeur qui l’exécute.

L’idée du bouquet est celle de fournir les morceaux et les moyens de les assembler. C’est ce que font aujourd’hui les Deezer et autres Spotify, quelles qu’en soient les difficultés à monétiser ces offres. Le bouquet comprend le droit d’usage d’un catalogue, mais l’ensemble des moyens qui permettent de valoriser la collection : gestion des play-lists, information corrélative, fonction de recherche et d’exploration, l’auditeur devenant le programmateur de sa radio personnelle.

Mais ne déifions pas le consommateur. S’il gagne la possibilité d’obtenir la bande musicale de ses rêves, celle-ci se fait au prix de sa compétence et de sa disponibilité, ce coût potentiel est ce qui fait l’opportunité des bouquets : en ajoutant une fonction de smart-radio le marketeur reprend la main, et notre prosumer redevient ce consommateur passif que certains pensent voir disparaître. Ne soyons pas sûr que la participation grandissante soit une tendance forte, elle est sans doute le résultat d’une phase transitoire.

L’économie des bouquets se fonde donc sur la relation, un certain degré de confiance, et surtout la cession de nombreux droits sur nos données personnelles, et sans nul doute la technique en facilite les variations et le développement. La relation est essentielle pour faciliter la tâche de l’assemblage des éléments de l’offre.

Ce qui est transformé est finalement la politique de produit. Nous nous éloignons des solutions de tout-en un, pour des solutions personnalisées qui s’appuient à la fois sur une désintégration des éléments de l’offre, mais aussi leur modularité qui facilite leur réintégration. Voilà une bonne matière pour repenser la politique de produit, moins en termes de variété, de gamme, que de l’adaptation aux besoins de degré d’intégration des composants de l’offre et des dispositifs de leurs réintégration.

Pensons ainsi à l’offre musicale de Apple qui se présente sous la forme d’un bouquet constitué d’un terminal et d’un logiciel associé en une seule offre auquel s’ajoute un catalogue dans lequel le consommateur peut puiser en les payant à l’unité les morceaux qu’ils souhaitent. Nous ne serons pas étonnés que si la concurrence s’intensifie sur ce segment, une réponse à cette dernière se présente par l’inclusion dans l’offre primaire d’un noyau de discothèque, le droit d’ajouter 20, 50, 100 titres dans une liste au choix.C’est au fond l’avantage premier des stratégies de bouquets : celui d’assurer une certaine plasticité de l’offre. C’est exactement ce que l’on a observé sur le marché de la téléphonie mobile, qui d’un marché à l’unité a évolué vers une généralisation du forfait.

Au coeur de la politique de produit, le paramètre clé apparaît donc comme le souhait plus ou moins intense des consommateurs à contrôler leur consommation. C’est ce paramètre qui définira l’étendue des éléments du bouquet mais aussi la forme du vase. C’est ce paramètre aussi qui définit la nature de la relation, l’intensité avec laquelle l’information doit circuler.

Les frontières de l’intimité

ETO et Marketing Audit , avec le concours de la CNIL et du Master MOI, viennent de présenter à la presse (on en trouvera un compte-rendu complet dans un article de Stratégie) les premiers résultats de la troisième édition du baromètre de l’intrusion.

Près de 30 000 consommateurs internautes ont été interrogés sur les messages qu’ils acceptent de la part des marques auxquelles ils sont fidèles et de la part des autres marques, mais aussi sur les informations personnelles qu’ils acceptent de partager, et leurs usages des nouveaux médias. Le sentiment d’intrusion semble augmenter et deux grandes leçons peuvent être tirées de l’étude :

  • Le sentiment d’intrusion est d’autant moins fort que la relation à la marque est satisfaisante. Construire la relation, pour les marques, est ainsi le préalable pour être écoutée par les consommateurs.

  • Les internautes ont pris conscience de l’information qu’ils donnent, et réclament en échange des avantages sonnants et trébuchants.

Voilà qui ouvre à une réflexion intéressante sur un sujet que nous avons déjà abordé (ici et ), mais qui devra faire l’objet d’analyses empiriques plus approfondies.

L’idée de l’intrusion se construit dans celle de l’intimité. Cette part de soi que l’on retire aux autres, pour ne la donner qu’à quelques-uns que l’on choisit. L’intimité, cet intérieur qu’on soustrait à la puissance du public, est cet espace que l’on soumet à l’ordre personnel, à nos fantaisies, et que l’on protège par un secret dont l’absolu ne concerne que ceux qui n’y sont pas conviés. L’intrusion de ce point de vue est ce regard que portent les importuns. Ne la confondons pas avec la notion de vie privée, qui relève du droit ou au moins de la convention sociale. Celui qui en enfreint les limites non seulement est un intrus, mais pire un violeur.

Ce que l’on doit comprendre est que les frontières de l’intimité ne coïncident pas forcement avec celles de la vie privée. Elles peuvent être en deçà ou au-delà. Et ce sera certainement une des voies d’approfondissement de cette étude, comprendre que les frontières de l’intimité sont extrêmement plastiques, et ne correspondent pas toujours aux droits. Elles varient en fonction des personnes, des marques, et des moyens de communiquer.

Certains sont pudiques, d’autres moins. Il est de bonne raison de penser que cette variation dépend d’un facteur important, celui de la ressource que l’on croit contrôler. Dans cette étude et dans d’autres, il apparaît que les moins fortunés acceptent plus facilement le regard de l’autre que les mieux dotés. Dans cette hypothèse on retrouve une réflexion qu’un certain nombre d’historiens ont développée. La vie privée est une idée bourgeoise, récente, et l’intimité en est l’expression. Ceux qui ressentent l’intrusion sont ceux qui pensent avoir quelque chose à protéger. Et dans le rapport aux marques on peut comprendre aisément que la frontière est d’autant plus imperméable que l’on se sent l’objet de leur convoitise.

L’intimité est aussi une question de relation. On livre beaucoup à ceux qu’on aime, qui nous sont proches et familiers. Point de fard le matin, on se livre sans apprêt, sans crainte de leur regard, quitte à les désespérer. Aux étrangers on expose une surface travaillée, fabriquée. Aux marques que l’on aime on se donnera tel qu’on est, sans réfléchir aux informations qu’on lui laisse. Aux autres on opposera une façade construite pour en tirer le meilleur avantage.

Mais ce n’est pas suffisant pour comprendre comment se construit la frontière de l’intimité, il faut aussi penser le média. Nous savons désormais que le plus puritain peut se mettre à nu, dans les forums et les chats, et que les plus natures se réservent une grande prudence quand ils sont sur la place publique. Ce n’est ni une question de ressource, ni une question d’amour, juste une question de contrôle et de maîtrise de l’environnement dans lequel l’intimité se développe.

Cette enquête a la ressource de nous aider à mieux comprendre comment se forme la frontière de l’intimité. Elle permet d’explorer cette triple hypothèse que pour chaque sujet, la frontière de son intimité varie en fonction des ressources qu’il croit représenter pour la marque (la convoitise), de la relation qu’il entretient avec elle (la familiarité), et la maitrise de l’environnement (la compétence).

Quant à la seconde leçon elle se déduit de ces trois hypothèses. L’intimité n’est pas un absolu, mais le fruit d’une négociation, d’une économie. Ses frontières peuvent êtres étirées pourvu que cet élargissement soit récompensé. Et si nous voulions le comprendre vraiment, intéressons nous à l’art du nu. Ce travail profond que l’artiste entreprend pour obtenir du sujet ce que d’ordinaire personne n’obtient.

L’intrusion n’est pas une violation, le sentiment de violence qui peut en émerger provient d’une mauvaise négociation, d’un échange inégal et inique, l’intrusion peut parfois être aussi chargée d’une force érotique, pour autant qu’elle soit le fruit d’un travail de séduction.

___

credit photo : Sokaris73

De la valeur au capital (client)

Une suite à “retour à la valeur

Et non, nous n’évoquerons pas cette transmutation fondamentale qui est au cœur de la pensée marxiste, ce passage de la valeur d’usage à la valeur marchande, même si cela reste au programme. Nous resterons plus modestes en nous intéressant à ce que comment de l’idée que chaque client est un actif de l’entreprise, on peut imaginer que la valeur de l’entreprise est celle de l’ensemble clientèle. De quoi se constitue le capital client (Customer equity) ?

En posant que le client est un actif, nous allons au cœur du problème. Si la valeur de l’entreprise est bien la somme des cash flow futurs que sa politique actuelle va générer, il est évident que cette valeur est équivalente à celle que l’ensemble de son portefeuille de client va générer en fonction de la politique qu’elle mène. Pour affirmer cela, il faut partager l’idée que dans un temps indéfini, la valeur de la firme dépend des revenus qu’elle génère, de ses investissements, et des coûts qu’elle concède pour les obtenir. Et donc que quels que soient les modèles d’affaires, la valeur de la firme se résout dans sa capacité à obtenir des flux de revenus contre des dépenses de ressources. C’est un point extrêmement discutable, d’une part parce que les revenus peuvent venir d’une autre source que celle qui motive les dépenses, c’est le modèle des marchés à plusieurs faces, mais aussi du fait que les revenus peuvent venir du fait de l’espérance d’un revenu futur, actualisé sur le marché financier, c’est le modèle des ventures Business.

Restons donc dans le cadre traditionnel, de ce qu’à terme le revenu est produit par ceux qui achètent le produit, ou le service, de la firme. Dans l’effort de valorisation des actifs, il est clair qu’il faut comparer ce que l’on investit, ce qu’on dépense, à ce qu’on espère gagner. L’investissement correspond à la dépense actuelle qui peut générer des revenus immédiats et futurs, la dépense est ce que l’on doit consacrer pour servir la réalisation des revenus immédiats. La balance se fait en comparant le cumul de ce qui est investi, plus celui qui est dépensé, au flux cumulé des revenus obtenus. La différence est exactement ce qu’on appelle le customer equity. Le capital client.

Une première intention serait comme nous l’avons analysé, de le définir comme la somme les Customer Life Time values. Mais si le capital client se limitait à cette seule sommation nous n’aurions pas défini de concept nouveau. Il faut aller plus loin. Life time Value et customer equity seraient la même chose à la base de clientèle près.

Mais avant d’aller plus loin réglons le sort d’autres formes de capital. Le premier d’entre eux est le capital de marque, un autre plus fondamental est le capital produit, je n’ose encore parler de capital relationnel, ou pire de capital social. Nous abusons du capital, le capital ne se multiplie pas, sauf dans le temps, il ne fait que s’ajouter. Le capital produit est cette quantité qui fait que les revenus de l’offre mise sur le marché moins les dépenses nécessaires pour le concevoir et le produire, génèrent sur le long terme une accumulation de profit positive. Le capital de marque est dans le même esprit, cette différence qui s’ajoute parce que la marque permet de pratiquer des prix plus élevés ou de retenir l’attention d’un plus grand nombre de consommateurs. Le capital d’innovation est de même nature. Les uns et les autres ne s’ajoutent pas au capital client, ils ne font que le composer. Nous pourrions simplement concéder que dans la nature même de la relation établie avec les clients, il y a une source de valeur qui excède celle que produit la fonction, plus celle que produit le symbole, cet excès représentant la qualité particulière de la relation que la firme établit avec ses clients. En imaginant qu’on apporte les mêmes fonctionnalités que les concurrents, en imaginant qu’on leur apporte la même réputation, le fait de valoir plus que les autres, ne pourra provenir que de ce qu’on a établit une meilleure relation que les autres.

Dans cette conception la valeur client est la valeur de la firme, même si elle peut être décomposée en une valeur de l’offre, une valeur de la marque et une valeur de la relation.

Le capital client est donc clairement égal à la valeur de la firme, en ce sens qu’il représente la somme des cash-flows actualisés. La différence n’est pas de nature, mais dépend du mode de calcul. La valeur de la firme s’évalue à partir d’un indicateur comptable synthétique, celle de la clientèle à partir d’un indicateur agrégé. D’un côté on agrège les profits par unité de temps, de l’autre par unité d’actif productif. Voilà pour une définition générale. Il faut maintenant s’intéresser à la décomposition de ce capital client, généralement désigné par la terminologie de customer equity.

La part essentielle naturellement est constituée de la somme des cash-flow futurs générés par les clients d’aujourd’hui, compte-tenu de la politique menée actuellement. Mais cette politique menée actuellement ne se contente pas de maintenir les clients existants. L’agrégation de leur valeur bien sûr nécessite de prendre en compte des phénomènes de cohorte, les vagues successives de nouveaux clients. C’est un détail technique. Le point principal est que la politique actuelle induit le recrutement de nouveaux clients, élément que les modèles de CLTV ne prennent pas en compte. Le customer-equity se définit donc dans la sommes des cash-flow futurs générés par la base de clientèle actuelle, plus ceux de la clientèle future, compte de la politique actuelle de marketing. Celle-ci comprend la politique d’acquisition, de rétention, de développement, mais aussi de manière fondamentale la politique de création de valeur pour le consommateur.

En distinguant ces catégories nous mettons l’accent sur le fait que les dépenses marketing sont relatives d’une part à une offre de base, qui peut susciter un plus ou moins grand potentiel de demande, et d’autre part à des actions de stimulation qui peuvent accélérer ou ralentir l’accès au potentiel. Les dépenses d’acquisition ou de rétention ne font finalement que déterminer la vitesse à laquelle la firme atteint son potentiel de marché dans la limite de ce que ces dépenses peuvent aussi affecter le potentiel.

Mais ne raffinons pas trop le raisonnement, le capital client est ce flux de cash-flow constitué par les clients actuels, et les clients futurs que la politique marketing actuelle laisse à espérer. Il faudrait simplement ajouter ces clients que les clients actuels et futurs vont par leurs comportements, leurs opinions, leurs recommandations ajouter à la population que l’on gère actuellement. Dans une analyse précédente nous avons refusé d’ajouter leur contribution à la CLTV. Nous pouvons nous en expliquer maintenant. Sur le principe il aurait été assez raisonnable d’ajouter cette contribution à ceux qui en sont les inducteurs, mais cela reviendrait dans notre décomposition à comptabiliser cette contribution dans la valeur créée par les consommateurs actuels. Et donc à sous estimer l’efficience des investissements et des dépenses.

En séparant cette contribution on donne un visage plus réaliste à ce qui forme le capital client : la somme des gains futurs produit directement par les clients acquis aujourd’hui, plus celle des clients que notre politique d’acquisition aujourd’hui va permettent d’atteindre demain, et enfin ceux que l’offre de base, la marque et la qualité de relation, vont produire sans qu’on ait fait d’effort directement vers eux.

Ainsi nous pouvons défendre l’idée que le capital client ne se confond pas avec celle de la somme des CLTV mais la déborde. Et au passage un ratio du type CE/n*CLTV serait un bon indicateur de la capacité à générer des externalités de clientèle.

En étendant cette idée, on pourrait même mieux comprendre des modèles d’affaire moins traditionnels. Autrement dit ceux dans lesquels la valeur de client est quasi nulle, mais par ses effets secondaires, génère des revenus dérivés très élevés comme cela est le cas dans les marchés à plusieurs faces. Si la life time value des usagers de Google est clairement négative, le customer equity à la lecture des résultats est très largement positif.

Mais restons sur notre ligne principale, celle de business-model traditionnels dans lesquels la valeur se constitue dans la différence entre les investissements consentis pour servir une clientèle et les revenus qu’elle génère directement. Le paramètre clé est ici la politique d’acquisition, et de la même manière que nous avons défini une CLTV optimale, nous pouvons définir un CE value optimal, qui sera déterminé par la meilleure combinaison entre les investissements destinés au renouvellement de la base de clientèle et au maintien de l’ancienne.

Mais il n’y a pas d’isomorphisme. Il est raisonnable ainsi de penser que si client par client, nous devions penser qu’il faut mieux investir sur la fidélisation, à l’échelle du portefeuille c’est l’acquisition qui deviennent la priorité. Dépenser beaucoup pour plus que renouveler la base de la clientèle pourrait être compatible avec l’idée de dépenser peu pour acquérir chaque client, un budget d’acquisition élevé est compatible avec une dépense par client actif qui soit faible. Une telle situation se comprend dans la mesure où dépenser peu en moyenne pour acquérir un nouveau client, laisse espérer que celui -ci ait une forte valeur, dépenser beaucoup au total signifierait juste d’élargir considérablement le marché potentiel.

Voilà qui milite pour une idée simple, l’intérêt du concept de customer equity concerne un aspect stratégique du marketing, quand celui distinct du CLTV relève essentiellement d’un problème opérationnel.

Retour vers la valeur du client


La mesure de la valeur client est désormais une chose ancienne. Si l’on datait les choses, peut-être pourrions nous fixer en 1987, il y a plus de vingt, une des formalisations les plus abouties qu’ont proposé Schmittlein, Morrison et Colombo(1). Nos lecteurs proposeront sans doute d’autres références, et des dates plus anciennes. C’est dans les années 90 que cette idée de mesure et de modélisation de la valeur client a pris son envol, dès 2002 des revues de littératures sont proposées(2). Plus récemment on ira voir Gupta, Hanssens et consorts (2006)

La sophistication et le raffinement des modèles est depuis à la mesure de leur floraison. Ils sont aujourd’hui comme les fleurs d’une prairie au printemps, occupant toutes les niches de l’écologie des marchés, même si des lignes de force claires en structure la variété. Entre les modèles de rétention (lost for good), les modèles de migration (always a share), les modèles purement probabilistes, déterministes, autorégressifs, markoviens, ceux en cohortes, les paramétriques et les non-paramétriques, les survies et les semi, les mélanges, la palette complète de l’outillage statistique est employée.

Et pourtant on reste encore dans une certaine confusion, la valeur client, la life time value, le capital client, forment encore une terminologie variée qui s’adressant à une même idée, a des difficultés à rendre compte de la nature des concepts qu’elle désigne. C’est en partie la faute de cette abondance, qui dans un esprit de compétition, a négligé le raisonnement économique et pris parti de la munificence technique.

Revenons donc au concept. L’idée fondamentale est empruntée à la finance sur la base de cette découverte des années 80, c’est la gestion de la relation qui est le véritable objet du marketing plus que celle des décisions d’achat, et cette idée considère que le client est un actif, dont la valeur est mesurable, par la méthode de l’actualisation. Bref, que la valeur d’un client est égale à la somme dans le temps de la valeur qu’on espère qu’il produise à chaque période. Dans ce raisonnement, et cette définition, chaque point est important.

Le premier est l’idée de cash-flow. La valeur vient de la différence entre ce que l’on engage, plus que des coûts mais des investissements, et la liquidité qu’on en obtient. De ce point de vue nombreux sont les modèles qui ont perdu de vue la définition, confondant le cash flow avec le profit, qui est difficilement calculable, mais pire avec le revenu. Nombre des modèles de Life Time Value, ce que nous traduisons par valeur actualisée du client, sont devenu à force des modèles de Customer Life Time revenue. Un comptable aura beaucoup de mal à confondre les deux notions, même si on comprend que dans l’esprit du marketeur les choses peuvent se confondre.

Le deuxième point est celui de l’unité d’analyse. De la même manière que la valeur d’un titre ne se confond pas avec la valeur du portefeuille, la CLTV est une notion propre à chaque actif du portefeuille de clientèle, à chaque client, à chaque relation avec le client. Et chaque actif se caractérise par son espérance de valeur, mais aussi par son risque, mesuré usuellement par la variance de cette espérance de valeur.

Le troisième point concerne justement cette notion d’espérance de valeur. Le gain futur n’est pas assuré. Il n’a de sens qu’au regard d’une politique mise en œuvre aujourd’hui dont on examine les prolongements dans le temps pour les ramener à la date présente. C’est le sens de l’actualisation, qui n’est pas une prévision mais une mise en équivalence. Que valent aujourd’hui les flux de cash dans le futur produit par la politique actuelle? Le financier pour résoudre ce problème corrige la valeur future par un coefficient qui représente soit un arbitrage d’opportunité, le rendement actuel des actifs, soit par une correction de la dégradation de la valeur de la monnaie. Il inclut aussi des espérances de croissance. Dans le cas du marketing, les choses sont un peu différentes dans la mesure où l’on n’espère pas que les actifs se maintiennent dans le temps. Les marketeurs sont pessimistes, ils savent qu’il y a peu de chance qu’un client aujourd’hui le soit encore dans 7 ans. Pour faire simple, si le taux d’attrition de la clientèle est de l’ordre de 30%, au bout de 5 ans la probabilité qu’un client le soit encore est inférieure à 20%. Autrement dit, si en finance l’espérance de gain est une moyenne constante dans le temps, pour le marketing elle est strictement décroissante.

Poursuivons sur ce point, en examinant cette notion d’espérance de gain. D’un point de vue mathématique l’espérance de gain est la somme des différentes éventualités, et chacune d’elle est le produit d’une valeur possible et de la probabilité qu’elle se réalise. Dans le cas de l’espérance de la valeur client, on suppose de la manière la plus large que la probabilité diminue dans le temps, en moyenne, et que le gain qu’on espère réaliser, varie aussi selon des chemins que le modélisateur doit déterminer. Souvent l’hypothèse est que l’espérance (la moyenne) de gain est constante, mais que la probabilité qu’il se réalise est strictement et fortement décroissante. Mais on peut imaginer que l’espérance de gain suive une trajectoire parabolique traduisant dans la vie de la relation qu’un apprentissage conduise à développer le revenu espéré du client, puis que comme toute chose dans ce monde, l’usure et la fatigue érode ce revenu. Et indépendamment, on peut se dire que le risque de n’être plus client s’accroisse dans l’amorce et la constitution de la relation, pour ensuite rester stable, peut être s’affaiblir plus tard, quand l’ennui prend le dessus. Naturellement ces trajectoires sont le propre de chaque individu, de chaque histoire.

Quatrième point, nous avons souligné que ces évolutions correspondaient à l’hypothèse que la politique marketing, autrement dit l’effort pour acquérir d’abord le client, puis pour le maintenir ou le développer, était le même à travers le temps. L’actualisation ne mesure pas un futur, mais un présent, elle vaut ce que l’on fait aujourd’hui et que l’on poursuit obstinément. L’effort d’acquisition conduit à sélectionner un certain type de client. On sait que s’il est important, il y a de fortes chances que ce client soit infidèle et opportuniste, on sait que s’il nous a choisi librement, sans qu’on le force il a de fortes chances d’être fidèle et généreux. De même si l’on ne fait rien pour nourrir la relation, il nous quittera rapidement. On peut donc imaginer des politiques optimales de gestion de ces clients. Les techniques d’optimisation dynamiques sont à notre service. L’idée centrale est donc bien que le CLTV dépend de l’effort d’acquisition, de rétention et de développement. Il y a donc au moins dans le principe l’idée d’une CLTV optimale à laquelle on doit comparer la CLTV actuelle.

La valeur d’un client n’est pas une chose donnée. Elle est la résultante de ce qu’il est, des circonstances, mais surtout de ce qu’on lui fait. C’est sans doute un des points les plus mal compris. Il n’y a pas de client à forte valeur ou à faible valeur, il y a des clients dont on exploite correctement le potentiel en lui attribuant les ressources nécessaires, et ceux que l’on néglige. C’est sans doute le point fondamental.

Ce raisonnement d’ailleurs permet une troisième idée, celle de la CLTV intrinsèque, qui se définit simplement comme la valeur produite par un client pour lequel on n’aurait fait aucun investissement. C’est cette valeur qu’il produit, indépendamment de l’effort marketing. On comprendra aisément que la problématique de la valeur du client tient dans une comparaison de ces trois indicateurs : celui d’une valeur intrinsèque qui ne requiert aucun investissement, celui de la valeur actuelle qui mesure la récompense de la politique d’investissement adoptée au jour du calcul, et celle d’une hypothétique valeur optimale qui correspondrait au meilleur des investissements.

A ce stade de l’analyse, nous avons fait presque le tour de ce que les modèles doivent être capables de rendre compte. Et nous devrions nous intéresser désormais à cette autre notion qui est la valeur du portefeuille, autrement le Customer Equity. Il faudra pour cela garder à l’esprit que si ce dernier est la somme des valeurs individuelles, il n’est pas un concept nouveau, mais se confond avec ce que nous avons analysé. Nous garderons pour un autre post cette discussion.

Il nous reste juste à prendre en compte une idée qui se développe depuis quelques années. Les clients ne sont pas seuls, et parlent à leurs voisins, ils recrutent eux-mêmes de nouveaux clients, ce qui a amené certain chercheurs à vouloir inclure ces gains secondaires dans les calculs de CLTV. Notre point de vue est que ce parti pris est erroné, moins par le principe que par ses conséquences, mais nous y reviendrons plus tard, nous contentant ici de réaffirmer que la force du concept de Customer Life Time Value, est de considérer aujourd’hui les conséquences futures de la politique marketing actuelle, en prenant en compte le plus raisonnablement possible, les trajectoires temporelles de la relation établie avec chacun des consommateurs qui participent la base de clientèle.

Références

(1) Schmittlein D., Morrison D. et Colombo R. (1987). Counting your Customers: Who are They and What will They do Next? Management Science, 33, 1, p. 1-24

(2) Gupta S., Lehman D. R. et Stuart J. A. (2002). Valuing customers. Journal of Marketing Research XLI, p. 7–18

Cross-selling – développer ou fidéliser ?


Depuis une bonne dizaine d’année le mot magique de cross-selling s’est répandu dans les entreprises et dans le monde académique. L’idée de fond est simple : puisque l’acquisition de nouveaux clients est non seulement difficile mais coûteuse, il est plus avantageux de développer le volume d’affaire avec les clients existants.

Compte-tenu de ce principe général, la méthode consiste à étudier les comportements pour déterminer quels sont les produits ou services qu’un consommateur donné est susceptible d’acheter connaissant son profil d’acquisition et éventuellement selon d’autres caractéristiques plus personnelles.

Différentes méthodes sont possibles. Les plus simples sont d’utiliser des processus markoviens, certains pour prendre en compte les durées proposent des analyses de survie, des approches plus sophistiquées à base d’analyse des classes latentes sont aussi proposées. Un corps de littérature méthodologique solide s’est ainsi constitué. Nous en donnons ci-dessous quelques références marquantes, en remarquant que la plupart de ces travaux s’intéressent aux produits bancaires et financiers.

En fait de telles approches, quel que soit leur degré de sophistication, s’apparentent surtout à des méthodes de ciblages et leur avantage est double : augmenter le rendement de campagne de ventes en limitant les sollicitations non souhaitées qui pourraient irriter les clients.

Mais le cross-selling est aussi considéré par les entreprises comme une méthode de fidélisation, et là c’est une question bien différente. Celle de savoir si le nombre des produits acquis affecte la fidélité, ou au moins la rétention des clients. Peu de travaux ont été consacrés à cette hypothèse. Il y a là un sujet de recherche de première importance qui a cependant déjà été traité au moins partiellement avec la thèse de Dominique Crié sur les produits fidélisants.

Il reste encore à établir le fait, démontrer qu’en équipant mieux nos clients, nous produisions une plus grande rétention, une plus faible sensibilité aux prix, une plus grande appétence, indépendamment de la propension à être fidèle. Nous invitons les entreprises à entreprendre cette recherche…

Quelques références :

Shi Li, B.G Sun, and R. T. Wilcox (2005) “Cross-Selling Sequentially Ordered Products: An Application to Consumer Banking Services” Journal of Marketing Research, Vol. XLII (May 2005), 233–239.

Wagner A. Kamakuraa, Michel Wedel E, Fernando de Rosad and Jose Afonso Mazzon (2003) “Cross-selling through database marketing: a mixed data factor analyzer for data augmentation and prediction”, International Journal of Research in Marketing , 20 (2003) 45–65

Leonard J. Paas, Ivo W. Molenaar (2005), Analysis of acquisition patterns: A theoretical and empirical evaluation of alternative methods”, International Journal of Research in Marketing 22 (2005) 87