8ème Contecsi : et si le net entrait dans l’ère du mensonge?

Todo es mentira
Le 8ème Contecsi vient de s’achever dans un bel automne Brésilien. Ce rendez-vous auquel Paris Ouest a participé était naturellement marqué par les réseaux sociaux. Joey George de l’Université de Floride et président de l’AIS en a donné la conférence inaugurale en évoquant une question importante : comment dans les relations interculturelles et à travers les médias on peut détecter les mensonges. Deux grands résultats se sont imposés. D’abord l’asymétrie entre la capacité de détection du mensonge et celle de la vérité : quand la première est détectée dans 35% des cas, la seconde l’est dans 80%. On reconnaitrait mieux le vrai que le faux. Ensuite, la force de l’échange vocal qui rejoint en terme de performance le face-à-face qui reste l’étalon. Est-ce une question d’engagement?
Naturellement le congrès avec ses 500 participants du brésil, d’Amérique du sud, d’Asie et Europe a au cours des sessions parallèle abordés de bien nombreux autre sujets. Mais à l’heure où l’internet prend un nouvel élan avec les réseaux sociaux et la marée à venir du mobile, à l’heure où plus que jamais la confiance est le préalable à l’échange utile d’information, c’était une belle manière de souligner que le monde du big data et de la surcharge informationnelle n’a de sens que si l’information produite et reproduite à défaut d’être vraie est au moins sincère. La quantité ne suffira pas elle doit aussi être précise, juste, honnête pour être utile.
Les exemples ne manquent pas. Les faux commentaires en sont un des aspects les plus spectaculaires. Mais les ages déclarés sur les réseaux sociaux, les tailles et poids dans les sites de rencontre, même les préférences déclarées dans les formulaire d’enquêtes, en sont d’autres manifestation. Sans compter les canulars et autres fausses informations que traquent certains certains sites et certains chercheurs. Quelle est la proportion de trucage et de supercherie ? Quelle vérité dans les données?

Le mensonge de plus est un des moyens les plus simple de protéger son intimité. Tricher sur les questions, embellir un profil, masquer les défauts, l’ordinaire des ruses qui altère le vrai, risque donc au travers des réseaux sociaux d’accroître de manière considérable l’information trompeuse. La multitude des synonymes de la tromperie, telle qu’en témoigne la carte lexicale çi-contre, donne une idée assez profonde du goût humain pour le bluff et la feinte pourvu qu’il ne remette pas trop en cause l’idée de soi.

On comprend ainsi qu’à travers les canaux, la nécessité accrue de disposer de détecteurs et de méthodes de détection des filouteries. Des stratégies élaborées doivent être envisagées pour à la fois identifier les informations fiables, précises, valides, garanties et écarter les impostures et autres mystifications. Le mensonge est un vieux problème du marketing, celui de la publicité est étudié depuis bien longtemps, mais aujourd’hui à l’heure de l’UGC et du crowd sourcing, ses termes changent profondément.
Dans un monde où ne parlent qu’un nombre limité d’acteurs, la triche peut être circonscrite facilement par la loi, des agences d’évaluation, des règles de déontologie, la labelisation. Mieux encore le jeu institutionnel permet de distinguer les sources crédibles de celles qui le sont moins. On peut à juste titre faire varier le degré de confiance accordé à tel ou tel média : les messages publicitaires, l’opinion publique, et l’information vérifié et garantie sont assez clairement distinguée. Dans l’univers de l’internet où chacun peut écrire sans carte de journaliste, donner un avis sans être pondéré par celui des autres, quand les frontières des sources s’évanouissent, quand l’honneur mis en jeu est limité par des masques, il est nécessaire de reconsidérer la nature de l’information recueillie massivement.
Plus précisément ce qui est en cause est la pratique de l’écoute clients. Encouragée par tous, considérée parfois comme un substitut aux études classiques, sa valeur est liée à la sincérité des clients qui s’expriment. Que ce soit par le fait que certains modes de communication médiatisée par les ordinateurs engage moins ceux qui se déclarent, ou parce qu’exagérer le propos au minimum, et travestir sa pensée au pire, est aussi un mode d’action, cette sincérité doit être mise en toute. Le fan peut ne garder que les louanges et oublier les réticences, le déçu peut ajouter des défauts inexistants, et masquer ses contentements. C’est un enjeu méthodologique majeur : pouvoir distinguer le sincère de la dissimulation, le vrai du faux, le franc et le biaisé. On imagine aisément que cela passe par une évaluation des sources et le test des contenus. Il faudra le faire dans un environemment de big data.

Le pari au cœur des modèles statistiques – le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.
Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L’utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d’hypothèse avec la notion d’intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d’intention de vote d’une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l’intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s’inscrivent dans le cadre d’une approche dite fréquentiste de l’inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l’inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d’hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d’avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l’ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L’inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L’inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L’inférence non paramétrique, comme son nom l’indique ne suppose pas l’existence d’un paramètre d’intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l’exemple type.
    L’inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d’en induire la probabilité qu’elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l’écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l’utilisation de l’inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c’est un cadre bayésien qui s’impose dans la littérature technique.
    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu’un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d’une régularité.
    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d’expert ou encore des anciennes données. Durant l’analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.
    Ainsi sachant qu’une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu’un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d’actualiser le calcul. ( la formule est sur le t-shirt).
    D’après Robert (2006), L’analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.
    L’approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l’inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d’effectuer des tests d’hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc…), mais un grand travail reste à faire dans se sens.
    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s’est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l’estimation. Le raisonnement bayésien désormais s’étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d’estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n’est qu’une invitation, voici un exemple où l’inférence bayésienne donne des capacités d’apprentissage aux robots.

    Et quelques livres:

    La panelisation des systèmes CRM – next step ?

    Pour le vieux data-miner, celui qui utilisait SPSS en DOS et les codes SAS, celui qui a été nourri au lait de l’analyse des données et des algorithmes de classification, les vingt dernières années ont été une période plus que faste, joyeuse, munificente.

    La taille des fichiers double chaque année, la vitesse de calcul rattrape cette taille, rendant obsolète cette vieille théorie des sondages à mesure que les populations dépassaient les milliers d’individus, puis les dizaines de milliers, et les centaines, comptant aujourd’hui en millions, voire dizaines de millions. Les Oracles, les IBM, ont largement contribué à la construction logique de ces bases. D’autres solutions émergent fondées sur le calcul dans les nuages.

    Bien sûr en parallèle de ce mouvement, de nouveaux modèles, les algorithmes s’adaptent à ces nouvelles données, et de nombreux modèles sont apparus même s’ils ne sont pas si systématiquement employés par l’industrie : réseaux de neurones, réseaux bayésiens, modèles multi-niveaux, modèles de mélanges, cointégration et modèles VAR, juste pour en citer quelques- uns.

    Mais le fait dominant reste dans la dimensions des bases de données. Et il peut être bien d’en caractériser les principales structures.

    • La structure de données élémentaires est celle des enquêtes ad-hoc. Autrefois limitées à quelques centaines d’interviews en face à face, on peut envisager désormais des enquêtes électroniques de plusieurs dizaines de milliers de personnes. Ces données sont transversales, couvrent une ou plusieurs populations, et sont constituées de réponses à un questionnaire. Elles concernent des dimensions attitudinalles : connaissances et jugements.

    • Bien avant l’internet un souci aigu s’est manifesté pour mesurer l’impact des médias de masse. Les panels en sont la solution. Longitudinaux par nature, ils contrôlent l’évolution de valeurs agrégées telles que la part de marché, des taux de pénétration, d’audience, de couverture de la distribution, de prix moyens pratiqués. Les modèles fondamentaux sont les modèles de part de marché qui évalue l’impact des moyens du mix sur le choix des consommateurs. Panel de distributeurs ou de consommateurs, ils saisissent une population dans sa continuité par des données journalières. Internationaux ils couvrent désormais des dizaines de milliers d’individus dont ils suivent quotidiennement les consommations. Trois sociétés dominent : GFk, Homescan, et IRI avec Médiamétrie pour les audiences.

    • Une des conséquences de la révolution des TI a été l’introduction et le développement des système CRM qui capturent avec un grand détail les comportements d’une clientèle. Le volume de ces données peut aller jusqu’à plusieurs millions d’individus, pour lesquels plusieurs dizaines d’actes d’achats sont enregistrés ainsi qu’un nombre équivalent de contacts marketing. La limite de ces données est de limiter la vue avec ceux dont on est au contact, pour le reste du marché on devient aveugle. Segmentation et scoring en sont les outils privilégié.

    L’internet bouleverse ce paysage de trois manières :

    • Il généralise la géolocalisation et en fait la clé universelle de mise en relation des bases de données.

    • Il introduit des matrices de relations sociales et permet de mesurer plus que les attitudes, les comportements et les expositions mais aussi les interactions sociales. C’est le graphe social.

    • Il permet l’association de plusieurs bases de données par la mise à disposition d’API au service des développeurs d’application, faisant du mash -up la nouvelle frontière des bases de données : leur interopérabilité.

    Dans cette perspective, on peut se demander si on ne va pas vers nouvel outil de mesure ? Très certainement, on peut en imaginer les traits. Il sera d’abord un outil hybride qui associe différentes sources, par exemple en échantillonnant les bases de données CRM des principaux concurrents sur un marché. La juxtaposition de ces bases neutraliserait leur caractère partiel, égocentré, en donnant une vue panoptique du marché.

    Mais elle exige une stricte anonymisation. L’unité de matching des données devra par conséquent se réaliser à un autre niveau d’analyse que l’individu et ses identifications (nom, adresses, numéros de comptes..). Un bon candidat est la position géographique, qui permettrait de faire coïncider les données avec celles du web, peut aussi dessiner un niveau très fin d’agrégation très proche de l’individu.

    Ainsi le CRM analytique ne s’appuiera plus seulement sur les données comportementales de la clientèle, y compris les contacts, mais s’élargissant aussi par la dimension sociale, il puisera dans dans bases externes, les éléments utile pour mieux comprendre le marché et chacun de ses agents. Reste à identifier les clés légitimes d’appariement des données.

    Google trending : le marketing est-il en train de mourir?

    M’exerçant à quelques Google trending afin de compléter un article sur le rôle institutionnel des technologies de l’information, je découvre quelques tendances surprenantes même si peu étonnantes.

    La première interrogation concernait l’évolution des préoccupations en matière de CRM (en bleu). Avec un peu de surprise on constate une décroissance relative des recherches sur le sujet, et en même moment un accroissement de l’offre. L’intérêt s’est tourné ailleurs vers le Web 2.0 (en jaune), mais même pour ce thème un relatif désintérêt est observable. Le vrai sujet est celui des médias sociaux (en rouge). C’est ce que l’on recherche, et c’est ce dont on parle. Dans ces données, on ne trouve qu’une confirmation de ce que l’on savait plus ou moins.

    Approfondissons l’analyse et testons cette idée que le client a pris le dessus sur le consommateur. Les deux mots marquant deux modèles de pensée : le marketing s’est intéressé essentiellement à la figure du consommateur (bleu) alors que le CRM fait du client (rouge) son obsession. Nous nous attendons donc à ce que ces deux thèmes fassent l’objet d’un intérêt décroissant, cette décroissance étant moindre pour la figure du client. Et ce n’est pas le cas. Le client est un objet de recherche croissant, est-il encore un grand inconnu?

    Pour le moins, car soyons prudent ces statistiques sont lexicales et ne sont pas sémantiques (vivement que Google améliore ses analyses et nous donne plus de contrôle sur la production des statistiques ! – au passage notons que nous prenons la plus longue période possible sur l’ensemble des domaines, privilégiant ainsi l’usage de l’anglais), ce n’est peut être pas plus un changement d’objet qu’un changement de vocabulaire qui s’opère.

    C’est cette remarque qui nous conduit à tester une autre comparaison. La définition classique du marketing est bien cet ensemble d’activités destiné à satisfaire les attentes du consommateur. Quelques préoccupations récentes portent sur la question du bonheur. Pourquoi ne pas comparer ces deux termes (le bonheur en rouge et la satisfaction en bleu), et tant qu’à faire inclure cette idée au centre du CRM et de la relation, celle de la fidélité (jaune). Les résultats sont éloquents, le bonheur est l’objet de toutes les recherches et la satisfaction est de moins en moins un sujet de préoccupation. La fidélité semble stagner.
    Mais comme dans les graphiques précédents l’offre s’accroit pour tous les paramètres.

    Il est bien difficile d’interpréter ces données qui reflètent d’une part le volume relatif des requêtes, et d’autre part celui des news. On peut comprendre que le désintérêt pour le marketing et la satisfaction résultent d’une victoire, ces notions sont désormais acquises et ne présentent plus aucun mystère. Mais en même temps, on ne peut que s’interroger pour cette préoccupation croissante pour la question du bonheur qui marque au fond l’échec du marketing.

    La corrélant à cette appétence pour le fantasme des médias sociaux, on est obligé de se poser d’abord la question de la mort du marketing, par son incapacité à résoudre au sein de ses paradigmes transactionnel et relationnel, l’aspiration et des firmes, et de leurs récipiendaires, et ensuite celle du véritable enjeu de la consommation, une activité sociale qui vise moins à satisfaire des besoins plus ou moins bien classifiés, qu’à produire dans le rapport à l’autre, cette chose à laquelle depuis les grecs, bouddha et quelques autres, nous pensons sans relâche, une idée du bien qui apporte le bonheur plus que la satisfaction.

    C’est peut-être chez Shopenhauer que nous pourrons ressusciter le marketing.

    Retour vers la valeur du client


    La mesure de la valeur client est désormais une chose ancienne. Si l’on datait les choses, peut-être pourrions nous fixer en 1987, il y a plus de vingt, une des formalisations les plus abouties qu’ont proposé Schmittlein, Morrison et Colombo(1). Nos lecteurs proposeront sans doute d’autres références, et des dates plus anciennes. C’est dans les années 90 que cette idée de mesure et de modélisation de la valeur client a pris son envol, dès 2002 des revues de littératures sont proposées(2). Plus récemment on ira voir Gupta, Hanssens et consorts (2006)

    La sophistication et le raffinement des modèles est depuis à la mesure de leur floraison. Ils sont aujourd’hui comme les fleurs d’une prairie au printemps, occupant toutes les niches de l’écologie des marchés, même si des lignes de force claires en structure la variété. Entre les modèles de rétention (lost for good), les modèles de migration (always a share), les modèles purement probabilistes, déterministes, autorégressifs, markoviens, ceux en cohortes, les paramétriques et les non-paramétriques, les survies et les semi, les mélanges, la palette complète de l’outillage statistique est employée.

    Et pourtant on reste encore dans une certaine confusion, la valeur client, la life time value, le capital client, forment encore une terminologie variée qui s’adressant à une même idée, a des difficultés à rendre compte de la nature des concepts qu’elle désigne. C’est en partie la faute de cette abondance, qui dans un esprit de compétition, a négligé le raisonnement économique et pris parti de la munificence technique.

    Revenons donc au concept. L’idée fondamentale est empruntée à la finance sur la base de cette découverte des années 80, c’est la gestion de la relation qui est le véritable objet du marketing plus que celle des décisions d’achat, et cette idée considère que le client est un actif, dont la valeur est mesurable, par la méthode de l’actualisation. Bref, que la valeur d’un client est égale à la somme dans le temps de la valeur qu’on espère qu’il produise à chaque période. Dans ce raisonnement, et cette définition, chaque point est important.

    Le premier est l’idée de cash-flow. La valeur vient de la différence entre ce que l’on engage, plus que des coûts mais des investissements, et la liquidité qu’on en obtient. De ce point de vue nombreux sont les modèles qui ont perdu de vue la définition, confondant le cash flow avec le profit, qui est difficilement calculable, mais pire avec le revenu. Nombre des modèles de Life Time Value, ce que nous traduisons par valeur actualisée du client, sont devenu à force des modèles de Customer Life Time revenue. Un comptable aura beaucoup de mal à confondre les deux notions, même si on comprend que dans l’esprit du marketeur les choses peuvent se confondre.

    Le deuxième point est celui de l’unité d’analyse. De la même manière que la valeur d’un titre ne se confond pas avec la valeur du portefeuille, la CLTV est une notion propre à chaque actif du portefeuille de clientèle, à chaque client, à chaque relation avec le client. Et chaque actif se caractérise par son espérance de valeur, mais aussi par son risque, mesuré usuellement par la variance de cette espérance de valeur.

    Le troisième point concerne justement cette notion d’espérance de valeur. Le gain futur n’est pas assuré. Il n’a de sens qu’au regard d’une politique mise en œuvre aujourd’hui dont on examine les prolongements dans le temps pour les ramener à la date présente. C’est le sens de l’actualisation, qui n’est pas une prévision mais une mise en équivalence. Que valent aujourd’hui les flux de cash dans le futur produit par la politique actuelle? Le financier pour résoudre ce problème corrige la valeur future par un coefficient qui représente soit un arbitrage d’opportunité, le rendement actuel des actifs, soit par une correction de la dégradation de la valeur de la monnaie. Il inclut aussi des espérances de croissance. Dans le cas du marketing, les choses sont un peu différentes dans la mesure où l’on n’espère pas que les actifs se maintiennent dans le temps. Les marketeurs sont pessimistes, ils savent qu’il y a peu de chance qu’un client aujourd’hui le soit encore dans 7 ans. Pour faire simple, si le taux d’attrition de la clientèle est de l’ordre de 30%, au bout de 5 ans la probabilité qu’un client le soit encore est inférieure à 20%. Autrement dit, si en finance l’espérance de gain est une moyenne constante dans le temps, pour le marketing elle est strictement décroissante.

    Poursuivons sur ce point, en examinant cette notion d’espérance de gain. D’un point de vue mathématique l’espérance de gain est la somme des différentes éventualités, et chacune d’elle est le produit d’une valeur possible et de la probabilité qu’elle se réalise. Dans le cas de l’espérance de la valeur client, on suppose de la manière la plus large que la probabilité diminue dans le temps, en moyenne, et que le gain qu’on espère réaliser, varie aussi selon des chemins que le modélisateur doit déterminer. Souvent l’hypothèse est que l’espérance (la moyenne) de gain est constante, mais que la probabilité qu’il se réalise est strictement et fortement décroissante. Mais on peut imaginer que l’espérance de gain suive une trajectoire parabolique traduisant dans la vie de la relation qu’un apprentissage conduise à développer le revenu espéré du client, puis que comme toute chose dans ce monde, l’usure et la fatigue érode ce revenu. Et indépendamment, on peut se dire que le risque de n’être plus client s’accroisse dans l’amorce et la constitution de la relation, pour ensuite rester stable, peut être s’affaiblir plus tard, quand l’ennui prend le dessus. Naturellement ces trajectoires sont le propre de chaque individu, de chaque histoire.

    Quatrième point, nous avons souligné que ces évolutions correspondaient à l’hypothèse que la politique marketing, autrement dit l’effort pour acquérir d’abord le client, puis pour le maintenir ou le développer, était le même à travers le temps. L’actualisation ne mesure pas un futur, mais un présent, elle vaut ce que l’on fait aujourd’hui et que l’on poursuit obstinément. L’effort d’acquisition conduit à sélectionner un certain type de client. On sait que s’il est important, il y a de fortes chances que ce client soit infidèle et opportuniste, on sait que s’il nous a choisi librement, sans qu’on le force il a de fortes chances d’être fidèle et généreux. De même si l’on ne fait rien pour nourrir la relation, il nous quittera rapidement. On peut donc imaginer des politiques optimales de gestion de ces clients. Les techniques d’optimisation dynamiques sont à notre service. L’idée centrale est donc bien que le CLTV dépend de l’effort d’acquisition, de rétention et de développement. Il y a donc au moins dans le principe l’idée d’une CLTV optimale à laquelle on doit comparer la CLTV actuelle.

    La valeur d’un client n’est pas une chose donnée. Elle est la résultante de ce qu’il est, des circonstances, mais surtout de ce qu’on lui fait. C’est sans doute un des points les plus mal compris. Il n’y a pas de client à forte valeur ou à faible valeur, il y a des clients dont on exploite correctement le potentiel en lui attribuant les ressources nécessaires, et ceux que l’on néglige. C’est sans doute le point fondamental.

    Ce raisonnement d’ailleurs permet une troisième idée, celle de la CLTV intrinsèque, qui se définit simplement comme la valeur produite par un client pour lequel on n’aurait fait aucun investissement. C’est cette valeur qu’il produit, indépendamment de l’effort marketing. On comprendra aisément que la problématique de la valeur du client tient dans une comparaison de ces trois indicateurs : celui d’une valeur intrinsèque qui ne requiert aucun investissement, celui de la valeur actuelle qui mesure la récompense de la politique d’investissement adoptée au jour du calcul, et celle d’une hypothétique valeur optimale qui correspondrait au meilleur des investissements.

    A ce stade de l’analyse, nous avons fait presque le tour de ce que les modèles doivent être capables de rendre compte. Et nous devrions nous intéresser désormais à cette autre notion qui est la valeur du portefeuille, autrement le Customer Equity. Il faudra pour cela garder à l’esprit que si ce dernier est la somme des valeurs individuelles, il n’est pas un concept nouveau, mais se confond avec ce que nous avons analysé. Nous garderons pour un autre post cette discussion.

    Il nous reste juste à prendre en compte une idée qui se développe depuis quelques années. Les clients ne sont pas seuls, et parlent à leurs voisins, ils recrutent eux-mêmes de nouveaux clients, ce qui a amené certain chercheurs à vouloir inclure ces gains secondaires dans les calculs de CLTV. Notre point de vue est que ce parti pris est erroné, moins par le principe que par ses conséquences, mais nous y reviendrons plus tard, nous contentant ici de réaffirmer que la force du concept de Customer Life Time Value, est de considérer aujourd’hui les conséquences futures de la politique marketing actuelle, en prenant en compte le plus raisonnablement possible, les trajectoires temporelles de la relation établie avec chacun des consommateurs qui participent la base de clientèle.

    Références

    (1) Schmittlein D., Morrison D. et Colombo R. (1987). Counting your Customers: Who are They and What will They do Next? Management Science, 33, 1, p. 1-24

    (2) Gupta S., Lehman D. R. et Stuart J. A. (2002). Valuing customers. Journal of Marketing Research XLI, p. 7–18

    Cross-selling – développer ou fidéliser ?


    Depuis une bonne dizaine d’année le mot magique de cross-selling s’est répandu dans les entreprises et dans le monde académique. L’idée de fond est simple : puisque l’acquisition de nouveaux clients est non seulement difficile mais coûteuse, il est plus avantageux de développer le volume d’affaire avec les clients existants.

    Compte-tenu de ce principe général, la méthode consiste à étudier les comportements pour déterminer quels sont les produits ou services qu’un consommateur donné est susceptible d’acheter connaissant son profil d’acquisition et éventuellement selon d’autres caractéristiques plus personnelles.

    Différentes méthodes sont possibles. Les plus simples sont d’utiliser des processus markoviens, certains pour prendre en compte les durées proposent des analyses de survie, des approches plus sophistiquées à base d’analyse des classes latentes sont aussi proposées. Un corps de littérature méthodologique solide s’est ainsi constitué. Nous en donnons ci-dessous quelques références marquantes, en remarquant que la plupart de ces travaux s’intéressent aux produits bancaires et financiers.

    En fait de telles approches, quel que soit leur degré de sophistication, s’apparentent surtout à des méthodes de ciblages et leur avantage est double : augmenter le rendement de campagne de ventes en limitant les sollicitations non souhaitées qui pourraient irriter les clients.

    Mais le cross-selling est aussi considéré par les entreprises comme une méthode de fidélisation, et là c’est une question bien différente. Celle de savoir si le nombre des produits acquis affecte la fidélité, ou au moins la rétention des clients. Peu de travaux ont été consacrés à cette hypothèse. Il y a là un sujet de recherche de première importance qui a cependant déjà été traité au moins partiellement avec la thèse de Dominique Crié sur les produits fidélisants.

    Il reste encore à établir le fait, démontrer qu’en équipant mieux nos clients, nous produisions une plus grande rétention, une plus faible sensibilité aux prix, une plus grande appétence, indépendamment de la propension à être fidèle. Nous invitons les entreprises à entreprendre cette recherche…

    Quelques références :

    Shi Li, B.G Sun, and R. T. Wilcox (2005) “Cross-Selling Sequentially Ordered Products: An Application to Consumer Banking Services” Journal of Marketing Research, Vol. XLII (May 2005), 233–239.

    Wagner A. Kamakuraa, Michel Wedel E, Fernando de Rosad and Jose Afonso Mazzon (2003) “Cross-selling through database marketing: a mixed data factor analyzer for data augmentation and prediction”, International Journal of Research in Marketing , 20 (2003) 45–65

    Leonard J. Paas, Ivo W. Molenaar (2005), Analysis of acquisition patterns: A theoretical and empirical evaluation of alternative methods”, International Journal of Research in Marketing 22 (2005) 87

    Lydiametrics – ou comment les modèles marketing se conçoivent


    Certains cas sont remarquables, celui de Lydia Pinkham l’est à plusieurs titres. C’est d’abord la preuve vivante et continue de l’efficacité d’une stratégie marketing qui s’appuie sur des dépenses publicitaires considérables. Il l’est aussi comme laboratoire dans lequel les méthodes économétriques se sont appliquées à fournir leurs appareillages nouveaux et à offrir aux spécialistes des études de nouveaux moyens pour mesurer l’efficacité de la publicité, au point que Pollay (1) utilise le terme de Lydiametrics.

    L’histoire de Lydia Pinkham commence en 1873 avec l’introduction d’un remède à base de plante destiné à calmer les douleurs menstruelles et les gênes de la ménopause, mais aussi à cette époque l’atonie sexuelle. L’histoire de l’entreprise a reçu une publicité forte à plusieurs occasions produites par des controverses juridiques, lesquelles ont été à la source de la publication de ces données dont on dispose un historique annuel de 1907 à 1960, et mensuel de Janvier 1954 à Juin 1960. Palda (2) en donne l’histoire, les données, et le premier exemple d’application à la modélisation en testant l’effet de rémanence de la publicité avec un modèle de Koyck en 1964. La marque est toujours en activité , elle a traversé le siècle y compris la période de prohibition alors que sa formule contenait 30 % d’alcool! La compagnie disparaît en 1973 mais le produit est toujours commercialisé à ce jour. La marque est devenue un symbole de la culture de consommation américaine, les collectionneurs s’arrachent les bouteilles anciennes et les éléments publicitaires, la marque est entrée dans les musées.

    Cette base de données a été choisie par de nombreux chercheurs pour plusieurs raisons. D’abord il s’agit d’un produit à fréquence d’achat élevée qui est une catégorie importante pour la recherche en publicité. Ensuite la publicité avait été l’unique instrument marketing employé par cette marque, au cours dans son histoire la copy-strategy n’a été modifié que trois fois, les changements de prix sont faibles et rares, les mêmes circuits de distribution sont employés et la formule est restée inchangée. Enfin, aucun concurrent direct n’est observé, la relation entre les ventes et la publicité pouvant être considérée de manière isolée d’autres facteurs. Méthodologiquement il s’agit donc d’une expérience naturelle.

    En 1969, Bass et Parsons (3) utilisent un système d’équation simultanée pour analyser le cas, Schmalensee (1972) le discute dans son fameux ouvrage (4). Clarke et Mac Cann réexaminent l’effet cumulatif (5) à la suite de Houston et McCann (6). Quand les méthodes de type Box-Jenkins apparaissent, Helmer et Johansson (7), par exemple, y présentent la notion de fonction de transfert. Cains, Sethi, et Brotherton (8) introduisent à la même période les tests de causalité et en marketing Hanssens (9) reprend de manière systématique. Winer (10) teste un modèle dans lequel le paramètre de l’effet de la pub peut varier. En 2001, Grewal et Al (11) utilisent de manière systématique les méthodes issues de l’analyse de la cointégration, ce qui a été initié par Baghestani en 1991 (12). Jusqu’à présent les modèles testés indiquaient que les ventes déterminaient le budget publicitaire, avec Kim en 2005 par une méthode de bootstrap le sens attendu de la causalité est enfin retrouvé !

    En conclusion, depuis plus de 40 ans ce cas alimente la discussion sur l’efficacité de la publicité et sert de banc d’essai à la modélisation. Il pourrait servir de fil conducteur pour une histoire de l’économétrie et peut aussi conduire s’interroger sur la qualité d’un savoir développé autour d’un cas unique. Mais ce n’est pas une histoire unique, dans le domaine de l’analyse des similarités, les données de Fisher produites en 1936 sur les iris ont joué le même rôle.

    Enfin, puisque nous n’avons cité que quelques-unes des références, nous invitons les lecteurs à un jeu d’été : mettre en commentaire les références oubliées dont nous savons qu’elles sont bien plus nombreuses que la liste suivante :

    (1) Pollay , R.W. (1979) “Lydiametrics : Application of econometrics to the history of advertising”, Journal of Advertising History”

    (2) Palda, K. S. (1964) The Measurement of Cumulative Advertising Effects., Prentice-Hall Englewood Cliffs

    (3) Bass, F . M. and Parsons L, J. (1969) “Simultaneous-Equation régression Analysis of Sales and Advertising”, Applied Economics, 1, 103-124.

    (4) Schmalensee (1972) “ Advertising Economics”

    (5) Clarke, D . G. and McCann J.M. (1977) “Cumulative Advertising Effects: The Role of Serial Correlation; A Reply”, Decisions Sciences, 8, , 33-43.

    (6) Houston, F. S. and Weiss D, . L (1975) “Cumulative Advertising Effects: The Role of Serial Correlation, Decision Sciences, 6 , 471-81.”

    (7) Helmer, R . M. and Johansson J,. K. (1977) “An Exposition of the Box-Jenkins Transfer Function Analysis With An Application to the Advertising-Sales Relationship” Journal of Marketing Research, 1, 4,227-39.

    (8) Cains, P. E., Sethi, S.P. and Brotherton, T. W. (1977) “Impulse Response Identification and Causality Detection for the Lydia Pinkham Data”, Annals of Economic and Social Measurement 6, , 147-63.

    (9) Hanssens, D M (1980) “Bivariate Time-Series Analysis of the Relationship Between Advertising and Sales,” Applied Economics, September 1980.

    (10) Winer, Russell S. (1979), “An Analysis of the Time Varying Effects of Advertising: the Case of Lydia Pinkham,” Journal of Business, 52 (October), 563-576.

    (11) Rajdeep Grewala, Jeffrey A. Millsb, Raj Mehtab, Sudesh Mujumdar (2000) “Using cointegration analysis for modeling marketing interactions in dynamic environments: methodological issues and an empirical illustration” Journal of Business Research, 51, 127-144.

    (12) Baghestani Cointegration (1991) “Analysis of the Advertising-Sales relationship” The Journal of Industrial Economics, Vol. 39, No. 6 (Dec., 1991), pp. 671-681

    (13) Kim. J.H (2005) « Investigating the advertising-sales relationship in the lydia Pinkham data: a bootstrap approach ». Applied Economics

    Modéliser la valeur client

    Depuis les années 90, avec le développement des recherche sur la satisfaction, l’orientation client, et le développement des outils de CRM, la valeur des clients (à distinguer de la valeur pour le client) s’est avérée être à la fois un thème central de recherche, mais aussi un enjeu de gestion pour les firmes. Des auteurs comme Blattberg ou Rust dès les années 2000 ont proposé d’en faire le socle de la gestion marketing.

    Un premier problème s’est posé au travers de la mesure du capital client (Customer equity, CE) qui s’est fondée sur la notion de valeur actualisé du client (life time value, LTV), le capital client se définissant comme la somme des LTV. Un premier modèle est sans doute celui de Colombo schmittlein et Morrison en 1987, par la suite une multiplicité d’approches ont été engagées selon que l’on soit dans un cadre contractuel ou non, que l’on soit dan une situation de « perdu pour toujours » (lost for good) ou de « toujours un euro à ramasser » (always a share), que l’approche soit stochastique ou déterministe, la mesure individuelle ou agrégée, Villanueva et Hanssens (2007) donnent une typologie intéressante de ces familles de modèles.

    Le sujet reste d’actualité. Parmi les problèmes qui restent posés quatre d’entre eux méritent une attention particulière :

    Le premier est celui de la modélisation de la LTV. Le développement considérable d’une famille de modèle stochastiques fondés sur la distribution NBD, dont les différentes formulations correspondent à différentes hypothèses concernant le comportement du client et son hétérogénéité. L’enjeu principal est d’introduire dans ces modèles des variables individuelles par lesquelles non seulement ces modèles permettront une évaluation financière plus fine, mais aussi d’engager une segmentation plus opérationnelle, leur complexité devant être évalué au regard des techniques plus utilisées telles que les modèles logit utilisés pour l’évaluation du churn, les modèles de survie, ou encore le bon vieux RFM.

    Un second problème est celui de l’introduction des variables d’actions marketing au sein de ces modèles. La valeur potentielle d’un client en effet n’est pas une chose donnée une fois pour toute, ce n’est pas comme on l’imagine trop souvent un élément exogène, la valeur potentielle du client dépend de l’effort qui lui est consacré. On aurait plus intérêt à considérer dans cet esprit la notion de valeur optimale du client, qui se définit simplement comme une valeur marginale : la valeur future du client produite en dépensant un euro de plus.

    Le troisième problème découle des précédents. Il s’agit moins d’une question de formulation de modèle, que de tester les hypothèses courantes de la gestion de clientèle. Les clients qui ont la plus grande valeur sont-il les plus sensibles à l’action comme les praticiens le considèrent ? Quelle est la rémanence des actions de marketing client habituelles ? Dans quelle mesure la valeur future des clients dépend-t-elle de leur mode d’acquisition aujourd’hui ? Les gros clients aujourd’hui seront-il vraiment les plus fidèles ? La diversité des achats (cross et up selling) est-elle liée à l’ancienneté des clients ? Bref il s’agit de considérer comment l’action marketing et les caractéristiques des clients interagissent pour produire une plus ou moins grande valeur.

    Il reste enfin un dernier problème qui est celui de la relation entre la valeur de la clientèle (CE) et la valeurs des clients (LTV). Si la LTV est analysée pour les clients en portefeuille, le CE doit prendre en compte la politique de renouvellement des clients, et il est peu probable que maximiser la LTV revienne à maximiser le CE, contrairement aux discours courants, il faut mieux sans doute réserver une part des ressources destinée à fidéliser pour acquérir et sélectionner ceux qui formeront la valeur future du portefeuille. Comment optimiser l’effort d’acquisition, de rétention et de développement de la clientèle ?

    Ce sont ces questions qui seront discutées dans la séance du 9 octobre autour de la thèse d’Herbert Casteran, avec Michel Calciu et Lars Meyer-Waarden, Maîtres de conférences à l’USTL et à l’Université Toulouse III.