Veille et intelligence Marketing – Cours Master 2 Marketing à Paris Ouest

14130834379_ee025af715_zL’objet de ce cours est porte sur la nécessité du marketing à veiller de manière continue sur l’environnement des marques : suivre naturellement les évolutions des pratiques et des comportements des consommateurs, celles de la concurrence, veiller aux tendance émergentes qui peuvent amener les entreprises à réviser leur plan marketing.

Nous le partagerons avec François Cazal en mettant l’accent sur les innovations dans les pratiques de marketing. Il s’agira dans un champs d’activité spécifique d’identifier les principales innovation en marketing et d’en évaluer les effets sur les pratiques du secteur. Une première suggestion pour 2015/16 sera d’examiner les innovations marketing dans la distribution spécialisée (produits culturels, électroménager, cosmétique …).

Dans un premier temps il s’agira pour les étudiants d’identifier ces innovations, quelques soit leur stade de développement (concept, expérimentation, test à l’échelle ou déploiement) concernant les grandes catégories de politiques marketing : politique de produit (définition de l’offre), politique de prix et de tarification, politique de communication, politiques de distribution (concepts et formats) et de gestion de la relation client. On les évaluera en s’inspirant de la carte de transilience proposée par Abernathy et Clark en 1985 qui bien avant la mode de la disruption en ont conceptualisé la notion.

Voici un petit questionnaire pour l’identification. On prendra soin de vérifier que les innovations proposées n’ont pas été déjà suggérées en examinant le tableau ici (les lecteurs du blog sont encouragés aussi à faire des suggestions)

 

Dans un second temps, on sélectionnera la vingtaine d’innovation dont l’impact semble le plus sensible dans les 5 années à venir, et chaque étudiant aura à réaliser une fiche d’évaluation de l’impact de cette  innovation sur le marché et l’organisation des entreprises, et à identifier les principaux acteurs de la mise en oeuvre de ces innovations. L’objectif serait d’éditer et publier sur cette page un White paper des 25 innovations qui vont transformer le secteur étudié.

Crédit Photo : Jocelyn Kinghorn … On ne pouvait rêver mieux pour illustrer l’innovation destructrice.. à la Schumpeter.

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Le pari au cœur des modèles statistiques – le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.
Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L’utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d’hypothèse avec la notion d’intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d’intention de vote d’une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l’intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s’inscrivent dans le cadre d’une approche dite fréquentiste de l’inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l’inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d’hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d’avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l’ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L’inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L’inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L’inférence non paramétrique, comme son nom l’indique ne suppose pas l’existence d’un paramètre d’intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l’exemple type.
    L’inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d’en induire la probabilité qu’elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l’écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l’utilisation de l’inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c’est un cadre bayésien qui s’impose dans la littérature technique.
    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu’un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d’une régularité.
    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d’expert ou encore des anciennes données. Durant l’analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.
    Ainsi sachant qu’une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu’un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d’actualiser le calcul. ( la formule est sur le t-shirt).
    D’après Robert (2006), L’analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.
    L’approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l’inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d’effectuer des tests d’hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc…), mais un grand travail reste à faire dans se sens.
    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s’est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l’estimation. Le raisonnement bayésien désormais s’étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d’estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n’est qu’une invitation, voici un exemple où l’inférence bayésienne donne des capacités d’apprentissage aux robots.

    Et quelques livres:

    Les fourmis de Facebook – I like Buttons…

    Depuis un mois les boutons « J’aime » de Facebook pullulent sur les pages du web. Ces boutons analogues aux boutons de partage remplissent une fonction toute à fait particulière, qui font que l’intelligence n’est désormais plus dans les moteurs de recherche mais dans le réseau lui-même, une intelligence sociale.
    L’intelligence sociale n’est pas plus grande que celle des fourmis mais passablement plus efficace que la nôtre. Son principe est remarquablement simple. Les fourmis qui ont trouvé de la nourriture laissent sur leur chemin de retour des traces de phéromones – l’environnement sert de support à la communication. En supposant que deux chemins de retour se présentent, un court et un long, et si le choix initial est aléatoire, les traces de phéromone se dissiperont moins vite sur le court chemin que sur le plus long car la fréquence de passage sera plus rapide modifiant la probabilité des choix jusqu’à devenir un chemin unique qu’une colonne régulière empruntera.
    Ce bouton « j’aime » est une phéromone numérique. En cliquant, on laisse une trace qui se répercute dans les pages de Facebook. Notons au passage que si la plateforme était fermée, elle s’ouvre à son dehors et en quelque sorte se réapproprie l’ensemble du web. Le remarquable du procédé réside dans la nouvelle conception du feed, qui désormais donne deux choix : la toute dernière actualité personnelle – empilement chronologique des messages, ou une sélection par défaut des « meilleurs » messages, ceux justement qui sont appréciés et commentés.
    Poursuivant l’analogie, la plateforme est la fourmilière, nous en sommes les fourmis, et nos clics laissent notre signal, celui qui guide les autres vers les informations les plus attractives (et il n’est pas sûr que le plus attractif soit le plus pertinent). Comme la fourmilière, une intelligence émergente apparaît sans cerveau central. Il n’est plus besoin d’algorithme et de calculateur, c’est la trace de nos pas qui crée de l’ordre et de la signification, au sein même du réseau, par le réseau lui-même, en tant qu’il est l’environnement dans lequel on évolue.
    Mais la limite de cette analogie est que l’odeur que nous laissons n’est pas la nôtre. Nous ne faisons que l’activer, ce sont les sites, autrement dit l’environnement qui la dépose, et c’est l’astuce de la plateforme qui la ramène dans son environnement interne au prix d’une certaine perte de contrôle des traces que nous laissons. On pourra largement discuter de ce sujet qui apporte une inquiétude de plus. Une analyse technique de Didier Durand et une discussion de Jean-Nicolas Reyt en donne quelques éléments.
    Mais dans ce post, contentons-nous de souligner un fait plus général : l’audience d’un site et sa valeur dépendent de ce qu’il est tout de même difficile d’appeler une intelligence, mais d’un mécanisme collectif de renforcement de la crédibilité des sources d’information ( désormais des dizaines de millions). Facebook de ce point de vue n’invente rien, le pagerank jouait déjà ce rôle, des sites de signets collectifs (social bookmarks) comme delicious, diggs et autres technorati ont engagé le procédé, twitter (et son bouton qui fleurit depuis quelques mois) l’a systématisé.
    Ce qui change c’est la taille, 400 millions de fourmis (…et moi et moi et moi) ça change la donne! Mais c’est aussi l’abandon d’un effort général de classification : le score des I like se distribue entre les pages de chacun, se fractionne, s’ajuste, se personnalise, sans qu’aucun effort ne soit fait sauf de lier un bouton perdu dans l’océan des pages, un cookie qui traine, et cette page de news qu’on consulte désormais chaque matin.
    L’enjeu pour les marques devient considérable, faute d’être aimées elles disparaitront des pages d’accueil, n’ayant d’autre choix pour s’y retrouver d’en payer le droit à la plateforme : le bouton va enflammer le prix du CPM! L’alternative : produire assez de contenu, un contenu si saisissant qu’à force de clics elles se maintiendront sur l’écran défilant de nos nouvelles.

    Plus de 24h pour les données – des nouvelles de l’AFM

    Au congrès 2010 de l’AFM, qui avait lieu au Mans, nous avons été ravi d’animer avec Lars Meyer-Waarden une table ronde sur les panels, avec Matthieu Joly de MarketingScan et Jean-Pierre Gaucher de IRI.

    Quelques questions simples et des réponses franches et éclairantes. Le bilan de ces dernières années est clair : une incroyable montée de la granularité et de l’étendue des données, la généralisation qui met à l’encan la théorie des sondages, une époque bien heureuse pour ceux qui se ravissent des bains d’information. Fraîches et précises, jamais elles n’ont été aussi détaillées, fidèles, précises, et utiles.

    Un nouvel horizon? C’est celui de la confiance, et ceux qui possèdent les plus belles bases, celles qui sont constituées à partir des programmes de fidélité ne sont pas prêts encore à syndiquer leurs informations, ne serait-ce que par le biais d’échantillons larges. Mais cela n’empêche pas cette fusion des données de demeurer aujourd’hui l’horizon des panels.

    Nous aurons senti dans cette rencontre qu’un appel fort est lancé auprès des académiques, non pas dans le développement de modèles que peu d’annonceurs sont prêts à comprendre, mais dans l’établissement de généralisations empiriques qui aident à la décision.

    Nos interlocuteurs auront avoué au fond que la masse des données qu’ils recueillent et redistribuent auprès de leur client est assez peu travaillée dans sa généralité. Elles ont pourtant le potentiel de donner des indications précises sur l’efficacité générale des moyens du mix : le prix, la promotion, la marque et la publicité, sans doute l’effort promotionnel, toutes ces données sont désormais disponibles à une échelle qui est moins celle d’un échantillon que de celle d’une population, laquelle permet dans certains cas une finesse géographique qui au-delà de la dimension stratégique en font aussi des outils de pilotage opérationnel.

    Remercions-les d’avoir ouvert leurs réflexions à la communauté de l’AFM, d’avoir dit sans fard l’état de leurs méthodes, et de donner l’espoir qu’une connaissance empirique sérieuse puisse se développer. On ne sait que peu de choses des marchés, on connait rarement la dynamique de leur essor, les présomptions sont plus fortes que les faits. Le travail que font ces sociétés n’est finalement pas que de donner aux acteurs une vision lucide de leurs affaires, mais aussi de permettre que l’on connaisse mieux l’état des marchés et les mécanismes qui les habitent. Il reste à nous organiser pour proposer les projets, les méthodes et les techniques qui feront parler les données.

    Nous retiendrons que jamais on a connu une telle abondance de données, mais que jamais on a autant été éloigné des données du marché, au moins dans les milieux académiques. Le message laissé par nos invités est clair : il y a besoin de docteurs, il y a besoin de chercheurs, il y a besoin de donner du sens aux données. Et la panelisation des programme de fid, si elle est souhaitable, n’est pas encore possible…

    Google trending : le marketing est-il en train de mourir?

    M’exerçant à quelques Google trending afin de compléter un article sur le rôle institutionnel des technologies de l’information, je découvre quelques tendances surprenantes même si peu étonnantes.

    La première interrogation concernait l’évolution des préoccupations en matière de CRM (en bleu). Avec un peu de surprise on constate une décroissance relative des recherches sur le sujet, et en même moment un accroissement de l’offre. L’intérêt s’est tourné ailleurs vers le Web 2.0 (en jaune), mais même pour ce thème un relatif désintérêt est observable. Le vrai sujet est celui des médias sociaux (en rouge). C’est ce que l’on recherche, et c’est ce dont on parle. Dans ces données, on ne trouve qu’une confirmation de ce que l’on savait plus ou moins.

    Approfondissons l’analyse et testons cette idée que le client a pris le dessus sur le consommateur. Les deux mots marquant deux modèles de pensée : le marketing s’est intéressé essentiellement à la figure du consommateur (bleu) alors que le CRM fait du client (rouge) son obsession. Nous nous attendons donc à ce que ces deux thèmes fassent l’objet d’un intérêt décroissant, cette décroissance étant moindre pour la figure du client. Et ce n’est pas le cas. Le client est un objet de recherche croissant, est-il encore un grand inconnu?

    Pour le moins, car soyons prudent ces statistiques sont lexicales et ne sont pas sémantiques (vivement que Google améliore ses analyses et nous donne plus de contrôle sur la production des statistiques ! – au passage notons que nous prenons la plus longue période possible sur l’ensemble des domaines, privilégiant ainsi l’usage de l’anglais), ce n’est peut être pas plus un changement d’objet qu’un changement de vocabulaire qui s’opère.

    C’est cette remarque qui nous conduit à tester une autre comparaison. La définition classique du marketing est bien cet ensemble d’activités destiné à satisfaire les attentes du consommateur. Quelques préoccupations récentes portent sur la question du bonheur. Pourquoi ne pas comparer ces deux termes (le bonheur en rouge et la satisfaction en bleu), et tant qu’à faire inclure cette idée au centre du CRM et de la relation, celle de la fidélité (jaune). Les résultats sont éloquents, le bonheur est l’objet de toutes les recherches et la satisfaction est de moins en moins un sujet de préoccupation. La fidélité semble stagner.
    Mais comme dans les graphiques précédents l’offre s’accroit pour tous les paramètres.

    Il est bien difficile d’interpréter ces données qui reflètent d’une part le volume relatif des requêtes, et d’autre part celui des news. On peut comprendre que le désintérêt pour le marketing et la satisfaction résultent d’une victoire, ces notions sont désormais acquises et ne présentent plus aucun mystère. Mais en même temps, on ne peut que s’interroger pour cette préoccupation croissante pour la question du bonheur qui marque au fond l’échec du marketing.

    La corrélant à cette appétence pour le fantasme des médias sociaux, on est obligé de se poser d’abord la question de la mort du marketing, par son incapacité à résoudre au sein de ses paradigmes transactionnel et relationnel, l’aspiration et des firmes, et de leurs récipiendaires, et ensuite celle du véritable enjeu de la consommation, une activité sociale qui vise moins à satisfaire des besoins plus ou moins bien classifiés, qu’à produire dans le rapport à l’autre, cette chose à laquelle depuis les grecs, bouddha et quelques autres, nous pensons sans relâche, une idée du bien qui apporte le bonheur plus que la satisfaction.

    C’est peut-être chez Shopenhauer que nous pourrons ressusciter le marketing.

    le net hors du temps?

    L’internet avec le temps découvre le temps. L’innovation apportée par le microblogging, et plus généralement par les techniques de fil d’information, que ce soit le RSS ou les feeds de facebook, est de ralentir le flux des messages instantanés pour donner le sentiment d’une information en temps réel. C’est d’ailleurs l’expression désormais consacrée : celle du real time search. On peut d’ailleurs se poser la question de ce qu’il a de réel ? Il serait plus correct de parler d’un temps actuel, à moins de ne considérer que les seules choses réelles sont celles du présent.

    C’est un temps qui est analogue à celui des dépêches d’agence de presse, et si la technique change, c’est ce même esprit qui anime les nouveaux téléscripteurs. L’espace de cette information est celui d’un relatif immédiat, une couche de quelques heures de messages émis, répercutés, retransmis, redondant dont l’épaisseur reflète en partie l’intérêt.

    Immédiateté mais non instantanéité. L’instant appartient à ce qui aussitôt émis se dissout dans l’oubli. C’est la vertu des messageries, dont on ne conserve que rarement les archives. Le temps des fils d’information est aussi celui d’un archivage dont la période est courte mais significative.

    Ce temps est bien différent de cette permanence des premiers sites web dont la conception se tenait dans l’idée d’une intemporalité. Même si à mesure du temps qui passe, ils sont améliorés, ces améliorations le sont pour un toujours, et tiennent le passé pour une sorte d’imperfection qu’il faut gommer. L’intemporel est ce qui échappe au temps.

    Les blogs ont introduit cette idée de durée, à un rythme assez lent, celui des jours, des semaines et des mois. Ils sont au fil d’information ce que la presse est à la dépêche avec cet avantage cumulatif dont la presse internet n’a pas pris l’avantage. La véritable valeur ajoutée de la presse réside dans ses archives et le potentiel qu’elle a d’introduire dans l’espace du net les premiers éléments d’une histoire véritable.

    Voilà qui laisserait à penser que l’internet n’innove pas tant que cela, au moins dans le rapport au temps que nous pouvons concevoir. Le flux des innovations semble juste rattraper l’état des institutions traditionnelles de la connaissance. Ce qui laisse d’ailleurs entrevoir des perspectives pour de nouveaux modèles de médias, et l’idée de quelques lieux de mémoire.

    Le passé est sans doute la zone occultée. L’admiration qu’on porte à Google et à son indexation s’atténue quand on réalise que la recherche laisse peu d’importance à la datation. Si l’indexation est puissante, l’archivage est mauvais. Même dans les fonctions avancées de recherche, la gestion du temps est limitée. Notons, au passage, que cette propension à l’atemporalité, à ce mépris du temps, se retrouve aussi chez Amazon, qui contre toute les habitudes bibliographiques confine les dates d’éditions des ouvrages dans des coins d’ombres.

    Cette propension à l’atemporalité est un fait d’autant plus curieux, qu’il est peu de monde aussi pénétré par la mesure du temps. L’informatique, l’électronique, date, horodate, avec une précision inouïe le moindre de ses documents. Les bons outils sont d’ailleurs ceux qui gèrent la genèse de la production. C’est ce qui est au cœur du processus d’édition des pages de wikipédia, qui permet de repérer chaque version. Mais cette précision géométrique a peu à faire avec l’histoire, mais beaucoup plus avec l’organisation et la séquentialité des décisions. Si pour chaque page un onglet historique est disponible, la date d’édition n’est pas fournie sur la page consultée. Mais cela reste un des cas uniques qui permet au lecteur d’apprécier les conditions de genèse d’un document.

    Si aujourd’hui toute l’attention est portée vers ce prolongement extraordinaire du modèle initial de l’internet, une extension de l’intertextualité à la socialité, autrement dit cette extension du principe de lier les textes les uns aux autres et de tisser entre eux un réseau de signification, à celui de lier leurs auteurs, leurs agents, il reste encore à introduire un ordre particulier, celui du temps, celui d’une histoire. Il s’agit moins de chronologie, même si elle est nécessaire, que d’archivage. Il s’agit moins d’observer des tendances que de marquer des évolutions. Il s’agit moins de calendrier, que de mémoire.

    Et qui pour qui douterait de cette observation, proposons un exercice simple : comment avec les outils de recherche et d’agrégation dont nous disposons, faire l’état de l’évolution d’un événement aussi facilement qu’on rassemble de l’information sur l’état actuel de cette information. Cette fonction existe depuis peu dans Google actualité, mais il faut la chercher dans la recherche avancée. En voici un exemple pour le cas de la grippe A sur le mot clé H1N1.

    De la valeur au capital (client)

    Une suite à “retour à la valeur

    Et non, nous n’évoquerons pas cette transmutation fondamentale qui est au cœur de la pensée marxiste, ce passage de la valeur d’usage à la valeur marchande, même si cela reste au programme. Nous resterons plus modestes en nous intéressant à ce que comment de l’idée que chaque client est un actif de l’entreprise, on peut imaginer que la valeur de l’entreprise est celle de l’ensemble clientèle. De quoi se constitue le capital client (Customer equity) ?

    En posant que le client est un actif, nous allons au cœur du problème. Si la valeur de l’entreprise est bien la somme des cash flow futurs que sa politique actuelle va générer, il est évident que cette valeur est équivalente à celle que l’ensemble de son portefeuille de client va générer en fonction de la politique qu’elle mène. Pour affirmer cela, il faut partager l’idée que dans un temps indéfini, la valeur de la firme dépend des revenus qu’elle génère, de ses investissements, et des coûts qu’elle concède pour les obtenir. Et donc que quels que soient les modèles d’affaires, la valeur de la firme se résout dans sa capacité à obtenir des flux de revenus contre des dépenses de ressources. C’est un point extrêmement discutable, d’une part parce que les revenus peuvent venir d’une autre source que celle qui motive les dépenses, c’est le modèle des marchés à plusieurs faces, mais aussi du fait que les revenus peuvent venir du fait de l’espérance d’un revenu futur, actualisé sur le marché financier, c’est le modèle des ventures Business.

    Restons donc dans le cadre traditionnel, de ce qu’à terme le revenu est produit par ceux qui achètent le produit, ou le service, de la firme. Dans l’effort de valorisation des actifs, il est clair qu’il faut comparer ce que l’on investit, ce qu’on dépense, à ce qu’on espère gagner. L’investissement correspond à la dépense actuelle qui peut générer des revenus immédiats et futurs, la dépense est ce que l’on doit consacrer pour servir la réalisation des revenus immédiats. La balance se fait en comparant le cumul de ce qui est investi, plus celui qui est dépensé, au flux cumulé des revenus obtenus. La différence est exactement ce qu’on appelle le customer equity. Le capital client.

    Une première intention serait comme nous l’avons analysé, de le définir comme la somme les Customer Life Time values. Mais si le capital client se limitait à cette seule sommation nous n’aurions pas défini de concept nouveau. Il faut aller plus loin. Life time Value et customer equity seraient la même chose à la base de clientèle près.

    Mais avant d’aller plus loin réglons le sort d’autres formes de capital. Le premier d’entre eux est le capital de marque, un autre plus fondamental est le capital produit, je n’ose encore parler de capital relationnel, ou pire de capital social. Nous abusons du capital, le capital ne se multiplie pas, sauf dans le temps, il ne fait que s’ajouter. Le capital produit est cette quantité qui fait que les revenus de l’offre mise sur le marché moins les dépenses nécessaires pour le concevoir et le produire, génèrent sur le long terme une accumulation de profit positive. Le capital de marque est dans le même esprit, cette différence qui s’ajoute parce que la marque permet de pratiquer des prix plus élevés ou de retenir l’attention d’un plus grand nombre de consommateurs. Le capital d’innovation est de même nature. Les uns et les autres ne s’ajoutent pas au capital client, ils ne font que le composer. Nous pourrions simplement concéder que dans la nature même de la relation établie avec les clients, il y a une source de valeur qui excède celle que produit la fonction, plus celle que produit le symbole, cet excès représentant la qualité particulière de la relation que la firme établit avec ses clients. En imaginant qu’on apporte les mêmes fonctionnalités que les concurrents, en imaginant qu’on leur apporte la même réputation, le fait de valoir plus que les autres, ne pourra provenir que de ce qu’on a établit une meilleure relation que les autres.

    Dans cette conception la valeur client est la valeur de la firme, même si elle peut être décomposée en une valeur de l’offre, une valeur de la marque et une valeur de la relation.

    Le capital client est donc clairement égal à la valeur de la firme, en ce sens qu’il représente la somme des cash-flows actualisés. La différence n’est pas de nature, mais dépend du mode de calcul. La valeur de la firme s’évalue à partir d’un indicateur comptable synthétique, celle de la clientèle à partir d’un indicateur agrégé. D’un côté on agrège les profits par unité de temps, de l’autre par unité d’actif productif. Voilà pour une définition générale. Il faut maintenant s’intéresser à la décomposition de ce capital client, généralement désigné par la terminologie de customer equity.

    La part essentielle naturellement est constituée de la somme des cash-flow futurs générés par les clients d’aujourd’hui, compte-tenu de la politique menée actuellement. Mais cette politique menée actuellement ne se contente pas de maintenir les clients existants. L’agrégation de leur valeur bien sûr nécessite de prendre en compte des phénomènes de cohorte, les vagues successives de nouveaux clients. C’est un détail technique. Le point principal est que la politique actuelle induit le recrutement de nouveaux clients, élément que les modèles de CLTV ne prennent pas en compte. Le customer-equity se définit donc dans la sommes des cash-flow futurs générés par la base de clientèle actuelle, plus ceux de la clientèle future, compte de la politique actuelle de marketing. Celle-ci comprend la politique d’acquisition, de rétention, de développement, mais aussi de manière fondamentale la politique de création de valeur pour le consommateur.

    En distinguant ces catégories nous mettons l’accent sur le fait que les dépenses marketing sont relatives d’une part à une offre de base, qui peut susciter un plus ou moins grand potentiel de demande, et d’autre part à des actions de stimulation qui peuvent accélérer ou ralentir l’accès au potentiel. Les dépenses d’acquisition ou de rétention ne font finalement que déterminer la vitesse à laquelle la firme atteint son potentiel de marché dans la limite de ce que ces dépenses peuvent aussi affecter le potentiel.

    Mais ne raffinons pas trop le raisonnement, le capital client est ce flux de cash-flow constitué par les clients actuels, et les clients futurs que la politique marketing actuelle laisse à espérer. Il faudrait simplement ajouter ces clients que les clients actuels et futurs vont par leurs comportements, leurs opinions, leurs recommandations ajouter à la population que l’on gère actuellement. Dans une analyse précédente nous avons refusé d’ajouter leur contribution à la CLTV. Nous pouvons nous en expliquer maintenant. Sur le principe il aurait été assez raisonnable d’ajouter cette contribution à ceux qui en sont les inducteurs, mais cela reviendrait dans notre décomposition à comptabiliser cette contribution dans la valeur créée par les consommateurs actuels. Et donc à sous estimer l’efficience des investissements et des dépenses.

    En séparant cette contribution on donne un visage plus réaliste à ce qui forme le capital client : la somme des gains futurs produit directement par les clients acquis aujourd’hui, plus celle des clients que notre politique d’acquisition aujourd’hui va permettent d’atteindre demain, et enfin ceux que l’offre de base, la marque et la qualité de relation, vont produire sans qu’on ait fait d’effort directement vers eux.

    Ainsi nous pouvons défendre l’idée que le capital client ne se confond pas avec celle de la somme des CLTV mais la déborde. Et au passage un ratio du type CE/n*CLTV serait un bon indicateur de la capacité à générer des externalités de clientèle.

    En étendant cette idée, on pourrait même mieux comprendre des modèles d’affaire moins traditionnels. Autrement dit ceux dans lesquels la valeur de client est quasi nulle, mais par ses effets secondaires, génère des revenus dérivés très élevés comme cela est le cas dans les marchés à plusieurs faces. Si la life time value des usagers de Google est clairement négative, le customer equity à la lecture des résultats est très largement positif.

    Mais restons sur notre ligne principale, celle de business-model traditionnels dans lesquels la valeur se constitue dans la différence entre les investissements consentis pour servir une clientèle et les revenus qu’elle génère directement. Le paramètre clé est ici la politique d’acquisition, et de la même manière que nous avons défini une CLTV optimale, nous pouvons définir un CE value optimal, qui sera déterminé par la meilleure combinaison entre les investissements destinés au renouvellement de la base de clientèle et au maintien de l’ancienne.

    Mais il n’y a pas d’isomorphisme. Il est raisonnable ainsi de penser que si client par client, nous devions penser qu’il faut mieux investir sur la fidélisation, à l’échelle du portefeuille c’est l’acquisition qui deviennent la priorité. Dépenser beaucoup pour plus que renouveler la base de la clientèle pourrait être compatible avec l’idée de dépenser peu pour acquérir chaque client, un budget d’acquisition élevé est compatible avec une dépense par client actif qui soit faible. Une telle situation se comprend dans la mesure où dépenser peu en moyenne pour acquérir un nouveau client, laisse espérer que celui -ci ait une forte valeur, dépenser beaucoup au total signifierait juste d’élargir considérablement le marché potentiel.

    Voilà qui milite pour une idée simple, l’intérêt du concept de customer equity concerne un aspect stratégique du marketing, quand celui distinct du CLTV relève essentiellement d’un problème opérationnel.