Parle à ma machine

13641048214_e55529f9db_zJuste un court billet pour cette idée simple : la relation client n’est plus simplement une question de confiance, car l’appareil de la consommation, la galaxies des objets connectés qui accompagnent le consommateur, en deviennent de plus en plus un composant essentiel. Des notifications, des mises à jours des agendas, le règlement automatique des contrats,  la commande de l’environnement, la surveillance de nos biens, le pilotage de nos équipements, font travailler nos machines, et c’est à ces machines que les marques vont devoir parler, d’autant plus que nous souhaitons être tranquilles, déchargés des corvées.

C’est l’idée que l’agence Marquetis à parfaitement saisie en 1mn30 dans cette réinterprétation de « Plateformes », la même qu’on a confiée, sur un autre ton et de manière plus développée au Cercle du Marketing Client ».

Film Futur_datas by Marquetis from Christophe Benavent on Vimeo.

La révolution client n’est pas finie !

The intricate Matrix
C’est un mouvement qui est né dans les années 90, et a trouvé au virage du millénaire un nom et des techniques : le CRM, la pratique d’une stratégie orientée vers les clients, n’a pas fini d’évoluer. La révolution du client se poursuit.
Elle conserve la quadruple raison deson intérêt : a) le CRM réduit les coûts de gestion de la relation client b) il améliore les services délivrés c) il renforce la qualité de la relation d) il permet d’exploiter au mieux les sensibilités aux prix et à la qualité en personnalisation les services et la relation qui les portent.
Aujourd’hui elle trouve dans le Cloud et le Big Data de nouvelles perspective et une nouvelle promesse des données. Plus que connaître les grands volumes de données permettent d’agir et d’ajuster les décisions les plus microscopique : gagner quelques cents sur des centaines de millions d’interactions.
Ce volume provient de sources diverses : du babillage de notre smartphone qui échange continuellement avec les antennes fournissant une date et une localisation, mais aussi du mouvements des fluides que l’on consomme dans la maison et dont bientôt le détail sera connu à la seconde, il peut s’agir de la voiture, de notre santé, de nos activités. Il vient aussi de ce vaste mouvement de dématérialisation qui fait des factures, des contrats, des polices, des relevés de comptes la matière de nouvelles données.
La dimension sociale des données s’est désormais bien établie. De vastes réseaux sont identifiés, on en découvre la dynamique, ils redéfinissent la qualité de la relation client sous l’angle de la participation et de l’engagement, faisant des clients les acteurs du marketing. Les encourager à partager l’information ou à militer devient soudain l’enjeu. Plus profondément il ne s’agit plus de gérer des rendements à coup de campagnes, mais de structurer l’audience et les médias qui la desserve. Une question d’architecture. Comprendre leurs complémentarités.
L’ampleur du mouvement, les changements d’échelles dans l’acquisition des données, portent à réflchir et parfois à militer. Cette idée du Berkam Center, le VRM, le mouvement de l’Open-data, les défenseurs de la privacy, contribuent aussi à dessiner un autre visage du CRM. On imagine des bases de données décentralisées que le consommateur contrôle et qui s’ouvre à volonté aux moteurs d’agrégation et autres crawlers. Un retour au P2P comme y ressemble Diaspora. Des coffres forts électroniques, des agents personnels cherchant sur le marché des offres ajustées. Après une ère de centralisation des bases de données va-t-on assister à une déconcentration extremes? Aux fermes de serveurs succéderont peut-être des milliards de serveurs personnels?
L’impératif du customer-centric qui se maintient depuis plus de vingt ans, trouve la nécessité de son renouvellement dans le développement des technologies supposées l’améliorer.

PS : le fil conducteur de l’intervention faite au Cercle du CRM

La question du genre n’est pas qu’humaine, c’est celle des AVI!

Monsieur Bibendum III

Pas de miss cette année mais un sacré Bonhomme! C’est donc l’AVI du bonhomme Michelin qui aura remporté la 3ème année de Miss Client, ce concours de beauté et d’efficacité des agents virtuels, créé par Thierry Spencer et dont les étudiants du Master MOI forment le Jury avec l’aide du public.

Revenons aux origines, le bonhomme Michelin, autrefois Bibendum ou bibs, a été dessiné en 1898 par un dessinateur français O’Galop dont un film récent réalisé par son petit fils retrace les création. Évoluant avec la société et l’industrie automobile, redessiné et sans cesse au cours de plus d’un siècle. Que Virtuoz lui ai donné la parole n’est qu’une étape de plus dans la vie de la marque. Une manière encore plus incarnée de la faire vivre et de parler d’elle et de son histoire. La personnalité de la marque, avec sa bienveillance et sa crédibilité est à coup sur un facteur de confiance.

Et celà doit amener les concepteurs d’AVI à une réflexion sur l’attractivité des agents qui ne peut se résoudre à leur seule efficacité. Les personnages choisis non seulement doivent être séduisants graphiquement mais aussi chargé d’une personnalité dont le Bonhomme ne manque pas.

Ce résultat n’est pas très étonnant aussi pour d’autres raisons qui rejoignent d’une certaine manière des études de plus en plus nombreuses dans la sociologie et la psychologie de nos rapports avec les non-humains et en particulier avec les êtres artificiels dont les agents et les robots forment une population active dans nos sociétés. C’est un Toon qui gagne, ni homme ni femme, un avatar . Pas de sexe même s’il a sans doute sans doute une certaine masculinité. Dans ce rapport, les questions de genres ne sont pas indifférentes.
L’anthropomorphisme est un facteur clair d’attractivité, plus grande est l’incarnation et plus forte la séduction, il serait même indispensable pour établir une relation sociale avec des non-humains (1).  Mais cet anthropomorphism a une limite soulevée depuis longtemps par Masahiro Mori , celle de l’Uncanny Valley : quand les êtres artificiels sont trop similaires à l’humain, une terreur profonde surgit et provoque une répulsion totale – se voir à l’identique dans un être artificiel anéantirait notre estime de soi. On peut comprendre ainsi que les personnages figuratifs en évitant toute confusion avec l’humain puissent dans certaines circonstances être préférables.Le trop humain pose trop de problème.
Un second résultat est propre à la question du genre. Les stéréotypes de la féminité ont certainement poussé à croire que des personnages féminins étaient plus adaptés, et plus attractif que les personnages masculins qui  paraissent plus puissant (2). Ce n’est pas forcément un choix judicieux car il ne ferait que projeter audelà de la sphère humaine des rôles et des archétypes discutables. L’asexuation de notre bonhomme le fait échapper au genre.
Cette question du genre se réfère aussi à l’hypothèse de similarité : on serait plus attiré par un profil opposé : les hommes seraient plus attirés par des AVI feminins, les femmes par des personnages masculins (3). Cet effet de similarité est d’autant plus important que les utilisateurs sont peu impliqués, ce qui est notable quand on sait que l’usage des AVI vise à traiter essentiellement des questions routinières. Cette hypothèse cependant pose un sérieux problème : l’orientation de genre jouerait un rôle très important et un degré de complexité élevé : si le masculin est attiré par le féminin, que le genre se dissocie du sexe, on imagine le nombre de combinaison possibles !
Bref, le succès du bonhomme tiendrait à la fois à sa forte personnalité et à ce qu’ils se tiennent à la lisière de l’humanité, il en revêt les traits sans en adopter les complications. 
References
  1. Epley N, Akalis S, Waytz A, Cacioppo J. 2007 Creating Social Connection Through Inferential Reproduction: Loneliness and Perceived Agency in Gadgets, Gods, and Greyhounds. Psychological Science 
  2. Nunamaker Jr., Jay F., Douglas C. Derrick, Aaron C. Elkins, Judee K. Burgoon, and Mark W. Patton. 2011. « Embodied Conversational Agent–Based Kiosk for Automated Interviewing. » Journal Of Management Information Systems 28, no. 1: 17-48.
  3. Pentina, Iryna, and David G. Taylor. 2010. « Exploring source effects for online sales outcomes: the role of avatar-buyer similarity. » Journal Of Customer Behaviour 9, no. 2: 135-150. 
  4. Cheetham M, Suter P, Jäncke L. 2011. The human likeness dimension of the « uncanny valley hypothesis »: behavioral and functional MRI findings Frontiers Human Neuroscience. 2011;5:126. Epub 2011 Nov 24.

En prime


MICHELIN MAN’S BIRTH from novanima on Vimeo.

A lire aussi ici :

Open Data – Un nouveau chemin pour les systèmes CRM

Car crashes
A l’occasion de la publication du rapport de l’Ecole des Ponts sur l’Open Data, il est utile de rappeler quelques transformations majeures dans le monde des données et du CRM. Le projet apparu à la fin des années 90 de compiler toutes les données comportementales et toutes les données de contact pour mettre en oeuvre des politiques commerciales différenciées est aujourd’hui largement bousculé moins par les technologies que par l’abondance et la diversité de l’information disponible.
Dans une époque encore récente, le développement de bases de données marketing pouvait avoir pour finalité de comprendre comment les actions marketing produisent un effet en notant au niveau le plus désagrégée les message émis auprès des clients quelques soient leurs sources : DM, vendeurs, mail, appels, coupons etc (360°) et les réponses à ces messages des consommateurs. 
La capacité d’enregistrer la totalité des interaction ouvrait alors un boulevard au marketing science, la fonction de réponse du consommateur devenait non seulement plus complétement spécifiable, mais pouvait être déclinée à un niveau quasi individuel. C’est cette approche qui est d’ailleurs toujours au coeur du Big Data. La nouveauté semblant l’automatisation du calcul de ces fonctions, et des décisions qui peuvent en découler.
Une limite cependant à ce projet doit être notée : les données propriétaires des systèmes CRM ne donnent qu’un point de vue étroit du comportement. Même en disposant de tous les capteurs possibles, on ne saisit du comportement que celui qui concerne l’entreprise, et l’on ne retient des actions marketing que celles que l’on exerce. Les données venant de la concurrence sont inexistantes, ou au mieux très parcellaires. C’est une limite majeure dans la pertinence des modèles, la masse des données disponibles ne pallie pas à cette myopie, même si elle a été réduite par une meilleure prise en compte des situations.
Avec le développement du Web², une innovation est apparue dont on ne souligne pas assez l’importance, en tout cas dans la conception des systèmes CRM. L’information n’est plus tout à fait propriétaire. Avec l’apparition des API, les grandes bases de données ont un caractère public. Permettant la création de mashup, une autre source de donnée est apportée aux systèmes CRM et s’y combine. C’est ce que fait notamment Salesforce.com avec son Chatter. Le mouvement est en plein essor, il sera de plus en plus difficile de concevoir des bases de données marketing alimentée uniquement par des capteurs internes. La tentation sera de plus en plus forte d’intégrer ces données presque publiques qui sont stockées et maintenues dans les plateformes sociales. Et si l’accès intégral et libre n’est pas complet, c’est par le truchement des fonctions sociales que l’enrichissement pourra être fait. Il est évident que la question du droit de la vie privée va jouer un rôle fondamental : à qui appartiennent les données ? A l’hébergeur? Au créateur? A qui appartiennent les données dérivée? Pour ne prendre qu’un exemple, le service Klout génère à partir de l’analyse des flux de twitt des indicateurs d’influences des internautes. On imagine qu’ils peuvent alimenter les bases CRM pour qualifier certains clients.
Mais venons-en au fait. Dans ce mouvement d’élargissement des sources, les politiques d’open data apportent un nouvel élément. A mesure qu’elles seront mise en place, des sources nouvelles d’information seront mise à disposition. Sans doute permettront-elle une meilleure transparence de la société, et donneront aux citoyens et à leurs médiateurs, les moyens d’une critique des politiques plus précise et mieux fondée, sans doute vont-elle permettre au travers de la réutilisation, la génération d’une vague d’innovation, mais elle vont aussi fournir aux marketeurs de nouvelles sources qui seront d’autant plus utiles qu’elle concerneront des échelles géographiques fines.
Et c’est d’ailleurs une des interrogations que l’on peut avoir sur la politique de l’open data. Plutôt que de favoriser la démocratie, elle risque d’être plus avantageuse pour les entreprises. L’exemple du prix de l’eau donné par Bonnel est illustratif : quand toute les communes publierons leurs données, qui en profitera vraiment ? Les opérateurs ou les consommateurs? Pour mieux comprendre ces enjeux il va falloir revenir aux théories de l’économie de l’information. Si l’information privée est une source d’avantage concurrentiel, quand les asymétries le sont excessivement, c’est le marché qui s’effondre et il convient pour le restaurer et rendre public l’information privée.
La question de l’open data peut ainsi être renversée. Les données privées accumulées par les firmes, ne doivent-elle pas être rendue publique au moins sous des formes agrégées ? N’y aurait-il pas un bénéfice collectif à de telles politiques?

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

L’indispensable gratification ou les aleas de la consommation

Regression
Dans l’analyse de la consommation, le modèle de la satisfaction est attaqué de multiples parts. De l’intérieur quand une variété d’attentes est disponible – c’est la question des standards– et pire quand aucune attente n’est élaboré, et de l’extérieur avec le rôle croissant de la relation et des éléments d’actions exogènes. 
Ce modèle presque utilitaire qui compare une qualité relative aux alternatives à une valeur qui représente le but recherché semble ainsi ne bien fonctionner que dans des circonstances étroites : celle où le consommateur sait ce qu’il veut, et que ses décisions futures dépendent de cette expérience.  Mais en même temps il y a une sorte de répugnance a abandonner une approche fonctionnelle de la consommation, les éléments périphériques ne peuvent faire tout, il est difficile de penser que la fidélité ne dépendent pas de l’expérience.
Sur un plan théorique, c’est peut-être l’occasion de proposer un modèle amendé de consommation qui donne une meilleure à la nature même de la consommation. Un tel modèle doit commencer à rendre compte du fait que si consommer c’est obtenir une valeur souhaité, la mise en œuvre des moyens pour atteindre de but expose à d’autres éléments qui peuvent peiner ou apporter des joies inattendues, pour le moins non plannifiées. 
Comprendre la consommation comme une expérience c’est envisager qu’une attente motive à s’engager dans une sorte d’aventure, et qu’on l’évalue a postériori de manière double. On en considère le résultats en fonction des attentes initiales mais aussi de ce qui s’est passé au cours du chemin.
Il faudra donc distinguer des éléments centraux de satisfaction liés à l’intention et des éléments périphériques relatifs au parcours de consommation. Une autre manière de formuler le problème : des éléments intrinsèques à la motivation de la consommation et des éléments extrinsèques : les pénalisations et les gratifications liés à l’action. Le poids relatif des deux éléments étant certainement affaire de contexte, on imagine que quand la consommation est peu planifiée ce sont les second qui dominent.
Avec cette analyse simple on comprend mieux la généralité de certains problèmes de marketing . Que ce soit l’existence des cartes et programmes de fidélité, que ce soit la domination de la promotion, l’idée de travailler sur l’atmosphère des points de vente en plus de leur assortiment, on comprendra mieux la nécessité de ponctuer la relation de cadeaux et d’encouragements. Rares finalement sont les situations où l’échange se limite à une transaction d’un bien contre une valeur monétaire. S’échange en plus du but principal, une constellation de petits bénéfices.
Dans cette perspective la notion de gratification et celle de pénalisation, peuvent prendre un vraie valeur conceptuelle. Le coeur de l’évaluation reste ce jeu d’une attente et d’un résultat, avec les éléments de regrets et de surprises qui concernent autant ce que l’on obtient que les coûts engagés. Mais dans le processus d’obtention de cette valeur d’autres événements peuvent advenir. On peut ainsi acheter une voiture pour un certain budget, et le faire bien, mais à la périphérie de cette négociation, le gain d’une option ou la dureté de la discussion peuvent amender le résultat. 
Observons de suite que si dans le processus d’achat ces avantages inattendus, ou non-anticipés, deviennent le but même de la consommation, ils deviennent intrinsèques. C’est donc ce caractère incertain qui en fait la spécificité. On en tire de suite une conclusion pour les systèmes de fidélisation : la gestion des gratifications doit maintenir un certain niveau de surprise, les systèmes mécaniques risquent de faire du programme une composante à part entière de l’offre primaire.
Remarquons aussi que l’absence de gratification ne supprime pas cette source extrinsèque de valeur : elle abandonne aux pénalités tout le terrain. Et on comprend que dans les cas de processus de consommation qui exposent le consommateur aux aléas et à des pénalités ( coût d’opportunité, embouteillage, attentes, erreurs…) le principe de gratification est indispensable. 
Une telle théorie présente ainsi un avantage important : elle tient compte du fait que le processus d’achat et de consommation est incertain, et que la valeur de la transaction résulte d’un double calcul : celui des intentions initiales et celui de l’effort accompli pour la mener. Elle permet aussi de comprendre pourquoi les programmes de fidélisation  sont si importants pour le consommateurs : ils réduisent le coûts des incertitudes de la décision et l’aléa moral qu’engendre cette décision. 
Ils seront donc d’autant plus importants que le consommateur ne sait pas à quoi s’attendre, d’autant plus important que l’achat lui demande des efforts. Cette théorie permet de comprendre aussi que la fidélisation n’est pas seulement une question d’élection, d’engagement, mais simplement de réduction des risques engagés par la décision. On ne fidélise pas parcequ’on est le meilleur, mais parce qu’on réduit les risque du choix. Ce que la gratification récompense c’est le risque qui est pris.
Et on ne résiste pas à donner cette belle carte sémantique obtenue du CNTRL. La gratification se tient dans entre la générosité et la compensation, elle est autant un salaire qu’une générosité, le paiement de l’inconstance.

Multicanal : segmentation, techniques et relation

The Telephone Way
Invité au Club Marketing client de l’Adetem co-organisé par l’AFRC pour réagir aux résultats de l’enquête » Vers la fin du multicanal en libre service?  » réalisée par nexstage pour l’AFRC en collaboration avec orange Business Services , en voici mes premières observations. 
L’enquête donc :  les premiers résultats ont été publiés ici, mais aussi commentée ailleurs par notamment Le sens du client , se présente principalement sous la forme d’une typologie des consommateurs qui oppose deux séries de groupes : les modernes et les anciens. Ceux qui sont attachés au face à face, et ceux qui exploitent au mieux les possibilités de mises à distance que donnent les nouvelles technologies.
Ces résultats intéressants mettent en évidence, ce que les conclusions soulignent, d’abord le fait que le self-care ne sera pas la solution unique :  la diversité des clientèles et de leurs attentes exige l’organisation de différents canaux, elles soulignent aussi qu’une large partie des clients sont insatisfaits de la relation et sont, le mot est bien choisi, en situation de jachère. Mais ne commentons pas plus des résultats qui se suffisent à eux même, pour faire part de 4 observations plus générales sur une évolutions des méthodes de la GRC qui donnent de plus en plus d’importance à la technologie en oubliant peut-être la nature même de la relation.
  1. Il est dangereux de confondre les canaux et la relation. Ce qu’on appelle relation -client est décrit dans une désormais très riche littérature (pour une synthèse voir ici) comme l’atmosphère qui entoure les actions de la marque et des consommateurs. Un point d’accord s’est construit autour de la notion de qualité de la relation que des variables telles que la satisfaction cumulée, la confiance, la justice, l’engagement, l’attachement caractérisent. Les canaux déterminent uniquement les conditions des multiples interactions – les contacts – entre les consommateurs et l’entreprise. Gérer les canaux c’est gérer des contacts mais aucunement gérer la relation. Il y a naturellement une relation entre la qualité des contacts qui se réalise par les canaux, et la qualité de la relation qui dépend d’une histoire. Très certainement la qualité des contacts accumulés au cours du temps va aider le client à se forger une opinion sur le caractère satisfaisant de la relation, le degré de confiance qu’il peut accorder à la marque, le caractère juste de la relation, son degré d’attachement. Mais la relation peut aussi conditionner la qualité du contact : c’est parce que la relation est bonne que les consommateur utiliseront plus volontiers certains points de contact, dont les canaux de self-service. Bref il est indispensable de distinguer la GRC de la GCC, le structurel du contingent, les moyens et les finalités.
  2. A cette confusion s’ajoute cette des techniques relationnelles et des technologies de la relation. Empruntons à Christian Fauré cette distinction, et la reprenant à notre compte, rappelons que les technologies sont indéterminées même si elles ne sont pas neutre. Les fonctions qu’ont planifiées les ingénieurs ne sont pas toujours celles que les utilisateurs retiennent. Ce fût le cas du SMS. Mais cette analyse socio-technique de l’appropriation ne suffit pas à comprendre la distinction des deux notions. La technologie prend sens au-delà de son usage, avec les techniques de relation à l’autre qui s’emploient à travers les techniques : règles de language, de politesse, d’étiquette. La technologie est une choses, les règles sociales de son usage en sont une autre. De ce point de vue, l’hostilité de certains ne se fixe sans doute pas sur la technologie en soi mais sur le sentiment de ne pas en maitriser les règles de bon usage. On sera ainsi surpris qu’un des groupes, « les traditionnels distants », quoique technophobes soient près de 60% à favoriser le web!! Bref pour être acceptée les technologies doivent non seulement être jugées utiles, être comprise, mais doivent aussi être policées.
  3. Une autre contradiction apparente de la typologie, celle du groupe « technofun », qui en dépit d’une technophilie enthousiaste manifeste une large préférence pour le face à face, conduit avec la précédente, à une troisième proposition : la relation, et l’adoption des canaux est aussi une question de pouvoir. Même si une technologie est perçue favorablement parce qu’elle est utile, facile, amusante, qu’on lui attribue une présence sociale – ou humanité – forte, peut très bien ne pas être utilisée car elle n’est pas légitime pour le consommateur. Les jachères relationnelles si elles sont le fait de l’entreprise peuvent aussi être celui du client.
  4. Ce que nous apprend donc la typologie, ou plutôt ce qu’elle rappelle, est moins au fond l’opposition des anciens et des modernes qui se définissent ainsi au regard ce que qu’on doit qualifier d’imaginaire, avec une double composante idéologique et utopique. Un Patrice Flichy en a fait l’analyse autrefois. Ni même une opposition entre les novices et les experts qui la traverse en grande partie, mais aussi une distinction entre ceux qui veulent avoir l’initiative et le contrôle et ceux qui veulent être pris en charge. Sans doute pouvons-nous à partir de cette étude empirique repenser les segments obtenus selon ces trois critères (l’imaginaire technique, la compétence et la disposition relationnelle). On comprendra qu’à chacun de ces segments correspond non seulement un mix de canaux, mais aussi des modalités d’usages de ces canaux. Il n’y a pas « Une solution » en terme de multicanal, mais autant que de segments. La vérité du marketing, c’est la segmentation effective du marché et des clientèles. Presqu’un truisme, mais la manière de la prendre en compte n’en est pas un.
En guise de conclusion, que justifie plus la nécessité d’être court ( On développera le 9 mars) que celle d’avoir épuisé le sujet, tentons de répondre à la question posée. Non, ce n’est pas la fin du multicanal, ni même du self-service – ou self-care, qui convient à certains clients. Au pire c’est la fin de l’utopie d’un modèle unique et techno-orienté, et visant à l’automatisation, mais c’est sans doute le début d’une meilleure compréhension des rapports complexes qui se nouent entre l’imaginaire des consommateurs, leur compétences, leur désir d’autonomie et avec les technologies qui leur sont proposées et la grammaire de leur usage.
Pour aller un peu plus loin dans cette direction reste à réintroduire le temps, doublement. D’avoir en gardant en tête que la relation est une histoire, une production historique, ensuite qu’à chacun de ses épisodes c’est dans la logique d’un parcours à travers les canaux que se produit l’expérience. La diversité des attentes ne se distribue pas seulement à travers les individus mais aussi à travers leurs histoires relationnelles, et chacun de ses épisodes.

Quel CRM pour le BOP?

Depuis l’article fameux de C.K Prahalad et S. Hart «Fortune at the  Bottom of the Pyramid » une littérature relativement importante s’est développée sur le thème du Business avec les plus pauvres à l’instigation de quelques auteurs clés , mais finalement a relativement trouvé peu d’écho en marketing. Dans la base Ebsco moins d’une vingtaine d’articles académiques sont recensés, dont une large part est due à un numéro spécial de Journal of Consumer Marketing.
En-deçà de la question sociale et politique des moyens d’améliorer le sort des 4 milliards de consommateurs pauvres du monde, la problématique avancée par ce groupe de chercheur est de connaître quels sont les modèles d’affaire qui permettent de réaliser des affaires avec les plus pauvres. En effet même si leur revenu annuel est inférieur à 1000 dollars annuels, la masse qu’ils constituent en fait un marché qui grosso modo pèse autant que les 150 millions d’humains les plus aisés et autant que les classes intermédiaires ( dans un scénario où 150 m ont un revenu de 30 000 dollars annuels, 1000 m de 4000 dollars et 4000 de 1000 dollars, chaque segment représente un tiers du pouvoir d’achat global).
D’un point de vue marketing, les stratégies BOP nécessitent naturellement des adaptation fortes en termes de produit et de prix, mais c’est sans doute les modes de distribution qui présentent l’originalité la plus importante : faire d’une partie des consommateurs des micro-entrepreneurs chargé de distribuer et de commercialiser les produits dans un environnement peu accessible par les méthodes traditionnelles, pour des raisons physique, sociale, ou culturelles. Des programmes tels que Ate vocé de Nestlé, Shakti d’Industan lever, les Grammeen Ladies de Danone en sont quelques exemples.
Ces cas qui sont relativement bien documentés, laisse cependant de côté une question essentielle : comment gérer une masse considérable de point de distribution ? Un seul exemple on évalue à près de 2 000 000 le nombre de warung en indonésie, Natura est réputé gérer 600 000 ambassadrices. On comprend qu’avec de tels volumes des outils de CRM peuvent être utiles pour gérer ce niveau intermédiaire de distribution alors qu’il est sans doute difficile de faire comme dans les pays riche de gérer directement la clientèle finale pour des raisons simple d’identification et de valeur unitaire. Ses buts seront sans doute différents. Et au-delà des outils classiques, s’intéresser à la manière dont ces agents utilisent les technologies de l’information : en voici un exemple. Ce domaine de recherche est immense, et manifestement inexploré. Que ce soit la question de ses formes : franchises, micro-entreprises, Marketing multi-niveau aussi, ou celle de leur contrôle.
Et en étudiant ces cas, leurs solutions, leurs inventions, soyons persuadés que nous découvrirons de nouvelles voies pour comprendre et imaginer les nouvelles formes de la relation client.

Work in progress : CRM à l’heure digitale

Voici un document de travail, l’esquisse d’un chapitre pour un ouvrage coordonnée par Thomas Stenger pour Dunod. Le développement d’un certain nombre d’idées qui serpentent dans ce blog.

Celle que l’information est produite plus que nous ne pouvons la traiter, que des processus psycho-sociaux font de cet espace un espace privé plus que public, que le prix de l’adaptation est celui d’une perte de vie privée, que les systèmes locaux favorisent les dynamique locale, microlocale. Qu’au delà des communautés c’est de les faire vivre en de petites sociétés qui est nécessaire.Quelque idées à tester, en cours de mise en forme, et pour lesquelles vos commentaires sont bienvenus.

credit photo

Impressions numériques…Le document est un média

Certaines technologies sont discrètes mais essentielles. Dans l’univers du marketing, l’impression numérique est sans doute la technologie qui a et qui aura le plus d’importance dans les pratiques. Permettant les petits tirages, et facilitant la personnalisation des documents, à des échelles de plus en plus vastes, plus que l’internet ce sont ces outils qui permettent les pratiques actuelles de marketing direct.

Au-delà de l’industrie du marketing direct, l’impression numérique transforme en profondeur l’industrie textile, l’édition, et l’industrie du packaging. Et dans chacun des cas, elle assure le dernier maillon de la chaine de la personnalisation. On ira voir ici quelques éléments factuels produits par le spécialiste du domaine : Frank Romero du Rochester Institute of technology. Si ces technologies sont apparues dès 1993, leur impact croissant vient de l’accroissement continu de la définition, de la taille des documents, de la vitesse (des centaines de pages par seconde) mais surtout des échelles grandissantes de production auxquelles elles surpassent les techniques de l’offset. On consultera les publications d’Interquest pour plus de détails sur l’économie du secteur.
Ainsi l’impression numérique a pour effet principal de transformer le papier en écran numérique, les possibilités techniques et économiques permettent d’obtenir sur le papier les même fonctions que sur un écran, finalement. Cela d’autant plus facilement que les offreurs de solutions (HP, Xerox, Kodak, Riso…mais aussi les spécialistes de la GED tels que CINCOM) associent à l’imprimante des solutions logicielles pour gérer les documents. Ces solutions forment le cœur de cette nouvelle industrie. En permettant d’aller chercher dans les bases de données des éléments d’informations variés, des documents personnalisés peuvent être composés puis produits. Ils seront diffusés sous forme numérique, ou papier. Le support compte finalement peu, c’est l’intégration de la chaine documentaire et de la chaine d’édition qui devient essentielle. L’imprimante n’est alors plus qu’un terminal comme les autres, et la production peut alors se faire au plus près de la consommation. Nous en somme au stade du PoD ( Printed on Demand).
Il est assez évident que les solutions matérielles et logicielles ouvrent depuis plusieurs années un champ immense d’applications et de modèles d’affaires. C’est le cas notamment pour le marketing direct de cette approche à la dénomination malheureuse, mais importante : la transpromo. L’association des bases de données documentaires (GED), des systèmes CRM, de l’éditique, et de l’impression numérique permet aujourd’hui de transformer n’importe quel document transactionnel (une facture) en un support publicitaire. Toute la production documentaire de l’entreprise, devient un média à part entière. Un nouveau canal, personnalisé.