Objets connectés : le client n’est plus au centre, c’est le réseau

4571397670_4787e6e102_zLe monde des objets connectés est en train de déployer ses essaims qui bientôt vont constituer des ruches bourdonnantes et des écologies complexes. Pour le marketing il y a de nombreux défis à relever simultanément pour assurer à ces colonies un développement équilibré.  Un moyen de mieux les envisager est d’examiner la structure minimale des relations entre les principaux acteurs associés dans ces écologie.

Ils sont au minimum quatre. L’usager bien sur qui est en relation avec d’autres et d’autres services, l’objet lui-même qui parle à d’autres objets, la plateforme de données qui échange avec d’autres plateformes et le fournisseur de services qui s’associe à d’autres aussi.

Si l’on prend l’exemple du Pay How You Drive, on retrouvera le compteur de qualité de conduite, l’assuré, la compagnie d’assurance et la plateforme qui gérera les données pour le compte de l’assurance et de l’assureur. Notons de suite qu’il y a peu de chance que l’assureur aura sa propre plateforme, il risquerait d’avoir une taille trop petite et ne bénéficierait pas des avantages d’une plateforme globale, et un modèle fermé empêcherait l’utilisateur d’exploiter ses données avec d’autres entreprises de service (rappelons-nous que la valeur des données n’est pas intrinsèque mais dépend de leur association), par exemple c’est le constructeur automobile pour des services de maintenance préventive. Il ne se confondra pas plus avec le constructeur de l’objet qui reste dans une économie industrielle où les volumes signifient des économies d’échelle et d’expérience indispensable pour soutenir la future bataille des prix.  D’autres acteurs peuvent s’immiscer : les commerçants qui peuvent vendre les objets, des prestataire de services qui peuvent accompagner l’assureur (imaginons que pour améliorer l’offre, on propose aux mauvais conducteurs qui ne bénéficieront pas des réduction, des stages de conduite sure….). Idem dans la domotique : le thermostat intelligent ne se confond pas forcément avec la plateforme (quoique), et certainement pas avec le fournisseur de services d’économie d’énergie ou mieux de surveillance.

objetconnecté05

Il y a naturellement dans cette répartition minimale la question du business model, autrement où se trouve la valeur : dans l’objet, dans la gestion des données, ou dans le service associé à cette gestion. Cette valeur se concrétise dans le consentement à payer pour chacun de ces trois éléments, et il est probable qu’elle évolue fortement. Aujourd’hui elle se trouve surtout dans l’objet car il est concret, plus tard certainement dans le service car c’est lui qui fait vivre l’objet, et plus tard encore lorsque les consommateurs réaliseront que leurs données sont utiles et qu’ils exigerons d’en être les maitres, en utilisant le droit à la portabilité de ses données pour les transférer d’une plateforme à l’autre et d’un service à l’autre.

Mais ce qui nous intéresse ici, ce sont les relations qui s’établissent entre les acteurs, et il y en a mécaniquement au moins cinq :

  • Nous venons d’évoquer la question de la portabilité dans la relation à l’usager avec la plateforme, c’est sans doute une question essentielle, même si elle ne se pose pas dans l’immédiat comme se pose celle de la sécurité. Cette relation la la plateforme est de part le rôle des tiers de service associé aussi à la politique de gestion de la vie privée définie à la fois par la plateforme de données et par le fournisseur de service.
  • En restant sur le point de vue de l’usager se pose aussi la relation à l’objet qui se pose en terme d’appropriation : comment l’objet va s’insérer dans l’écologie quotidienne de l’usager. Comment va-t-il faire sien un objet qui l’observe, le surveille, parfois le commande, ou qui peut disparaitre dans l’environnement matériel, même si la particularité de nombreux objets parce qu’ils sont connectés, sera d’avoir une vie propre quand leurs prédécesseur était invisible : un interrupteur, un compteur électrique, le moteur d’une voiture. Les objets parlent et cela change tout. La voiture qui était un prolongement du corps, connectée devient un médiateur entre l’environnement lointain et nous mêmes.
  • La relation au tiers de service est essentielle, car c’est elle qui fait vivre les objets. On réalise qu’on abandonne nombre d’entre eux à des taux élevé, car le seul feed-back ne suffit pas. Contrairement à ce que l’on pense nous n’avons pas forcément le désir de contrôler notre corps et notre environnement proche, c’est pourquoi sans coaching, assistance, ou sans avantage particulier dans la délivrance du service, les objets nous semblent rapidement inutiles. La place des tiers de service est d’accompagner ce feed back, de lui donner de la valeur en déchargeant l’usager de l’effort considérable que demande l’optimisation de ses conduites. La qualité du service et de la relation est essentielle. Sa justice aussi.
  • Mais ce n’est pas tout, on comprend que l’équilibre de l’ensemble va tenir dans la relation qui associe les plateforme et les tiers de services : la qualité de l’accès aux données, la qualité des algorithmes qui les exploitent est en back-office le socle fondamentale de la production d’un service de qualité. Et en la matière, il s’agit de big data, il ne suffira pas de plaquer des outils, il s’agira de les construire progressivement, et de les mettre à jour continuellement. Au-delà des données et des algorithmes de base, la valeur réside dans les savoirs-faire spécifiques.
  • Reste la relation des plateforme aux objets qui se concrétisement par la production du feed-back et l’acquisition des données. Cela peut sembler purement technique mais est essentiel car en dépend la qualité des données. Imaginons simplement que pour des raisons associé à l’objet, des rupture de charge dans la transmission des données se produisent. Le simple oubli de changer une pile peut la causer.

Derrière les objets concrets et tangibles c’est donc tout un réseaux de relations qu’il s’agit de gérer de manière équilibrée pour créer une véritable utilité chez les utilisateurs ( qui ne sont pas forcement les usagers mais sont aussi) et maximiser la propension à payer. Cet équilibre est d’autant plus difficile, qu’il n’est pas assuré que les intérêts des acteurs du réseaux soient toujours convergents. Dans le monde des objets, le client n’est plus au centre, c’est l’équilibre de l’écosystème. Et l’on en reparlera le Jeudi 15 novembre à l’Ieseg.

Mobile In Store : ça dépend du shopping style

14930205588_38c71f399f_oLes enquêtes se succèdent et semblent confirmer l’intérêt des consommateurs pour l’utilisation en magasin du digital et avant tout de leur smartphone. Une de nos étudiantes du master Marketing de Paris Ouest, Joanna Stroz, s’est intéressée à la question dans un mémoire qu’elle soutiendra bientôt au travers d’une enquête (n=330) dans le domaine de la parfumerie. On trouvera son questionnaire ici (n’hésitez pas à y répondre!).

UsageMobileLes questions principales sont relatives à l’intérêt accordé à une dizaine de services ( recevoir des informations sur les évènements en magasins, recevoir des conseils personnalisé via le smartphone etc…). Les résultats enregistrés par une échelle d’intérêt allant de 1 à 7, sont résumés dans le graphique ci-contre.  Recevoir un conseil personnalisé recueille un score d’intérêt très moyen (3,5), l’échange de point de fidélité et l’obtention de coupon entraine une forte adhésion.

Au fond le digital ne change pas grand chose : les consommateurs veulent d’abord des avantages pécuniaires et si c’est plus facile par le mobile tant mieux. Si l’on compare les hommes et les femmes, quelques petites différences apparaissent : les femmes cherchent les avantages monétaire plus que les hommes, tandis que ceux-ci expriment un intérêt plus fort pour le paiement via le smartphone ou être mieux orientés par la géolocalisation.

Mais dans cette étude le plus important n’est pas là, il réside dans les causes probables qui rendent chacune de ces applications intéressantes. Parmi ces causes un petit nombre a été étudié de plus prêt. D’abord des variables générales telles que la tendance à adopter la nouveauté ( innovativité), le degré d’implication dans la catégorie de produit, l’inquiétude que l’on témoigne à l’égard de ce qu’on fait de nos données ( Privacy Concern) et enfin le degré d’expérience digitale.

Ensuite des variables qui décrivent les  orientations d’achat des consommateur : faire des économie en profitant des promos et bonnes affaires, la tendance à planifier ses achats, le plaisir tiré à découvrir et à fouiner dans les rayon ( hédonisme), le fait de s’appuyer sur les marque et la fidélité au magasin, et la reconnaissance souhaitée dans le point de vente. Pour évaluer l’importance de ces variables on a simplement chercher à expliquer l’influence de ces dernières sur le score d’intérêt, par des régressions multiples ( une par application). Les résultats détaillés apparaissent dans le tableau suivant que nous analysons ensuite.

regressions2

Les faits principaux que l’on peut identifier sont les suivants :

  1. l’expérience en matière digitale n’ aucun impact, aucun des coefficients de régression n’est significatif, sauf pour les conseils personnels : conseiller les clients via le smartphone n’a d’intérêt que pour les geek!
  2. L’implication pour la parfumerie est un déterminant très significatif pour la plupart des applications, sauf pour le paiement. Le web In store concerne donc d’abord les fans de la cosmétiques.
  3. La tendance à adopter de nouveaux produits, ou de nouvelles manières d’acheter a un effet contrasté : il joue pour le conseil, le paiment, les QR code et la geolocalisation. On retrouve le côté geek, et c’est à se demander si ce n’est pas le fait d’hommes qui s’ennuient dans ce type de magasin, l’usage du smartphone palliant le désintérêt pour la boutique.
  4. La privacy a aussi un effet contrasté et négatif comme attendu. Il joue sur les aspects qui implique le plus d’intimité
  5. Quand aux orientation d’achat c’est un tableau très nuancé qui apparait et démontre que l’usage du smartphone est étroitement liés aux stratégies de consommation.
    • La recherche d’économie n’a quasiment aucun impact sur l’usage d’appli In store, sauf recevoir des coupons.
    • La recherche de variété et le plaisir de la découverte (hédonisme) est le facteur qui a un impact sur la plus grande variété d’applications, ce qui est peu étonnant : ceux qui cherche du divertissement dans l’acte d’achat en cherche autant dans les produits que dans le shopping lui-même. Le smartphone est un jouet.
    • La tendance à planifier les achats a peu d’impact ou alors négatif : c’est le cas des jeux et concours et celui des alertes sur la disponibilité des produits. L’acheteur organisé n’aime pas les prothèses numériques!
    • Quant à ceux qui sont attachés aux marques et vont toujours dans le même point de ventes, ce qui traduit une sorte d’achat ritualisé ( plus que de la fidélité), vont être plus intéressés aux applis qui leurs procurent des avantages consistant. Le smartphone optimiserait leur rituel!
    • Pour finir, plus on tend à souhaiter être reconnu plus on sera intéressé par les alertes produits où les évènements, l’impact étant nul pour les autres orientations.

Les enseignements sont assez clairs. Le premier est que la notion d’intérêt pour le “Web In store” n’a pas de sens en général. L’intérêt pour les applications digitales dépend d’abord de la manière dont on fait ses courses, et de comment les appareils fournis permettent au consommateurs d’atteindre les buts qu’il se fixe.

Le second est que le driver principal de l’adoption de béquille digitale pour le shopping dépend principalement de l’intérêt que l’on a dans la catégorie de produit, et non pas de la familiarité que l’on a avec les outils. Cela conduit à la réflexion suivante : le digital n’est pas une solution pour le consommateur, mais d’abord un cout. Les consommateurs le supporte dans la mesure où il est un investissement qui rapporte en lui permettant d’atteindre ses buts et qu’il est suffisamment motiver pour les atteindre.

Le troisième est une idée récurrente : la question des données est finalement assez secondaire pour les consommateurs, sauf s’il ne sont pas impliqués dans la catégorie de produit.

Et s’il fallait conclure sur quelques recommandations, la principale est de rappeler que l’expérience du consommateur n’est pas dans les objets techniques et leur usage, mais dans ce qu’ils recherchent lorsqu’il font leur courses (économie, rituel, divertissement, reconnaissance ou optimisation) . Ceux qui s’équiperont sont ceux qui se sentent concernés par la catégorie de produit, et ils le feront en piquant parmi les applis celles qui leurs permettent d’atteindre leur but. L’ expérience est définie par ces buts et non par la technologie.

MAJ 18 novembre 2015 : Joanna Stroz a remporté le Trophée des Etudes dans la catégorie du Meilleur mémoire de M2. On peut le lire en intégralité ici.

 

 

Qu’est-ce qu’un algorithme juste ? Celui qui rend compte de ses effets

16318918399_ae6b70149a_bDepuis pas mal d’année de nombreux universitaires ( les politiques sont bien moins nombreux) s’inquiètent du caractère obscur, caché voir même ésotérique des algorithmes dont le fonctionnement peut même à l’insu de leur concepteurs, produire des effets inattendus et indésirables sur les populations. C’est ce qu’on appelle gouvernementalité.

Un bon exemple de ce type d’effet, que l’on désigne par la notion de performativité algorithmique, est donnée par l’étude de Edelman et Lucas (2015) sur les prix de AirBnB à New York, ils observent qu’une différence de 22$ existe entre les logements proposés par les blancs et les noirs. Ceci résulte principalement d’un mécanisme de réputation : l’exposition de la photo de l’hôte et produit un effet discriminatoire qui tout à la fois reflète et augmente la ségrégation spatiale et raciale. Ici l’algorithme est simplissime, il réside simplement dans le protocole de production d’une page d’offre et accorde au visage un poids déterminant dans l’expression des préférences.

De manière plus générale le phénomène est abordée sous le terme de  politique algorithmique. On pourra lire à ce propos les travaux d ‘Antoinette Rouvroy et mieux encore le livre de Frank Pascale. En contre partie se développe de plus en plus l’idée d’une redevabilité ( accountability) algorithmique.  Si les algorithmes transmettent insidieusement une politique explicite ou implicite, souhaitée ou induite, il devient nécessaire qu’ils doivent rendre compte des effets de leurs actions.

Une exigence politique croissante est que donc les plateforme doivent rendre compte des méthodes qu’elles emploient et de leurs effets sur la société sans plus se cacher derrière la notion de confidentialité des procédés. C’est moins une question de droit que de politique, car c’est le politique qui aménage le droit. On notera au passage que cette exigence est d’autant plus naturelle que les algorithmes sont le plus souvent empruntés au domaine public comme le furent le PageRank de google ou les méthode de filtrage collaboratif d’Amazon. Mais ce n’est pas le problème principal. Par redevabilité on entend le fait que les effets de ces algorithmes doivent être considérés comme n’importe quelles externalités, et être reportés dans les rapports d’activités comme les effets environnementaux et sociaux parfois le sont.

L’objet de notre note ce sera pas cependant de débattre de ces notions et de leurs conséquences, mais plutôt de montrer de manière assez concrète, même si le lecteur va vite s’apercevoir du degré élevé d’abstraction requis pour pénétrer dans ce qui fait nos algorithme ordinaires, comment les algorithmes nous échappent.

Le hasard de mes lectures m’a conduit vers un papier passionnant de Cynthia Dwork et ses collègues – Fairness through Awareness, qui est un spécimen remarquable de ce qui devient une littérature riche à la frontière des mathématiques, de l’informatique et du machine learning. Il s’intéresse à formaliser le caractère juste d’un algorithmique, et notamment de ce qui attribue aux Etats-Unis des places aux étudiants dans le cadre de politiques pro-minorité, et donne une foule d’exemples qui concernent le marketeur.

Prenons le cas des algorithme de scoring, très  courants dans le domaine bancaire pour attribuer ou non un crédit à la consommation. Ces algorithme s’appuient sur ce que les spécialistes du machine learning appelle un classificateur, autrement dit une équation dont la forme très général est la suivante : S=f(X,theta). S est le score calculé, c’est mieux quand il s’exprime sous la forme d’une probabilité (celle de ne pas rembourser le prêt, donc le risque. X est un vecteur de variable X&, X2, X3 etc qui décrit ce que l’on sait sur l’individu : son age, son revenu, et pourquoi pas ses amis sur Facebook (qu’on a déjà scoré) et plus tard les données cardio de son fitbit). Theta des valeurs numériques, les paramètres du modèle qui ont été calculés au préalable sur une grande population et éventuellement vérifiés sur une autre. On notera que ces paramètres sont des sortes de moyennes, et qu’en général on ne tient pas compte du fait qu’ils peuvent varier selon les individus ( mais on peut le faire si l’on souhaite en utilisant par exemple des modèles hiérarchiques).

Un tel modèle est mis en œuvre au travers d’une décision. Elle peut êre primitive quand on indique un seuil, par exemple si S est supérieur à 3% alors ne pas prêter. Elle peut être un peu plus sophistiquée en pondérant gains et pertes espéré. Par exemple si G est la marge gagnée sur le prêt dans le cas ou il n’y a pas d’incident, et P la perte subie si le client n’est pas en mesure de rembourser, le critère devient P*S+G*(1-S)>0. On peut imaginer plus compliqué.

Le problème posé est qu’un tel algorithme n’est pas forcément juste. On connait le problème classique des faux positifs. quelqu’un dont on a mesuré les chances de ne pas rembourser peut être parfaitement fiable, et inversement celui à qui ont prête peut défaillir. La théorie de la décision fournit des moyens pour réduire , du point de l’entreprise, cet impact et mieux définir sa stratégie ( minimiser les risque, optimiser le gain …). Mais du point de vue des individus certains qui serait en droit d’obtenir le prêt ne l’auront pas, et d’autre obtiendra un prêt qu’il ne mérite pas. Il est assez facile de mesurer l’importance de cette injustice, simplement au moment où l’on test de le modèle. Il suffit de comparer les résultats à la réalité. Une mesure classique peut être le RMSEA, où dans le cas des probabilité une mesure de gain :  1 – (% bien classé/ % de bien classé par hasard).

On pourrait parfaitement exiger de ceux qui emploie de tels algorithmique sans donner les paramètres theta qui sont un secret de fabrication, au moins de rendre compte de la précision de leur algorithme, par expérience je suis prêt à parier une fantastique désillusion. La plupart des modèles ne prédisent qu’assez mal les résultats, sauf dans les cas triviaux. Les voies d’amélioration passe moins par l’emploi de modèles nouveaux que par l’abondance des variables, et encore, celà reste à établir. Un taux de bonne prédiction de disons 92% laisse 8% d’erreurs ce qui n’est pas intellectuellement acceptable.

Mais allons plus loin avec l’article indiqué.  Celui-ci propose un autre critère de justice, partant de la condition de Lipschitz qu’on peut exprimer assez simplement. Un algorithme sera juste si la distance entre deux individus ( tels qu’on la mesure au travers des caractéristiques X) est plus grande que la distance entre les scores calculés à partir de ces profils.  Un corolaire de cette mesure de justice est cependant que sa mise en oeuvre se paye par une réduction de la privacy. Mais l’essentiel réside dans l’idée que l’on peut calculer de caractère  juste ou injuste d’un classificateur.

Voilà une série d’autres critère d’évaluation et de redevabilité, même si demander à son banquier si son scoring respecte la condition de Lipschitz, ou la parité statistique, reste, reconnaissons le non pas de la science fiction, puisque scientifiquement c’est possible, mais de la social fiction! Mais les choses ne s’arrêtent pas là, quand bien même nous introduirions dans le système des approches juste “fair” au sens de l’auteur principal, cela a un cout :  c’est celui de la privacy. Pour que l’algorithme soit juste, il faut selon l’auteur qu’on détienne des données “sensitives” !

Ce qui amène un commentateur à relever dans cette interview qu’il n’est pas possible de construire un algorithme juste, en relevant la question de la responsabilité : in fine l’auteur du papier initial renvoie la responsabilité de la justice de l’algorithme à des éthiciens! laissons au commentateur la conclusion :

” First, there is the belief that we don’t need to think philosophically because we can solve our problems by technology; and then, second, when technology as such fails, to call in expertise, in this case in the form of an “ethicist.” And then, finally, in the paper Dwork co-authored on fairness that prompted this interview, we find the argument that the parameters of fairness “would be externally imposed, for example, by a regulatory body, or externally proposed, by a civil rights organization,” accompanied by a citation of John Rawls. “

Les choses sont donc claires : ne comptons pas sur les machines pour réduire les problèmes sociaux, la responsabilité de ce que font les machines appartient entièrement aux humains, à leurs concepteurs et à leurs propriétaires. Plutôt que d’interdire, ou d’autoriser, la première étape de la régulation du monde des machines est d’imposer socialement l’exigence de redevabilité. Si les machines ne sont pas neutres, si elles induisent des biais politiques, ont toutes les chances d’être injustes, autant que l’on connaisse la manière dont elles affectent l’ordre social.

Minitel : pas de pleurs

Et donc ainsi le Minitel est mort. L’est-il vraiment ? 
Le cloud et les applis ressuscitent en partie cette idée d’un télématique centralisée qui gère les informations et les distribuent sans qu’on puisse les conserver.
Une information peu contributive, difficilement partageable. Ne serait-ce que pour cette raison pas de regret pour le trépas du Minitel. Il a décliné depuis 1995. Quand les premiers mobiles et le web ont pris leur élan.
De nombreux témoignages rappellent que les machines les plus simples peuvent susciter une affectiontouchante. Certains s’y seront perdus dans le désir, d’autres dans l’administration, on ne lui retirera pas qu’il a offert de fiers services à une génération et à des populations. Pas de pleurs pour un modèle imparfait, pas de pleurs pour une idée de la communication qui sépare le producteur du consommateur, nous préférerons un modèle où les contributeurs se retrouvent dans des plateformes, et que leurs assemblées en définissent les règles.
Nous y auront appris que le média n’est pas un transporteur, il est aussi une puissance qui traduit les messages avent de les répercuter. Le média ajoute à l’information comme le commerçant ajoute au produit : des signes de confiance, de qualité, de crédibilité. De sens. Le message c’est le média, et le massage des médias fais ce que nous pensons de l’information. Le minitel n’a pas été un média et pourtant il signe un modèle qui s’obstine, cette idée qu’il faut un centre pour optimiser la communication, être le garant de l’intégrité, la vertu d’un chef.
L’internet a triomphé du minitel, ses services s’y sont transversés Pas de pleurs pour un bel essai, ses ingénieurs ont fait un beau travail, mais dans l’écologie sociale, les technologies choisissent moins leurs cibles, que les cibles choisissent les technologies, même quand elles imposent leurs choix à d’autres moins puissants. Mes foules ne se sont pas retrouvée dans le X25. L’innovation est aussi une question politique, une questions de foules. Le Minitel est victime bien sur de la globalisation.plus encore d’une idée que c’est l’ Etat qui régit nos communications. Nous en avons fini avec cette idée.Nous vouons être libre et gardez sous la main les données qui nous sont utiles.

Intimités digitales : là où on est.

Geotattoo
Non il ne s’agit ni de texting, ni de lettres érotiques. Juste de cette question lancinante qui met en balance la faculté d’offrir aux consommateurs des produits ajustés à leur besoin pour autant qu’ils concèdent à céder des informations personnelles. Parmi celles-ci il en est une essentielle qui est de dire là où ils sont. La géolocalisation est cette petite chose qui touche absolument notre intimité.
Généralement nous préférons que peu sache où nous sommes, et quand nous souhaitons qu’on le sache c’est que nous avons une bonne raison. Dans tous les cas une des choses les plus précieuses est de contrôler la diffusion de nos adresses. Dans un monde qui permet potentiellement de situer chaque humain, et donc de l’exposer aux actions des autres, on peut considérer que l’acceptation d’être géolocalisé ressort de l’intimité la plus profonde.
Comprendre comment se construit cette intimité peut passer par un test assez simple : demander si l’on accepte d’être situé dans l’espace, sur un plan, et que cette information soit disponible pour certains acteurs. Des marques, nos amis, un opérateurs téléphonique, un réseaux social, une banque, la police… 
C’est cet exercice de mesure que tente une de nos étudiantes ( répondez aussi au questionnaire) dans son mémoire de master. Le résultat essentiel se tient dans la figure suivante. Il est encore fragile, ce n’est qu’un pré-test*, il nous offre déjà quelques enseignements.
En regardant le détail ( zooomez l’image) ce que l’on accepte est ce qui appartient à notre initiative. Ce que l’on rejette est ce qui appartient à l’initive des autres. On accepte volontiers d’être géolocalisé pour trouver son chemin, on refuse de l’être pour que nos amis nous retrouve. La clé est cette idée du contrôle de soi. Un idée simple et essentielle. Nous donnons des informations sur nous-même pourvu qu’elles nous permettent de rester maitre de notre destin, nous refusons d’en donner quand elle nous soumettent au désir des autres.
Il n’y a pas d’absolu de l’information, ni même de la vie privée, il n’y a que des situation qui font de nous le maitre de nos destinées ou l’esclave de la volonté des autres. En bref, l’idée de la liberté. Maintenir en l’état des contraintes la possibilité de nos volontés.
On imagine des jeux plus complexes : certains pourraient être prêt à accepter d’être localisé en tout temps et tout lieux, car ils savent qu’au moment où l’influence s’exerce ils peuvent la maitriser à leur avantages. d’autres sont si faible qu’ils tenteront de n’être jamais localisé. 
Douze questions suffisent pour saisir les ressorts de l’intimité ( il en faudra sans doute encore une demi-douzaine). Ils sont ceux du pouvoir et de l’auto-détermination.  Le technologie ne change rien à l’essentiel. Nos jouissances ne valent que pour autant qu’on les contrôle, nous pouvons laisser tout savoir de ce où nous sommes pourvu que nous soyons sûr de maitriser ce que les autres feront de cette information. Dans le doute nous préférons être silencieux, cachés, indécelables. 
Il reste à explorer cette idée simple, on peut former l’hypothèse que ceux qui ont le sentiment de maitriser mieux leur devenir accepterons plus facilement les facilités technologiques que ceux qui pense pouvoir en être les victimes. Le monde nouveau qui trace nos parcours, les inscrits dans les cartes digitales, ne se fera qu’avec des sujets puissants. les cartes sont aussi précises que nos libertés de circulation sont garanties.

Nota : juste le point de départ du séminaire du 27 juin à l’ISCC. Merci Thomas.

* Nous aimons les pré-tests, il suffit d’une belle centaines de réponses pour que se dessine le fait. Audelà on obtient de la précision, à ce niveau si le fait est il se manifeste assez fort. Les pré-tests sont le meilleurs moment pour penser l’étude, il laissent anticiper les résultats, sont assez indécis pour qu’on se pose encore des questions.

Après le CRM, le CCM? de la conversation au document

On the Road – Manuscript

Voici une activité apparemment nouvelle qui bénéficie d’une nouvelle dénomination – le marketing aime nommer les choses pour les faire chose ! – attribuée par les Cincom, Adobe et autres sociétés de conseil. La gestion de la communication client, ou CCM, peu à peu s’impose comme une gestion systématique d’un certain nombre de canaux de communication, et notamment ceux qui concernent le document.
C’est avec cet objet que se constitue la particularité de cette pratique. La relation client, bien sur, est pétrie de confiance, de sentiment, d’engagement, mais elle se nourrie aussi d’une matière bien prosaique : l’ensemble de ces actes qu’un document atteste : contrat, facture, récépissé, relevé de compte…On peut ainsi reprendre le commentaire de jean-Michel Salaun sur la définition du document qui met l’accent sur la double fonction de transmission et et preuve.
Ce n’est pas par hasard que cette idée de CCM est développée par les acteur de la GED. Le rapport au contenu de la communication est en effet très différent de celui qu’entretiennent les autres acteurs de la communication : La transmission du document ne vise pas seulement l’effet (fonction performative de la communication, essentielle en persuasion) mais la permanence et l’intégrité de la pièce communiquée, c’est la condition nécessaire mais non suffisante de la valeur de preuve du document, qu’un ensemble de signe va attesté ( signature, sceaux, dates…).
En se limitant à cet aspect le CCM ( ou GCC) pourrait apparaître comme une discipline technique dont l’enjeu est de garantir à travers les canaux de communication l’intégrité et l’authenticité des pièces qui matérialise le services et les engagement du client et de l’entreprise. Ces enjeux techniques sont importants à l’ère de la dématérialisation. Ils portent sur le volume des documents, leurs accessibilité, leur universalité. Mais à regarder les solutions proposées, les ambitions des acteurs, on s’aperçoit vite que l’ambition est d’étendre le territoire à la dimension persuasive de la communication. La pratique dénommée horriblement par le terme de transpromo, en est la manifestation la plus claire : utilisez le vecteur du document, et sans doute sa légitimité, comme support promotionnel, au risque d’ailleurs d’affaiblir ses vertus.
Cette ambition souligne et pose un problème important. Dans un univers où les canaux sont multiples, les documents ont un rôle varié, et l’interaction se fait sans limite de temps et d’espace, comment organiser la gestion de l’ensemble des flux ? Comment articuler les canaux ? Comment associer flux documentaire, flux publicitaires et flux interactionnels ?
Ce sont des questions d’organisation d’une part : les émetteurs et récepteurs de messages dans l’entreprise sont souvent localisés dans des unités distinctes ( SAV, département relation clients, services de contentieux, communication corporate, chefs de produits…) et la question de la coordinations du contenu et des formes est essentielle. On imagine mal que le CCM se déploie indépendamment du CRM.
Mais d’autre part, il s’agit de questions purement communicationnelles posée par l’intrication d’éléments dont la nature et la finalité sont très différents. Si le document doit  transmettre des éléments d’information authentiques, et conserver sa valeur de preuve, les conversations commerciales doivent parfois être oubliées. Si la finalité des messages publicitaires est de faire changer les opinions et les attitudes,   il peuvent aussi avoir une valeur d’engagement. Une gestion systématique de la communication client doit être en mesure de faire ces distinctions et de donner à ses éléments des valeurs claires pour les organiser dans un flux cohérent.
Il y a là manifestement matière à une réflexion approfondie.  De la conversation au document, de l’émotion à la preuve, de l’intention à l’acte, les technologies de la communication amènent sur un même substrat une vaste étendue d’élément de communication. C’est sans doute par cette question que le CCM trouve sa raison d’être et une place dans le dispositif général de la gestion de la relation client.

L’infra-humanité de nos amis digitaux

Boltansky 1
Nos rapports sociaux sont certainement transformés par les technologies même si nous savons que y amenons notre entourage, nous n’y créons pas un nouveau monde. Le rapport aux autres, médiatisés par les ordinateurs, nous fait communiquer indifféremment avec des machines, des humains, des amis, et des infra-humains.
Comment les reconnaissons-nous ? Comment les distingue-t-on ?
C’est une vaste question qui ne fait qu’être entamée. Par chance certaines pistes sont ouvertes déjà. C’est ainsi que depuis quelques années les psycho-sociologues qui s’intéressent à la question de la cognition sociale se sont penchés sur le rapport que nous entretenons avec ceux qui n’appartiennent pas à notre groupe d’appartenance. S’ils se sont d’abord intéressés à ces relations lors des conflits terribles de la Shoah jusqu’au Rwanda, mettant en évidence le phénomène de la déshumanisation qui revient à renier la qualité humaine des adversaires permettant de leur réserver des traitement inhumains, d’autres ont mis récemment en évidence le phénomène de l’infra-humanisation qui consiste à ne pas considérer comme entièrement humain le groupe qu’on considère extérieur. Cette infra-humanisation se reconnaît dans le fait qu’on attribue pas aux autres toutes les émotions secondaires que l’on éprouve. Si on reconnaît à l’autre, comme à un chien, d’éprouver de la colère, de la joie, du dégoût, de tristesse, autrement dit des émotions primaires, on le pense incapable de nostalgie, de félicité, d’ironie, de reconnaissance, d’ébahissement, de perplexité, d’humiliation,  de consternation ou d’émerveillement  : ces émotions complexes et nuancées que l’on décrit généralement sous le terme de sentiment.
Il y a là matière à un test. L’inhumain des relations établies par les technologies pourrait se mesurer par l’incapacité d’y éprouver chez autrui des sentiments, quand bien même on lui reconnaît des émotions. Qu’il s’agisse d’agent virtuels, de systèmes de self-care, d’avatars de marque piloté par des community managers, qu’importe le dispositif, si l’on souhaite savoir leur degré d’humanité, il faudra interroger les consommateurs et savoir s’ils leurs attribuent des réponses dans lesquelles ils retrouvent les sentiments les subtils que eux-mêmes éprouvent. Autrement dit si l’on veut humaniser les technologies, plutôt que de se prêter à l’effort titanesque de définir le propre de l’humanité – c’est un effort conduit depuis Aristote qui s’effondre aujourd’hui en partie dans les neurosciences –  il faut mieux comprendre ce qui nous amène à penser l’inhumain.
Mais en même temps, nous nous habituons à l’idée de prêter aux objets des qualités humaines – ma voiture c’est Titine, et mon chien a la chance sur facebook que je ne sache pas qu’il est un chien. L’anthropomorphisme est une autre voie de recherche. A quelles conditions sommes nous prêt à attribuer une humanité aux choses artificielles, vivantes ou imaginaires?  Pour aller plus loin sur ces sujets on ira lire ce texte essentiel et court de Waytz, Epley et Cacciopio.
Il y a au fond dans ces problèmes récents de recherche, et dans les solutions qui s’y dessinent, une question anthropologique fondamentale. Par delà Nature et Culture, comment pensons-nous désormais les rapports de l’humain aux autres entités? Puisque nous évoquons ici le travail de Philippe Descola, gardons à l’esprit qu’il ne s’agira pas seulement de psychologie, mais aussi d’interroger la mutation culturelle que produit ou qui est accompagnée par l’irruption des technologies dans nos processus de communication. Dans un univers où une continuité physique met sur un même plan êtres artificiels, naturels et culturels, il faudra s’interroger sur ce qui fait l’humain. Et si nous pensons à juste titre que ce nivellement de la physicalité n’exclue pas des différences quant à l’intériorité, il faudra cependant se demander sur quelles bases désormais se font ces distinctions.
Voici donc un bien trop court billet, juste deux ou trois indications, pour inviter à penser ce qui devra être l’essentiel : qu’est-ce que l’inhumanité ? Nous ne construirons de relation que si nous pouvons y répondre, même partiellement. L’incapacité d’attribuer des sentiments, la discontinuité matérielle, l’absence d’intention, l’impossibilité de l’ amour, en sont sans doute des premiers éléments. 
La méthode, c’est de chercher ce qui n’est pas humain, ce que les humains trouvent d’inhumain dans le rapport aux autres.Il est une évidence qu’à travers les réseaux tout ce qui fait l’ordinaire de la vie humaine peut se transmettre. L’enjeu n’est pas dans la transmissions des ordres, des témoignages ou même des gestes d’amour, mais dans ce que cette relation facilité soit une vraie relation : qu’importe le média, l’important est dans l’autre et dans ce qui permet de lui reconnaitre une humanité.
Le message n’est pas le médium, il est ce qu’on croit qu’est celui qui l’émet.

Baromètre de l’intrusion 2011 – les limites du paradoxe de la privacy

Intime221L:R#125
La quatrième édition du baromètre de l’intrusion (2010-2011) vient de livrer ses premiers résultats. Ils maintiennent dans les grandes lignes les mêmes éléments que dans les éditions précédentes, manifestant une constance de l’attitude des consommateurs.
L’amateur de spectaculaire sera déçu, rien de fondamentalement nouveau ne se manifeste. Enfin si, les nouvelles questions introduites renforcent le paradoxe de la privacy. Ainsi si une des satisfactions (pour les marques) est que l’acceptation des sollicitations commerciales est accrue pourvu qu’elles prennent le chemin des bons canaux – et en tête on retrouve les programmes de fidélisation et autres bons d’achat et offres personnalisées, – le dévoilement de soi fait toujours l’objet d’un refus dans tous les cas : 77% des répondants se refusent à être localisés géographiquement, 51% à ce que leurs consultations web soient enregistrées, 34% que l’on enregistre leurs comportements d’achats. Comment offrir des propositions sur mesure si le consommateurs n’acceptent pas de les donner?
En réalité une analyse plus fine des données montre que ces deux indicateurs ne sont pas strictement corrélés (la corrélation est de l’ordre de -0,35). En réalité, à partir de ces deux critères quatre grandes attitudes se manifestent :
  • Un groupe majoritaire (en gros 45%) qui se refuse à toutes sollicitation et ne souhaite donner qu’un minimum d’information, celles qui sont obligatoires.
  • Un groupe plutôt minoritaire ( disons 30%)  qui ne voit pas d’obstacle à donner des informations et accueillent volontiers les sollicitations.
  • Un troisième groupe refuse de se dévoiler mais accepte volontiers les sollicitations (15%) et manifeste une sorte d’opportunisme. 
  • Le dernier groupe au contraire se dévoile mais ne supporte pas les sollicitations (10%)
De ce point de vue le paradoxe n’est pas entier, il pourrait être une illusion statistique qui masque des stratégies différentes. Et très clairement, c’est une hypothèses que nous approfondirons sur la base de ces dernières données, d’autant plus que ces attitudes sont nettement liées aux usages de l’internet : plus on est actif et participatif sur l’internet et moins on résiste au dévoilement et plus on accepte les sollicitations.
Ce paradoxe s’atténue avec la qualité de la relation à la marque. Ce qui nous donne l’occasion de rappeler une fois de plus cette idée essentielle que le contact commercial est possible à la condition que la relation avec le client soit au préalable confiante, engagée, juste, attachante de surcroît et pardessus tout légitime. C’est le consommateur qui sur la base de son expérience définit le droit des marques à communiquer et leur en donne les moyens.
Et à l’heure où l’Etat au motif raisonnable de protéger les consommateurs envisage et peu à peu met en place des limites aux actions personnalisées des entreprises, on peut s’interroger sur la pertinence de ces restrictions. On comprend bien qu’en faisant la loi en fonction de la volonté des consommateurs on réponde justement à une demande et une inquiétude sourde. Mais en même temps on interdirait au marques d’offrir aux consommateurs ce qu’elles souhaitent : de la personnalisation. Le cas de Groupon pour être concret est remarquable : le succès de la firme dépend étroitement de la capacité à localiser au moins à l’échelle de la ville les consommateurs pour leur offrir ce qu’ils souhaitent. Alors que faire?
Sans doute prendre une autre voie que celle de la réglementation, de l’interdiction, de l’empêchement, mais simplement donner aux consommateurs les moyens de définir eux même les conditions de l’interaction, et les frontières de leur intimité. La règle valable pour tous risque de ne satisfaire personne. Rappelons un résultat majeur de cette étude : l’extrême variance des attitudes des consommateurs parfois liée à la génération, parfois à la position sociale, surtout conditionnée par les situation de consommation et pardessus tout par l’histoire d’une relation.
Pour donner ce pouvoir à chacun de définir les limites, la suggestion est d’encourager l’innovation. On en connait la voie c’est celle du VRM, peu d’entreprise en France développent ce concept qui est l’un des objet d’études et de recherche du Berkam Center avec DR searles. ( voir aussi ici), et il y a sans doute une industrie des technologies de consommation à encourager. Mais c’est l’éducation qui doit être la priorité. Il serait temps de faire de la Digital Literacy aussi une culture digitale de la consommation. En connaissant mieux les techniques, en sachant les utiliser, en étant équipés, sans nul doute le paradoxe se réduira et la nécessité de réglementer s’évanouira.

La longue traine et la topologie des réseaux

Un excellent article de Benghozi et Benhamou étudie la longue traîne dans le secteur des biens culturels, dont certains acteurs espèrent l’accroissement de la diversité des biens offerts et la réduction de l’effet de chart. Ils testent donc empiriquement l’idée d’un épaississement de la queue de distribution produit par le développement de l’offre numérique.

Ils découvrent un léger épaississement, mais aussi une accentuation de la concentration sur les principaux titres. Mais ils ne constatent guère de grands bouleversements dans le degré de concentration des ventes. Est-ce une remise en cause de l’argument de Chris Andersen ? En fait pas vraiment, mais ce résultat conduit à une autre réflexion beaucoup plus intéressante.

Pour le pas vraiment, il faut reprendre l’argumentation. L’intérêt de la longue traîne n’est pas lié à un changement de distribution des ventes, il est lié simplement aux conditions de distribution de l’offre. Tout l’intérêt des nouveaux canaux est de réduire les coûts de distribution, décalant l’optimum de profit vers une offre plus abondante. Dans le cas extrême et improbable où les coûts marginaux sont nuls, le distributeur numérique peut offrir 10 à 100 fois le nombre de produits qu’un distributeur classique est en mesure d’offrir. Dans la mesure où la répartition des ventes reste la même dans les deux cas, l’avantage du premier est de réaliser un surplus de vente par rapport au premier. C’est déjà beaucoup. Et c’est l’effet principal des technologies de l’information : en baissant le coût d’exploitation d’une unité supplémentaire d’assortiment – ou de client, ce qui est équivalent si l’idée est d’augmenter la base de clientèle en accroissant l’offre, on élargit l’offre optimale. A vrai dire l’effet de longue traîne ne peut se tester par un changement de distribution, mais plutôt par un déplacement des optimums de profit! C’est une autre histoire
Le point intéressant réside en fait dans ce double mouvement qui est décelé par ces chercheurs : les fortes ventes s’accroissent avec les ventes faibles, au détriment des ventes moyennes, indiquant de fait une dynamique de marché particulière qui dépend de l’exposition des titres.
L’offre accrue par la baisse des coûts de distribution, c’est à dire de mise en rayon, est sujette à une demande où les titres les plus vendus bénéficient à plein d’un effet d’exposition, recueillant plus de commentaires, d’avis, de recommandations. On pourrait tester le fait en corrélant le nombre de commentaires avec le niveau de vente de l’article. Cet effet d’exposition peut être amplifié par les effets de réseaux, une plus grande exposition étant multipliée par le web 2.0. Pour les titres à faibles ventes, mais à fort caractère, le phénomène peut jouer à une échelle réduite, mais de même nature. Ceux qui n’avaient pas de voix en trouvent une, et l’exposition d’articles qui n’étaient pas exposés peut recueillir les relais de groupes de fan et d’autres aficionados, dont les petites tailles sont compensés par l’activisme.
Cet argument trouve dans la formalisation des réseaux sociaux une force particulière. Notamment celle des free-scale networks développés par Barabasi , dans lesquels un principe d’attachement préférentiel génère à la fois une certaine forme de distribution, des propriétés fractales, mais plus fondamentalement une argumentation solide pour établir une hiérarchie que l’on peut qualifier de naturelle. Pour une analyse détaillée on lira ceci.
Reste à tester l’hypothèse : celle que la distribution de type longue traîne correspond à une dynamique de réseau de communication particulière, et que la modification (incurvation) de ces distribution est corrélée au degré de hiérarchisation des réseaux.
_______
voir aussi :

L’hypothèse de la polarisation

Une idée simple et commune considère que l’ internet dans sa version la plus sociale, le Web 2.0 notamment, contribue à l’interaction entre les membres de la société et soit de ce fait un facteur de démocratie : en faisant se rencontrer des points de vue différents, il contribue à l’émergence de points de vues plus équilibrés, rendant compte ainsi de l’ intelligence des foules.
Ce point de vue peut être contesté par l’hypothèse de la polarisation qui suppose que les gens qui se lisent, se lient, s’associent, partagent les mêmes opinions, et ont ainsi tendance à les renforcer. L’univers social deviendrait ainsi des archipels, de moins en moins perméables aux opinions des autres. C’est la thèse défendue par dans Republic.com par Cass Sunstein.