Qu’est-ce qu’un algorithme juste ? Celui qui rend compte de ses effets

16318918399_ae6b70149a_bDepuis pas mal d’année de nombreux universitaires ( les politiques sont bien moins nombreux) s’inquiètent du caractère obscur, caché voir même ésotérique des algorithmes dont le fonctionnement peut même à l’insu de leur concepteurs, produire des effets inattendus et indésirables sur les populations. C’est ce qu’on appelle gouvernementalité.

Un bon exemple de ce type d’effet, que l’on désigne par la notion de performativité algorithmique, est donnée par l’étude de Edelman et Lucas (2015) sur les prix de AirBnB à New York, ils observent qu’une différence de 22$ existe entre les logements proposés par les blancs et les noirs. Ceci résulte principalement d’un mécanisme de réputation : l’exposition de la photo de l’hôte et produit un effet discriminatoire qui tout à la fois reflète et augmente la ségrégation spatiale et raciale. Ici l’algorithme est simplissime, il réside simplement dans le protocole de production d’une page d’offre et accorde au visage un poids déterminant dans l’expression des préférences.

De manière plus générale le phénomène est abordée sous le terme de  politique algorithmique. On pourra lire à ce propos les travaux d ‘Antoinette Rouvroy et mieux encore le livre de Frank Pascale. En contre partie se développe de plus en plus l’idée d’une redevabilité ( accountability) algorithmique.  Si les algorithmes transmettent insidieusement une politique explicite ou implicite, souhaitée ou induite, il devient nécessaire qu’ils doivent rendre compte des effets de leurs actions.

Une exigence politique croissante est que donc les plateforme doivent rendre compte des méthodes qu’elles emploient et de leurs effets sur la société sans plus se cacher derrière la notion de confidentialité des procédés. C’est moins une question de droit que de politique, car c’est le politique qui aménage le droit. On notera au passage que cette exigence est d’autant plus naturelle que les algorithmes sont le plus souvent empruntés au domaine public comme le furent le PageRank de google ou les méthode de filtrage collaboratif d’Amazon. Mais ce n’est pas le problème principal. Par redevabilité on entend le fait que les effets de ces algorithmes doivent être considérés comme n’importe quelles externalités, et être reportés dans les rapports d’activités comme les effets environnementaux et sociaux parfois le sont.

L’objet de notre note ce sera pas cependant de débattre de ces notions et de leurs conséquences, mais plutôt de montrer de manière assez concrète, même si le lecteur va vite s’apercevoir du degré élevé d’abstraction requis pour pénétrer dans ce qui fait nos algorithme ordinaires, comment les algorithmes nous échappent.

Le hasard de mes lectures m’a conduit vers un papier passionnant de Cynthia Dwork et ses collègues – Fairness through Awareness, qui est un spécimen remarquable de ce qui devient une littérature riche à la frontière des mathématiques, de l’informatique et du machine learning. Il s’intéresse à formaliser le caractère juste d’un algorithmique, et notamment de ce qui attribue aux Etats-Unis des places aux étudiants dans le cadre de politiques pro-minorité, et donne une foule d’exemples qui concernent le marketeur.

Prenons le cas des algorithme de scoring, très  courants dans le domaine bancaire pour attribuer ou non un crédit à la consommation. Ces algorithme s’appuient sur ce que les spécialistes du machine learning appelle un classificateur, autrement dit une équation dont la forme très général est la suivante : S=f(X,theta). S est le score calculé, c’est mieux quand il s’exprime sous la forme d’une probabilité (celle de ne pas rembourser le prêt, donc le risque. X est un vecteur de variable X&, X2, X3 etc qui décrit ce que l’on sait sur l’individu : son age, son revenu, et pourquoi pas ses amis sur Facebook (qu’on a déjà scoré) et plus tard les données cardio de son fitbit). Theta des valeurs numériques, les paramètres du modèle qui ont été calculés au préalable sur une grande population et éventuellement vérifiés sur une autre. On notera que ces paramètres sont des sortes de moyennes, et qu’en général on ne tient pas compte du fait qu’ils peuvent varier selon les individus ( mais on peut le faire si l’on souhaite en utilisant par exemple des modèles hiérarchiques).

Un tel modèle est mis en œuvre au travers d’une décision. Elle peut êre primitive quand on indique un seuil, par exemple si S est supérieur à 3% alors ne pas prêter. Elle peut être un peu plus sophistiquée en pondérant gains et pertes espéré. Par exemple si G est la marge gagnée sur le prêt dans le cas ou il n’y a pas d’incident, et P la perte subie si le client n’est pas en mesure de rembourser, le critère devient P*S+G*(1-S)>0. On peut imaginer plus compliqué.

Le problème posé est qu’un tel algorithme n’est pas forcément juste. On connait le problème classique des faux positifs. quelqu’un dont on a mesuré les chances de ne pas rembourser peut être parfaitement fiable, et inversement celui à qui ont prête peut défaillir. La théorie de la décision fournit des moyens pour réduire , du point de l’entreprise, cet impact et mieux définir sa stratégie ( minimiser les risque, optimiser le gain …). Mais du point de vue des individus certains qui serait en droit d’obtenir le prêt ne l’auront pas, et d’autre obtiendra un prêt qu’il ne mérite pas. Il est assez facile de mesurer l’importance de cette injustice, simplement au moment où l’on test de le modèle. Il suffit de comparer les résultats à la réalité. Une mesure classique peut être le RMSEA, où dans le cas des probabilité une mesure de gain :  1 – (% bien classé/ % de bien classé par hasard).

On pourrait parfaitement exiger de ceux qui emploie de tels algorithmique sans donner les paramètres theta qui sont un secret de fabrication, au moins de rendre compte de la précision de leur algorithme, par expérience je suis prêt à parier une fantastique désillusion. La plupart des modèles ne prédisent qu’assez mal les résultats, sauf dans les cas triviaux. Les voies d’amélioration passe moins par l’emploi de modèles nouveaux que par l’abondance des variables, et encore, celà reste à établir. Un taux de bonne prédiction de disons 92% laisse 8% d’erreurs ce qui n’est pas intellectuellement acceptable.

Mais allons plus loin avec l’article indiqué.  Celui-ci propose un autre critère de justice, partant de la condition de Lipschitz qu’on peut exprimer assez simplement. Un algorithme sera juste si la distance entre deux individus ( tels qu’on la mesure au travers des caractéristiques X) est plus grande que la distance entre les scores calculés à partir de ces profils.  Un corolaire de cette mesure de justice est cependant que sa mise en oeuvre se paye par une réduction de la privacy. Mais l’essentiel réside dans l’idée que l’on peut calculer de caractère  juste ou injuste d’un classificateur.

Voilà une série d’autres critère d’évaluation et de redevabilité, même si demander à son banquier si son scoring respecte la condition de Lipschitz, ou la parité statistique, reste, reconnaissons le non pas de la science fiction, puisque scientifiquement c’est possible, mais de la social fiction! Mais les choses ne s’arrêtent pas là, quand bien même nous introduirions dans le système des approches juste “fair” au sens de l’auteur principal, cela a un cout :  c’est celui de la privacy. Pour que l’algorithme soit juste, il faut selon l’auteur qu’on détienne des données “sensitives” !

Ce qui amène un commentateur à relever dans cette interview qu’il n’est pas possible de construire un algorithme juste, en relevant la question de la responsabilité : in fine l’auteur du papier initial renvoie la responsabilité de la justice de l’algorithme à des éthiciens! laissons au commentateur la conclusion :

” First, there is the belief that we don’t need to think philosophically because we can solve our problems by technology; and then, second, when technology as such fails, to call in expertise, in this case in the form of an “ethicist.” And then, finally, in the paper Dwork co-authored on fairness that prompted this interview, we find the argument that the parameters of fairness “would be externally imposed, for example, by a regulatory body, or externally proposed, by a civil rights organization,” accompanied by a citation of John Rawls. “

Les choses sont donc claires : ne comptons pas sur les machines pour réduire les problèmes sociaux, la responsabilité de ce que font les machines appartient entièrement aux humains, à leurs concepteurs et à leurs propriétaires. Plutôt que d’interdire, ou d’autoriser, la première étape de la régulation du monde des machines est d’imposer socialement l’exigence de redevabilité. Si les machines ne sont pas neutres, si elles induisent des biais politiques, ont toutes les chances d’être injustes, autant que l’on connaisse la manière dont elles affectent l’ordre social.

Consommation collaborative – Appel à la recherche

On reprend ici le texte de présentation de la table ronde consommation collaborative : une nouvelle équation, à l’occasion de la journée consommation digitale préparée avec Cédric Ghetty de l’EMLV.  C’est un appel aux chercheurs sur un terrain qui n’est pas tout à fait vierge : communauté de marques, marketing participatif, réseaux sociaux…maintenant ce nouvel objet qu’est la consommation collaborative.

Depuis désormais de nombreuses années – pour donner une date 1995 où le web et le mobile ont débarqué en France – les spécialistes de marketing qu’ils soient professionnels ou académiques, se posent à juste titre des questions quand aux nouvelles manières de communiquer et d’agir aux travers des médias digitaux. Des questions renouvelées continuellement avec l’évolution des techniques.

Aujourd’hui les usages pénétrant une fraction si importante de la population, le centre de l’attention doit se déplacer ailleurs : sur les pratiques même de consommation. Il ne s’agit pas seulement de consommation de produits digitaux ou digitalisés – souvenons-nous de Napster en 2000, mais de toutes les consommations. Celles des services qui par nature se confondent à leurs canaux de communication, mais aussi celles des biens matériels qu’ils soient durables ou non. Des comparateurs de prix au service-après vente, ce sont toute les étapes du processus de recherche d’information et de décision du consommateur qui sont affectées, sans compter la consommation proprement dite.

Le contexte actuel de crise et de limitation voire de perte de pouvoir d’achat, dans les pays européens amplifie certainement la transformation des usages, et encourage des pratiques émergentes. C’est la raison principale qui nous a conduit lors de cette première journée de recherche « Consommation Digitale » à proposer une table ronde autour de ces nouveaux modèles de consommation, et notamment celui de la consommation collaborative tel que Rachel Bostman le popularise ou tels qu’ils se présentent dans les cent sites identifiés par Antonin Léonard, ou encore dans les modèles voisins des AMAP ou d’Autolib.
En invitant l’Obsoco qui vient de produire une étude importantes sur les consommations émergentes et quelques observateurs et acteurs avisés (Louis David Benyayer- Without Model , Christine Ballagué –TEM, Nathalie Damery – L’Obsoco, Antonin Léonard Ouishare, et quelques autres invités surprises) nous souhaitons inciter les chercheurs à s’emparer de questions qui à la croisée de la technologie, de l’économie, de la psychologie et du marketing posent de nouveaux défis.

La consommation collaborative n’est aujourd’hui pas seulement un projet utopique et communautaire qu’une certaine attitude anti-matérialiste pourrait encourager. Les succès d’un AirBnB, ou plus proche de nous d’un Velib, pour ne prendre que deux exemples s’expliquent aussi par des motifs parfaitement économiques. Comment accéder à des consommations auxquelles on aspire sans en avoir les moyens ?

Le rôle des technologies, en réduisant les coûts de coordination qu’ils soient ceux des consommateurs ou ceux des offreurs, est naturellement primordial. L’immédiateté et la disponibilité qui n’était permise que la part la détention individuelle des biens est désormais possible par des formes diverses de socialisation de ces biens. Cette nouvelle équation de la consommation en retour suscite chez les consommateurs de nouveaux rapports aux objets, une autre considération de leurs effets utiles. Elle implique aussi de reconsidérer les rapports humains. La valeur du co-voiturage ou du surf-couching ne réside pas seulement dans un coût d’accès moindre au transport et au logement, mais aussi dans des opportunités nouvelles d’expérience de consommation et de nouveaux risques à gérer, des mécanismes inédits de création de confiance.

Ces questions ne sont pas neuves, c’est leur ampleur qui l’est. Les consommateurs ont toujours pris en compte l’avis de leurs proches, mais avec les technologies sociales leurs proches sont plus proches. Le partage n’est pas une nouveauté, mais de partager avec des inconnus l’est sans doute. Les questions de la disponibilité (immédiate), du choix infini, la redéfinition de la formation des attentes, et sans doute de cette association inédite entre un sens aigu de l’individualité et de l’appartenance communautaire, doivent nous interpeller sur la pertinence de nos vieux modèles d’analyse de la consommation.

tεchnε hypomnεsıs

Intimités digitales : là où on est.

Geotattoo
Non il ne s’agit ni de texting, ni de lettres érotiques. Juste de cette question lancinante qui met en balance la faculté d’offrir aux consommateurs des produits ajustés à leur besoin pour autant qu’ils concèdent à céder des informations personnelles. Parmi celles-ci il en est une essentielle qui est de dire là où ils sont. La géolocalisation est cette petite chose qui touche absolument notre intimité.
Généralement nous préférons que peu sache où nous sommes, et quand nous souhaitons qu’on le sache c’est que nous avons une bonne raison. Dans tous les cas une des choses les plus précieuses est de contrôler la diffusion de nos adresses. Dans un monde qui permet potentiellement de situer chaque humain, et donc de l’exposer aux actions des autres, on peut considérer que l’acceptation d’être géolocalisé ressort de l’intimité la plus profonde.
Comprendre comment se construit cette intimité peut passer par un test assez simple : demander si l’on accepte d’être situé dans l’espace, sur un plan, et que cette information soit disponible pour certains acteurs. Des marques, nos amis, un opérateurs téléphonique, un réseaux social, une banque, la police… 
C’est cet exercice de mesure que tente une de nos étudiantes ( répondez aussi au questionnaire) dans son mémoire de master. Le résultat essentiel se tient dans la figure suivante. Il est encore fragile, ce n’est qu’un pré-test*, il nous offre déjà quelques enseignements.
En regardant le détail ( zooomez l’image) ce que l’on accepte est ce qui appartient à notre initiative. Ce que l’on rejette est ce qui appartient à l’initive des autres. On accepte volontiers d’être géolocalisé pour trouver son chemin, on refuse de l’être pour que nos amis nous retrouve. La clé est cette idée du contrôle de soi. Un idée simple et essentielle. Nous donnons des informations sur nous-même pourvu qu’elles nous permettent de rester maitre de notre destin, nous refusons d’en donner quand elle nous soumettent au désir des autres.
Il n’y a pas d’absolu de l’information, ni même de la vie privée, il n’y a que des situation qui font de nous le maitre de nos destinées ou l’esclave de la volonté des autres. En bref, l’idée de la liberté. Maintenir en l’état des contraintes la possibilité de nos volontés.
On imagine des jeux plus complexes : certains pourraient être prêt à accepter d’être localisé en tout temps et tout lieux, car ils savent qu’au moment où l’influence s’exerce ils peuvent la maitriser à leur avantages. d’autres sont si faible qu’ils tenteront de n’être jamais localisé. 
Douze questions suffisent pour saisir les ressorts de l’intimité ( il en faudra sans doute encore une demi-douzaine). Ils sont ceux du pouvoir et de l’auto-détermination.  Le technologie ne change rien à l’essentiel. Nos jouissances ne valent que pour autant qu’on les contrôle, nous pouvons laisser tout savoir de ce où nous sommes pourvu que nous soyons sûr de maitriser ce que les autres feront de cette information. Dans le doute nous préférons être silencieux, cachés, indécelables. 
Il reste à explorer cette idée simple, on peut former l’hypothèse que ceux qui ont le sentiment de maitriser mieux leur devenir accepterons plus facilement les facilités technologiques que ceux qui pense pouvoir en être les victimes. Le monde nouveau qui trace nos parcours, les inscrits dans les cartes digitales, ne se fera qu’avec des sujets puissants. les cartes sont aussi précises que nos libertés de circulation sont garanties.

Nota : juste le point de départ du séminaire du 27 juin à l’ISCC. Merci Thomas.

* Nous aimons les pré-tests, il suffit d’une belle centaines de réponses pour que se dessine le fait. Audelà on obtient de la précision, à ce niveau si le fait est il se manifeste assez fort. Les pré-tests sont le meilleurs moment pour penser l’étude, il laissent anticiper les résultats, sont assez indécis pour qu’on se pose encore des questions.

Pas de débat pour la productivité (digitale) ?

Sharing productivity increases
C’est étonnant. Alors qu’un enjeu essentiel de cette élection est celui de trouver les chemins d’une nouvelle croissance – fussent-il difficile à trouver entre l’impératif de réduction de la dette et la nécessité de préserver notre modèle social – nos candidats font l’impasse de la voie la plus naturelle.
L’équation de la croissance est simple, on la connaît depuis longtemps. Elle trouve sa source à 60% dans l’innovation technologique, à 20% dans le capital et à 20% dans le travail et prend forme dans les gains de productivité. Chaque fois qu’on invente le moyen de faire la même chose avec moins de ressources, on gagne la possibilité de faire autre chose. Produire plus et autre chose avec le même effort. La révolution de l’information qui règne depuis 30 ans a ouvert ce chemin et c’est aujourd’hui au moment où cette révolution atteint une certaine maturité, qu’elle se déploie partout dans le monde, dans tous les secteurs, dans chaque métier, pour toutes les entreprises et chacun des citoyens, que nos politiques l’oublient dans sa généralité et ses détails. Elle devrait être l’enjeu principal.
Rappelons qu’au-delà des symboles ministériels et les plans annoncés, les gains de productivités se gagnent par petits morceaux, dans l’intimité des entreprises, des administrations et dans celle de la consommation. Une politique digitale doit être attentive aux détails. La croissance se construit par dixièmes de pour-cent, dans une conquête méthodique et fragmentaire. Ces gains sont possibles dans au moins trois domaines.
Le premier est celui des PMEs. Permettons-nous de dire l’expérience que nous avons à former des dizaines de cadres de ces entreprises et de l’effarement que nous avons de constater l’illettrisme digital. Rares sont les responsables de ces entreprises qui connaissent bien les techniques numériques et les bénéfices à en tirer. Il suffit souvent de deux ou trois heures à les faire circuler sur les outils numériques pour leur faire prendre conscience du possible. La formation des cadres des PMEs est une priorité fondamentale si nous souhaitons qu’ils multiplient par 2 ou 3 leur efficacité commerciale et l’étendue de leurs marchés et réalisent que l’enjeu international qu’ils s’interdisent souvent au prétexte de l’éloignement n’est qu’à un clic. Mais sans doute à force de flatter ces électorats, nos politiques ont oublié qu’ils pouvaient tout à fait ne pas être aussi performants qu’on les présentent. Ils ne sont pas déméritant, ils se battent simplement avec des armes du siècle passé. Seuls 37% des PMEs ont mis en place un site de commerce électronique.
Le second est celui de l’industrie de la publicité et de la communication. On a généralement peu d’estime pour ces professions qui représentent 40 000 entreprises et près de 40 milliards de CA, ces 2% du PIB qui assurent la fluidité des marchés. Et pourtant ce sont ces industries qui produisent la valeur qui créent les emplois. Juste une illustration, quand un jean acheté en Chine coûte moins de 15 euros et qu’il se vend en France 120, plus de 40 euros payent des boutiques et leurs emplois, 10 à 20 euros les graphistes et les publicitaires qui bâtissent la marque. Le tertiaire est cette couche qui s’ajoute à l’industrie manufacturière et lui donne de la valeur. L’internet transforme radicalement ces métiers, en augmente la valeur : la marque, l’aspect des produits, leur lieux d’exposition, le discours, l’accompagnement, le service après-vente, l’information parfois l’éducation et l’expérience. Mieux maîtriser ces nouveaux métiers et services est clairement un enjeu qui concerne une très large partie de l’économie.On rêve d’institut du numérique dans toutes les universités.
Le troisième concerne nos modes de consommation. Qu’il n’agisse de l’électricité, de l’automobile , une révolution douce est en marche qui vise à économiser l’énergie mais aussi à augmenter le taux d’utilisation du capital par un réglage fin de notre consommation. On la désigne sous le vocable de la consommation collaborative mais elle en prend bien d’autres formes. Si à l’achat un véhicule coûte disons 15000 euros, au cours de sa vie il génère 4000 euros d’assurances, 10 000 euros de maintenance, 10000 euros de carburant et lubrifiants, 2000 euros de parking. Partagé, il coûtera un peu moins, mais sera renouvelé plus fréquemment ; offrant ainsi la possibilité de donner plus de satisfaction, et de bénéficier plus rapidement des économies que permet le progrès technique. Pour partager le véhicule, les plateformes digitales permettent d’optimiser en temps réel la disponibilité. Ce sont des gains de productivité à gagner immédiatement et dans bien d’autres domaines. Plus de services, moins de matières…
Trois domaines donc dans lesquels des gains de productivités significatifs peuvent être atteints. Au-delà des actions déjà engagées par leurs acteurs, on pourrait espérer que les candidat à la direction des affaires publiques proposent des actions et des mesures qui les renforcent. Ils ont quelques propositions, nous aimerions qu’ils en fasse la priorité du débat.
Nous pouvons espérer que de nouvelles entreprises avec de nouveaux modèles économiques se créent et prospèrent : il y en a quelques exemples. S’il faut souhaiter qu’elles se développent et que par miracle l’une d’elles devienne le nouveau Google, ne croyons pas qu’il y a là une botte secrète. Le secret est dans dans un effort constant et modeste d’une conquête systématique de la productivité, dans la modernisation du tissu des PMEs, dans l’attention donnée aux épiciers et aux marchands, et dans la confiance accordées aux citoyens et à leur facultés d’invention. Les gains qu’offre le digital ne se trouvent qu’en partie dans la production, c’est dans la distribution et la consommation que les choses se jouent. Nous avons trop longtemps pensé que les coûts principaux étaient liés à seule production, ils sont désormais liés au trois-quart à la distribution et à la consommation.
Nous ne sommes pas candidats. A eux de proposer. Au moins de débattre. Une grande politique numérique est nécessaire. Elle porte aussi sur d’autres questions fondamentales : celle de l’identité digitale et du respect de la vie privée, celle de la transparence et des données ouvertes, celle de la neutralité et de la liberté. Elle demande une société ouverte au monde, engagée dans les transformations qui l’affecte, elle exige des dirigeants attentifs aux initiatives de ses citoyens plus qu’à leurs inquiétudes. L’optimisme plus que la peur.

Fidélité digitale : la bascule

Avec la seconde enquête de la journée de la fidélité (24 avril St Fidèle) un certain nombre de résultats précisent ce qu’on sait de l’usage des programmes de fidélité.

Le fait principal est de confirmer un taux d’utilisation de 80% avec un nombre de cartes détenues de l’ordre de 5 ou 6. Seule une minorité y résistent. Cependant elles n’obtiennent pas toute l’attention requise et souvent si on ne profite pas de leurs avantages c’est simplement parce qu’on les oublie fréquemment et qu’on considère la valeur des gratifications comme insuffisante. Sans doute les oublie-t-on car la valeur est faible.
Si leur usage est désormais intégré à la consommation, on ne leur accorde cependant qu’un modeste crédit. Seul la moitié des utilisateurs ont le sentiment d’être considérés et de bénéficier d’un traitement privilégié. C’est un enthousiasme réservé. Les consommateurs les considèrent comme un du. Leur absence est un manque, leur présence n’apporte que peu. Cette ombre au tableau encourage à porter l’attention aux risques de déception dont les programmes de fidélité peuvent être la source. Prime trop faible, conditions d’octroi trop complexe, déclassement, autant de facteurs qui peuvent ajouter des occasions de déception. C’est sans doute un point de vue un poil trop pessimiste mais en la matière autant l’être pour attirer l’attention sur la gestion des programmes et un critère fondamental : il ne s’agit pas tant de satisfaire que d’être juste à la fois dans la manière de délivrer les points gagnés que les primes auxquelles on peut accéder.
Le fait nouveau se conjugue avec l’arrivée du mobile et le mouvement de dématérialisation des cartes. Il en est certes à ses débuts : moins de 7% des internaute ayant déjà testé une application de carte de fidélité. Mais les consommateurs y semble prêt, l’innovation est légitime, en dépit de sa connaissance limitée. Naturellement la migration ne se fera pas d’un seul coup, et il faudra sans doute plusieurs années pour que les cartes plastiques disparaissent.
Mais il reste ce fait que les cartes se déportent sur les mobiles est parfaitement accepté, pourvu que – c’est implicite dans l’étude – que les applications soient simplissimes dans leur usage. Et cela est une bonne nouvelle car l’oubli sera beaucoup moins possible, le mobile assure au moins que les consommateurs ont toujours la carte en poche. Il n’auront plus qu’à y penser et à agir. On peut espérer ainsi que les insatisfactions qui proviennent des bénéfices perdus soient atténués. On peut imaginer aussi de nouvelles possibilité de les distribuer. Un peu de géolocalisation et inutile de passer par la caisse, un peu de social et c’est l’engagement que l’on récompensera plus que les achats, un peu de développement et c’est un véritable assistant à la consommation qui sera proposé. Enfin retrouver des conditions dans lesquelles les programmes de fidélité fidélisent car ils apportent plus de valeur et renforcent la confiance.
Nous nous trouvons aujourd’hui au point de bascule, la fidélité ne s’incarnera plus dans ces cartons qu’on garde plus ou moins négligemment dans le portefeuille ou une boite en fer blanc posée sur un rebord dans la cuisine, mais dans cette icône coincée parmi les autres sur les 10cm2 de l’écran du smartphone. Si la carte ne sera plus oubliée dans la boite, il faudra quand même que l’appli soit activée, utilisée, intégrée.
On retrouve ici pleinement le problème de l’engagement qui est désormais au cœur des réseaux sociaux. Il ne s’agira pas seulement d’atteindre une audience vaste, mais de s’assurer quelle est active, il ne s’agira pas seulement que les consommateurs accumulent des avantages et les convertissent avec joie, mais de faire vivre ce qui sera désormais un canal de communication et de gestion à part entière.

La lecture à l’age des Rolling Stones

Dans notre compréhension des espaces digitaux il faudra se remettre à la lecture et à ses théories. Se rappeler aussi une histoire merveilleuse écrite par Manguel ou Chartier, du passage de la lecture à haute voix à celle du silence. Il faudra se  pencher sur l’appareillage des notes, les références bibliographique, les coins écornés, les marges annotées. Lire n’est pas l’évidence des yeux qui suivent les lignes, ils en sautent et reviennent en arrière.

Qu’on comprenne qu’un document aujourd’hui se compose du texte, des méta-données qui le référence, mais aussi des annotations dont on rêve qu’elle s’accroche au fil des pages à la manière de Souncloud où les commentaires s’épinglent sous la ligne du son. Il n’y jamais eu de texte isolé, et la lecture s’est toujours faite en collaboration.

Une observation. Deux cas parmi des proches. Suscitée par un livre : les mémoires de Keith Richard. Les deux personnes ont adopté une lecture particulière de cette histoire touffue dont la densité des anecdotes en fait l’index d’une histoire écrite ailleurs. Et cet ailleurs est Youtube. Chaque page lue fournissant les mots-clés pour retrouver la forme vivante des épisodes, leur pendant presque réel des images vidéos. Passant du livre à l’écran pouvoir projeter les images du livre en dehors de l’écran du cerveau. C’est sans dire que l’aller et retour du livre à l’écran est ponctué de partages. Facebook ou Twitter. Donner à son entourage des fragments de nos plaisirs et de nos découverte.

Il est bien d’autre cas où l’interaction de la page et de l’écran manifeste une fructueuse collaboration.  Celui-ci à l’avantage de montrer une chose de plus. La subtilité de cet expérience réside en fait dans une forme d’écriture. C’est la manière même de rendre compte de son histoire et de son objet qui incite à la recherche :

« Le premier 45 tours est sorti rapidement après la signature du contrat. Tous se comptait en jour pas en semaines. On avait fait un choix délibérément commercial : « come on » de Chuck Berry. Je ne pensais pas que c’était ce que nous pouvions faire de mieux, mais j’étais certain que ça allait laisser une marque» p115 – Keith Richard, Life.

Les livres sont des nœuds, les fragments de texte sur le net le sont aussi. Et la lecture est cet art de jouer avec les nœuds, s’arrêtant sur l’un pour mieux repérer les autres. Ce qui change dans nos lectures est qu’un lien suffit pour glisser d’un texte à l’autre, le commentaire prend de l’importance au regard de la lettre. Le texte qu’on sors du rayonnage est encore lié à ses voisins. Ce qui s’ajoute est que la lecture silencieuse des autres, qui rarement se traduisait par une annotation, aujourd’hui prend de la couleur et tapisse le fond de nos lectures d’une sorte de choeur.

Marketing digital : 2 ou 3 enjeux

Communication pb

Laurent Florès qui prépare un nouvel ouvrage, m’a posé 3 questions, voici le premier jet de mes réponses.

Le digital a-t-il vraiment changé la façon de faire du marketing ? est-il plus facile ou plus difficile de faire du “marketing efficace”?

Évidemment oui ! Les bases de données, puis l’internet et le mobile désormais transforment radicalement la manière de faire du marketing : plus de dialogue, plus de personnalisation, plus de segmentation et la prise en compte du parcours du client. De nouvelles doctrines sont nécessaires en plus des 4P. L’expérience, la relation client  et maintenant le social. C’est non seulement la manière de faire du marketing mais aussi de penser le marketing qui est changée.

La question de l’efficacité est d’abord une question de connaissance et d’apprentissage. S’approprie-t-on plus vite que les concurrents les nouvelles techniques, les nouveaux marchés, les nouvelles opportunités ? La technique en soi n’apporte pas véritablement d’avantage concurrentiel. Quand elle s’améliore pour tous elle peut élargir le marché et souvent marginalise les anciennes. Le mail qui succède largement au courrier, demandait à maîtriser un nouveau métier, aujourd’hui c’est au tour des réseaux sociaux. La question n’est pas de savoir si les techniques nouvelles sont plus efficaces mais de savoir les maîtriser plus efficacement que les concurrents dans la mesure où ils décident de s’y engager. La difficulté c’est d’apprendre vite.  

Quels sont selon les principaux challenges qui s’imposent aux marques pour pleinement exploiter “l’espace” digital”?

C’est tout à fait juste de parler d’espace. L’internet est un espace. C’est pourquoi le principal enjeu est justement de coloniser cet espace.  En dépit de l’avènement du temps réel, le référencement impose une inertie forte à la fréquentation des sites. Ceux qui sont présents partout et qu’on cite volontiers génèrent une exposition déterminante.  Il faut être une référence dans le champs qu’on se désigne et pour le public auquel on s’adresse. La réputation est le critère central. Cette colonisation se fait aussi dans le temps : coloniser les les médias de l’instant, ceux du dialogue, les forums, les réseaux.

Le second enjeu est l’animation. Pour fédérer une population qui adhère à des degrés variés : de l’ambassadeur au visiteur occasionnel , en passant par les fidèles, vieux ou nouveaux, il faut organiser les flux d’information, cadencer les canaux, raconter des histoires, rythmer l’actualité de rituels, il faut devenir un média à part entière, rassembler un public et cultiver des afficionados. Il faut pour celà de la constance, de l’imagination et une ligne éditoriale originale.

Qu’en est-il de l’efficacité du marketing digital? Quelles sont les grandes opportunités et difficultés qu’il impose aux marques ?

L’opportunité se trouve dans l’approfondissement de la relation en la rendant plus dense et plus libre. Le passage au conversationnel, à la transparence des données en trace les lignes. Fournir des services dans l’esprit du self quantify, développer des approches VRM, exploitater mieux les données publiques. Si le contenu est devenu essentiel, la bataille va être pour la production de plus et de meilleurs contenus.

La difficulté est habituelle : s’approprier les technologies. Leur promesses se réalisent par leur mise en œuvre, et souvent les problème viennent de leur incongruité avec l’organisation et la stratégie. Il va de soi que les questions de culture d’entreprise et de marque sont en ce domaine cruciales.

Social grooming – la relation comme toilettage

Social grooming
On le rappelle un peu partout, la relation est une question de conversation et il ne suffit pas, sur les réseaux sociaux, de diffuser l’information mais il faut aussi engager et s’engager. 
Un engagement qui n’est pas qu’un simple « commitment », mais se traduit par des actes effectif de défense, de militantisme, de manifestation de soutien. Croire que maintenir le lien est important, mais pas suffisant. S’attacher est bien, mais le cœur de suffit pas. Il faut agir. Aussi bien la marque, que le client. Mais par quelles actions ? On comprend bien que rien d’exceptionnel n’est attendu, ni ne sera possible, que c’est plus une série continue de petites actions, de réactions, de signes échangés, d’attentions qui constituent le flux de l’engagement.
Quant à le théoriser, un concept venu droit de l’éthologie est bien utile. Celui de toilettage social dont Dunbar ( encore lui), s’il ne l’a pas découvert, en a fait une hypothèse clé dans la formation du langage. Judith Donath reprend cette idée en 2008, tout en la rapprochant de la théorie du signal bien connu en économie et en marketing, ainsi qu’en biologie avec cette idée de Zahavi que les signaux couteux dans les parades nuptiales sont évolutionnairement favorable même s’il font de son émetteur une proie visible. C’est le paradoxe du paon. Et sans doute pose-t-elle la bonne question en proposant que les changements de statuts et l’ensemble de l’activité déployée sur les réseaux, manifestent l’attention que l’on prête à autrui. On pourrait dans cette voie s’interroger sur la signification de la distributions des signaux en terme de coûts quant au intention de relation. On citera aussi Tufekci Z. (2008) dans la même veine.

En fait peu d’études sont consacrées à ce sujet, encore moins d’études empiriques, et l’on citera volontiers cette de Nelson et Geher qui proposent une échelle dans le cadre d’une analyse de relations de couple, amoureuses ou non, et cherchent à corréler l’activité de grooming à la confiance, à la séduction et au renforcement des liens ( sans obtenir de clairs résultats : le toilettage est-il une cause ou une conséquence du lien?)

1. I run my fingers through my significant other’s hair. 
2. I remove dry or flaking skin from my significant other’s body.
3. I wash (shampoo) my significant other’s hair/body while showering/bathing together.
4. I shave my significant other’s legs/face.
5. I squeeze/pop my significant other’s pimples, blisters, or other bumps (zits).
6. I wipe away my significant other’s tears when he or she cries.
7. I brush or play with my significant other’s hair.
8. I massage my significant other (non-sexually).
9. I wipe away or dry liquid spills off my significant other.
10. I clean/trim my significant other’s nails/toenails.
11. I brush dirt, leaves, lint, bugs, etc. off of my significant other.
12. I scratch my significant other’s back or other body parts.
13. I wipe food/crumbs off my significant other’s face/body.
14. I tweeze/remove eyebrow hairs or other body hair from my significant other.

On imagine assez aisement d’en construire une du même genre dans l’environnement digital. Like-t-on ses amis ? Retweete-t-on ses posts ? Commente-t-on ses G+, prendt-on soin de ses FF….Mieux on imagine toutes sortes d’hypothèses : la confiance facilite-t-elle le toilettage digital ? Où le toilettage construit-il la confiance ? Est-il lié à la taille des groupes ? À l’efficacité des retweets ? Favorise-t-il la lecture des messages ? Les actions qui s’ensuivent ? Encourage-t-il le partage d’information?
On comprend que de telles hypothèses aideraient les community managers à être plus efficaces et plus influents, on comprend tout aussi bien l’importance de cette question dans les politiques de communication des marques sur les réseaux. D’un point de vue plus théorique, il y aurait matière à renouveller la réflexion sur la nature de la relation en ne la posant plus exclusivement en terme de confiance et d’engagement comme on le fait depuis Morgan et Hunt, mais en la ramenant à cette pragmatique de la conversation où les messages comptent moins par ce qu’ils disent que par ce qu’ils font.
Refs :

Tufekci Z. (2008). Grooming, gossip, Facebook and Myspace. Information, Communication, & Society,11, 544-564.

Judith Donath(2008) Signals in Social Supernets MIT Media LabJournal of Computer-Mediated Communication 13 (2008)
Holly Nelson & Glenn Geher (2007) Mutual Grooming in Human Dyadic Relationships: An Ethological Perspective, Curr Psychol (2007) 26:121–140
 

Du point au deal

Thembeka
Les programmes de fidélité vont-ils survivre?

Depuis le début des années 2000 leur format s’est stabilisé. Incarné dans la carte plastifiée, vivant dans une mécanique plus ou moins rodée de points acquis au cours des achats et consommés sous forme de primes et de cadeaux dont l’efficacité reste parfois à prouver, ils offrent la possibilité d’action ciblées sur les groupes de clients qui consomment le plus régulièrement et le plus fréquemment. Ces programmes s’appuyant sur des systèmes CRM désormais éprouvés, permettent de segmenter sur la base des comportements et au-delà du RFM de développer des programmes de communications adaptés aux profils des clients. Même s’ils se sont différenciés – une de nos étudiantes de master MOI en distingue 7 familles– leur structure fondamentale est identique.

Aujourd’hui trois éléments semblent en menacer l’équilibre mais proposent de nouvelles opportunités: la virtualisation des cartes, la digitalisation de la promotion, l’esprit du VRM.
Le premier élément appartient à l’ordre de l’évidence : la pénétration croissante des smartphones –  disons plus de 50% à l’horizon 2015, nous en sommes à un peu plus de 30%  – qu’accompagne le développement du NFC qui concernera un mobile sur 4  dans le monde en 2015 va encourager le déplacement du support du programme de la carte vers le mobile. Sans attendre, d’autres solutions à base de QR code sont déjà disponibles. Le changement de support pourrait être considéré comme simplement technique s’il n’apportait pas de nouvelles fonctionnalités dont la géolocalisation est sans doute la plus importante. Pour s’en convaincre cette série de cas sur Foursquare est instructive. Ce qu’on doit en conclure est que nous n’en sommes plus à l’identification du profil de consommateurs, mais de sa situation d’usage. La géolocalisation est aussi une question d’instant : un lieu, un moment, une action. Avec le mobile la carte n’agit plus seulement sur un client moyen mais sur l’acte de consommation.
Le second élément réside à la fois dans l’irruption du social shopping dont le phare est Groupon  mais dans la lumière duquel prolifèrent les clones. Cette nouvelle espèce du e-commerce et de la consommation non seulement est sociale mais généralise le deal dans les pratiques de consommation. Soyons aussi attentif aux sites de marques qui de plus en plus distribuent leurs propres coupons. Le succès des sites de bonnes affaires, par ces temps d’inquiétude économique qui encourage l’opportunisme des consommateurs, risque de faire éclater le statut quo recherché par les stratégies de fidélisation. Ces machines de guerre au service de l’acquisition client par l’importance des avantages qu’elles procurent aux consommateurs, annihilent la valeur des récompenses apportées par les points. La brutalité des deals va conduire les programmes de fidélité à  réapprendre la manière de délivrer leur récompense ainsi que leur montant. Les logiques d’accumulation, ces  bons points scolaires patiemment obtenus pour obtenir une belle image, doivent désormais laisser le pas à des cadeaux plus audacieux dont l’obtention est plus aléatoire. On retrouve ici sans doute la logique de la « gamification ». Quant à la dimension social, un programme tel que Blue Calypso indique la voie : encourager l’advocacy, et faire des membres du programme les ambassadeurs – ou les VRP – de la marque.
Le troisième élément est encore discret mais risque de grandir vite. Pensé à Harvard dans les bureaux du Berkam center, réalisée en Angleterre avec le projet Mydata.com, il a l’intention de renverser les rapports du consommateur à la marque. Les données qu’on collecte par les cartes peuvent aussi être rendues au  client pour l’aider aux travers d’applications spécifiques à mieux contrôler sa consommation. Le VRM ( Vendor Relationship Marketing) peut sans doute devenir une source d’innovation pour les programmes de fidélité et élargir le spectre des services qu’elles peuvent offrir. Ne serait-il pas utilise que les distributeurs nous rendent nos tickets de caisse et leur donnent de l’intelligibilité à la manière dont Nike+ nous aide dans nos entrainements ? Ne serait-ce pas une manière d’échapper à l’étau du discount.
Il y a bien sur d’autres éléments à prendre en compte – l’élément social  au premier plan-  mais ceux-ci suffisent déjà pour dessiner les grandes lignes d’une architecture renouvelée des programmes de fidélisation :
  • Du point de vue matériel si la carte plastique a une valeur symbolique d’appartenance et d’attachement qui doit être maintenue, c’est d’une part dans son intégration dans les mobiles et le développement des interactions aux différents points de contact et d’autre part le développement d’espaces client  riches et personnalisables qui sont prioritaires.
  • Du point de vue de la mécanique de gratification ( Earn et burn), d’autres modèles que l’accumulation linéaires des points doivent être envisagés. Une part de deal, et l’accès privilégié à ceux-ci sera nécessaire, pour rendre moins systématique la logique de récompense.
  • Quant aux données, si elles sont une source d’intelligence marketing pour l’entreprise qui doit encore être améliorée, la voie royale sera d’en faire la source d’intelligence des consommateurs.
Les espèces survivent en s’adaptant, à l’âge de la promotion digitale les programmes de fidélité n’y échapperont pas, à moins que tels les dinosaures, ils laissent place à d’autres espèces. L’évolution dans la nature ou dans les affaires n’est pas toujours incrémentale mais obeit aux lois de l’équilibre ponctués.
PS1 : une version allégée de ce post a été publié sur Goldeneyes blog
PS2 : l’étude de l’évolution de ces programmes fait l’objet d’un projet du Master MOI en collaboration avec la journée de la Fidélité .

lire aussi :
-l’indispensable gratification ou les aléas de la consommation

Chronique 38 – Une chronique courte pour deux livres

Il y a des rentrées qui font plaisir. Cette rentrée en fait partie au moins pour une raison ou deux. En l’occurence la sortie de deux livres auxquels nous avions été invités à contribuer.
Et ces deux livres, bien au-delà des chapitres que nous avons rédigés, se complètent à merveille. Le MBA Marketing, coordonné par Jean-Marc Lehu, est comme son titre l’indique, un manuel fondamental de qualité. Ses 26 auteurs forment un beau panel de spécialistes, il couvre le tout champs en donnant une place importante aux sujets nouveaux que ces dix dernières années ont fait apparaitre, éloignant peu à peu les 4 P à une ère historique. E-marketing et e-commerce, sera l’outil de ceux qui veulent approfondir les vertigineux développements du marketing au travers du digital. Coordonné par Thomas Stenger et Stephane Bourliataux- Lajoinie, il donne en 10 chapitres une perspective complète d’un champs aux frontières de la technique, du social et de la communication.
Les deux forment une paire qui sera indispensable pour nos étudiants. D’autres ouvrages sont excellents, mais on comprendra que nous les privilégions! Ils portent la voix ensemble d’une quarantaine de spécialistes de marketing.