Nouvelle formes de Marketing

17039872067_cf7f22e4a8_kCe cours est donné dans le cadre de la Licence 3 à l’UFR SEGMI à Paris Nanterre . Partant des nouveautés dans les modes de consommation largement induites par les technologies de l’information mais s’intéressant aussi à la fragmentation des marchés et de leur identités culturelles et morales, ce cours vise à explorer la réponse marketing des entreprises dans le monde digital et leurs innovations au travers d’études de cas.

Thématique

Le thème général pour la session 2016 portera sur le marketing des plateformes,  et plus particulièrement sur l’emploi des données et des algorithmes dans les stratégies marketing. L’étude des plateformes est privilégié. Il s’appuie en partie sur le livre « Plateformes : Sites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix« . Il s’agira pour les étudiants de choisir un cas de plateformes (Airbnb, Blablacar, Etsy, Zillow, Taskrabbit, etc… ) et de s’attacher à un problème de marketing qu’elles rencontrent et qu’elle résolve par l’utilisation des données et d’algorithmes spécifiques. : fixer un prix pour Uber, définir une politique de modération pour Twitter, un mécanisme de résolution des litiges pour Airbnb, une indication de prix pour Blablacar, un système de recommandation pour Netflix ou la gestion des commentaires par Booking.

Evaluation :

Les étudiants auront à écrire un essai après avoir choisi un cas et s’être inscrit ici .

Il se présentera sous la forme d’un document de 8000 signes, organisé autour d’une problématique précise; 5 à 8 liens significatifs devront être mentionnés dans le texte, deux ou trois références bibliographiques devront enrichir la bibliographie ( livres et/ou articles de revues dites scientifiques). Une illustration photographique sera proposée. L’ensemble doit prendre la forme d’un article long de blog ( le style de Medium est recommandé).

La version word et pdf doit être versés dans le dossier Google Drive NFM17. Cela doit être déposé pour le 26 décembre 2018 à minuit.

Le travail est individuel.

Syllabus

Le découpage du cours suit les grandes problématiques marketing

1- introduction : tendances de la consommation et modèle de plateforme

2 – Segmentation et versants de marché

  • Segmentation par avantages recherchés ( à partir de l’étude UM Wave)
  • Marchés multi-versants et marchés d’appariement – gestion des sites de rencontre.

3 – La relation à la marque et son positionnement dans l’espace digital

  • Analyse de la réputation et du sentiment
  • Points de contact et interaction multicanal
  • Réclamation et gestion des litiges ( cas Airbnb)

4 – Les systèmes d’influence et de discipline des consommateurs

  • CGU, modération, trolling et sanctions – twitter et presse
  • Les systèmes de notation et d’avis – trip advisor
  • Nudge et gamification ( fomo sur booking), système de jetons

5 – La gestion d’une production et d’une distribution à la demande. Simplicité.

  • Echelles et densité : la gestion du crowdsourcing – plateformes d’innovation
  • Systèmes de recommandation – le cas de netflix, amazon, spotify
  • le rôle du machine learning (La valorisation des photo de Flickr)

6 – Les mécanismes de pricing

  • Le surge pricing de Uber
  • Les modèles d’enchères – ebay
  • Les modèles conventionnels – blablacar ( prix recommandé)
  • Problèmes de discrimination. ( airbnb)

7 – Le programmatique

  • CRM et DMP
  • modèle de ciblage et reciblages

Présentation d’introduction :

 

 

Le piège à miel des données ne fait pas saliver

Longtemps que je n’avais pas fait de billet d’humeur.

Est-ce de préparer la conférence MyData qui aura lieu la semaine prochaine entre Talinn et Helsinki ( gardons l’esprit en vacances), mais par une opération rare de sérendipité, voila que je vois surgir de mon fil twitter, cette page de publicité, dans le plus pur style viral qu’il soit. Rarement d’ailleurs le mot viral est aussi adéquat. Vous cliquerez l’image suite, et vous verrez que vous avez été averti.

De quoi s’agit-il? D’une offre de parrainage classique. Si vous retweetez cette offre en taguant l’image avec deux de vos amis, vous avez droit gratuitement au kit de séquençage génétique et de craquer votre code génétique.

Et bien sur que j’ai voulu gagner, et suis sur que vous avez faire comme moi. Alors j’ai cliqué et j’ai découvert le moyen de savoir quelle part de Néandertalien  il y a en moi, à quel point suis-je primitif. C’est parfaitement clair et n’a pas besoin de commentaire.

J’ai été grand lecteur de pif gadget, franchement ça n’a plus rien à voir et c’est pareil. On est passé des expériences avec des piles, celles qu’on testait en posant le bout de la langue sur la lamelle de cuivre par un picotement désagréable et métalique, à cracher dans un sac en plastique et à l’envoyer là bas où ils font de la haute-technologie, pour recevoir en retour un certificat attestant les traits néandertaliens qui subsistent dans notre ADN. Il est bien dit sur la pochette, que c’est à but ludique et non thérapeutique, et même que la génétique palélithique n’en était qu’à ses débuts. On joue.

A la première analyse, cette offre – qui est tarifée normalement – à 80 $ pour le Kit Helix DNA, et 24 $ pour le test Neanderthal, est proposé par Isitome et le kit ADN par une autre entreprise évidemment dénommée Helix.

On devine immédiatement le modèle. Des millions de gens envoient leurs salives, ils peuvent rester propriétaires de leurs données, eux-même n’en feront rien.  Helix séquence décode, conserve le code. D’autres entreprises se concentre sur l’identification fonctionnelle des gènes. Lesquels appartiennent à nos très lointains ancêtre ? lesquels predisposent nos futurs enfants à des maladies mortelles, lesquelles affectent nos allergies alimentaires et non alimentaires. C’est un modèles de plateformes, les entreprises qui vont se focaliser sur telle ou telle portion de gènes, développent simplement des applis, une nouvelle génération d’applis. Les médecins, les hôpitaux, seront nécessairement obligés de passer par leurs API pour tester leurs hypothèses et leurs diagnostics. On espère que les services secrets n’y auront pas d’accès, mais il y a de quoi douter.

Néanderthal est un formidable produit d’appel pour constituer ce qui potentiellement est un des futurs Google des données génétiques. Des millions de gens et sans doute très bientôt des milliards d’humains auront craché pour qu’on leur vende leur propre histoire : si l’on reprend textuellement la promesse d’Isitome.

C’est merveilleux, nous sommes uniques, un livre unique qu’on ne peut cependant pas lire soi-même, mais qu’on peut faire lire par la plateforme, et dont on va acheter les pages et les lectures par morceau. 20 dollars pour connaitre nos ancêtres, 200 pour nos allergies, au moins 400 pour savoir quelle saloperie on peut léguer à nos enfants, 50 plus tard aux première alerte cardiaque pour que le chirurgien aie une meilleure connaissance de nos prédispositions. Quoiqu’à vrai dire dans ce cas, c’est l’assurance santé qui paye et on lui fera payer un tout autre prix. Un seul décodage, le plus tôt possible est finalement souhaitable, et ce sera une customerlife time value aussi longue que notre vide d’humain. Le pactole.

Mais il faut faire vite. Comme pour les plateformes traditionnelles ( et oui c’est un coup de vieux pour les Ubers et autres Blablacar) c’est celui qui accumule le plus de données, qui détiendra le stock de gène séquencé le plus élevé, qui remporte le marché. A lui de créer un écosystème et une myriades de start-up spécialisée dans les tests, de développer les Apis qui permettent aux tiers, les médecins – et oui, le médecin devient un tiers, un acteur périphérique dans ce modèle- , d’accéder aux données.

La nouveauté dans le cas c’est d’introduire les techniques les plus agressives du marketing, la culture du sweepstake et du cadeau promotionnel. Et d’accrocher sur le plus périphérique, le plus ludique et le plus sensible : notre identité. Les marabouts et les voyantes, ce sont leurs techniques marketing, ne sont désormais plus que poussière. C’est bien plus fort de lire dans la salive que dans le marc de café.

Cela donne le vertige et une toute autre perspective à la question de la protection des données. Jusqu’à aujourd’hui les données étaient des représentations, des traces. Ce qui reste dans la matière après un événement. L’empreinte d’un pied de dinosaure ou un selfie. L’une et l’autre s’effacent rapidement. Rares sont les empreintes de dinosaure et pourtant ils ont beaucoup marché. Avec les selfies, et bien d’autre chose, la question qui se pose depuis longtemps, c’est que reproductibles, ces traces ne s’effacent pas et s’accumulent. Comme si les cheveux que l’on perd, les rognures d’ongles, nos squames,  ne disparaissaient pas dans le néant, mais s’accumulaient autour de nous. On traite ce nouveau problème en nettoyant, en sécurisant, en recherchant une solution qui soit une sorte d’urnes dans laquelle on conserverait nos traces. Est-ce la solution du cloud ou son alternative du cloud personnel et d’un retour au p2p véritable ? On ne sait pas encore.

Mais avec l’ADN, qu’on peut attraper avec un cheveu ou une goutte de salive, il ne s’agit plus de trace, il s’agit de notre propre code. Ce ne sont plus des données personnelle, c’est la personne même !

Sans craindre qu’il soit modifié ( c’est un autre souci), on doit craindre dès aujourd’hui d’être amené à payer un loyer à vie pour qu’on puisse nous lire notre propre code, et bénéficier des avancées de la médecine. Je reste optimiste en croyant qu’avec ces techniques on pourra mieux traiter les maux qui se précipitent avec l’âge. Le vertige est que cela semble inexorable.

 Crédit photo : Thierry Ehrmann , et lire le texte – en 2008 le kit était à près de 1000 $, aujourd’hui à 100.

Série Xerfi – Fnege : datas, plateformes et algorithmes.

AAEAAQAAAAAAAAl8AAAAJDg4M2M0NzFiLTRlYjUtNDU3Mi1hMWI3LWFjNzNiZDk2Yjg2YQUne des vidéos date un peu, les deux autres sont toutes fraîches, elles sont complémentaires car elles traitent sous trois angles, les données, les algorithmes et les plateformes, cette réalité de nouvelles formes d’organisations fondées sur un traitement massif de l’information.

Ces vidéos ont été tournées dans le cadre du partenariat de Xerfi canal et de la FNEGE. On en retrouvera des dizaines d’autres sur tous les sujets de la gestion, des marchés et des organisations. Un belle série.

Modèle de plateformes

Algorithmes

Les modèles du bigdata

Uber, un cas de métayage digital ?

3655236598_2236b3238f_zC’est au hasard de lecture que je tombe sur cette référence.

l’abstract éveille une réaction immédiate ( je n’ai pas encore lu l’article complet faute d’y avoir accédé). Il y aurait donc une autre manière de penser la dualité contrat de travail vs contrat de service dans les plateformes de travail. Le métayage,  cette forme désuète de contrat agricole serait donc une solution ancienne reprise aujourd’hui.

Faute de lire le texte je m’empresse de chercher d’autres sources et notamment celle évoquées dans le texte. Le contrat de metayage est cet arrangement où le propriétaire d’un terrain le donne à exploiter à un agriculteur avec qui il partage une partie du produit (en général la moitié). Cette forme de contrat peut paraître féodale, et il semble qu’elle ai largement disparue sauf dans quelques régions pauvres du monde où semble-t-il elle n’est pas forcément moins performante qu’un modèle de fermage qui s’apparente à une simple location. C’est le résultat amené par celui qui semble être l’inspirateur du papier, Cheung qui en 1969 a publié un papier essentiel.  Jean-Philippe Colin en 1995 a publié une synthèse précieuse sur la question, passant en revue les théories du métayage.

Précisons en quoi c’est une manière pertinente d’analyser le mode de fonctionnement de Uber et d’élargir le débat sur la nature des contrats : il ne s’agit peut-être pas ni de contrat de service, ni de contrat de travail, mais d’une troisième modalité celle du métayage.

Uber considère que ses clients ne sont pas tant les passagers que les conducteurs auxquels il fournit un service d’apport d’affaires et se rémunère en conservant 20% des recettes, c’est à dire bien moins que les 50% du monde agricole (et c’est un point qui méritera plus d’analyse). Ce point de vue est notamment combattu par des juges qui considèrent ce point de vue comme une fiction. Ils privilégient une analyse en terme de pouvoir et de degré de subordination. Ce point de vue est limité d’une part par la liberté d’entrée et de sortie ( la connection à la plateforme), et d’autre part par l’apport en capital (l’ouvrier amènent ses outils). En adoptant le point de vue de Uber il faut s’intéresser au statut des passagers qui seraient finalement l’analogue de la terre. Une ressource qu’il faut entretenir pour en en tirer les fruits et qu’on peut proposer à l’exploitation contre une part de son fruit.

Une grande partie de l’investissement d’Uber consiste à équiper les smartphones avec l’application, d’en initier et en maintenir l’usage dans la population la plus vaste. L’usage de l’appli est gratuit pour les passagers. Ce qui importe c’est qu’il appuie sur le bouton. Et on imagine que les consommateurs des mégapoles sont prêt à avoir dans leur portfeuilleue d’appli celle qui leur rend un service au poindre effort. Si l’appli Uber remplie une fonction universelle, les utilisateurs de l’appli deviennent une terre édenique. Il ne reste qu’à exploiter. C’est une terre super-enrichie dont l’exploitation  peut être conduite de trois manières : le salaire, le marché et le métayage.

  • La première est d’embaucher les exploitants de la terre. Des ouvriers agricoles payés en salaires pour des contrats plus ou moins longs. Ce modèle est peu flexible pour s’adapter au variations de la demande, et du climat, et il est probable que les taux d’utilisation soient faibles et réclame un degré de contrôle élevé de la part du propriétaire. Il lui permet la plus valeur extraction de valeur quand les salaires sont bas. Sa version radicale consiste à ne donner aucun salaire, juste la subsistance, et c’est l’esclavage. C’est un régime fondé sur un abandon de liberté, de décision. Sa vertu est la régularité.
  • Le second, c’est la location, le fermage. Les conducteur loue l’usage de l’appli. C’est une situation intéressante pour eux car s’ils peuvent exploiter au maximum l’outil et avoir un rendement plus que proportionnel au coût du loyer, ils sont largement gagnant. Le pari du fermier est de produire plus que son prédécesseur, ils peut s’en distinguer par les méthodes de cultures. Pour le propriétaire du domaine s’est l’assurance d’obtenir un rendement élevé avec un faible coût de surveillance.
  • La troisième est celle du métayage. Elle donne la possibilité à ceux qui n’ont que leur bras et quelques outils d’exploiter une ressources dont ils sont exclus. Elle permet au propriétaire d’espérer un rendement de terres qui sont des landes et ne produisent rien. Le caractère historique des métayages est sans doute lié à cette contingence qui fait que certains possèdent toutes les terres, et d’autres n’en possèdent aucune. Aujourd’hui, le bien agraires c’est l’inventaire et la rareté de son accès. Ce que fait Uber au fond c’est de découvrir des champs digitaux. Ce contrat est celui que l’on trouve dans les pêcheries quand l’armateur paye le bateau et le gazoil et partage une fois le gazoil défalqué, la moitié du montant de la pêche. Trois parts au capitaine, deux au mécanicien, une pour chaque marin.

Avec un peu d’ironie, peut-être faudra-t-il analyser l’économie collaborative comme une économie agraire. On peut faire pousser de l’herbe, on peut aussi faire pousser de la consommation. Les plateformes construisent les infrastructures du désir. Un Uber Universel, accessible non seulement par l’appli mais aussi par les boutons insérés ailleurs, comme dans google maps s’approprie les plaines du midwest appelant à les cultiver.

Avec moins d’ironie, plus de gravité, c’est une invitation à penser que l’espace digital est autant de greenfield. Ceux qui les créent mérite autant d’être récompensés que ceux qui les réalisent. Le commun profite au bénéfice de chacun. On peut imaginer aussi qu’à l’ère du métayage succède celui du fermage. On imagine que la propriété foncière sera amenée à être restitués. On trouvera dans l’histoire des économies agricoles milles raisons, idées, pour penser les rapports de la propriété et du travail dans les plateformes digitales.

Parle à ma machine

13641048214_e55529f9db_zJuste un court billet pour cette idée simple : la relation client n’est plus simplement une question de confiance, car l’appareil de la consommation, la galaxies des objets connectés qui accompagnent le consommateur, en deviennent de plus en plus un composant essentiel. Des notifications, des mises à jours des agendas, le règlement automatique des contrats,  la commande de l’environnement, la surveillance de nos biens, le pilotage de nos équipements, font travailler nos machines, et c’est à ces machines que les marques vont devoir parler, d’autant plus que nous souhaitons être tranquilles, déchargés des corvées.

C’est l’idée que l’agence Marquetis à parfaitement saisie en 1mn30 dans cette réinterprétation de « Plateformes », la même qu’on a confiée, sur un autre ton et de manière plus développée au Cercle du Marketing Client ».

Film Futur_datas by Marquetis from Christophe Benavent on Vimeo.

#Gigeconomy : l’économie des compléments de revenus.

8516817076_ee5a666234_zBien loin de l’uberisation du marché du travail, la #gigeconomy dessine son véritable visage, celui d’une économie des compléments de revenus, et incite à formuler la double hypothèse que le moteur du collaboratif se trouve plus dans l’offre que dans la demande, et dans la modération salariale que les entreprises de la vieille économie pratiquent depuis 2007.

Mais d’abord les faits dont plusieurs sources éclairent des traits saillants.

Avec l’étude du JPMorganChase Institute on retiendra d’abord une typologie simple mais efficace des plateformes : d’une part les plateformes de travail et d’autre part les plateformes de capital (il faudrait sans doute ajouter les plateformes de contenus pour mieux saisir le digital labor qui lui ne procure pas de revenus mais au mieux l’usage gracieux de certains services). Le résultat obtenu à partir d’un jeu de données important ( 1 milion d’acteurs) est limpide : L’engagement dans les plateformes de travail est lié à la variabilité des revenus principaux et négativement corrélés à sa variation tandis que les gains des plateformes de capital augmentent un revenu stable. Les propriétaires augmente leur gain de 314$ sur la base de 4454$ ( soit +7,1%), ceux qui n’ont que leur  bras à louer compense 533$ de revenus perdus soit 14,7% de pertes. Le complément de salaire est compensatoire pour le travail, accessoire pour le capital.

gig03

C’est la conclusion  à laquelle le Pew research aboutit dans sa vaste étude sur les revenus de l’économie des petits boulot, de la vente domestique et de la location personnelle.

24% of Americans report earning money from the digital ‘platform economy’ in the past year. The extra income they make is a luxury for some, but a necessity for others.

gig04Cette étude apporte un regard complémentaire avec une description socio-démographique qui marque des profils contrastés selon que les revenus viennent de l’exploitation du capital domestique ou des petits boulots : plutôt jeune, minoritaire et moins diplômés qu’une jeune quarantaine, blanc et diplômé.

Elle donne des éclairages sur les motivations dont la première est celle de la flexibilité. Il reste à interpréter la raison : sans doute une manière d’assumer une situation de précarité qu’on ne maitrise pas, d’y trouver une raison.

Des indications précieuses sont aussi fournies sur le taux de participation qui est sur une base déclarative et cumulative de 8% pour Pew Research et  de l’ordre de 4,3% pour l’étude du JPMC Institute, cette dernière dévoilant une tendance au ralentissement.

gig06

On pourra replacer ces résultats dans le cadre d’une typologie du travail indépendant dont KPMG donne une version bien optimiste en considérant que les freelances occasionnels gig4(40%) le font volontairement. Seulement 30% vivent pleinement de leur revenus d’indépendants. 14% sont prêt à prendre un travail salarié et 16% sont financièrement ficelés!

Les revenus complémentaires et compensatoires  sont le driver principal du travail indépendant. Cela rejoint les analyses de l’insee sur la microentreprise et l’activité multiples (voir un billet précédent). L’économie des petits boulots est avant tout une économie des petits salaires et du temps partiel.

Les plateformes distribuent donc des compléments de revenus, ce qui  invite à l’hypothèse que le développement de l’économie collaborative résulte de la conjonction de l’appétit de la consommation de l’insuffisance des salaires. Depuis la crise de 2007, les consommateurs ( qui sont aussi des travailleurs) trouveraient dans cet expédient le moyen de maintenir ou d’accroitre le niveau de leur consommation. L’économie collaborative serait ainsi la fille de l’austérité et de la pingrerie des entreprises (traditionnelles).

Deux questions dérivent de cette analyse.

1)  Quelle légitimité et par conséquent quel statut donner à ces revenus complémentaires ? A l’heure ou le législateur tente de les réguler et de les taxer, cela pose pleinement la question corolaire de la justice sociale dans la distribution de ces revenus : les empêcher c’est aussi priver ceux qui sont privés de salaire, les encourager c’est encourager la précarité.

2) Quelle place  les plateformes vont occuper dans l’économie?  Loin de balayer des secteurs entiers ne risque-t-elle pas de s’installer dans les franges du marché, offrant un sas aux plus démunis et la flexibilité que les marchés réclament : une économie de marge.

Algorithmic accountability – Work in progress

2824863959_4fe17cc109_oIl y a peu les géants du digital lançaient le partenariat pour l’IA . C’est peut être ce colloque à la NYU qui en a cristallisé l’idée. C’est déjà dans le livre de Franck Pasquale. La question du rôle social des algorithmes et de leur responsabilité, notamment celle de rendre des comptes devient centrale dans nos sociétés. Elle l’est en particulier pour les pratiques de marketing qui s’expriment de plus en plus via leurs calculs sur des volumes toujours accrues de données, les plateformes en sont le champs d’expression principal.

Recommander des produits, des relations, évaluer des risques, définir des prix, calculer des parcours, lancez des alertes personnalisées, qualifier des offres, commandez des machines, la panoplie des outils ne fait que s’étendre et se raffiner. Ces pratiques ne font-elles que ce qu’elles doivent faire? Entrainent-elle pas des réponses de ses sujets? Lesquelles? Quels sont leurs effets secondaires?

La voix des bots ouvre les marchés

hal-mortDans 2001 Odyssée de l’espace, la conversation finale entre l’homme et Hal,  l’intelligence artificielle, ne passe pas par un écran, des diodes, un visuel plan souvent et rarement holographique, mais par la voix fût-elle synthétique.

Si depuis les années 80, en  débutant l’histoire avec le PC – même si  l’écran de cinéma et le petit écran de la télévision ont converti les masses depuis bien plus longtemps – l’écran se décline dans toutes les tailles et des épaisseurs de plus en plus fines, s’équipant d’une sensibilité tactile et par conséquence ouvre les voix de l’intelligence. Cet écran favorise l’image, unique ou fragmenté, ainsi que le texte, l’écrit. La conversation demeure épistolaire. Les textos sont des télégrammes.

L’avenir de la conversation avec les machines risque de quitter l’écran pour rejoindre le régime de conversation le plus universel et le plus fondamental : la vocalise. Le premier des médias, avec la lumière, c’est une onde qui parcourt l’air. Une vague qui s’élance des lèvres pour faire vibrer l’oreille interne puis être convertie en crépitement électrique dans les réseaux du cortex. Babiller. Parler.  Il faut à un humain guère plus de 2 ou 3 ans pour s’y mettre. Et encore, l’art des vagues peut ne rien dire et se concentrer sur la forme même de l’onde, c’est la musique et ses langues.

De manière plus prosaïque, les technologies nouvelles du #deeplearning en permette de nouveaux développement, à l’instar de la technologie Wavenet proposé par une des filiales d’Alphabet – DeepMinds ( et on recommande de lire tout le post et même la publication).

L’application la plus évidente est naturellement celles des livres parlants, de l’audio description pour aider les mal-voyants. Le vaste marché des centres d’appel et de relation client est concerné au premier titre, car automatiser une grande partie de la tâche par des agents conversationnel (incarnés dans une voix plutôt qu’une image) promet des gains de productivités considérable. On peut l’élargir sans hésiter à l’ensemble des ATM et autres bornes interactives. Ces technologies concerne aussi les médias où l’on imagine des bulletins de nouvelles et de météo générés par des intelligences virtuelles et lues à la radio par des speakers synthétiques. Mais surtout, il y a deux vastes marchés potentiels où l’interface fondamentale est liée au son et la voix. Il s’agit de manière évidente celui des autos et autres véhicules  autonomes. C’est le moyen de donner au passager un moyen de contrôle de l’ IA qui le conduit, ne serait-ce que lui ordonner de s’arrêter – bref un safeword. L’autre est plus proche de nous , c’est celui- des interfaces telles que Echo d »Amazon , Siri de Apple, ou son analogue Everywhere chez Google. Parler est souvent le moyen le plus simple de commander. Ce type d’ interface a vocation à s’enrichir, ne serait-ce que par la coordination des objets connectés au domicile ( ordonner par son intermédiation la température souhaitée de la pièce). Il y a encore bien d’autres marchés, c’est une question d’imagination. Le point essentiel c’est de comprendre que les interfaces audios représentent un espace encore inexploré : pour demander qu’on nous passe le sel, on ne s’envoie pas de texto, on vocalise. L’informatique d’hier fonctionne au doigt et à l’oeil, celle du futur proche aura des lèvres et des oreilles.

PS : cette petite note a été suscitée par des questions d’Atlantico à propos de WaveNet. Elle rejoint d’autres interviews dans le même titre et des sujets similaires :

De l’économie collaborative au gouvernement algorithmique des plateformes

5928727544_fdc9ecc4e5_zCe texte résume l’intervention réalisée dans le cadre de la Conférence Internationale de Gouvernance CIG 2016 à l’Université de Montpellier : Gouvernance et gouvernementalité à l’heure du big data : quels enjeux pour les entreprises ? La version originale de cet article a été publiée sur The Conversation.

Avec le développement de l’économie collaborative, ou d’économie on-demand, le modèle de plateforme prend un nouvel élan. On l’a découvert avec les plateformes-produits, il s’est conforté avec les marketplaces, il s’épanouit avec les réseaux sociaux. Désormais il règle les échanges de services et le prêt des biens. Une grande partie des 150 licornes (start-up valant plus d’un milliard de dollars) est constituée par des plateformes, on en dénombre plusieurs milliers, dont Uber, BlaBlaCar ou Ola dans le transport, Airbnb ou Booking.com pour hébergement à courte durée, Oscaro, Lending Club ou Indiegogo dans le crowdfunding, Amazon, Alibaba pour les places de marché, mais aussi Esty dans une version plus collaborative, Deliveroo ou Hero delivery dans la logistique du dernier kilomètre, Fiverr et Taskrabbit pour les services à domicile.

Du crowdsourcing et des algorithmes

Le propre des plateformes réside dans deux éléments. Le premier est une généralisation du crowdsourcing qui, ouvrant très largement l’approvisionnement en actifs productifs, en travail et en consommations intermédiaires, donne une place importante à des acteurs que l’on peut qualifier d’amateurs. Le second est du recours intensif aux algorithmes pour assurer la coordination des activités à une échelle très importante (des centaines de millions d’individus) et très fine du point de vue de l’espace et du temps. La combinaison de ces deux éléments conduit à un modèle d’organisation d’un type nouveau, fondé sur la maîtrise des algorithmes qui pose des questions de gouvernance, d’autant plus fortes que les machines sont faillibles.

Le moteur de croissance des plateformes s’analyse au travers de la combinaison de plusieurs mécanismes économiques. Le premier est celui du crowdsourcing et il se révèle dans la capacité à mobiliser des actifs sous-utilisés, du travail parfois non rémunéré et de l’information et des idées partagées. Il engendre un second mécanisme de la longue traîne, plus justement décrit par la notion d’économie de la diversité. Le troisième est l’interaction positive entre les populations qui constituent les différents versants de marché : l’attractivité de la plateforme sur le versant client est d’autant plus grande que la diversité des offres est forte et réciproquement.

Elle est amplifiée par la maîtrise des capacités d’appariement (matching markets) qui permettent de résoudre la faiblesse d’une offre trop large et trop diverse pour les capacités cognitives des demandeurs, par le biais de score d’appariement (comme sur les plateformes de rencontre) et de moteurs de recommandation (comme dans le cas les places de marchés). L’ensemble produit des externalités de réseaux et de standard qui soutiennent la politique de crowdsourcing.

Gouvernementalité algorithmique

L’analyse économique permet de rendre compte a posteriori des succès des plateformes, mais dit peu de la manière dont ils sont menés.

C’est dans la manière dont les plateformes gouvernent leurs populations qu’on peut trouver une réponse. Avec le concept de gouvernementalité de Michel Foucault, définit rapidement comme l’influence sur les conduites qui transforme les populations en ressources, un cadre d’analyse cohérent peut être formulé. La gouvernementalité se manifeste par trois grands éléments : l’architecture des plateformes qui capacite ou restreint l’action de ses membres et des populations ; une capacité normative et de surveillance -une police ; un dispositif incitatif qui stimule l’activité des acteurs individuels et mobilise les foules.

La spécificité de ces politiques est d’être largement algorithmique, se nourrissant d’un flux de données important (le big data) qui à la fois permet de produire la connaissance nécessaire et la mise en œuvre des politiques dans le flux des microdécisions prises par l’organisation et les individus. Un mécanisme comme le surge pricing de Uber en est un exemple remarquable : à l’échelle de quelques minutes et d’un quartier, Uber peut faire varier les tarifs en fonction de l’offre de VTC et de la demande, dans le but principal de limiter l’attente à moins de cinq minutes.

Le calcul n’est pas neutre

On a tendance à surestimer leur efficacité et leur neutralité. Ils produisent des effets de dispersion des prix, de polarisation des opinions, de discrimination sociale. Autant d’effets que leurs concepteurs n’ont pas envisagés. C’est le fruit d’une forte dépendance aux données : les paramètres des algorithmes dépendent des données qu’ils traitent, et certains groupes d’acteurs peuvent les troubler. Le calcul qu’ils produisent n’est pas neutre, son résultat est souvent performatif et les populations qui en sont la cible s’y adaptent par une sorte de social computing.

Les effets de ranking en sont un exemple, le classement renforçant la performance. Des effets inattendus, parfois néfastes, sont observés : extrême variance des prix de marchés, biais de sélection, polarisation des opinions, ségrégation sociale. C’est ce qu’on peut appeler la politique des algorithmes et qu’on définit comme l’effet résiduel et non intentionnel de la gouvernementalité.

Les plateformes font ainsi naître un double risque : celui d’une interférence dans les libertés et celui des externalités sociales liées à la construction même des algorithmes. Cette analyse conduit à s’interroger sur la gouvernance des plateformes et les mécanismes qui permettent de gouverner le gouvernement des plateformes. Quelle politique de confidentialité des données personnelles ? Quel degré de transparence des algorithmes ? Quel degré de participation des usagers à la conception et aux pilotages de ces modèles ? Quel degré de régulation par la puissance publique ?

Avec leur surgissement et leur déploiement planétaire, ces questions deviennent clés. Elles justifient que l’idée de redevabilité algorithmique soit de plus en plus élaborée, et surtout mise en œuvre.

Référence des travaux présentés : C. Benavent (2016) « Plateformes : sites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix », Fyp.

The Conversation

Christophe Benavent, Professeur Sciences de Gestion, Université Paris Ouest Nanterre La Défense – Université Paris Lumières

 

LinkedIn s’ajuste au modèle de Bass

Linked in2Dans ces temps où l’actualité médiatique résonne les cloches de l’Uberisation et de la disruption, laissant croire que les lois sociales (s’il en existent) changent de nature et que les plateformes sont de nouveaux monstres et que l’innovation connait un rythme foudroyant, il est parfois bon de reprendre de vieux pots pour servir une soupe plus savoureuse que le potage de l’inculture.

Le vieux pot est un des modèles les plus anciens et les plus solides du marketing. On le doit à Frank Bass (1969), il est destiné à modéliser la diffusion de l’innovation. Ses hypothèses sont élémentaires et peuvent s’interpréter aisément au travers du modèle de communication de Katz et Lazarfeld (1955). La diffusion d’un message ou d’une innovation est le fruit d’abord d’une influence directe sur des consommateurs innovateurs qui se déterminent en fonction de l’information qu’ils reçoivent, ensuite d’un processus d’interaction entre ces derniers et les autres traduisant un mécanismes d’innovation. Le modèle s’exprime comme une équation différentielle qui stipule que le nombre de nouveaux adopteurs est la somme de ces deux processus. A chaque période de temps une fraction constante de ceux qui n’ont pas encore adoptés le nouveaux produit ou la nouvelle idée se mette à l’adopter : q*(K-Nt), avec q représentant cette proportion (fonction de l’intensité des dépenses publicitaires et médiatiques), K le potentiel d’adoption et Nt, le nombre cumulés de ceux qui ont déjà adopté l’objet. S’ajoute les effets d’imitation : p*Nt*(K-Nt), où le produit Nt*(K-Nt) représente l’ensemble de toute les interactions possibles entre adopteurs et non-adopteur et p le coefficient d’imitation, c’est à dire la proportion constante des interactions qui aboutissent à une adoption. Pour plus de détail on consultera le Bass Basement Research Institute.

L’idée simple de ce post est d’évaluer dans quelle mesure le modèle rend compte de la diffusion d’un réseaux social, en l’occurence Linked in. On retrouvera les données ici.  Pour estimer les paramètres du modèle, on utilise la fonction NLS de r, on retrouvera le code ( élémentaire) sur cette page de Cheng-Jun Wang ainsi que quelques suggestions utile pour l’identification des paramètres initiaux dans les commentaires (c’est le problème majeur des procédure d’estimation de regression non linéaire). En voici les résultats, l’ajustement est quasi-parfait au niveau cumulé.

adjustParameters:
Estimate Std. Error t value Pr(>|t|)
M 5.695e+02 5.297e+01 10.752 1.17e-10 ***
P 8.744e-03 9.511e-04 9.193 2.47e-09 ***
Q 1.098e-01 1.459e-02 7.529 9.07e-08 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ‘ 1
Residual standard error: 2.384 on 24 degrees of freedom

Le potentiel de marché (M) est ici de 569, 5 millions. Autrement dit Linked serait largement en phase de maturité puisqu’au premier trimestre 2016, il y a 433 millions d’inscrit ce qui représente 76% du potentiel. On restera prudent car parmi les travaux de recherche certains chercheurs montrent qu’il y a une tendance à la sous-estimation de l’ordre de 20%, surtout lorsque le nombre d’observation est faible ( Bulte et Lilien, 1997). Vraisemblablement le potentiel serait donc l’ordre de 630 millions d’utilisateurs et donc les 2/3 du potentiel étant couvert.

Avec un coefficient d’imitation de 0,1098 et un coefficient d’innovation de 0,0087 ont retrouve des valeurs qui ne sont pas éloignées des valeurs observées dans les nombreuses applications du modèles de Bass dont Farley et Al 1990, trouve des valeurs moyennes respectivement de 0,38 et de 0,03. On sera  surpris que l’effet de diffusion est inférieur à la moyenne, témoignant d’un effet d’imitation moindre que des produits d’équipement des ménages. Le réseau a été lancé en 2003, son potentiel sera atteint vers 2023, il faudra donc 20 ans pour arriver au plein potentiel. Quant au rapport innovateur/imitateurs, le modèle indique qu’il est dans un rapport 1 sur 4. C’est assez difficile à apprécier, mais on pourra sans doute être intrigué par la relative faiblesse de l’effet d’imitation dans une catégorie de produit dont la dynamique est présumée dépendre d’externalité de réseaux, et qui est illustrée dans le diagramme de droite.

BassEstim

L’exercice mené à des limites que la littérature très abondante ( plusieurs milliers d’articles) a relevé. La première est qu’ici le potentiel M est considéré comme stable alors qu’il devrait évoluer notamment en fonction du nombre d’humains connectés et de l’accroissement du nombre de cadres dans la population mondiale. Une seconde est qu’on ne prend pas en compte les évolution du service qui devrait être plus attractifs. Une troisième technique est que dans l’estimation les premières périodes n’ont pas été prises en compte.  Une quatrième est que l’on travaille à un niveau très agrégé qui néglige les disparités régionales. Il y en a d’autres.

Il reste une approximation qui s’ajuste fort bien et donne des éléments sérieux pour réfléchir à la diffusion des innovations digitales qui ne semble pas se distinguer fortement des autres catégories de produit et ne révèle pas l’illusion des accélération qu’on croit percevoir. C’est aussi une invitation à approfondir l’étude de la dynamique de cette diffusion où l’influence interpersonnelle ne semble pas aussi forte qu’on aurait pu croire. Ce n’est pas si étonnant, qui s’est inscrit sur le réseau suite à une invitation? Le mécanisme d’adoption résulte sans doute d’un autre cheminement : l’intériorisation d’une norme, la croyance qu’il est nécessaire socialement d’adopter ce type de service.