Satisfaction à l’égard des moteurs de recommandation : la transparence optimale

C’est une idée ancienne. Le mieux dans la transparence n’est pas le plus, c’est plutôt un clair-obscur, assez clair pour que la lumière traverse, assez obscur pour qu’on y devine un relief.

Il en est de même pour la transparence des algorithmes. Les utilisateurs réagissent le mieux à une information épurée, simplifiée, qui donne les principes sans brouiller avec les détails. Le simple plus que le complet.

Ce papier, publié dans la nouvelle et intéressante revue Management et DataScience en teste l’hypothèse. S’il est modeste dans la méthode et le principe ses résultats sont très net.  Cela a des conséquences en matière de design des sites et des applications. Donner des éléments clés qui favorise l’autonomie de jugement ( dois-je faire confiance à ce type d’algorithme ?)  et la connaissance de risque éventuel, sans demander un effort exorbitant. Cela cependant ne résout pas la question du contrôle effectif des algorithme qui demande une connaissance approfondie des détails.  On comprend que celle-ci n’est pas à la charge des consommateurs, mais des organismes spécialisés dans la défense des droits et des consommateurs, la recherche académique, ou de régulation.  La transparence est un arrangement institutionnel.

PS : au passage soulignons que cette publication est le résultat du mémoire de master marketing à Nanterre de Pauline Vautrot.

ROC, le choix des seuils de détection et le coût de la morale

Le propre des êtres autonomes est leur capacité à identifier des signaux et à y répondre de manière adéquate.

L’œil de l’aigle dans le ciel saisit identifier la fourrure fauve dans la prairie jaunie, la luciole reconnait la pulsation lumineuse émise par les partenaire de son espèce, le radiologue le motif d’une structure cancéreuse, l’opérateur radar détermine si le point clignotant sur l’écran correspond à un vaisseau ami ou ennemi. C’est d’ailleurs avec ce problème de radar au cours de la dernière guerre mondiale, que la théorie de la détection du signal a émergé, couvrant des usages nombreux dont le point commun est d’évaluer la qualité d’une décision particulière –  le signal reçu correspond-il à une réalité ou à un bruit ? – en établissant un seuil optimum de détection.

Prenons un exemple.  Le chien qui aboie devant nous intimide-t-il avant de prendre la fuite ou va-t-il nous attaquer et nous mordre ? En conséquence faut-il lui fracasser le crâne avec le bâton qu’on tient en main, ou rester immobile jusqu’à ce qu’il se soit éloigné?
L’intensité de l’aboiement est le signal que nous devons traiter.

Pour bien se représenter le problème, nous générons un exemple hypothétique. On suppose que les attaques correspondent à des aboiements d’intensité 7 en moyenne, et la fuite de 5. Deux situation sont traitées : l’une où l’écart-type des aboiement est de 0.5, l’autre de 3. Ce qui est représenté dans la figure 1.

On a le réflexe avec ce type de donnée d’effectuer un test statistique, celui du test de student  est largement suffisant, dans les deux situations.  Il nous permet de décider pour un risque de première espèce donné, de rejeter l’hypothèse nulle d’égalité des moyennes et par conséquent de conclure que les moyennes sont distinctes et que, dans notre cas, que les décisions sont bien associées à l’intensité du signal. Dans notre exemple ( cas de la figure de gauche à forte variance)  les moyennes empiriques sont de 5, 06 et 7,04, et le test t de student a une valeur critique de 26. La probabilité que les moyennes empiriques diffèrent alors qu’elle sont égales en réalité est quasi nulle, bien en-deça du risque usuel de 5%.  Ce test cependant ne dit pas comment agir, autrement dit à partir de quelle intensité faut-il se préparer à frapper le chien fou furieux, ou ne pas agir. Il dit juste qu’il y a une différence.

On remarque cependant que lorsque les deux distributions sont bien différenciées, il est plus simple de discriminer les deux signaux. En choisissant une valeur supérieure à 6 (diagramme de droite), il y a très peu de chance de frapper cruellement la bête alors qu’elle va s’enfuir, et de se laisser mordre parce qu’on a cru a tors qu’elle enfuirait. Mais quand les distributions se superposent largement (diagramme de droite), comment pour une valeur donnée de l’aboiement décider de l’action à mener? Quel seuil se donner? L’analyse ROC va permettre de répondre à la question, mais avant poursuivons sur cette question de superposition et de discrimination du signal.

Une mesure pour ceci a été proposée depuis longtemps: la sensitivité ( ou discriminance) Elle est notée d’ et se définit par

d’=d/s

où d est la différence des moyennes des deux signaux et s la variance moyenne des signaux ( racine²(1/2(Sda²+Sdf²)). Dans le premier cas, on obtient une valeur d’ de 0,67 dans le second de 4, donc 12 fois plus forte dans la partie droite de la figure 1.

Le problème reste entier. Quelle valeur retenir pour décider l’action a entreprendre (frapper ou rester immobile) ? A partir de quel seuil doit-on interpréter l’aboiement comme un signal d’attaque?

Pour évaluer cette valeur, il suffit de compter d’une part le nombre de bonne décisions, et d’autre part les mauvaises décisions.  On comprend de suite que deux types d’erreurs peuvent se produire :

    • On peut conclure que le chien va attaquer alors qu’il ne fait qu’intimider. Le résultat de l’action est que le chien va se prendre un coup de bâton sans raison. C’est le prix d’une fausse alarme.
    • On peut aussi conclure qu’il ne va pas attaquer, alors qui bondit et nous mord au mollet. L’alerte est ratée, le signal est sous-interprêté, on sera bon pour un vaccin anti-rabique, et quelques soins à l’hôpital.

Plus précisément le problème peut se formuler sous la forme du tableau suivant

A partir du tableau différents indicateurs peut être construits, on remarquera rapidement qu’on retrouve les classiques de l’évaluation du machine learning : précision , recall et accuracy. A vrai dire c’est le même problème. Comment évaluer la capacité d’un modèle à discriminer des signaux.
      • Le taux de vrai positif ( ou recall, ou sensitivy) est égal à TP/P . Il donne la proportion de bonnes détection sur le total des détections positives. S’il est élevé, le détecteur donne trop souvent de fausse alertes.
      • le taux de faux positif : FP/N
      • taux de vrai negatif ( ou spécificité) :  FN/N
      • L’accuracy ( précision) donne la proportion de bonne prédiction : TP+TN/(P+N)
      • l’erreur en est le complément : 1- Acc = (FP+FN)/P+N
      • F : c’est la moyenne harmonique de la précision et du recall. c’est un indicateur de synthèse

L’invention des contrôleurs de radars est de représenter ces performances sous la forme d’un diagramme appelé Receiver Operational Characteristics (ROC) construit en calculant  pour différents seuils de décision ( l’intensité des aboiement)  le taux de faux positifs et en ordonnée le taux de vrais positifs.  Les deux courbes (On utilise le package RORC de r – l’ensemble du code est sous le post) de la figure suivante correspondent aux deux situations (faible et forte discriminance), la diagonale correspond à une situation de non discriminance.  La courbe la plus coudée correspond au signal le moins ambigu (Sd=0.5).

La lecture du ROC est simple : plus la courbe est coudée et meilleur est le modèle ( ou  le signal est peu bruité). Les couleurs représentent différents seuils. Le violet et le bleu correspondent au seuils les plus élevés. En lisant le diagramme on s’ aperçoit que pour accroitre le taux de vrai positif il faut concéder une proportion croissante de faux positifs. Dans le cas du “bon” modèle ceci se produire à partir d’un taux de vrai positif de plus de 90%. Dans le cas bruité, il faudra accepter un taux de l’ordre de 60% de faux positifs pour identifier 8% des vrais positifs. Quel est donc le bon trade-off?

On peut reproduire des représentations analogues avec les autres indicateurs. On a inclus ainsi le diagramme specifité/sensitivité, et bien sur le couple precision/recall bien connu des machine learners. RORC en propose de nombreux autres. Il y en a pour tous les goûts.

La détermination du seuil optimal, qui combine la plus grande proportion de signaux bien reconnus tout en minimisant l’erreur des faux positifs, suit le principe de retenir le point le moins éloigné de la situation de discrimination parfaite : 100% de taux de vrais positifs et 0% de faux négatifs. RORC automatise ce calcul par une fonction simple qui nous donne les résultats suivants.

On s’aperçoit ainsi que le seuil optimal est plus faible (5,91) dans le cas d’un signal bruité (faible discriminance) que dans celui d’un signal clair (6.01). La stratégie est donc d’être plus prudent et d’augmenter le seuil d’alerte quand le signal est ambigu.

Dans ce calcul, un facteur décisif et économique, les coûts de l’erreur, ne sont pas pris en compte. Le coût des faux positifs – penser que le chien va attaquer, alors qu’il ne le fera pas – est un coût moral. Si on milite pour l’antispécisme, qu’on considère que la douleur imposée à l’animal est criminelle, qu’on ne mérite pas de circonstances atténuantes due à la peur, ce coût sera élevé. Il peut être consacré par le droit et se traduire par de fortes amendes si ce n’est des peines de prison. Le coût des faux négatifs est celui de se faire mordre, il est moins ambigu et  il se traduit par celui d’une visite à l’hôpital pour le vaccin anti-rabique et couturer la blessure.
Une autre fonction de RORC permet d’analyser ces options en fixant un coût pour les faux négatifs et les faux positifs. On va donc calculer les seuils en envisageant deux situations qui s’ajoutent à l’analyse précédente où ces coûts sont considérés comme équivalents.

      • Forte valeur morale : On fixe à 1 le coût des faux négatifs  et à 5 celui des faux positifs (il est 5 fois plus coûteux de frapper le chien que de se faire mordre)
      • Fort égoïsme : On fixe à 5 le coût des faux négatifs  et à 1 celui des faux positifs ( il est 5 fois moins coûteux de frapper le chien pour rien que de se faire mordre).

Le résultat apparait dans la figure suivante. On s’aperçoit que lorsque le signal est clair (forte discriminance) la moralité a peu d’influence, on retient un seuil un peu plus bas en cas d’égoïsme, à peine plus élevé quand on partage des valeurs antispécistes.  Ces valeurs sont équivalents. Lorsque le signal est ambigu ( faible discriminance), on passe en revanche du simple au double. Le poids de la morale impose un seuil très élevé (8.66), celui de l’ego-préservation l’effondre de moitié (3.91). Deux stratégies totalement différentes émergent, pas tant par le calcul, mais par son imprécision ! Quand le modèle discrimine mal, l’impact des coûts, dont la valeur est fixée indépendamment du modèle, sur le seuil de décision est considérable.

Notre petite histoire de chien (en hommage au musée de la chasse dont l’objet est bien la détection) avait d’abord un but pédagogique et servira à nos étudiants ( ceux de marketing y trouveront une bonne manière d’améliorer leur connaissance des méthodes de scoring et de leurs évaluations). Elle a aussi sa leçon morale et politique.
L’opérationnalisation d’un modèle de décision – la détection d’un signal en est une variété –  ne consiste pas simplement à faire des prédictions. Elle conduit à choisir des normes pour établir la décision. Les valeurs de ses normes sont externes au modèle. On frappe le chien, pas seulement parce qu’il aboie, mais parce qu’on identifie de manière imprécise cet aboiement, et que dans cette incertitude on privilégie son propre intérêt, à moins d’être soumis à une autre norme, celle de la vie du chien. Et le modèle ne décide pas de ce choix. Il l’accuse quand il est imprécis. Autrement dit ils pourraient être neutre quand il sont précis, mais quand il ne le sont pas, ils traduisent des choix politiques et moraux.
Pour donner une idée plus concrête prenons la question de  l’octroi de crédit à la consommation. Noter les consommateurs sur une échelle de risque ( risk scoring) ne porte pas directement à conséquence pourvu que le modèle soit construit convenablement : sur des échantillons représentatifs (sans biais de sélections, ce cancer du big data)  et avec une bonne spécification ( sans biais du même nom) . Ce peut être un modèle logit qui fournissent un score sous la forme d’une probabilité de défaillance à rembourser ou pourquoi pas quelque chose de beaucoup plus sophistiqué. Sa mise en œuvre requiert une étape supplémentaire : fixer le seuil qui amènent à considérer un mauvais crédit. A quel niveau doit-on refuser le prêt? Si le risque est supérieur à 5%? ou 10%? ou 20% ?
Ce seuil dépend non seulement de la qualité du signal à traiter (le profil du demandeur de crédit qui va se résumer en un score qui discrimine les bons et les mauvais risques)  mais aussi par l’introduction de coûts associés à l’erreur qui prend un double visage. Le faux négatif c’est accorder un crédit à quelqu’un qui ne le remboursera pas, et son coût le montant perdu. Le faux positif c’est refuser un crédit à quelqu’un qui l’investira dans une startup nommée Facebook et qui vaudra 600 milliards. Les banques généralement comptent le premier risque et pas le second. On pourrait imaginer un monde où les emprunteurs opposent les opportunités perdues à celui qui leur a refusé un crédit.

Dans un monde de donnée qui se prépare à envahir le monde avec le machine learning et les nombreuses familles de modèles prédictifs, infiltrant dans tous les processus des micro-mécanismes de détection et de décision,  il y a toute les chances que les modèles restent imparfaits car ce monde reste un monde social, où les corrélations sont généralement faible, au contraire d’un monde physique plus déterministes. Cette imperfection par nature risque d’amplifier l’effet des systèmes de valeurs, qui se traduit dans l’évaluation des coûts des erreurs, sur la détermination des seuils de décision.

 Annexe code largement inspiré de  https://www.r-bloggers.com/a-small-introduction-to-the-rocr-package/


Le piège à miel des données ne fait pas saliver

Longtemps que je n’avais pas fait de billet d’humeur.

Est-ce de préparer la conférence MyData qui aura lieu la semaine prochaine entre Talinn et Helsinki ( gardons l’esprit en vacances), mais par une opération rare de sérendipité, voila que je vois surgir de mon fil twitter, cette page de publicité, dans le plus pur style viral qu’il soit. Rarement d’ailleurs le mot viral est aussi adéquat. Vous cliquerez l’image suite, et vous verrez que vous avez été averti.

De quoi s’agit-il? D’une offre de parrainage classique. Si vous retweetez cette offre en taguant l’image avec deux de vos amis, vous avez droit gratuitement au kit de séquençage génétique et de craquer votre code génétique.

Et bien sur que j’ai voulu gagner, et suis sur que vous avez faire comme moi. Alors j’ai cliqué et j’ai découvert le moyen de savoir quelle part de Néandertalien  il y a en moi, à quel point suis-je primitif. C’est parfaitement clair et n’a pas besoin de commentaire.

J’ai été grand lecteur de pif gadget, franchement ça n’a plus rien à voir et c’est pareil. On est passé des expériences avec des piles, celles qu’on testait en posant le bout de la langue sur la lamelle de cuivre par un picotement désagréable et métalique, à cracher dans un sac en plastique et à l’envoyer là bas où ils font de la haute-technologie, pour recevoir en retour un certificat attestant les traits néandertaliens qui subsistent dans notre ADN. Il est bien dit sur la pochette, que c’est à but ludique et non thérapeutique, et même que la génétique palélithique n’en était qu’à ses débuts. On joue.

A la première analyse, cette offre – qui est tarifée normalement – à 80 $ pour le Kit Helix DNA, et 24 $ pour le test Neanderthal, est proposé par Isitome et le kit ADN par une autre entreprise évidemment dénommée Helix.

On devine immédiatement le modèle. Des millions de gens envoient leurs salives, ils peuvent rester propriétaires de leurs données, eux-même n’en feront rien.  Helix séquence décode, conserve le code. D’autres entreprises se concentre sur l’identification fonctionnelle des gènes. Lesquels appartiennent à nos très lointains ancêtre ? lesquels predisposent nos futurs enfants à des maladies mortelles, lesquelles affectent nos allergies alimentaires et non alimentaires. C’est un modèles de plateformes, les entreprises qui vont se focaliser sur telle ou telle portion de gènes, développent simplement des applis, une nouvelle génération d’applis. Les médecins, les hôpitaux, seront nécessairement obligés de passer par leurs API pour tester leurs hypothèses et leurs diagnostics. On espère que les services secrets n’y auront pas d’accès, mais il y a de quoi douter.

Néanderthal est un formidable produit d’appel pour constituer ce qui potentiellement est un des futurs Google des données génétiques. Des millions de gens et sans doute très bientôt des milliards d’humains auront craché pour qu’on leur vende leur propre histoire : si l’on reprend textuellement la promesse d’Isitome.

C’est merveilleux, nous sommes uniques, un livre unique qu’on ne peut cependant pas lire soi-même, mais qu’on peut faire lire par la plateforme, et dont on va acheter les pages et les lectures par morceau. 20 dollars pour connaitre nos ancêtres, 200 pour nos allergies, au moins 400 pour savoir quelle saloperie on peut léguer à nos enfants, 50 plus tard aux première alerte cardiaque pour que le chirurgien aie une meilleure connaissance de nos prédispositions. Quoiqu’à vrai dire dans ce cas, c’est l’assurance santé qui paye et on lui fera payer un tout autre prix. Un seul décodage, le plus tôt possible est finalement souhaitable, et ce sera une customerlife time value aussi longue que notre vide d’humain. Le pactole.

Mais il faut faire vite. Comme pour les plateformes traditionnelles ( et oui c’est un coup de vieux pour les Ubers et autres Blablacar) c’est celui qui accumule le plus de données, qui détiendra le stock de gène séquencé le plus élevé, qui remporte le marché. A lui de créer un écosystème et une myriades de start-up spécialisée dans les tests, de développer les Apis qui permettent aux tiers, les médecins – et oui, le médecin devient un tiers, un acteur périphérique dans ce modèle- , d’accéder aux données.

La nouveauté dans le cas c’est d’introduire les techniques les plus agressives du marketing, la culture du sweepstake et du cadeau promotionnel. Et d’accrocher sur le plus périphérique, le plus ludique et le plus sensible : notre identité. Les marabouts et les voyantes, ce sont leurs techniques marketing, ne sont désormais plus que poussière. C’est bien plus fort de lire dans la salive que dans le marc de café.

Cela donne le vertige et une toute autre perspective à la question de la protection des données. Jusqu’à aujourd’hui les données étaient des représentations, des traces. Ce qui reste dans la matière après un événement. L’empreinte d’un pied de dinosaure ou un selfie. L’une et l’autre s’effacent rapidement. Rares sont les empreintes de dinosaure et pourtant ils ont beaucoup marché. Avec les selfies, et bien d’autre chose, la question qui se pose depuis longtemps, c’est que reproductibles, ces traces ne s’effacent pas et s’accumulent. Comme si les cheveux que l’on perd, les rognures d’ongles, nos squames,  ne disparaissaient pas dans le néant, mais s’accumulaient autour de nous. On traite ce nouveau problème en nettoyant, en sécurisant, en recherchant une solution qui soit une sorte d’urnes dans laquelle on conserverait nos traces. Est-ce la solution du cloud ou son alternative du cloud personnel et d’un retour au p2p véritable ? On ne sait pas encore.

Mais avec l’ADN, qu’on peut attraper avec un cheveu ou une goutte de salive, il ne s’agit plus de trace, il s’agit de notre propre code. Ce ne sont plus des données personnelle, c’est la personne même !

Sans craindre qu’il soit modifié ( c’est un autre souci), on doit craindre dès aujourd’hui d’être amené à payer un loyer à vie pour qu’on puisse nous lire notre propre code, et bénéficier des avancées de la médecine. Je reste optimiste en croyant qu’avec ces techniques on pourra mieux traiter les maux qui se précipitent avec l’âge. Le vertige est que cela semble inexorable.

 Crédit photo : Thierry Ehrmann , et lire le texte – en 2008 le kit était à près de 1000 $, aujourd’hui à 100.

Série Xerfi – Fnege : datas, plateformes et algorithmes.

AAEAAQAAAAAAAAl8AAAAJDg4M2M0NzFiLTRlYjUtNDU3Mi1hMWI3LWFjNzNiZDk2Yjg2YQUne des vidéos date un peu, les deux autres sont toutes fraîches, elles sont complémentaires car elles traitent sous trois angles, les données, les algorithmes et les plateformes, cette réalité de nouvelles formes d’organisations fondées sur un traitement massif de l’information.

Ces vidéos ont été tournées dans le cadre du partenariat de Xerfi canal et de la FNEGE. On en retrouvera des dizaines d’autres sur tous les sujets de la gestion, des marchés et des organisations. Un belle série.

Modèle de plateformes

Algorithmes

Les modèles du bigdata

Uber, un cas de métayage digital ?

3655236598_2236b3238f_zC’est au hasard de lecture que je tombe sur cette référence.

l’abstract éveille une réaction immédiate ( je n’ai pas encore lu l’article complet faute d’y avoir accédé). Il y aurait donc une autre manière de penser la dualité contrat de travail vs contrat de service dans les plateformes de travail. Le métayage,  cette forme désuète de contrat agricole serait donc une solution ancienne reprise aujourd’hui.

Faute de lire le texte je m’empresse de chercher d’autres sources et notamment celle évoquées dans le texte. Le contrat de metayage est cet arrangement où le propriétaire d’un terrain le donne à exploiter à un agriculteur avec qui il partage une partie du produit (en général la moitié). Cette forme de contrat peut paraître féodale, et il semble qu’elle ai largement disparue sauf dans quelques régions pauvres du monde où semble-t-il elle n’est pas forcément moins performante qu’un modèle de fermage qui s’apparente à une simple location. C’est le résultat amené par celui qui semble être l’inspirateur du papier, Cheung qui en 1969 a publié un papier essentiel.  Jean-Philippe Colin en 1995 a publié une synthèse précieuse sur la question, passant en revue les théories du métayage.

Précisons en quoi c’est une manière pertinente d’analyser le mode de fonctionnement de Uber et d’élargir le débat sur la nature des contrats : il ne s’agit peut-être pas ni de contrat de service, ni de contrat de travail, mais d’une troisième modalité celle du métayage.

Uber considère que ses clients ne sont pas tant les passagers que les conducteurs auxquels il fournit un service d’apport d’affaires et se rémunère en conservant 20% des recettes, c’est à dire bien moins que les 50% du monde agricole (et c’est un point qui méritera plus d’analyse). Ce point de vue est notamment combattu par des juges qui considèrent ce point de vue comme une fiction. Ils privilégient une analyse en terme de pouvoir et de degré de subordination. Ce point de vue est limité d’une part par la liberté d’entrée et de sortie ( la connection à la plateforme), et d’autre part par l’apport en capital (l’ouvrier amènent ses outils). En adoptant le point de vue de Uber il faut s’intéresser au statut des passagers qui seraient finalement l’analogue de la terre. Une ressource qu’il faut entretenir pour en en tirer les fruits et qu’on peut proposer à l’exploitation contre une part de son fruit.

Une grande partie de l’investissement d’Uber consiste à équiper les smartphones avec l’application, d’en initier et en maintenir l’usage dans la population la plus vaste. L’usage de l’appli est gratuit pour les passagers. Ce qui importe c’est qu’il appuie sur le bouton. Et on imagine que les consommateurs des mégapoles sont prêt à avoir dans leur portfeuilleue d’appli celle qui leur rend un service au poindre effort. Si l’appli Uber remplie une fonction universelle, les utilisateurs de l’appli deviennent une terre édenique. Il ne reste qu’à exploiter. C’est une terre super-enrichie dont l’exploitation  peut être conduite de trois manières : le salaire, le marché et le métayage.

  • La première est d’embaucher les exploitants de la terre. Des ouvriers agricoles payés en salaires pour des contrats plus ou moins longs. Ce modèle est peu flexible pour s’adapter au variations de la demande, et du climat, et il est probable que les taux d’utilisation soient faibles et réclame un degré de contrôle élevé de la part du propriétaire. Il lui permet la plus valeur extraction de valeur quand les salaires sont bas. Sa version radicale consiste à ne donner aucun salaire, juste la subsistance, et c’est l’esclavage. C’est un régime fondé sur un abandon de liberté, de décision. Sa vertu est la régularité.
  • Le second, c’est la location, le fermage. Les conducteur loue l’usage de l’appli. C’est une situation intéressante pour eux car s’ils peuvent exploiter au maximum l’outil et avoir un rendement plus que proportionnel au coût du loyer, ils sont largement gagnant. Le pari du fermier est de produire plus que son prédécesseur, ils peut s’en distinguer par les méthodes de cultures. Pour le propriétaire du domaine s’est l’assurance d’obtenir un rendement élevé avec un faible coût de surveillance.
  • La troisième est celle du métayage. Elle donne la possibilité à ceux qui n’ont que leur bras et quelques outils d’exploiter une ressources dont ils sont exclus. Elle permet au propriétaire d’espérer un rendement de terres qui sont des landes et ne produisent rien. Le caractère historique des métayages est sans doute lié à cette contingence qui fait que certains possèdent toutes les terres, et d’autres n’en possèdent aucune. Aujourd’hui, le bien agraires c’est l’inventaire et la rareté de son accès. Ce que fait Uber au fond c’est de découvrir des champs digitaux. Ce contrat est celui que l’on trouve dans les pêcheries quand l’armateur paye le bateau et le gazoil et partage une fois le gazoil défalqué, la moitié du montant de la pêche. Trois parts au capitaine, deux au mécanicien, une pour chaque marin.

Avec un peu d’ironie, peut-être faudra-t-il analyser l’économie collaborative comme une économie agraire. On peut faire pousser de l’herbe, on peut aussi faire pousser de la consommation. Les plateformes construisent les infrastructures du désir. Un Uber Universel, accessible non seulement par l’appli mais aussi par les boutons insérés ailleurs, comme dans google maps s’approprie les plaines du midwest appelant à les cultiver.

Avec moins d’ironie, plus de gravité, c’est une invitation à penser que l’espace digital est autant de greenfield. Ceux qui les créent mérite autant d’être récompensés que ceux qui les réalisent. Le commun profite au bénéfice de chacun. On peut imaginer aussi qu’à l’ère du métayage succède celui du fermage. On imagine que la propriété foncière sera amenée à être restitués. On trouvera dans l’histoire des économies agricoles milles raisons, idées, pour penser les rapports de la propriété et du travail dans les plateformes digitales.

Parle à ma machine

13641048214_e55529f9db_zJuste un court billet pour cette idée simple : la relation client n’est plus simplement une question de confiance, car l’appareil de la consommation, la galaxies des objets connectés qui accompagnent le consommateur, en deviennent de plus en plus un composant essentiel. Des notifications, des mises à jours des agendas, le règlement automatique des contrats,  la commande de l’environnement, la surveillance de nos biens, le pilotage de nos équipements, font travailler nos machines, et c’est à ces machines que les marques vont devoir parler, d’autant plus que nous souhaitons être tranquilles, déchargés des corvées.

C’est l’idée que l’agence Marquetis à parfaitement saisie en 1mn30 dans cette réinterprétation de “Plateformes”, la même qu’on a confiée, sur un autre ton et de manière plus développée au Cercle du Marketing Client”.

Film Futur_datas by Marquetis from Christophe Benavent on Vimeo.

#Gigeconomy : l’économie des compléments de revenus.

8516817076_ee5a666234_zBien loin de l’uberisation du marché du travail, la #gigeconomy dessine son véritable visage, celui d’une économie des compléments de revenus, et incite à formuler la double hypothèse que le moteur du collaboratif se trouve plus dans l’offre que dans la demande, et dans la modération salariale que les entreprises de la vieille économie pratiquent depuis 2007.

Mais d’abord les faits dont plusieurs sources éclairent des traits saillants.

Avec l’étude du JPMorganChase Institute on retiendra d’abord une typologie simple mais efficace des plateformes : d’une part les plateformes de travail et d’autre part les plateformes de capital (il faudrait sans doute ajouter les plateformes de contenus pour mieux saisir le digital labor qui lui ne procure pas de revenus mais au mieux l’usage gracieux de certains services). Le résultat obtenu à partir d’un jeu de données important ( 1 milion d’acteurs) est limpide : L’engagement dans les plateformes de travail est lié à la variabilité des revenus principaux et négativement corrélés à sa variation tandis que les gains des plateformes de capital augmentent un revenu stable. Les propriétaires augmente leur gain de 314$ sur la base de 4454$ ( soit +7,1%), ceux qui n’ont que leur  bras à louer compense 533$ de revenus perdus soit 14,7% de pertes. Le complément de salaire est compensatoire pour le travail, accessoire pour le capital.

gig03

C’est la conclusion  à laquelle le Pew research aboutit dans sa vaste étude sur les revenus de l’économie des petits boulot, de la vente domestique et de la location personnelle.

24% of Americans report earning money from the digital ‘platform economy’ in the past year. The extra income they make is a luxury for some, but a necessity for others.

gig04Cette étude apporte un regard complémentaire avec une description socio-démographique qui marque des profils contrastés selon que les revenus viennent de l’exploitation du capital domestique ou des petits boulots : plutôt jeune, minoritaire et moins diplômés qu’une jeune quarantaine, blanc et diplômé.

Elle donne des éclairages sur les motivations dont la première est celle de la flexibilité. Il reste à interpréter la raison : sans doute une manière d’assumer une situation de précarité qu’on ne maitrise pas, d’y trouver une raison.

Des indications précieuses sont aussi fournies sur le taux de participation qui est sur une base déclarative et cumulative de 8% pour Pew Research et  de l’ordre de 4,3% pour l’étude du JPMC Institute, cette dernière dévoilant une tendance au ralentissement.

gig06

On pourra replacer ces résultats dans le cadre d’une typologie du travail indépendant dont KPMG donne une version bien optimiste en considérant que les freelances occasionnels gig4(40%) le font volontairement. Seulement 30% vivent pleinement de leur revenus d’indépendants. 14% sont prêt à prendre un travail salarié et 16% sont financièrement ficelés!

Les revenus complémentaires et compensatoires  sont le driver principal du travail indépendant. Cela rejoint les analyses de l’insee sur la microentreprise et l’activité multiples (voir un billet précédent). L’économie des petits boulots est avant tout une économie des petits salaires et du temps partiel.

Les plateformes distribuent donc des compléments de revenus, ce qui  invite à l’hypothèse que le développement de l’économie collaborative résulte de la conjonction de l’appétit de la consommation de l’insuffisance des salaires. Depuis la crise de 2007, les consommateurs ( qui sont aussi des travailleurs) trouveraient dans cet expédient le moyen de maintenir ou d’accroitre le niveau de leur consommation. L’économie collaborative serait ainsi la fille de l’austérité et de la pingrerie des entreprises (traditionnelles).

Deux questions dérivent de cette analyse.

1)  Quelle légitimité et par conséquent quel statut donner à ces revenus complémentaires ? A l’heure ou le législateur tente de les réguler et de les taxer, cela pose pleinement la question corolaire de la justice sociale dans la distribution de ces revenus : les empêcher c’est aussi priver ceux qui sont privés de salaire, les encourager c’est encourager la précarité.

2) Quelle place  les plateformes vont occuper dans l’économie?  Loin de balayer des secteurs entiers ne risque-t-elle pas de s’installer dans les franges du marché, offrant un sas aux plus démunis et la flexibilité que les marchés réclament : une économie de marge.

Algorithmic accountability – Work in progress

2824863959_4fe17cc109_oIl y a peu les géants du digital lançaient le partenariat pour l’IA . C’est peut être ce colloque à la NYU qui en a cristallisé l’idée. C’est déjà dans le livre de Franck Pasquale. La question du rôle social des algorithmes et de leur responsabilité, notamment celle de rendre des comptes devient centrale dans nos sociétés. Elle l’est en particulier pour les pratiques de marketing qui s’expriment de plus en plus via leurs calculs sur des volumes toujours accrues de données, les plateformes en sont le champs d’expression principal.

Recommander des produits, des relations, évaluer des risques, définir des prix, calculer des parcours, lancez des alertes personnalisées, qualifier des offres, commandez des machines, la panoplie des outils ne fait que s’étendre et se raffiner. Ces pratiques ne font-elles que ce qu’elles doivent faire? Entrainent-elle pas des réponses de ses sujets? Lesquelles? Quels sont leurs effets secondaires?

La voix des bots ouvre les marchés

hal-mortDans 2001 Odyssée de l’espace, la conversation finale entre l’homme et Hal,  l’intelligence artificielle, ne passe pas par un écran, des diodes, un visuel plan souvent et rarement holographique, mais par la voix fût-elle synthétique.

Si depuis les années 80, en  débutant l’histoire avec le PC – même si  l’écran de cinéma et le petit écran de la télévision ont converti les masses depuis bien plus longtemps – l’écran se décline dans toutes les tailles et des épaisseurs de plus en plus fines, s’équipant d’une sensibilité tactile et par conséquence ouvre les voix de l’intelligence. Cet écran favorise l’image, unique ou fragmenté, ainsi que le texte, l’écrit. La conversation demeure épistolaire. Les textos sont des télégrammes.

L’avenir de la conversation avec les machines risque de quitter l’écran pour rejoindre le régime de conversation le plus universel et le plus fondamental : la vocalise. Le premier des médias, avec la lumière, c’est une onde qui parcourt l’air. Une vague qui s’élance des lèvres pour faire vibrer l’oreille interne puis être convertie en crépitement électrique dans les réseaux du cortex. Babiller. Parler.  Il faut à un humain guère plus de 2 ou 3 ans pour s’y mettre. Et encore, l’art des vagues peut ne rien dire et se concentrer sur la forme même de l’onde, c’est la musique et ses langues.

De manière plus prosaïque, les technologies nouvelles du #deeplearning en permette de nouveaux développement, à l’instar de la technologie Wavenet proposé par une des filiales d’Alphabet – DeepMinds ( et on recommande de lire tout le post et même la publication).

L’application la plus évidente est naturellement celles des livres parlants, de l’audio description pour aider les mal-voyants. Le vaste marché des centres d’appel et de relation client est concerné au premier titre, car automatiser une grande partie de la tâche par des agents conversationnel (incarnés dans une voix plutôt qu’une image) promet des gains de productivités considérable. On peut l’élargir sans hésiter à l’ensemble des ATM et autres bornes interactives. Ces technologies concerne aussi les médias où l’on imagine des bulletins de nouvelles et de météo générés par des intelligences virtuelles et lues à la radio par des speakers synthétiques. Mais surtout, il y a deux vastes marchés potentiels où l’interface fondamentale est liée au son et la voix. Il s’agit de manière évidente celui des autos et autres véhicules  autonomes. C’est le moyen de donner au passager un moyen de contrôle de l’ IA qui le conduit, ne serait-ce que lui ordonner de s’arrêter – bref un safeword. L’autre est plus proche de nous , c’est celui- des interfaces telles que Echo d”Amazon , Siri de Apple, ou son analogue Everywhere chez Google. Parler est souvent le moyen le plus simple de commander. Ce type d’ interface a vocation à s’enrichir, ne serait-ce que par la coordination des objets connectés au domicile ( ordonner par son intermédiation la température souhaitée de la pièce). Il y a encore bien d’autres marchés, c’est une question d’imagination. Le point essentiel c’est de comprendre que les interfaces audios représentent un espace encore inexploré : pour demander qu’on nous passe le sel, on ne s’envoie pas de texto, on vocalise. L’informatique d’hier fonctionne au doigt et à l’oeil, celle du futur proche aura des lèvres et des oreilles.

PS : cette petite note a été suscitée par des questions d’Atlantico à propos de WaveNet. Elle rejoint d’autres interviews dans le même titre et des sujets similaires :