Série Xerfi – Fnege : datas, plateformes et algorithmes.

AAEAAQAAAAAAAAl8AAAAJDg4M2M0NzFiLTRlYjUtNDU3Mi1hMWI3LWFjNzNiZDk2Yjg2YQUne des vidéos date un peu, les deux autres sont toutes fraîches, elles sont complémentaires car elles traitent sous trois angles, les données, les algorithmes et les plateformes, cette réalité de nouvelles formes d’organisations fondées sur un traitement massif de l’information.

Ces vidéos ont été tournées dans le cadre du partenariat de Xerfi canal et de la FNEGE. On en retrouvera des dizaines d’autres sur tous les sujets de la gestion, des marchés et des organisations. Un belle série.

Modèle de plateformes

Algorithmes

Les modèles du bigdata

Algorithmic accountability – Work in progress

2824863959_4fe17cc109_oIl y a peu les géants du digital lançaient le partenariat pour l’IA . C’est peut être ce colloque à la NYU qui en a cristallisé l’idée. C’est déjà dans le livre de Franck Pasquale. La question du rôle social des algorithmes et de leur responsabilité, notamment celle de rendre des comptes devient centrale dans nos sociétés. Elle l’est en particulier pour les pratiques de marketing qui s’expriment de plus en plus via leurs calculs sur des volumes toujours accrues de données, les plateformes en sont le champs d’expression principal.

Recommander des produits, des relations, évaluer des risques, définir des prix, calculer des parcours, lancez des alertes personnalisées, qualifier des offres, commandez des machines, la panoplie des outils ne fait que s’étendre et se raffiner. Ces pratiques ne font-elles que ce qu’elles doivent faire? Entrainent-elle pas des réponses de ses sujets? Lesquelles? Quels sont leurs effets secondaires?

De l’économie collaborative au gouvernement algorithmique des plateformes

5928727544_fdc9ecc4e5_zCe texte résume l’intervention réalisée dans le cadre de la Conférence Internationale de Gouvernance CIG 2016 à l’Université de Montpellier : Gouvernance et gouvernementalité à l’heure du big data : quels enjeux pour les entreprises ? La version originale de cet article a été publiée sur The Conversation.

Avec le développement de l’économie collaborative, ou d’économie on-demand, le modèle de plateforme prend un nouvel élan. On l’a découvert avec les plateformes-produits, il s’est conforté avec les marketplaces, il s’épanouit avec les réseaux sociaux. Désormais il règle les échanges de services et le prêt des biens. Une grande partie des 150 licornes (start-up valant plus d’un milliard de dollars) est constituée par des plateformes, on en dénombre plusieurs milliers, dont Uber, BlaBlaCar ou Ola dans le transport, Airbnb ou Booking.com pour hébergement à courte durée, Oscaro, Lending Club ou Indiegogo dans le crowdfunding, Amazon, Alibaba pour les places de marché, mais aussi Esty dans une version plus collaborative, Deliveroo ou Hero delivery dans la logistique du dernier kilomètre, Fiverr et Taskrabbit pour les services à domicile.

Du crowdsourcing et des algorithmes

Le propre des plateformes réside dans deux éléments. Le premier est une généralisation du crowdsourcing qui, ouvrant très largement l’approvisionnement en actifs productifs, en travail et en consommations intermédiaires, donne une place importante à des acteurs que l’on peut qualifier d’amateurs. Le second est du recours intensif aux algorithmes pour assurer la coordination des activités à une échelle très importante (des centaines de millions d’individus) et très fine du point de vue de l’espace et du temps. La combinaison de ces deux éléments conduit à un modèle d’organisation d’un type nouveau, fondé sur la maîtrise des algorithmes qui pose des questions de gouvernance, d’autant plus fortes que les machines sont faillibles.

Le moteur de croissance des plateformes s’analyse au travers de la combinaison de plusieurs mécanismes économiques. Le premier est celui du crowdsourcing et il se révèle dans la capacité à mobiliser des actifs sous-utilisés, du travail parfois non rémunéré et de l’information et des idées partagées. Il engendre un second mécanisme de la longue traîne, plus justement décrit par la notion d’économie de la diversité. Le troisième est l’interaction positive entre les populations qui constituent les différents versants de marché : l’attractivité de la plateforme sur le versant client est d’autant plus grande que la diversité des offres est forte et réciproquement.

Elle est amplifiée par la maîtrise des capacités d’appariement (matching markets) qui permettent de résoudre la faiblesse d’une offre trop large et trop diverse pour les capacités cognitives des demandeurs, par le biais de score d’appariement (comme sur les plateformes de rencontre) et de moteurs de recommandation (comme dans le cas les places de marchés). L’ensemble produit des externalités de réseaux et de standard qui soutiennent la politique de crowdsourcing.

Gouvernementalité algorithmique

L’analyse économique permet de rendre compte a posteriori des succès des plateformes, mais dit peu de la manière dont ils sont menés.

C’est dans la manière dont les plateformes gouvernent leurs populations qu’on peut trouver une réponse. Avec le concept de gouvernementalité de Michel Foucault, définit rapidement comme l’influence sur les conduites qui transforme les populations en ressources, un cadre d’analyse cohérent peut être formulé. La gouvernementalité se manifeste par trois grands éléments : l’architecture des plateformes qui capacite ou restreint l’action de ses membres et des populations ; une capacité normative et de surveillance -une police ; un dispositif incitatif qui stimule l’activité des acteurs individuels et mobilise les foules.

La spécificité de ces politiques est d’être largement algorithmique, se nourrissant d’un flux de données important (le big data) qui à la fois permet de produire la connaissance nécessaire et la mise en œuvre des politiques dans le flux des microdécisions prises par l’organisation et les individus. Un mécanisme comme le surge pricing de Uber en est un exemple remarquable : à l’échelle de quelques minutes et d’un quartier, Uber peut faire varier les tarifs en fonction de l’offre de VTC et de la demande, dans le but principal de limiter l’attente à moins de cinq minutes.

Le calcul n’est pas neutre

On a tendance à surestimer leur efficacité et leur neutralité. Ils produisent des effets de dispersion des prix, de polarisation des opinions, de discrimination sociale. Autant d’effets que leurs concepteurs n’ont pas envisagés. C’est le fruit d’une forte dépendance aux données : les paramètres des algorithmes dépendent des données qu’ils traitent, et certains groupes d’acteurs peuvent les troubler. Le calcul qu’ils produisent n’est pas neutre, son résultat est souvent performatif et les populations qui en sont la cible s’y adaptent par une sorte de social computing.

Les effets de ranking en sont un exemple, le classement renforçant la performance. Des effets inattendus, parfois néfastes, sont observés : extrême variance des prix de marchés, biais de sélection, polarisation des opinions, ségrégation sociale. C’est ce qu’on peut appeler la politique des algorithmes et qu’on définit comme l’effet résiduel et non intentionnel de la gouvernementalité.

Les plateformes font ainsi naître un double risque : celui d’une interférence dans les libertés et celui des externalités sociales liées à la construction même des algorithmes. Cette analyse conduit à s’interroger sur la gouvernance des plateformes et les mécanismes qui permettent de gouverner le gouvernement des plateformes. Quelle politique de confidentialité des données personnelles ? Quel degré de transparence des algorithmes ? Quel degré de participation des usagers à la conception et aux pilotages de ces modèles ? Quel degré de régulation par la puissance publique ?

Avec leur surgissement et leur déploiement planétaire, ces questions deviennent clés. Elles justifient que l’idée de redevabilité algorithmique soit de plus en plus élaborée, et surtout mise en œuvre.

Référence des travaux présentés : C. Benavent (2016) « Plateformes : sites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix », Fyp.

The Conversation

Christophe Benavent, Professeur Sciences de Gestion, Université Paris Ouest Nanterre La Défense – Université Paris Lumières

 

Plateformes :

PlatdeCouv-Plateformes.inddSites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix

Il est là et en librairie. Pour l’accompagner cette rubrique où on retrouvera des réflexions autour et au delà du livre ainsi que l’ébauche de chapitres qui n’ont pas été (encore) écrits  : es plateformes et le travail, utopie et idéologie des plateformes, politiques publiques des plateformes…

Mentions presse :

Community Management Cours

Social_Network_Analysis_VisualizationC’est un cours donné à l’ESC La Rochelle qui déborde largement la fonction de community management, et s’intéresse plus largement à l’usage des plateformes sociales dans le cadre des stratégie marketing qu’il s’agisse de maintenir des communautés de marques, d’amplifier la communication, d’acquérir de nouveaux clients. Sa perspective est celui d’une économie politique de plateformes.

Présentations utilisées en cours

Cette année une thématique centrale organise l’enseignement : « Les algorithmes des plateformes sociales »

Évaluation :

Deux éléments contribuent à l’évaluation :

a) Devoir sur table individuel

b) Une étude sous la forme d’un article de 8000 signes portant sur l’utilisation d’algorithme par un réseaux social.

Il s’agira dans chacun des cas d’analyser, sous une forme journalistique, dans quel but ces plateformes sociales emploient certains ensembles d’algorithmes, quels en sont les principes et les effets secondaires.

Quelques lectures

 

#WebblendMix bigdata : des études à l’action

22570466075_1ec1c3c91f_zLe #Web blend Mix 2015 est enthousiaste, Lyonnais et cool. Ravi d’y avoir été invité.

Quand au message à transmettre pendant la conf, c’est celui que je répète. Les données ne sont pas destinées principalement aux études, on en a déjà bien assez, et les données sans théorie sont comme l’eau sans conduite : elle se disperse et ne font rien pousser.

Les données sont là pour agir, agir en masse et de manière précise, elle fournissent le renseignement nécessaire pour activer une appli, préparer un vendeurs, motiver un acheteur. Elles ne sont rien sans les algorithmes, et les algorithme ne sont rien sans la compréhension des situations d’usage. Le big data en marketing crée de la valeur s’il est associé à un effort intelligent de modélisation, et si cette modélisation prend en compte le contexte social : le caractère performatif et politique des dispositions.

On concluera in fine, que l’usage intensif risque de s’accompagner d’une exigence sociale : celle de rendre compte des effets de cet emploi des données et des algorithme.

 

Qu’est-ce qu’un algorithme juste ? Celui qui rend compte de ses effets

16318918399_ae6b70149a_bDepuis pas mal d’année de nombreux universitaires ( les politiques sont bien moins nombreux) s’inquiètent du caractère obscur, caché voir même ésotérique des algorithmes dont le fonctionnement peut même à l’insu de leur concepteurs, produire des effets inattendus et indésirables sur les populations. C’est ce qu’on appelle gouvernementalité.

Un bon exemple de ce type d’effet, que l’on désigne par la notion de performativité algorithmique, est donnée par l’étude de Edelman et Lucas (2015) sur les prix de AirBnB à New York, ils observent qu’une différence de 22$ existe entre les logements proposés par les blancs et les noirs. Ceci résulte principalement d’un mécanisme de réputation : l’exposition de la photo de l’hôte et produit un effet discriminatoire qui tout à la fois reflète et augmente la ségrégation spatiale et raciale. Ici l’algorithme est simplissime, il réside simplement dans le protocole de production d’une page d’offre et accorde au visage un poids déterminant dans l’expression des préférences.

De manière plus générale le phénomène est abordée sous le terme de  politique algorithmique. On pourra lire à ce propos les travaux d ‘Antoinette Rouvroy et mieux encore le livre de Frank Pascale. En contre partie se développe de plus en plus l’idée d’une redevabilité ( accountability) algorithmique.  Si les algorithmes transmettent insidieusement une politique explicite ou implicite, souhaitée ou induite, il devient nécessaire qu’ils doivent rendre compte des effets de leurs actions.

Une exigence politique croissante est que donc les plateforme doivent rendre compte des méthodes qu’elles emploient et de leurs effets sur la société sans plus se cacher derrière la notion de confidentialité des procédés. C’est moins une question de droit que de politique, car c’est le politique qui aménage le droit. On notera au passage que cette exigence est d’autant plus naturelle que les algorithmes sont le plus souvent empruntés au domaine public comme le furent le PageRank de google ou les méthode de filtrage collaboratif d’Amazon. Mais ce n’est pas le problème principal. Par redevabilité on entend le fait que les effets de ces algorithmes doivent être considérés comme n’importe quelles externalités, et être reportés dans les rapports d’activités comme les effets environnementaux et sociaux parfois le sont.

L’objet de notre note ce sera pas cependant de débattre de ces notions et de leurs conséquences, mais plutôt de montrer de manière assez concrète, même si le lecteur va vite s’apercevoir du degré élevé d’abstraction requis pour pénétrer dans ce qui fait nos algorithme ordinaires, comment les algorithmes nous échappent.

Le hasard de mes lectures m’a conduit vers un papier passionnant de Cynthia Dwork et ses collègues – Fairness through Awareness, qui est un spécimen remarquable de ce qui devient une littérature riche à la frontière des mathématiques, de l’informatique et du machine learning. Il s’intéresse à formaliser le caractère juste d’un algorithmique, et notamment de ce qui attribue aux Etats-Unis des places aux étudiants dans le cadre de politiques pro-minorité, et donne une foule d’exemples qui concernent le marketeur.

Prenons le cas des algorithme de scoring, très  courants dans le domaine bancaire pour attribuer ou non un crédit à la consommation. Ces algorithme s’appuient sur ce que les spécialistes du machine learning appelle un classificateur, autrement dit une équation dont la forme très général est la suivante : S=f(X,theta). S est le score calculé, c’est mieux quand il s’exprime sous la forme d’une probabilité (celle de ne pas rembourser le prêt, donc le risque. X est un vecteur de variable X&, X2, X3 etc qui décrit ce que l’on sait sur l’individu : son age, son revenu, et pourquoi pas ses amis sur Facebook (qu’on a déjà scoré) et plus tard les données cardio de son fitbit). Theta des valeurs numériques, les paramètres du modèle qui ont été calculés au préalable sur une grande population et éventuellement vérifiés sur une autre. On notera que ces paramètres sont des sortes de moyennes, et qu’en général on ne tient pas compte du fait qu’ils peuvent varier selon les individus ( mais on peut le faire si l’on souhaite en utilisant par exemple des modèles hiérarchiques).

Un tel modèle est mis en œuvre au travers d’une décision. Elle peut êre primitive quand on indique un seuil, par exemple si S est supérieur à 3% alors ne pas prêter. Elle peut être un peu plus sophistiquée en pondérant gains et pertes espéré. Par exemple si G est la marge gagnée sur le prêt dans le cas ou il n’y a pas d’incident, et P la perte subie si le client n’est pas en mesure de rembourser, le critère devient P*S+G*(1-S)>0. On peut imaginer plus compliqué.

Le problème posé est qu’un tel algorithme n’est pas forcément juste. On connait le problème classique des faux positifs. quelqu’un dont on a mesuré les chances de ne pas rembourser peut être parfaitement fiable, et inversement celui à qui ont prête peut défaillir. La théorie de la décision fournit des moyens pour réduire , du point de l’entreprise, cet impact et mieux définir sa stratégie ( minimiser les risque, optimiser le gain …). Mais du point de vue des individus certains qui serait en droit d’obtenir le prêt ne l’auront pas, et d’autre obtiendra un prêt qu’il ne mérite pas. Il est assez facile de mesurer l’importance de cette injustice, simplement au moment où l’on test de le modèle. Il suffit de comparer les résultats à la réalité. Une mesure classique peut être le RMSEA, où dans le cas des probabilité une mesure de gain :  1 – (% bien classé/ % de bien classé par hasard).

On pourrait parfaitement exiger de ceux qui emploie de tels algorithmique sans donner les paramètres theta qui sont un secret de fabrication, au moins de rendre compte de la précision de leur algorithme, par expérience je suis prêt à parier une fantastique désillusion. La plupart des modèles ne prédisent qu’assez mal les résultats, sauf dans les cas triviaux. Les voies d’amélioration passe moins par l’emploi de modèles nouveaux que par l’abondance des variables, et encore, celà reste à établir. Un taux de bonne prédiction de disons 92% laisse 8% d’erreurs ce qui n’est pas intellectuellement acceptable.

Mais allons plus loin avec l’article indiqué.  Celui-ci propose un autre critère de justice, partant de la condition de Lipschitz qu’on peut exprimer assez simplement. Un algorithme sera juste si la distance entre deux individus ( tels qu’on la mesure au travers des caractéristiques X) est plus grande que la distance entre les scores calculés à partir de ces profils.  Un corolaire de cette mesure de justice est cependant que sa mise en oeuvre se paye par une réduction de la privacy. Mais l’essentiel réside dans l’idée que l’on peut calculer de caractère  juste ou injuste d’un classificateur.

Voilà une série d’autres critère d’évaluation et de redevabilité, même si demander à son banquier si son scoring respecte la condition de Lipschitz, ou la parité statistique, reste, reconnaissons le non pas de la science fiction, puisque scientifiquement c’est possible, mais de la social fiction! Mais les choses ne s’arrêtent pas là, quand bien même nous introduirions dans le système des approches juste « fair » au sens de l’auteur principal, cela a un cout :  c’est celui de la privacy. Pour que l’algorithme soit juste, il faut selon l’auteur qu’on détienne des données « sensitives » !

Ce qui amène un commentateur à relever dans cette interview qu’il n’est pas possible de construire un algorithme juste, en relevant la question de la responsabilité : in fine l’auteur du papier initial renvoie la responsabilité de la justice de l’algorithme à des éthiciens! laissons au commentateur la conclusion :

 » First, there is the belief that we don’t need to think philosophically because we can solve our problems by technology; and then, second, when technology as such fails, to call in expertise, in this case in the form of an “ethicist.” And then, finally, in the paper Dwork co-authored on fairness that prompted this interview, we find the argument that the parameters of fairness “would be externally imposed, for example, by a regulatory body, or externally proposed, by a civil rights organization,” accompanied by a citation of John Rawls. « 

Les choses sont donc claires : ne comptons pas sur les machines pour réduire les problèmes sociaux, la responsabilité de ce que font les machines appartient entièrement aux humains, à leurs concepteurs et à leurs propriétaires. Plutôt que d’interdire, ou d’autoriser, la première étape de la régulation du monde des machines est d’imposer socialement l’exigence de redevabilité. Si les machines ne sont pas neutres, si elles induisent des biais politiques, ont toutes les chances d’être injustes, autant que l’on connaisse la manière dont elles affectent l’ordre social.

Big data, plateformes et business models

3109465935_cf6f2a4263_bLa vidéo complète d’une conférence donnée le 23 juin à la CGC Orange. La vidéo n’est pas d’aussi bonne qualité que l’originale tournée par leurs équipe (pour la faire tenir dans les limites de Viméo), mais l’image de toute façon est sans doute moins intéressante que la parole et un podcast aurait sans doute suffit!

Il y a là un bon concentré des idées que je développe depuis quelques mois. Pour le crédit photo juste un vol d’étourneau, c’est au fond une bonne métaphore du nuage et du calcul distribué qui produit des formes sans forme, une organisation sans centre mais efficace pour s’adapter, et dans le cas des oiseaux échapper aux attaques des rapaces…

Conférence Big Data CGC Juin 2015 2 from Christophe Benavent on Vimeo.

Gafa presque souverains

17034261188_d656b18a22_oC’était en Juillet, une occasion supplémentaire de parler de plateforme et de gouvernementalité, ce sera assurément un des mes sujets phare cette année, notamment dans le cadre du Master MOPP. Une interview en parallèle avec Jean-Gabriel Ganascia du LIP6.

Un observateur avisé a remarqué le papier,et l’on reviendra certainement sur un point clé, la politique des algorithmes ce n’est pas seulement le glissement du politique vers la sphère privée ( et oui leur rôle est aussi de faire la police !) mais aussi plus globalement la remise en cause de la  souveraineté et pas que numérique. Vaste débat de société!

crédit Photo : Id iom