Prêt pour la finale : jeu de position et dynamique des segments électoraux

carteslateLa dramaturgie présidentielle est pour cette première semaine de campagne particulièrement inquiète.

Le risque que le Front National parvienne à la tête de l’état, les rancoeurs ou le calcul au Parti de Gauche, les coups de com et la fébrilité médiatique ajoutent à l’anxiété. La nouveauté de la configuration incite à la plus grande prudence mais puisque certains diffusent l’angoisse sourde d’une France rancie en brandissant le risque de l’abstention, autant revenir au calcul. Les sondages ne sont pas si mauvais et d’une bonne aide. Le premier tout l’a prouvé.

Pour évaluer le résultat, on peut le faire directement, les sondages annoncent Macron avec de 58 à 62%, on peut aussi faire un calcul de prise de parts de marché qui consiste simplement à multiplier le vecteur de la répartition des votes ( et nous y incluons les abstentionnistes du premier tour) par une  matrice de transition dont les sondages nous donnent une idée de la valeur de ses éléments et qu’on peut alimenter par différentes hypothèses en alternant ses valeur en faveur de l’un ou l’autre des candidats. Compte-tenu de la nature de l’élection on considère ici l’abstention comme une option de choix pertinente. Pour le lecteur qui veut jouer les éléments sont accessibles sur cette feuille (il suffit de modifier les valeurs dans la zone grisée).

Le résultat est clair : en prenant des hypothèses pessimistes pour Emmanuel Macron, on arrive à une victoire avec 57%. Si en revanche si ceux qui ont voté Mélenchon, au lieu de voter Macron pour 40% d’entre d’eux  étaient 65% ( ils seraient alors 20% à s’abstenir au lieu des 45% qui en ont exprimés l’intention ces jours ci), le score monte à 59%. Comme on essaiera d’affiner en fonction des informations nouvelles on indiquera ici, les corrections successives du modèle.

  • le 1er mai à 13:50 : Evolution des reports de voix de Dupont-Aignan depuis Vendredi #OpinionWay Macron 44% (+13) Le Pen : 31% (-6) Abstention : 25% (-7) -> donc 58,5% pour Macron et 41,5 pour LePen (le même sondage donne 61% en question directe)

On rejoint les sondages plus directs. Ici le calcul est minimal, on devrait aller un peu plus loin et prendre ces éléments comme l’a priori d’une approche plus bayésienne que nous avons esquissée dans le post précédent en simulant des centaines de scénarios (modèle de dirichlet).

Mais restons en au problème de segmentation. On a beaucoup commenté une France coupée en deux socialement et géographiquement, en prêtant à ces catégories beaucoup d’affect. Une enquête dIpsos-Steria donne des éléments intéressants. Nous avons sélectionné deux critères qui semblent les plus discriminants au regard d’un indicateur très simple : le rapport de la fréquence maximale sur la fréquence minimale. Il s’agit de l’âge et du niveau de formation. Tous les autres critères socio-démographiques ont des valeurs inférieures.

L’age distingue l’électorat de Fillon dont le score est inférieur à 15% chez les moins de 65 ans et bondit à 45 chez les plus de 70 ans. Une population dans laquelle d’ailleurs Macron réussit bien. Les anciens rejettent les extrémismes mêmes s’ils restent majoritairement conservateurs. Le ratio est ici de 5,6 : les plus de 70 ans sont 5,6 fois plus nombreux que les plus jeunes (45% pour 8%). On notera aussi que Mélenchon a remporté la bataille de la jeunesse, c’est finalement rassurant, une jeunesse qui ne se révolte pas ce n’est pas bon pour un pays.

L’autre critère, est le même depuis longtemps, les politiques n’en tiennent pas assez compte, c’est celui de l’éducation  que se traduit par le niveau de diplôme. Ce critère distingue fortement l’électorat nationaliste. Il y a une relation décroissante entre le taux de vote FN et le niveau de diplôme et un ratio de 3,3 quand il n’y a pas de différence substantielle pour les autres candidats. Ils sont tous un peu plus représentés chez les plus diplômés. Voilà qui signifie l’idée que c’est l’espérance de progression sociale qui fait en grande partie l’élection, et que celle-ci se construit socialement dans la ressource que représentent les diplômes et les qualifications. Le critère de revenus est moins discriminant, ce qui compte est moins le revenu actuel que celui qu’on espère. Le vote du Front National n’est pas vraiment celui du vote ouvrier, il est celui des non-diplômés. C’est aussi la faiblesse de l’extrême droite : les moins diplômés sont aussi les moins participants au vote.

Avec ces quelques éléments on peut conclure sur deux points. Le premier est un conseil à Macron, s’il veut une belle victoire qu’il fasse un geste aux insoumis, ils ne sont pas sans ressources et sans espoir, ils sont inquiet d’un monde dur où la compétition et l’intolérance se dispute la société. Le second est un second conseil à Emmanuel Macron, Président – comme c’est prévisible sous réserve de rebondissement ce dont les temps actuel semblent généreux, et à son futur gouvernement. Ce n’est pas la rhétorique qui fera refluer le nationaliste et le populisme, ni le fact-checking en dépit du flot d’intox et de mensonge de ce mouvement. Il faudra se décider, s’il l’on est progressiste, à faire que le progrès soit partagé, en particulier en ciblant la jeunesse sans diplôme dont le taux de chômage est de près de 50%. Il n’y a pas une jeunesse il y en a deux, et la figure produite par l’observatoire des inégalités est éloquente.

 

 

#Sondages : En attendant l’élu

macron04Chaque jour amène son lot de sondages suscitant plus d’interrogations que de conclusions.

Pour le spécialiste des données c’est un merveilleux bac à sable, surtout quand la foule s’attache à en maintenir l’inventaire comme le fait Wikipédia.

Ce sont les données avec lesquelles nous allons nous amuser après avoir fait un peu de nettoyage et de mise en forme. Quelques jeux avec ces packages rares et précieux qui font de r une planète à explorer, une caverne d’Alibaba, un supermarché magique du nombre.

En voici une visualisation pour les 6 principaux adversaires en termes d’intention de vote. Les données sont représentée séquentiellement en fonction du temps. Les aspérités correspondent aux jours où plusieurs sondages ont été publié le même jour. On a lissé les données sur une fenêtre de 3 jours de manière exponentielle (lambda=0,5).

évolution sondage pdt2017

Macron et Le Pen sont aux coudes à coudes, Fillon est largué et semble à peine retrouver de l’air pour respirer, Hamon s’effondre avec une belle détermination, Mélanchon surgit et s’accroche à la roue de vélo de Fillon – allez encore un coup de mollet, l’autre est cuit- , Dupont Aignan s’accroche, avec un peu d’effort il sera peut être remboursé – il pique des coups de bec dans la carcasse c’est de Fillon.

Un premier jeu est naturellement celui du pronostic. Depuis les travaux de 538 les méthodes d’analyses évoluent et se sont ouvertes aux méthodes bayésiennes. Voici en quelques lignes une méthode pour établir un pronostic. Du moins une esquisse de ce qu’on pense être ce qui est utilisé par les spécialistes qui ne donnent pas toujours beaucoup de détails sauf @freakonometrics que signale @bayesreality. Les valeurs initiales sont les moyennes des trois derniers sondages publiés au 11/04/2017.

L’idée principale est que les sondages nous donne moins un résultat qu’une information a priori, lecture est insuffisante pour établir le pronostic. Celui-ci doit prendre en compte la variabilité inhérente aux sondages et fournir une idée plus précise des distributions associées. L’utilisation d’un modèle de distribution de probabilités est indispensable, il servira à générer un grand nombre de variantes possibles à partir de  cette première donnée. On simulera 100 000 échantillons pour saisir les configurations les plus inattendues.

Dans le cas d’un premier tour d’élection le bon modèle est celui de Dirichlet. Les résultats du sondage servent de probabilité a priori dans une perspective bayésienne. Pour estimer plus précisément le modèle, on peut  inclure aussi compte le nombre de répondant qui détermine la dispersion des probabilités de choix. Dans notre cas nous choissisons un paramètre de 250, pour tenir compte qu’empiriquement les échantillons utilisés sont deux fois moins précis que ce que la théorie pronostique. Avec r ceci se traduit par peu de lignes.

set.seed(789)
N <- 100000
probs <- c(.233 , .238, .187, .181, .092, .037 )    # define (extremal) class probabilities#alpha0 = 250  -> pour tenir compte de l’erreur réelle, on divise par 4 l’échantillon moyen utilisé car on l’stime au double des valeurs théorique.
alpha0 <- 250
alpha <- alpha0*probs
alpha <- matrix( alpha , nrow=N , ncol=length(alpha) , byrow=TRUE  )
alpha
x <- dirichlet.simul( alpha )

Les résultats sont donnés dans les deux diagrammes suivants. Le premier donne la distribution des probabilités de choix pour chacun des candidats, le second la distribution de probabilité d’arrivée en tête. Seul deux candidats ont une chance, sur la base des trois derniers sondages, Marine Le Pen a une toute petite avance sur Macron.

Naturellement ce qui interroge d’abord c’est la dynamique des hésitations et le jeu des reports. Qui prend à qui? L’analyse des corrélations peut nous donner une première idée. On y notera la nette corrélation négative entre les intentions de vote pour Hamon et Mélanchon – la piscine se vide- , tout autant qu’un lien positif entre celle pour Mélanchon et de manière surprenante pour Dupont-Aignan? Est-ce l’axe souverainiste? Pour Macron le point intéressant est qu’il est peu lié aux autres, il n’attire pas de camp particulier – sauf celui des modernes de tout les camps! à l’exception de Hamon – la piscine se déverse dans un second bassin. Fillon et Le Pen se déchirent ce qui reste de l’électorat de droite.

L’analyse de ces corrélations doit être prudente car elle suppose qu’elles restent stables dans le temps.

L’étude de cette dynamique va nous fournir un troisième jeu. A cette fin on utilise le package Roll de r et sa fonction roll_corr. Il s’agit de calculer une corrélation glissante en fonction du temps, selon une fenêtre d’observations ( ici 16 j) et une pondération exponentielle (0,9). 8 des 15 couples figurent dans la diapo 3.

Ces corrélations sont intéressantes, mais se lisent difficilement. Un premier résultat est la forte fluctuation des corrélation qui passent du positif au négatif, seraient-elles ératiques?  Le cas Hamon Melanchon est le plus clair, la corrélation devient de plus en plus négative, indiquant le sens de la conversion : Mélanchon monte de plus en plus parce que Hamon lui fournit ses bataillons. DAns tout les cas il n’y a pas de stabilité dans le temps, les rapports de forces varient, passe d’un pivot à l’autre.

Puisqu’il s’agit d’une matrice de corrélation on peut l’analyser avec une  ACP toute aussi glissante que nos corrélations, c’est une ACP dynamique. Le même Package Roll nous fournit la solution avec une fonction très simple Rool_eigen

—–
Corollb<-roll_eigen(Coroll, 20, min_obs = 1)
—–

On produit ainsi une série d’Acp pour chaque élément de la séquence des sondages. En voici ci dessous des exemples à t=20,40, 50,70. On peut y lire les moment de la campagne. Pour son moment le plus récent on voit clairement l’attraction de Mélanchon s’exercer sur toute les factions. Le début de campagne était plus classique dans une opposition des forces de droite et de gauche.

Il y a encore beaucoup de jeux possibles. Et nos codes sont faits à l’arrache. Une chose est sure, la statistique gagne avec ces élections, jamais on a autant calculé, et jamais on a été autant surpris. C’est que les structures de vote deviennent plus subtiles, et demandent des méthodes plus fines, plus riches, plus interprétative.

Nous n’avons pas été au bout de l’excercice, nous n’avons pas combiné les deux tours. Nous n’avons pas exploré toutes les régularisations possibles de nos modèles. Nous voulions juste inviter le lecteur à explorer les nouvelles ressources des DataSciences pour comprendre plus que pour prévoir les ressorts d’une élection à la présidence.

PS: et si quelqu’un a envie de faire du code propre, le mien est crasseux. Le tableau de donnée et le script r sont à disposition. Just mail me.

 

 

 

 

Série Xerfi – Fnege : datas, plateformes et algorithmes.

AAEAAQAAAAAAAAl8AAAAJDg4M2M0NzFiLTRlYjUtNDU3Mi1hMWI3LWFjNzNiZDk2Yjg2YQUne des vidéos date un peu, les deux autres sont toutes fraîches, elles sont complémentaires car elles traitent sous trois angles, les données, les algorithmes et les plateformes, cette réalité de nouvelles formes d’organisations fondées sur un traitement massif de l’information.

Ces vidéos ont été tournées dans le cadre du partenariat de Xerfi canal et de la FNEGE. On en retrouvera des dizaines d’autres sur tous les sujets de la gestion, des marchés et des organisations. Un belle série.

Modèle de plateformes

Algorithmes

Les modèles du bigdata

Uber, un cas de métayage digital ?

3655236598_2236b3238f_zC’est au hasard de lecture que je tombe sur cette référence.

l’abstract éveille une réaction immédiate ( je n’ai pas encore lu l’article complet faute d’y avoir accédé). Il y aurait donc une autre manière de penser la dualité contrat de travail vs contrat de service dans les plateformes de travail. Le métayage,  cette forme désuète de contrat agricole serait donc une solution ancienne reprise aujourd’hui.

Faute de lire le texte je m’empresse de chercher d’autres sources et notamment celle évoquées dans le texte. Le contrat de metayage est cet arrangement où le propriétaire d’un terrain le donne à exploiter à un agriculteur avec qui il partage une partie du produit (en général la moitié). Cette forme de contrat peut paraître féodale, et il semble qu’elle ai largement disparue sauf dans quelques régions pauvres du monde où semble-t-il elle n’est pas forcément moins performante qu’un modèle de fermage qui s’apparente à une simple location. C’est le résultat amené par celui qui semble être l’inspirateur du papier, Cheung qui en 1969 a publié un papier essentiel.  Jean-Philippe Colin en 1995 a publié une synthèse précieuse sur la question, passant en revue les théories du métayage.

Précisons en quoi c’est une manière pertinente d’analyser le mode de fonctionnement de Uber et d’élargir le débat sur la nature des contrats : il ne s’agit peut-être pas ni de contrat de service, ni de contrat de travail, mais d’une troisième modalité celle du métayage.

Uber considère que ses clients ne sont pas tant les passagers que les conducteurs auxquels il fournit un service d’apport d’affaires et se rémunère en conservant 20% des recettes, c’est à dire bien moins que les 50% du monde agricole (et c’est un point qui méritera plus d’analyse). Ce point de vue est notamment combattu par des juges qui considèrent ce point de vue comme une fiction. Ils privilégient une analyse en terme de pouvoir et de degré de subordination. Ce point de vue est limité d’une part par la liberté d’entrée et de sortie ( la connection à la plateforme), et d’autre part par l’apport en capital (l’ouvrier amènent ses outils). En adoptant le point de vue de Uber il faut s’intéresser au statut des passagers qui seraient finalement l’analogue de la terre. Une ressource qu’il faut entretenir pour en en tirer les fruits et qu’on peut proposer à l’exploitation contre une part de son fruit.

Une grande partie de l’investissement d’Uber consiste à équiper les smartphones avec l’application, d’en initier et en maintenir l’usage dans la population la plus vaste. L’usage de l’appli est gratuit pour les passagers. Ce qui importe c’est qu’il appuie sur le bouton. Et on imagine que les consommateurs des mégapoles sont prêt à avoir dans leur portfeuilleue d’appli celle qui leur rend un service au poindre effort. Si l’appli Uber remplie une fonction universelle, les utilisateurs de l’appli deviennent une terre édenique. Il ne reste qu’à exploiter. C’est une terre super-enrichie dont l’exploitation  peut être conduite de trois manières : le salaire, le marché et le métayage.

  • La première est d’embaucher les exploitants de la terre. Des ouvriers agricoles payés en salaires pour des contrats plus ou moins longs. Ce modèle est peu flexible pour s’adapter au variations de la demande, et du climat, et il est probable que les taux d’utilisation soient faibles et réclame un degré de contrôle élevé de la part du propriétaire. Il lui permet la plus valeur extraction de valeur quand les salaires sont bas. Sa version radicale consiste à ne donner aucun salaire, juste la subsistance, et c’est l’esclavage. C’est un régime fondé sur un abandon de liberté, de décision. Sa vertu est la régularité.
  • Le second, c’est la location, le fermage. Les conducteur loue l’usage de l’appli. C’est une situation intéressante pour eux car s’ils peuvent exploiter au maximum l’outil et avoir un rendement plus que proportionnel au coût du loyer, ils sont largement gagnant. Le pari du fermier est de produire plus que son prédécesseur, ils peut s’en distinguer par les méthodes de cultures. Pour le propriétaire du domaine s’est l’assurance d’obtenir un rendement élevé avec un faible coût de surveillance.
  • La troisième est celle du métayage. Elle donne la possibilité à ceux qui n’ont que leur bras et quelques outils d’exploiter une ressources dont ils sont exclus. Elle permet au propriétaire d’espérer un rendement de terres qui sont des landes et ne produisent rien. Le caractère historique des métayages est sans doute lié à cette contingence qui fait que certains possèdent toutes les terres, et d’autres n’en possèdent aucune. Aujourd’hui, le bien agraires c’est l’inventaire et la rareté de son accès. Ce que fait Uber au fond c’est de découvrir des champs digitaux. Ce contrat est celui que l’on trouve dans les pêcheries quand l’armateur paye le bateau et le gazoil et partage une fois le gazoil défalqué, la moitié du montant de la pêche. Trois parts au capitaine, deux au mécanicien, une pour chaque marin.

Avec un peu d’ironie, peut-être faudra-t-il analyser l’économie collaborative comme une économie agraire. On peut faire pousser de l’herbe, on peut aussi faire pousser de la consommation. Les plateformes construisent les infrastructures du désir. Un Uber Universel, accessible non seulement par l’appli mais aussi par les boutons insérés ailleurs, comme dans google maps s’approprie les plaines du midwest appelant à les cultiver.

Avec moins d’ironie, plus de gravité, c’est une invitation à penser que l’espace digital est autant de greenfield. Ceux qui les créent mérite autant d’être récompensés que ceux qui les réalisent. Le commun profite au bénéfice de chacun. On peut imaginer aussi qu’à l’ère du métayage succède celui du fermage. On imagine que la propriété foncière sera amenée à être restitués. On trouvera dans l’histoire des économies agricoles milles raisons, idées, pour penser les rapports de la propriété et du travail dans les plateformes digitales.

Parle à ma machine

13641048214_e55529f9db_zJuste un court billet pour cette idée simple : la relation client n’est plus simplement une question de confiance, car l’appareil de la consommation, la galaxies des objets connectés qui accompagnent le consommateur, en deviennent de plus en plus un composant essentiel. Des notifications, des mises à jours des agendas, le règlement automatique des contrats,  la commande de l’environnement, la surveillance de nos biens, le pilotage de nos équipements, font travailler nos machines, et c’est à ces machines que les marques vont devoir parler, d’autant plus que nous souhaitons être tranquilles, déchargés des corvées.

C’est l’idée que l’agence Marquetis à parfaitement saisie en 1mn30 dans cette réinterprétation de « Plateformes », la même qu’on a confiée, sur un autre ton et de manière plus développée au Cercle du Marketing Client ».

Film Futur_datas by Marquetis from Christophe Benavent on Vimeo.

#Gigeconomy : l’économie des compléments de revenus.

8516817076_ee5a666234_zBien loin de l’uberisation du marché du travail, la #gigeconomy dessine son véritable visage, celui d’une économie des compléments de revenus, et incite à formuler la double hypothèse que le moteur du collaboratif se trouve plus dans l’offre que dans la demande, et dans la modération salariale que les entreprises de la vieille économie pratiquent depuis 2007.

Mais d’abord les faits dont plusieurs sources éclairent des traits saillants.

Avec l’étude du JPMorganChase Institute on retiendra d’abord une typologie simple mais efficace des plateformes : d’une part les plateformes de travail et d’autre part les plateformes de capital (il faudrait sans doute ajouter les plateformes de contenus pour mieux saisir le digital labor qui lui ne procure pas de revenus mais au mieux l’usage gracieux de certains services). Le résultat obtenu à partir d’un jeu de données important ( 1 milion d’acteurs) est limpide : L’engagement dans les plateformes de travail est lié à la variabilité des revenus principaux et négativement corrélés à sa variation tandis que les gains des plateformes de capital augmentent un revenu stable. Les propriétaires augmente leur gain de 314$ sur la base de 4454$ ( soit +7,1%), ceux qui n’ont que leur  bras à louer compense 533$ de revenus perdus soit 14,7% de pertes. Le complément de salaire est compensatoire pour le travail, accessoire pour le capital.

gig03

C’est la conclusion  à laquelle le Pew research aboutit dans sa vaste étude sur les revenus de l’économie des petits boulot, de la vente domestique et de la location personnelle.

24% of Americans report earning money from the digital ‘platform economy’ in the past year. The extra income they make is a luxury for some, but a necessity for others.

gig04Cette étude apporte un regard complémentaire avec une description socio-démographique qui marque des profils contrastés selon que les revenus viennent de l’exploitation du capital domestique ou des petits boulots : plutôt jeune, minoritaire et moins diplômés qu’une jeune quarantaine, blanc et diplômé.

Elle donne des éclairages sur les motivations dont la première est celle de la flexibilité. Il reste à interpréter la raison : sans doute une manière d’assumer une situation de précarité qu’on ne maitrise pas, d’y trouver une raison.

Des indications précieuses sont aussi fournies sur le taux de participation qui est sur une base déclarative et cumulative de 8% pour Pew Research et  de l’ordre de 4,3% pour l’étude du JPMC Institute, cette dernière dévoilant une tendance au ralentissement.

gig06

On pourra replacer ces résultats dans le cadre d’une typologie du travail indépendant dont KPMG donne une version bien optimiste en considérant que les freelances occasionnels gig4(40%) le font volontairement. Seulement 30% vivent pleinement de leur revenus d’indépendants. 14% sont prêt à prendre un travail salarié et 16% sont financièrement ficelés!

Les revenus complémentaires et compensatoires  sont le driver principal du travail indépendant. Cela rejoint les analyses de l’insee sur la microentreprise et l’activité multiples (voir un billet précédent). L’économie des petits boulots est avant tout une économie des petits salaires et du temps partiel.

Les plateformes distribuent donc des compléments de revenus, ce qui  invite à l’hypothèse que le développement de l’économie collaborative résulte de la conjonction de l’appétit de la consommation de l’insuffisance des salaires. Depuis la crise de 2007, les consommateurs ( qui sont aussi des travailleurs) trouveraient dans cet expédient le moyen de maintenir ou d’accroitre le niveau de leur consommation. L’économie collaborative serait ainsi la fille de l’austérité et de la pingrerie des entreprises (traditionnelles).

Deux questions dérivent de cette analyse.

1)  Quelle légitimité et par conséquent quel statut donner à ces revenus complémentaires ? A l’heure ou le législateur tente de les réguler et de les taxer, cela pose pleinement la question corolaire de la justice sociale dans la distribution de ces revenus : les empêcher c’est aussi priver ceux qui sont privés de salaire, les encourager c’est encourager la précarité.

2) Quelle place  les plateformes vont occuper dans l’économie?  Loin de balayer des secteurs entiers ne risque-t-elle pas de s’installer dans les franges du marché, offrant un sas aux plus démunis et la flexibilité que les marchés réclament : une économie de marge.

Algorithmic accountability – Work in progress

2824863959_4fe17cc109_oIl y a peu les géants du digital lançaient le partenariat pour l’IA . C’est peut être ce colloque à la NYU qui en a cristallisé l’idée. C’est déjà dans le livre de Franck Pasquale. La question du rôle social des algorithmes et de leur responsabilité, notamment celle de rendre des comptes devient centrale dans nos sociétés. Elle l’est en particulier pour les pratiques de marketing qui s’expriment de plus en plus via leurs calculs sur des volumes toujours accrues de données, les plateformes en sont le champs d’expression principal.

Recommander des produits, des relations, évaluer des risques, définir des prix, calculer des parcours, lancez des alertes personnalisées, qualifier des offres, commandez des machines, la panoplie des outils ne fait que s’étendre et se raffiner. Ces pratiques ne font-elles que ce qu’elles doivent faire? Entrainent-elle pas des réponses de ses sujets? Lesquelles? Quels sont leurs effets secondaires?

Une économie équilibrée

26901305512_3b005154c5_kLe mois de l’ESS s’annonce et à Paris Nanterre, on y contribuera avec une table -ronde « Un coopérativisme de plateformes est-il possible ?« . On pourrait voir se dessiner rapidement une réponse qui se constitue autour de la capacité de financement et qui assombrirait le futur des plateformes. Oui les grandes plateformes sont possibles par la puissance du Venture capitalisme qui peut y engouffrer des milliards en attendant un résultat opérationnel confortable. Les coopératives n’ont pas cette faculté.

C’est par un autre argument qu’il faut se saisir de la question. Il va dans le sens que Henry Minzberg donne à sa réflexion : celui d’une société équilibrée entre le secteur privé, le secteur public et ce secteur tiers composés d’association, de fondation, de coopérative, de mutualités, et dont le trait commun se résume en non-profit.

Souvent le discours relatif à ce secteur tiers s’appuie sur des valeurs et  sous-tend que l’économie doit avoir  des vertus, une morale. On veut une économie humaine, une économie solidaire, une économie respectueuse, et moins que de s’interroger sur les fins on s’interroge sur les moyens. Elle s’opposerait faiblement à la voracité du capitalisme (néo-liberal), son but est le renforcement d’une résistance.

Ce discours  écarte l’idée que le collaboratif n’est pas forcément une valeur mais aussi une source de performance. La compétition par l’émulation et l’apprentissage améliore la performance mais elle peut la détruire en réduisant les comportements solidaires et bienveillant dont la définition est : qui prend en compte l’intérêt de l’autre, et qu’on retrouve dans les notion de stewardship ou de civilité organisationnelle dont l’effet est de mieux faire face aux inattendus de la vie économique, et d’en amortir les conséquences négatives.  Inversement si les modèles solidaires contribuent à la performance en palliant aux défauts de connaissance, ils peuvent la réduire par son ossification, son appesantissement. Il n’y a pas un bon modèle contre un autre plus mauvais, mais deux modèle ambigus dans leurs effets qui parfois se complètent. L’économie est performante si elle trouve un équilibre entre les deux : la compétition et la coopération. L’une s’appuie sur la connaissance, l’autre fait face à l’ignorance.

Cette performance naturellement doit s’analyser en deux composantes : l’une qui est relative à l’organisation économique, l’autre à celle du milieu ( appelons ça bien-être, intérêt général, communs etc). Cette dualité est une affaire de politique, ce qui est bon c’est que l’une soit accomplie avec l’autre car comment les pondérer ? Faire des profits et améliorer l’environnement est la meilleure chose. Cette situation semble-t-il est prise en compte dans la littérature récente au travers de la notion de caractère transformatif des projets ou des stratégies. Elle s’oppose d’une certaine manière à l’approche de la responsabilité sociale, qui de manière normative, se contente de rappeler que les organisations peuvent produire des externalité négatives qu’il faut réduire ou compenser. L’approche transformative va plus loin, elle s’attache aussi aux externalités positives qu’elle souhaite encourager.

C’est une des raisons qui conduisent à penser, en matière de plateformes, qu’il s’agit moins d’imaginer un monde où des plateformes conduites par le profit écrasent les autres alternatives, qu’un monde où se cotoient différentes formes et leurs hybrides. Et s’il faut se poser des questions sur les raisons et la manière de les réguler, il faudra s’interroger sur les potentiels transformatifs de ces modèles, faire une balance complète des avantages apportés à leurs partie prenantes et des externalités positives et négatives injectées dans le milieu.

Les nudges sont-il le moyen de la théorie économique pour façonner le monde à son image?

neurone-cultureDepuis quelque temps et la découverte du codex des biais cognitifs  sème le trouble dans mon esprit. Près de 200 sont recensés, et font de l’humain un être totalement imparfait, un être sans qualité marqué par le destin d’épiméthée.

Un tel nombre doit conduire à reconsidérer la terminologie de biais. S’ils sont aussi nombreux c’est qu’ils ont une raison d’être, elle est certainement adaptative. Avec le temps, notre cerveau a évolué trouvant des solutions à la question de l’adaptation au milieu . Buster Benson les regroupe de manière fonctionnelle en quatre grands problèmes : comment décider quand il y a trop d’information, quand il n’y a pas assez de signification, quand on a besoin d’agir vite, quand il faut définir ce dont on doit se souvenir? Les biais sont autant d’adaptations.

Bien sur la résolution de ces problèmes peut aussi en induire d’autres : on rate des informations importantes, on génère des illusions, on prend des décisions erronées, la mémoire renforce l’erreur. Si ces défauts étaient majeurs, évolutionnairement les biais auraient disparus. S’ils sont dommageables c’est que le milieu a changé : nous serions inadapté au monde dans lequel nous vivons, ce monde que nous avons créé, un monde socialement construit. Nos adaptations seraient devenu des inadaptations et il faudrait nous corriger, nous améliorer, nous assister. Les nudges sous aideraient à surmonter notre nature, à nous civiliser, pour nous adapter à une norme, celle de la décision rationnelle.

L’hypothèse évolutionniste, la véritable théorie de ce phénomène, fait qu’il devient difficile d’appeler biais, ou défaut, ou fragilité, ce qui est un plus, un meilleur, un ajustement, une adaptation. Sauf à  penser qu’il y ait une sorte d’état idéal, celui vers lequel tendrait la nature, qui est celui d’une parfaite rationalité. L’accumulation de ces adaptations témoigne pour prouver que ce n’est pas la tendance. L’idéal n’est pas un idéal de nature mais celui normatif de l’idéal économique, qui ne décrit pas forcement un état souhaitable, mais celui qui satisfait un principe métaphysique et idéologique, celui de la tendance la l’équilibre et s’appuie sur la rationalité de ses acteurs ( la fiction d’une instance qui explorerait tous les états et pourrait identifier celui qui procure le plus d’avantage – l’humain un dieu omniscient et utilitariste).  L’acteur humain, et nous y reviendra un peu plus loin, c’est aussi le cas des intelligence artificielle, n’est pas l’être imparfait que discipline normative tente de définir et qui requière les correctifs de l’économie comportementale. C’est un être complexe, qui développe une cognition modulaire et architecturée, pour répondre aux défis de l’évolution. La caractéristique la plus générale de cette architecture est de s’adapter à des environnements variés, par les capacités  d’apprentissage forgée par l’agencement de ces adaptations.

Dans cette perspective l’utilisation des biais cognitifs par les nudges, pour orienter la conduite dans le sens du bien, qu’il soit celui du sujet ou celui de la collectivité, peut paraitre l’instrument par lequel la science économique tend à façonner le monde selon son propre imaginaire. Cela suffirait à lui ôter la dignité de sciences pour lui donner la légitimité d’une doctrine. Plutôt que de valider ses hypothèses elle tend à redresser son objet (les décisions individuelles) pour mieux satisfaire son projet. C’est bien inquiétant. Cela l’est d’autant plus qu’on y observe la tendance à définir sa scientificité par l’expérience comme la polémique du  » négationnisme économique »  l’illustre. Epistémologiquement c’est une pirouette : ce n’est pas en déplaçant le caractère scientifique de la théorie vers l’expérience que l’on peut justifier un tel projet. L’expérience ne vaut que lorsqu’on veut tester une théorie,  la mettre à l’épreuve. L’argument traditionnel de l’économie est qu’importe peu le degré de réalisme de la représentations des unités phénoménologiques, c’est que le modèle dans son ensemble rende compte de la réalité. Mais l’économie comportementale par la méthode expérimentale, démontre un agent bien plus sophistiqué qu’on imaginait, et apporte une réfutation persistante. Tant de « biais » reflètent non plus une rationalité limitée, qui serait un amendement au perspective rationaliste, mais au contraire la sophistication de notre appareil de décision : l’ensemble de ces « biais », de leurs interactions, de leur inhibitions, de leurs activations, compose une machine formidable à apprendre.

C’est d’ailleurs le propre des intelligences artificielles que peu à peu on met en place. L’exemple des modèles de bandit manchots est illustratif, leur capacité à apprendre vient de l’introduction d’une sorte de biais cognitifs : par exemple la préférence pour les solutions gagnantes qui caractérise les algorithmes greedy s’apparente assez fortement au biais de confirmation! C’est ce qui lui donne une capacité à découvrir et apprendre la bonne solution plus rapidement que des approches plus naïves. De même la reconnaissance d’objets dans les images a fait des progrès dès lors que l’on a introduit des pré-traitements par des filtres qui mettent en reliefs des aspects spécifiques des images. Avec le deep learning on s’aperçoit que c’est moins un modèle donné qui fonctionne que la capacité d’ajuster des modules spécialisés dans une architecture plus générale. Ces intelligences se constitueront sans doute dans le futur par l’agencement de centaines de ces adaptations ( ne parlons plus de biais), elles seront peut être aussi sophistiquées que la notre, mais se développeront parallèlement s’adaptant à un autre univers que le notre car elles ont une autre histoire. Elles auront d’autres raisons.

Pour revenir aux nudges, dans la mesure où l’on ne souhaite pas les réduire à être les instruments qui corrigent le comportement des unités observées pour les contraindre à rentrer dans le cadre de la théorie néo-classique, il faudra leur donner un autre fondement moral et une autre justification que la capacité de faire prendre une décision qui favorise notre bien-être et le bien être collectif en respectant la liberté de choix. Ce sera moins dans le cadre d’un paternaliste bienveillant et libertaire qu’il faudra trouver les bons arguments dont celui d’une interférence non-arbitraire, et par conséquent, et celui d’un contrat social qui donne à la puissance qui le manipule la justification de son action, que dans l’exploration de cette idée fondamentale que notre capacité d’apprentissage est justement constituées de tels biais.

Le problème dès lors, pour améliorer nos décisions, ne serait plus de pallier à une défaillance, mais plutôt à renforcer ces capacités. Une conception juste du nudge pourrait être ainsi définie, elle ne porterait pas tant sur nos présumées défaillances mais sur l’environnement social qui souvent est trompeur. Sa finalité serait moins de nous persuader à notre insu pour notre bien que de façonner un monde qui favorise nos capacités de jugement.

Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche. Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensés aux étudiants du Master management de l’Innovation parcours MOPP et GDO.
Le cours s’organisent en 2 éléments :

1) Rappels élémentaires de statistique et d’analyse multivariée (tests, régression, ACP et classification) : 3 séances . L’environnement le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.

On travaillera sur un cas issu du Mémoire de Master Marketing de Pauline Vautrot. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.

  1. Analyse univariée avec r
  2. Analyse bivariées : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle
  4. Classification automatique
  5. Régressions

2) Un atelier des méthodes – présentation de protocoles méthodologiques dont les synthèses sont présentées par les étudiants sur la base d’articles significatifs dont voici un florilège. ( en Janvier 1 journée pleine)

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. Inscription ici

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.