Atelier doctoral : r pour la recherche en sciences sociales

L’objectif de l’atelier, organisé dans le cadre des enseignement de l’ED EOS,  est la prise en main de r au travers de l’interface graphique Rcmdr  de Rstudio et du markdown.

Il s’agit aussi de découvrir la communauté r et ses ressources en 4 séances de 3 heures : décrire, expliquer, modéliser.

Public visé et pré requis : Doctorants et autres chercheurs. Connaissance des tests statistiques et autres statistiques élémentaires. Une habitude de SAS ou SPSS fera du bien.

Les participants doivent installer Rstudio au préalable. l’interface pour démarrer est Rcmdr, c’est le premier package à installer au préalable.

Calendrier de la formation (période de l’année): 19 et 20 décembre 2018  et 21 janvier 2019 (9h30-12h30 : 13h30-16h30) – Lieu : Université Paris Nanterre Bat A 3ème étage salle 304 ou 305)

Inscription : envoyer un CV à christophe.benavent@gmail.com avant le 10 décembre. – nombre maxi d’inscrits : 15.

Programme

Le jeu de donnée utilisé provient de l’European Social Survey. On s’intéressera en particulier à l’évolution de la confiance en France de 2002 à 2016 : on trouvera ici les données et le fichier markdown.  Les résultats peuvent être consultable sur cette page. On regardera en complément ce document ( Bonheur et valeur dans 18 pays européens)

    • 1 : l’environnement r: communauté, packages, langage et prise en main  avec Rcmdr. Comparaison de moyennes, corrélation, représentation graphique avec ggplot (pour des exemples voir ici ou )
      • 2 :  Clustering  ( package Ape, dendro…) et analyses multidimensionnelles ( AF, AFC, MDS)
      • 3 : Régression avec r: des MCOs au modèle linéaire généralisé (Logit, Poisson, etc) (package lme4, Stargazer pour des présentations standardisées.
    • 4 : Échelles de mesure et équations structurelles avec Psych et Lavaan : on traitera notamment de l’influence de la confiance sur le bien être.
  • Une session supplémentaire le 21 janvier sera consacrée au text mining

ECTS : la participation au séminaire donne droit à 3 crédits.

Ressources :

    •  r blogger : un meta blog centré sur r , très riche en exemple et application.
    •  StackOverflow : plateforme de Q&A pour les développeurs, r y est fréquemment mis en question
      • PS : un cours similaire est donné dans le cadre du Master Management de l’innovation GDO/MOPP.
    • La doc de ggplot2, le package des graphiques élégants.

Crédit Photo : comme souvent l’excellent Jeff Safi

Ateliers r à Nanterre

https://cran.r-project.org/web/packages/ggridges/vignettes/gallery.html

Enfin, les choses prennent forme et n’occuperons plus ces pages. D’essai en essai, jouant avec r, je maîtrise enfin les carnets de recherche en Markdown : réunir sur une page, les données, le code, les résultats et leurs analyses … et satisfaire aux nouvelle exigence de la “reproducibility” .

Je n’aurais plus besoin d’encombrer le blog de longues pages souvent techniques, et il sera temps de revenir à l’actualité et aux tendances de la société de consommation. Revenir aux évolutions du marketing, et à la réflexion sur le rôle des technologies dans l’organisation des marchés.

En voici les deux premiers qui nourrissent les cours et ateliers que j’anime cette année à Nanterre et ailleurs, ils sont localisé sur le sous-domaine r.benavent :


Master Marketing – modélisation pour le marketing

Objectif : rédiger une note de deux pages présentant une méthode d’analyse en marketing et utilisant des ressources r. Elle sera, si très satisfaisante, ajoutée à tex2r.

Elle sera rédigée en markdown (format d’export html) dans Rstudio. Elle comprend donc le texte explicatif, le code, et ses résultats. On y attachera le jeu de données.

Epreuve alternative : reprendre le document <AnalyseValeurs.rmd> (markdown) et compléter l’analyse sur l’un ou l’autre des points abordés ( commentaire, code supplementaires , variables additionnelles). Son résultat est disponible dans le fichier <AnalyseValeurs.pdf >

On utilisera aussi un échantillon de données (n=~35000) de la base European Social Survey ( vague 8) en particulier les questions relatives au bien-être, à la confiance, et aux valeurs ( Schwartz) . Les éléments de travail se trouvent ici.
Méthodes utilisées dans l’étude de cas :
  1. Analyse univariée avec r avec Rmcdr
  2. Analyse bivariée : Test du chi², analyse de variance, corrélations, … avec Rmcdr
  3. Analyse graphique avec ggplot
  4. Analyse factorielle (ACP, fa, … analyse confirmation, cronbach)
  5. Classification automatique ( ward, Kmeans)
  6. Régressions (simple, multiple, logit, multinomiale)
  7. Structural Equation Modeling

Date rendu : 10 janvier 2019

Sujets :

  • Réaliser un Treemap
  • Appliquer une méthode d’arbre de décision
  • Utiliser stargazer pour comparer plusieurs modèles emboités
  • Appliquer une analyse MDS pour l’étude du positionnement de marques
  • Créer un chloropleth sur les département français, ou commune d’un agglo.
  • Réaliser une analyse de survie dans un fichier client.
  • Corelogram :  questionnaires : Satisfaction, effort, confiance, engagement, recommandation.
  • Analyse de réseau ( igraph) avec techcrunch

 

Les sentiments de Tahiti

onou 2015

Les voyages sont faits pour être vécus mais ce qui en reste ce sont des mots. Des livres de voyageurs, le journal de bord des marins, et aujourd’hui le commentaire des expériences de consommation. A l’heure du post-exotisme ( pas celui-ci), quand le touriste pense rencontrer une culture authentique mais bien souvent façonnée par son propre regard, ce qui compte est moins ce que l’on a vécu que ce que l’on en garde : des selfies et le commentaire des lieux de séjours. C’est certainement moins poétique que Cook et Gauguin, mais plus profitable pour l’industrie du tourisme.

Et c’est à l’occasion d’un de ces voyages, avec l’aide des collègues du Cetop,  des étudiants du master de marketing de l’UPF, et l’écoute du team de Tahiti tourisme, que nous nous sommes lancés dans l’analyse des sentiments exprimés par les touristes à propos de leur séjour  avec une petite incursion dans les packages de text mining de r. Il n’y avait pas de meilleure place pour apprécier la critiques des auberges du paradis.

Pour la méthode, il s’agit d’abord de scrapper, avec les ressources du package rvest, le site de TripAdvisor. La Polynésie est isolée, trouvant ses clients dans trois grands bassins à plus de 10h de vol : l’Asie , les EU et la France. Il y a environ 150 hôtels et 300 pensions. Les résultats donnés dans cette note, sont établis sur la base d’une première extraction centrée sur Tahiti et portant sur 7700 commentaires. On généralisera plus tard sur les 77000 commentaires sur l’ensemble des archipels.

Ce corpus fait l’objet de deux types d’analyses comme on commence à le faire systématiquement dans ce type d’exercice : mesurer la tonalité positive ou négative (le sentiment) et les sujets évoqués ( topic analysis). Pour la première, on emploie tidytext, pour la seconde le modèle LDA du package Topicmodels.

Voici la présentation de travail (demo), avec quelques éléments de code, rendez-vous au piurn 2018 pour une présentation plus complète.

Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche.
Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensé aux étudiants du Master Management de l’Innovation parcours MOPP et GDO.
L’environnement est le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.
On travaillera d’abord sur un cas issu du mémoire de Master Marketing de Pauline Vautrot qui a fait l’objet d’une publication. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.
On utilisera surtout un échantillon de données (n=~35000) de la base European Social Survey ( vague 8) en particulier les questions relative au bien-être, à la confiance, et aux valeurs ( Schwartz) . Les éléments de travail se trouvent ici. Les résultats sont publiés sur cette page, d’autres éléments sur la confiance en France sont aussi disponibles et illustre ce qui est possible de faire avec ces outils.
C’est l’occasion d’introduire, ou de rappeler,  les méthodes statistiques suivantes :

  1. Analyse univariée avec r
  2. Analyse bivariée : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle (ACP, fa, … analyse confirmation, cronbach)
  4. Classification automatique ( ward, Kmeans)
  5. Régressions (simple, multiple, logit, multiniveaux)
  6. Structural Equation Modeling

On explorera les principes d’analyses textuelles avec le cas des hôtels de Tahiti et le blog tex2r

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. A rendre pour le 30 Janvier 2019.

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Des lectures en voici un florilège.

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.

Les Kpis du Marketing – du cockpit au fétiche.

L’invitation de l’Amarc à partager mes réflexions le 21 juin sur la question des indicateurs clés de performance – ces KPIs obsédants, et l’occasion de retrouver un vieux sujet partagé avec un vieux camarade dont la comptabilité est la spécialité, celui du contrôle organisationnel. Et c’est un sujet d’actualité, non seulement par la colonisation du monde par les kpis, les systèmes de notation, de ranking, de scoring, mais aussi parce que dans l’univers des plateformes le contrôle est exercé par le client.  La vidéo est éditée par la pétillante équipe de l’Amarc et je découvre qu’ils (m’) ont fabriqué un très joli mini Mooc.

 

 

Anatomie des échanges collaboratifs

La perceuse du voisin est le modèle même de l’utopie collaborative. Mettre à disposition des autres des équipements dont on a pas forcément l’usage est une évidence durable et économique : augmenter le taux d’usage des appareils qu’on utilise à l’occasion semble être méritoire. Si cet échange est gratuit, qu’une application en réduit les coûts de transaction, c’est à une véritable économie contributive qu’on donne naissance, et on espère que ces circuit assure une vaste circulation, dont une des utopie est l’anthropologie de la Kula.

Ce n’est qu’une hypothèse et nous avons encore besoin de comprendre comment s’organisent les cascades de prêts et d’emprunts et de mieux comprendre comment spontanément la circulation des objets s’organisent.  Certains se prêtent à l’échange : la perceuse-visseuse, la poussette, le vélo, des barbecue et des gauffriers. D’autres moins. Un défi est ouvert, retrouver dans le Paris Bobo les circuits du don que Malinowski a cru trouver entre  la Paouasie, les iles Salomons et les Trobiands.

Par chance, on nous a confié une base de données relevant toutes les transactions effectuées pendant une certaine période ( supérieure à une année) sur une portion substantielle des utilisateurs de la plateformes (disons près de 15% d’entre eux). Ce n’est pas du big data mais assez substantiel : plus de 5000 transactions qui aboutissent ou non ( le taux de transformation est en fait de l’ordre de 30%).

Un premier réflexe est naturellement de représenter graphiquement le réseau constitué par ces échanges. C’est un réseaux directionnel qui associe un prêteur à un emprunteur. Il nous suffit de reformater les données sous la forme de duplets associant le code unique d’un prêteur et celui d’un emprunteur, et de quelques autres attributs définissant la nature de l’objet échangé et la date de l’échange. L’usage direct de igraph et d’un algorithme de force ( KK) via r, permet de produire à peu de frais cette structure. La taille des noeuds est proportionnelle aux nombre de transactions engagées. Au comprend qu’au centre du graphe se trouvent les utilisateurs actifs et que dans la périphéries les utilisateurs occasionnels.  On améliorera la représentation en élimant les couches externes (échangeurs avec une à 3 transaction) pour mieux examiner la structure du macro-composant.

figure 1 : réseau des engagements de transactions

Le phénomène principal est en fait la diversité des statuts : si certains échangent beaucoup et d’autres échangent moins, on s’aperçoit vite qu’ils diffèrent aussi par ceque certains prêtent plus souvent qu’ils n’en empruntent. Nous ne sommes pas dans un espace de marché réciproques (où une contrepartie monetaire est échangée) mais un espace asymétrique où des prêteurs principaux et des emprunteurs net doivent trouver un équilibre à nombre d’objets offerts constant ou croissant. Nous ne développerons pas plus cette aspect essentiel de la dynamique des réseaux d’échange et de leur croissance, pour nous concentrer sur des questions de structure.

Pour caractériser cette différenciation des rôles ( prêteur vs emprunteurs) nous pouvons employer le modèle HITS de  Jon Keinberg qui permet de scorer le caractère de Hub ou d’autorité des nœuds d’un réseau. Un hub est un site qui pointe vers de nombreux sites qui ont une autorité. Il permet à chacun de trouver le meilleur chemin. Une autorité est un site vers lequel pointent de nombreux hub. Il est reconnu comme un point d’intérêt par la plupart des carrefours. Ces notions précédent  et amplifie le concept du PageRanks et rendent compte de la différenciation des rôles dans les réseaux digitaux.

Dans l’économie du partage les hubs délivrent une grande variété de biens  à des emprunteurs fréquents; les autorités sont ces emprunteurs réguliers qui assurent les emprunts auprès des propriétaires les plus populaires. Les uns et les autres forment en quelques autres le moteur du système.  Leur dynamique est le coeur nucléaire de la collaboration, ils amènent rapidement à atteindre le seuil critique.

Une fonction permet de représenter ces deux aspects des noeuds : sont-il plutôt des hubs où des autorités, des donneurs universels et receveurs généraux. En voici les deux cartes. On s’aperçoit dans la périphérie du nuage des transactions uniques, aux coeur du réseaux on s’aperçoit que les hub sont plus nombreux que les autorités : peu d’emprunteurs en dernier ressort absorbent l’offre dominante de hubs plus nombreux.

A ce stade nous sommes encore descriptif : les données que nous avons traitées sont jusqu’à présent moins des transaction que les entames de transaction, et on dispose d’une information: la transaction qui s’engage se conclue-t-elle? Nous connaissons la structure des relations, nous pouvons caractériser chaque acteur comme Hub ou Autorité, nous savons si une transaction engagée entre deux acteurs est conclue, un petit modèle prédictif est bienvenu. Quels sont les facteurs qui facilitent la transaction ?

Un premier évident est celui de la nature du produit échangé. Nous avons fait des tests préliminaires et il semble bien que ce soit déterminant, mais un peu de travail est encore nécessaire pour codifier les objets et mieux tester cette source de succès.

Le second facteur semble aussi naturel : la transaction se fera en fonction des caractéristiques des acteurs, et notamment leur score de hub et d’autorité. Ceci représente l’hypothèse du “social embedness” qui enonce que les acteurs ne sont pas homogènes et que leur pouvoir dépend de leur inclusion sociale.  C’est notre hypothèse principale.

Un troisième facteur est lui relatif à l’expérience : quand des acteurs répètent l’échange, en principe si tout se passe bien la confiance s’installe avec l’habitude et on s’attend à ce que la probabilité que la transaction réussisse soit plus grande.

Testons cela par un modèle de régression logistique  dans lequel la variable dépendante est le caractère achevé ou non de l’échange, et les déterminants sont le nombre d’échanges déjà réalisés, le score de hub du prêteur, et celui d’autorité pour caractériser  l’emprunteur.

(Intercept)                  -1.388  0.0391   -35.557 ****
authority_score.        0.355  0.1809     1.963   **
hub_score.                -0.492  0.3121    -1.578    *
NBdePrets                  0.036  0.0059    6.264   ****

* 10%   ** 5%   *** 1%   ***** <<1%

Les résultats sont clair : plus grand est le nombre d’échange entre deux utilisateurs et plus grande est la probabilité de réalisation. Plus élevé est le score d’autorité plus l’échange a de chance de se réaliser : les emprunteurs fréquents réalisent mieux leurs demandes, ils ont sans doute appris à utiliser la plateforme, on mesure ainsi un effet d’apprentissage, une autre interprétation c’est qu’échangeant souvent ils développent une expérience qui est un signal de confiance. En revanche le score de hub ne semble pas influencer la probabilité de réalisation de l’échange. Une hypothèse est que si les hubs bénéficient d’un effets de réputation, ils souffrent aussi d’un effet de compétition. Offrant le plus de biens aux meilleurs emprunteurs, leurs biens, uniques, sont mis en concurrence, et certains emprunteurs échouent. Les deux effets se neutraliseraient.

Nous n’irons pas plus loin dans la discussions. Les éléments quantitatifs sont encore assez bruts, la méthode générale est données, nous devons en affiner l’application. Mais déjà des résultats émergent pour comprendre comment les flux de l’échange s’organisent et plus précisément comment la structure sociale peut déterminer au travers de la position des échangeurs la probabilité qu’un échange se produise.

Et voilà qu’avec quelques ligne de r, nous refaisons le voyage des argonautes.

Satisfaction à l’égard des moteurs de recommandation : la transparence optimale

C’est une idée ancienne. Le mieux dans la transparence n’est pas le plus, c’est plutôt un clair-obscur, assez clair pour que la lumière traverse, assez obscur pour qu’on y devine un relief.

Il en est de même pour la transparence des algorithmes. Les utilisateurs réagissent le mieux à une information épurée, simplifiée, qui donne les principes sans brouiller avec les détails. Le simple plus que le complet.

Ce papier, publié dans la nouvelle et intéressante revue Management et DataScience en teste l’hypothèse. S’il est modeste dans la méthode et le principe ses résultats sont très net.  Cela a des conséquences en matière de design des sites et des applications. Donner des éléments clés qui favorise l’autonomie de jugement ( dois-je faire confiance à ce type d’algorithme ?)  et la connaissance de risque éventuel, sans demander un effort exorbitant. Cela cependant ne résout pas la question du contrôle effectif des algorithme qui demande une connaissance approfondie des détails.  On comprend que celle-ci n’est pas à la charge des consommateurs, mais des organismes spécialisés dans la défense des droits et des consommateurs, la recherche académique, ou de régulation.  La transparence est un arrangement institutionnel.

PS : au passage soulignons que cette publication est le résultat du mémoire de master marketing à Nanterre de Pauline Vautrot.

Confiance et bonheur : la force du lien

Il y a des moments de bonheur. Par exemple, celui où on découvre un jeu de données merveilleux et que l’on part à son exploration. Ce jeu de donnée est celui de l’ESS Eric. Parfaitement préparé et documenté, il cumule 8 vagues d’enquêtes menées tout les deux ans, dans plus d’une vingtaine de pays, et porte chaque fois sur près de 2000 personnes, au total près de 300 000 répondants. Un véritable baromètre du bonheur, du bien être, des valeurs, de la confiance, de l’engagement politique et civique, des sentiments de discrimination, des orientations politiques et religieuses, de l’inclusion.

Une mine d’or. Je ne serais pas le premier à m’y plonger, des centaines de publications ont déjà employé telle ou telle fraction des données. C’est aussi un très bel outil pédagogique, une base magnifique pour introduire à la puissance et l’élégance de r et du traitement statistiques des données, d’autant qu’elles sont aisément téléchargeables, sous des formats remarquables de limpidité.

Pour le spécialiste de marketing qui a été nourri au lait de la relation client, et par conséquent de celui de la confiance, il y a l’occasion remarquable de revenir, à grande échelle (la base que nous exploitons représentent 220 000 individus au cours de 6 vagues et dans 16 pays) sur le lien qu’elle entretient avec la satisfaction, et d’en tester la solidité à travers les pays, le temps, et les strates sociales. On se concentrera dans cette analyse sur un tout petit nombre de questions relatives à trois variables clés.

  • le bonheur bien sûr, mesuré comme satisfaction dans la vie, et sentiment de bonheur actuelle ( 2 items). L’état de santé perçue est aussi mesuré, mais nous ne le prendrons pas en compte, pas plus que la satisfaction à l’égard de l’économie qui dans des premiers tests se révèle peu lié au bonheur. C’est notre variable dépendante.
  • la confiance interpersonnelle : se méfie-t-on des autres, espère-t-on leur aide, sont juste juste ? 3 items sont proposés qui présente un alpha de l’ordre de 0,80.
  • la confiance dans les institutions dont une analyse plus fine révèle qu’elle possède trois facettes : l’administration, le politique, les institutions internationales. Nous les traiterons comme une dimension. l’alpha est de 0.92.

Notre modèle est donc extrêmement simple, une regression à deux variables corrélées. on l’estime avec un modèle SEM évalué avec l’élégance du Package Lavaan. Le temps de calcul ne dépasse pas la seconde, un poil plus quand des modèles à nombreux groupes sont estimés.


library(lavaan)
library(semPlot)
model <- '
# measurement model
Trust_Interperson =~ Trust_tst + Trust_fair + Trust_hlp
Trust_Institution =~ Trust_parlemnt + trust_legal + trust_police + trust_polit+trust_parti+trust_eu +trust_un
Happyness =~ happy + stflife
# regression
Happyness ~ Trust_Institution + Trust_Interperson
# residual correlations
Trust_Institution ~~ Trust_Interperson'

fit0 <- sem(model, data=Conf)
summary(fit0, standardized=TRUE)

pathdiagram<-semPaths(fit0,whatLabels="std", intercepts=FALSE, style="lisrel",
nCharNodes=0, nCharEdges=0,edge.label.cex = 0.6, label.cex=1.2,
curveAdjacent = FALSE,title=TRUE, layout="tree2",curvePivot=TRUE)

Le résultat du modèle est résumé dans le graphe suivant, il montre que le bonheur dépend plus de la confiance interpersonnelle, locale, de voisinage, de l’idée qu’on se fait de l’humain que de la confiance dans les institutions. Clairement deux fois plus. Si une unité de confiance interpersonnelle supplémentaire est obtenue, c’est 0,36 de bonheur gagné, le même gain de confiance envers les institutions s’accroît le bonheur que de 0,16 unités. La confiance reste un sentiment général, une corrélation de 0, 55 est enregistrée entre ses deux facettes, elles évoluent de manière conjointe ce qui se comprend : de bonnes institutions conduisent à ce que les gens se fassent confiance,, mais pour faire confiance aux institutions il faut aussi faire confiance aux gens qui les habitent.

Avoir autant de données pour une presque trivialité peut sembler inutile, sauf si l’on cherche à voir ce qui peut faire varier ce modèle. L’idée est donc simplement d’évaluer ce modèle pour différents groupes. La seule chose à faire est de modifier l’ajustement avec cette ligne :

fitG <- sem(model, data=Conf, group="cntry",group.equal = c("loadings"))

Le même modèle est estimé pour les différents groupes (le pays dans l’exemple) avec la contrainte que les loadings sont égaux entre les groupes : on mesure les mêmes variables partout ( avec group.equal). Ce qui peut changer c’est le poids des variables de confiance sur le bonheur, et leur degré de corrélation. Cette approche consiste en fait à faire une sorte de méta-analyse. Répéter l’estimation du modèle sur différent groupes et analyser la variance de ses paramètres.

Avant de présenter les résultats, un élément préalable doit être communiqué : le niveau de bonheur au niveau du pays est inversement lié à la variance du bonheur au sein du pays. Autrement dit ce qui fait baisser l’indice de bonheur c’est l’inégalité du bonheur! Ce qui fait un pays heureux c’est quand tous le sont également, c’est le cas dans les pays du nord de l’Europe, le sud et  l’est sont soumis aux inégalités.

Dans le diagramme suivant, le poids des paramètres du modèle pour chaque pays est indiqué par la longueur des barres horizontale. On retrouve le pattern général, la confiance interpersonnelle tourne autour de 0.35, et c’est en France qu’elle est la plus déterminante. La confiance dans les institutions pèse le plus sur le bonheur en hongrie. Les pays sont classés par ordre de bonheur, s’il y a des différences il est difficile de comprendre pourquoi.

Tant qu’à faire nous avons systématisé cette approche sur un certains nombre de variables. Tous les résultats sont regroupés dans le graphique suivant. Et en voici les enseignements principaux.

Premier point, dans la figure (b) on n’observe pas de changement notable dans l’indice de bonheur sur une période de 10 ans. Le poids des deux facettes de la confiance sur le bonheur reste stable aussi. C’est sans doute le fruit de l’homéostasie du bonheur et de la satisfaction. Le monde peut changer, il se réajuste.

Second point, dans la figure (a) on observe un changement important  d’une génération à l’autre  : l’influence de la confiance interpersonnelle sur le bonheur est plus faible pour les plus jeunes, qui sont aussi les plus heureux. Auraient-ils moins besoin des autres, des proches pour jouir de la vie? le poids de la confiance institutionnelle lui ne varie pas et reste identique à travers les génération.  Ce résultat est d’autant plus intriguant, qu’il ne se retrouve pas dans le niveau de diplôme. C’est donc bien un effet de génération et non de socialisation et qui semble s’engager à partir de la génération des années 50.

Le dernier point met en évidence le prix de la solitude, les foyers solo sont bien moins heureux que les autres comme l’indique la figure (d ). Elle fait aussi apparaître un léger effet en U : la confiance interpersonnelle compte plus quand on est seul ( les bonnes relations de voisinage peuvent compenser le célibat), et lorsque le foyer est nombreux ( le conflit en groupe est un enfer!).

L’exercice ici est largement pédagogique et méthodologiques. D’autres variables doivent être intégrées au modèle, ne serait- ce que la santé, l’intégration sociale qui joue un rôle clé, peuvent être les valeurs, les opinions politiques religieuses. Sa limite est celle d’une première analyse. Elle est aussi celle du pouvoir explicatif des modèles. La confiance à elle seule explique qu’une faible partie de la variance : avec un contrôle par le pays et l’inclusion de la confiance dans l’économie et l’état subjectif de santé, on explique au mieux 24% de la variance. Il reste la place pour d’autre facteurs.

Son intérêt empirique réside dans ce fait intéressant : la très grande stabilité des paramètres du modèle à travers l’espace, le temps, et les catégories sociales, même si l’effet générationnel qu’on vient de mettre en évidence par cette sorte de méta-analyse reste encore à expliquer. Il témoigne pour une forme homéostatique du bonheur qui s’ajusterait aux changements de conditions de vie. Il  dépend peu de la confiance envers les institutions, il est plus nettement lié à l’idée que les autres sont bienveillants même si ce lien s’affaiblit avec les générations.