Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche. Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensés aux étudiants du Master management de l’Innovation parcours MOPP et GDO.
Le cours s’organisent en 2 éléments :

1) Rappels élémentaires de statistique et d’analyse multivariée (tests, régression, ACP et classification) : 3 séances . L’environnement le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.

On travaillera sur un cas issu du Mémoire de Master Marketing de Pauline Vautrot. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.

  1. Analyse univariée avec r
  2. Analyse bivariées : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle
  4. Classification automatique
  5. Régressions

2) Un atelier des méthodes – présentation de protocoles méthodologiques dont les synthèses sont présentées par les étudiants sur la base d’articles significatifs dont voici un florilège. ( en Janvier 1 journée pleine)

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. Inscription ici

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.

 

Satisfaction : en finir avec la malédiction

15602367155_e20626947f_zAucun autre texte que celui des Rolling Stones n’exprime mieux le problème de la satisfaction : son incapacité à produire un état de bien-être durable. Il dit l’essentiel d’une société de consommation où la sollicitation crée la frustration et l’amélioration des conditions matérielles ne change pas la ligne du bonheur.

De nombreuses firmes désormais incluent la mesure de la satisfaction, ou d’autres indicateurs comme le NPS, parmi les KPI pour mieux piloter l’entreprise, en en faisant un instrument de mesure externe (compétition) et interne (benchmarking), mais aussi longitudinal (apprentissage).   Mais elles se heurtent à un fait : il s’avère que dans le temps, les indices de satisfaction varient peu, les données de l’Asci en rendent compte : les satisfaction indicevariations intersectorielles sont plus importantes que les variations temporelles. Ainsi dans le graphe suivant, où nous avons pris soin de prendre en compte toute l’étendue de l’échelle de l’ACSI, que l’on pense bien faite, et à partir de leurs données, on s’aperçoit de la stationnarité de l’index, et plus remarquable encore de celle d’un secteur, la TV où sur la période des amélioration notables ont été apportés au produit : réduction de l’épaisseur des écrans, accroissement de leur luminosité, multiplication des fonctions et services associés et naturellement digitalisation. Les efforts des industriels ont-ils été vains?

Il peut être intéressant d’examiner la dynamique de la satisfaction en revenant à son modèle le plus simple pour s’interroger sur une hypothèse remarquable, celle de la malédiction de la satisfaction. Celle-ci peut s’exprimer de la manière suivante : si les efforts réalisé par les entreprises pour améliorer la qualité peuvent conduire dans l’immédiat à une augmentation de la satisfaction, sur le long terme cet accroissement de la qualité peut engendrer une élévation du niveau des attentes, réduisant ainsi les gains de satisfaction. Le jeu concurrentiel entretient ce processus et conduirait ainsi à l’observation d’une stabilité des indices satisfaction.

En réalité peu d’articles se sont penchés sur la question théoriquement et empiriquement (on trouvera leur références en fin d’articles)  même si certains champs de la la psychologie, peuvent nous permettre de mieux justifier cette hypothèse, nous y reviendrons un peu plus loin. Ce vide relatif a longtemps été le résultats de ceux que les mesures longitudinales ne sont pas si faciles à obtenir, mais aujourd’hui on dispose de telles bases et il y a certainement matière pour renouveler la recherche dans le champs. Ceci dit le travail empirique n’est pas le seul chemin  pour saisir cette dynamique. La simulation peut être un excellent moyen de la comprendre. En voici une esquisse.

Revenons au modèle de la satisfaction. L’élément principal réside dans la notion de confirmation : si les attentes (At) sont supérieures à la qualité perçue (Qt), un effet négatif de cette différence joue sur la satisfaction (St). Peut s’y ajouter une certaine inertie de la satisfaction, et des éléments aléatoires (humeurs, situation, mesure…). Cela se modélise aisément par

S(t)=αA(t)-Q(t)) +βS(t-1)+ε(t)

Les attentes sont certainement déterminées par leur état antérieur (inertie) et le niveau de satisfaction éprouvé précédemment (plus on est satisfait et plus les attentes sont augmentées) :

At=φA(t-1) + δS(t-1) +μ(t)

De même la qualité perçue dépend du jugement précédent de qualité (inertie), de l’état de satisfaction précédent et de la politique de qualité de l’entreprise qu’on représente par Kt..

Q(t) =θQ(t-1)+γS(t-1) + K(t) +ν(t)

En itérant les équations dans le temps, et en répétant ces itérations un grands nombre de fois on peut étudier par une méthode de Monte-Carlo le comportement de ce systèmes et surtout des perturbations qui peuvent lui être apportés. C’est ce que nous avons fait. Mon ami et collègue Amine Benabi a donc mis celui en musique sous r (cette version est encore sommaire, le modèle n’a pas été calibré. Elle est consultable sur demande) . En voici le résultat d’une première formalisation où nous suivons la dynamique sur 300 périodes, le processus ayant été répété 1000 fois. Chaque courbe représente la moyenne des 1000 simulations.

satisfaction

Dans l’initiation du processus, on a pris volontairement une valeur très élevée des attentes au regard de la qualité perçue, on s’aperçoit que très rapidement un réajustement s’opère : les niveaux de satisfaction et de qualité perçue se confondant, ce qui va d’ailleurs dans le sens de cette vieille argumentation à l’égard de la satisfaction dans les services qui considèrent qu’on peut difficilement les distinguer et justifie le modèle Servqual.

A l’itération 100, nous avons « choquer » le modèle en introduisant une réduction brutale des attentes. Un tel phénomène est ce que free a produit en se lançant dans le marché du mobile avec une offre a petit prix, produisant chez les consommateurs une modification sensible de leur niveau d’attente en terme de qualité de service, dans les mois qui ont suivi d’ailleurs la marque s’est retrouvée avec un niveau de satisfaction plus élevé que ses concurrents, et c’est bien ce que l’on retrouve : un rebond de la qualité/satisfaction perçue.

Mais à long-terme on s’aperçoit que le niveau de disconfirmation retrouve son niveau et fluctue très faiblement. Les oscillations des autres indicateurs par la suite traduisent une marche au hasard, qui résultent des éléments aléatoires introduit dans le modèle.

On peut regarder de plus près ce qui se passe au moment de la perturbation en examinant la distribution de l’indicateur de satisfaction au travers des 1000 essais. On s’aperçoit que le changement du niveau d’attente produit une élévation du niveau de satisfaction, mais aussi un accroissement de sa variabilité! Avec le temps l’adaptation joue non seulement dans le sens d’une réduction de la satisfaction, mais aussi avec une réduction de la variance de la satisfaction.

boxplot satisfaction

Il faudrait naturellement systématiser l’analyse, en formulant d’abord un modèle réaliste, au moins dans ses paramètres ( dont on retrouvera aisément des valeurs plausible dans la littérature et en multipliant les expériences de  » choc »), mais aussi dans la définition des variables ( par exemple on ne tient pas compte des aspects normatifs de l’attente : elle dépend aussi des attentes des autres!) . Mais cette illustration suffit à confirmer que l’analyse de la dynamique rend compte d’une certaine stationnarité de la satisfaction. Ceci a des conséquences en terme de barométrie :

  • c’est sur les impacts à court terme qu’il faut centrer l’attention. Les variations de satisfaction ont de sens que consécutives à une action donnée. Il faut se concentrer sur l’impact des événements plus que sur la trajectoire générale.
  • La satisfaction doit être comparée à des référents. Se dégrade-t-elle par une élévation trop rapide des attentes ou par une amélioration insuffisante du sentiment de qualité ?
  • Ce mécanisme jouant à l’échelle du secteur, ce sont les différences relatives entre les concurrents qui sont les plus significatives. Encore faut-il savoir si de l’un à l’autre le paramètrage est identique! Certaines marques peuvent ainsi connaitre des niveaux d’inertie plus forte que les autres.

Plus profondément cela mène à réfléchir aux conditions d’une stratégie centrée sur la satisfaction. L’amélioration continue, stimulée par l’innovation concurrentielle risque de buter sur des attentes croissantes. La seule issue est une disruption : si en repensant l’offre, le modèle d’attente change qualitativement. C’est ce qui se passe ici  où l’on représente les conséquences d’une baisse brutale du niveau d’attente (car il prend une nouvelle forme qualitative). Dans les périodes suivantes la satisfaction se remet à croître jusqu’à ce que la « malédiction » reprenne le dessus. Le modèle de gestion de la satisfaction pourrait ainsi ne pas être simplement progressif, il demanderait des ruptures régulières passant sans doute par des changements de convention d’attentes et de qualité.

Reste sur le plan théorique à mieux comprendre les ressorts psychologiques de ces phénomènes d’adapation. Et sur ce plan on est pas démuni comme la contribution de Martin-Krumm, Lyubomirsky et Nelson le démontre. Le modèle de l’Adaptation Hédonique aux Evenements positifs et négatifs (HAPNE) du courant de la psychologie positive, peut nous amener à mieux comprendre les processus à l’oeuvre, et à répondre à cette question de méthode que Christian Barbaray m’a posé il y a quelques semaines : comment relier des mesures de satisfaction à chaud, associée à des événements particulier, à la mesure baromètre, à froid, de ce qu’on appele ordinairement satisfaction cumulée.

Je ne résiste pas à reproduire ici un des schémas du chapitre pré-cité ( il y en a un autre pour le domaine négatif, voir le texte ) :

HAPNE positif

On y retrouvera l’hypothèse que nous avons testée par simulation et quelques autres pistes d’actions : l’augmentation des émotions positives qui correspond à certaines pratiques de l’expérience client,  la production d’événement surprenants et variés (et voilà qui donne une bonne explication à l’activité incessante et créative d’une marque comme coca-cola), ou aux tactiques visant à mettre en valeur les changement.

Et l’on sera tenté de se dire que finalement le maintien et l’accroissement de la satisfaction n’est pas tant que question de répondre aux attentes, mais comme les vieilles star du rock savent le faire, de mettre en scène continuellement les variations d’un même motif, et que plutôt qu’une innovation en profondeur, ce dont les marques ont besoin n’est peut-être simplement que d’inventer de nouvelles soupes dans de vieux pots.

Quelques références

  • Martin-Krumm, Lyubomirsky et Nelson (2012) « Psychologie positive et adaptation : quelle contribution? » in Psychologie de l’adaptation – direction de : Cyril Tarquinio, Elisabeth Spitz, De Boeck Supérieur
  • Homburg, C., Koschate, N. & Hoyer, W.D., 2006. The Role of Cognition and Affect in the Formation of Customer Satisfaction: A Dynamic Perspective. Journal of Marketing, 70(3), p.21–31.
  • Bruhn, M. & Frommeyer, A., 2004. Development of Relationship Marketing Constructs Over Time Antecedents and Consquences of Customer Satisfaction in a Business-to-Business Environment. Journal of Relationship Marketing, 3(4), p.61.
  • LaBarbera, Priscilla A., and David Mazursky.1983. « A Longitudinal Assessment of Consumer Satisfaction/Dissatisfaction: The Dynamic Aspect of the Cognitive Process. » Journal Of Marketing Research (JMR) 20, no. 4: 393-404.

Analyse conjointe avec r

VinblancL’analyse conjointe est sans doute la méthode la plus spécifique du marketing, même s’il semble qu’elle soit un peu négligée de nos jours alors même que l’environnement digital en permettrait un renouveau. Dans cette note nous nous contenterons de présenter pas à pas, son application via le package Conjoint sur r , développé par Andrzej Bak et Tomasz Bartlomowicz.

Pour plus de détails sur la méthode elle-même on jettera un coup d’oeil en fin de post à une bien vieille note écrite avec Jean-claude Liquet, imparfaite mais utile au moins pour les étudiants. Pour un état de l’art récent on ira voir ce texte , pour des applications professionnelles on ira voir le site de Sawtooth.

L’exemple que nous utilisons est un jeu de donnée crée par une des étudiante du Master MOI, dans le but de tester le rôle de certain signes de qualité dans le choix d’un vin. La première étape de l’analyse conjointe consiste à choisir des attributs que l’on pense déterminant et à définir leur modalités. La seconde étape vise à générer des concepts à partir de ces attributs. Comme le nombre de combinaison devient rapidement important, on utilise généralement des méthodes de plan d’expérience incomplets ( toutes les combinaisons ne sont pas testées, et orthogonaux ( on s’arrange pour que les modalités apparaissent de manière équilibrée et non corrélées entres elle).

La procédure ici est très simple : on appele le package « conjoint », pis on créé le fichier vin qui va contenir les différents concept en définition les attributs ( variables : type, pays…) et leurs modalités (« doux, « demi-sec »,…). Le plan factoriel est défini par la commande caFactorialDesign avec ici deux options : le choix de l’option  » fractional », et une limite dans le nombre de concept que l’on a fixé à 13.


library (conjoint)
library (Rcmdr)
Vin<-expand.grid(
Type<-c(« Doux », »demi-sec », »sec »),
Pays<-c(« Bourgogne », »Bordeaux », »Italie-Nord », »Afrique du Sud »),
Marque<-c(« Millessima », »1jour1vin », »Nicolas »),
Prix<-c(« 7€ », »12€ », »20€ »),
Label<-c(« Médaille d’or « , »NC »),
Environ<-c(« Bio », »NC »),
Annee<-c(« 2014 », « 2011 »))
design_vin<-caFactorialDesign(data=Vin,type= »fractional »,cards=13)

Le résultat est obtenu avec

print(design_vin)

le voici :

        Var1           Var2       Var3 Var4           Var5 Var6 Var7
49      Doux      Bourgogne  1jour1vin  12€ Médaille d'or   Bio 2014
81       sec    Italie-Nord Millessima  20€ Médaille d'or   Bio 2014
95  demi-sec Afrique du Sud  1jour1vin  20€ Médaille d'or   Bio 2014
176 demi-sec    Italie-Nord    Nicolas  12€             NC  Bio 2014
208     Doux       Bordeaux    Nicolas  20€             NC  Bio 2014
221 demi-sec       Bordeaux Millessima   7€ Médaille d'or    NC 2014
360      sec Afrique du Sud    Nicolas   7€             NC   NC 2014
458 demi-sec      Bourgogne    Nicolas   7€ Médaille d'or   Bio 2011
558      sec       Bordeaux  1jour1vin   7€             NC  Bio 2011
586     Doux Afrique du Sud Millessima  12€             NC  Bio 2011
667     Doux    Italie-Nord  1jour1vin   7€ Médaille d'or    NC 2011
714      sec       Bordeaux    Nicolas  12€ Médaille d'or    NC 2011
842 demi-sec      Bourgogne  1jour1vin  20€             NC   NC 2011

Parmi les 3x4x2x3x2x2=288 concept possibles seuls 13 ont été choisis. Est-ce trop peu? Un moyen de tester celà est de calculer les corrélations entre les modalités. C’est une fonction offerte par le package :

design_vin2<-caEncodedDesign(design_vin)
print(cor(design_vin2))

En voici le résultat, et c’est entre la var 7 et 4 qu’on encourage la corrélation la plus forte. Dans la pratique on fait différent essais pour trouver le meilleur compromis. Dans notre exemple on se satisfera de cette solution.

Var1 Var2 Var3 Var4 Var5 Var6
Var1 1.0000000 0.15304713 0.10586263 -0.10586263 0.17593289 -0.17593289
Var2 0.1530471 1.00000000 -0.11216750 0.11216750 0.17605477 0.04142465

Var3 0.1058626 -0.11216750 1.00000000 0.23275862 0.08596024 0.08596024
Var4 -0.1058626 0.11216750 0.23275862 1.00000000 -0.08596024 -0.08596024
Var5 0.1759329 0.17605477 0.08596024 -0.08596024 1.00000000 0.07142857
Var6 -0.1759329 0.04142465 0.08596024 -0.08596024 0.07142857 1.00000000
Var7 0.1759329 -0.04142465 -0.08596024 -0.28653413 0.23809524 -0.07142857

La troisième étape est celle de la collecte d’information. On essaiera de donner plus de réalisme en proposant les concepts sous formes d’image (celle qui illustre le post en est un exemple) ou encore mieux sous la forme de maquette. Quant au nombre de sujet, une remarque importante est qu’il n’a pas de limite inférieure pour la raison simple que le modèle est calculé individu par individu : ce que l’on cherche c’est naturellement à prédire le classement des concepts à partir des profils, et cela individu par individu. Naturellement les conditions d’échantillonnage habituelles interviennent si l’on veut généraliser à une population, si l’on veut segmenter ou faire des comparaisons entre des groupes d’individus particulier. Dans notre exemple on se contente de 36 individus, c’est largement insuffisant pour généraliser, mais bien assez pour les vertus de l’exemple.

Le fichier de données recueillis par notre étudiante apparait sous la forme suivante : C1, C2,… représente le premier puis le second choix etc. Nous allons devoir le remettre en ordre pour qu’il puisse être traité.

ID SEXE C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C12 C13
1 1 homme 52 458 584 105 627 654 311 775 514 120 424 253 828
2 2 femme 105 775 52 458 828 654 253 311 627 120 584 514 424
3 3 homme 52 514 105 627 253 654 120 311 458 584 424 828 775
4 4 homme 52 584 105 627 775 654 120 311 458 514 424 253 828
….

L’ordre requis par le package est un fichier « long » qui énumère les individus, les concepts dans leur ordre de production, et le classement de ces concepts. Une petite manipulation doit être donc excecutée avec une fonction très utile de r : la fonction  » reshape » :

MemoireVin_rank3 <- reshape(MemoireVin_rank2, varying=list(c(« C1″, »C2″, »C3″, »C4″, »C5″, »C6″, »C7″
, »C8″, »C9″, »C10″, »C11″, »C12″, »C13 »)), idvar = « ID », v.names= »concept »,direction = « long »)

 

On trie le fichier ensuite avec

MemoireVin_rank4<-MemoireVin_rank3[order(MemoireVin_rank3[,4],decreasing=F),]
MemoireVin_rank4<-MemoireVin_rank4[order(MemoireVin_rank4[,1],decreasing=F),]

 

et l’on crée un fichier de label pour l’esthétique:

l’analyse conjointe proprement dite peut être exécutée avec la simple commande :

Conjoint(MemoireVin_rank4$concept,design_vin2,label)

 

qui produit les résultats principaux suivants: c’est à dire les utilités partielles ( path-worth) et le poids des attributs (on omet le modèle de régression et les tests associés qui sont redondants)

Residual standard error: 3,448 on 442 degrees of freedom
Multiple R-squared: 0,175, Adjusted R-squared: 0,1526
F-statistic: 7,811 on 12 and 442 DF, p-value: 2,991e-13
[1] « Part worths (utilities) of levels (model parameters for whole sample): »
levnms utls
1 intercept 7,3099
2 Doux 0,1999
3 demi-sec 0,8055
4 sec -1,0054
5 Bourgogne -0,9406
6 Bordeaux 0,5748
7 Italie-No -0,1933
8 AfriqueSud 0,5591
9 Millessima 0,5693
10 1jour1vin-0,9083
11 Nicolas 0,3389
12 7€ -0,901
13 12€ -0,6254
14 20€ 1,5264
15 Médaillor-0,0999
16 NC 0,0999
17 Bio -0,7956
18 NC 0,7956
19 2014 -0,8828
20 2011 0,8828
[1] « Average importance of factors (attributes): »
[1] 17,58 18,68 14,39 20,87 8,40 10,53 9,54

 

On notera d’emblée u r2 proche de 17,5%, ce qui signifie que l’on reconstitue imparfaitement les préférences mais de manière significative : le test d’analyse de variance l’est à moins de 1 pour 1000. D’autre facteurs interviennent mais n’ont pas été pris en compte : forme de la bouteille, étiquette, Chateau etc. Les path-worth représente le gain en terme de rang qui est obtenus : les valeurs négative signifie simplement qu’on améliore le classement avec la présence de la modalité. Par conséquent le profil préféré est un vin sec, de type bourgogne, vendu par 1j1vin à 7 euros, bio et ayant reçu  une médaille, et plutôt jeune. On s’aperçoit que le prix pèse vous 21% suivi par l’origine et le type de vin, la médaille et le millésime comptant pour peu.

La commande produit aussi de manière automatique les graphiques de profil d’utilité correspondants :

Poursuivons la procédure. Ces résultats généraux sont une chose, mais on souhaite avoir des résultats plus individualisés. Les commandes suivantes nous permettent de générer un fichier des utilités individuelles :

upartial<-caPartUtilities(MemoireVin_rank4$concept,design_vin2,label)
newData <- as.data.frame(upartial)
newData
names(newData) <- make.names(names(newData))

L’analyse conjointe à ce stade est achevée et nous pouvons en exploiter les résultats. A titre d’exemple on peut s’interroger sur le poids des attributs dont on se dit qu’ils peuvent varier selon le degré d’expertise des consommateurs. Pour vérifier cette proposition, il va falloir d’abord transformer les utilités des modalités en importance des attributs. La formule générale est simplement Wk = abs(Min(ki)-Max(ki)/ somme(abs(Min(ki)-Max(ki)), k représente l’attribut, i les modalités des attributs. Le code est simple même si un peu lourd.

#calcul des importances

MemoireVin_rank$x_type<-abs(MemoireVin_rank$Doux-MemoireVin_rank$sec)
MemoireVin_rank$x_Origine<-abs(MemoireVin_rank$Bourgogne-MemoireVin_rank$Afrique.du.Sud)
MemoireVin_rank$x_Enseigne<-abs(MemoireVin_rank$Millessima-MemoireVin_rank$Nicolas)
MemoireVin_rank$x_Prix<-abs(MemoireVin_rank$X7.-MemoireVin_rank$X20.)
MemoireVin_rank$x_Medaille<-abs(MemoireVin_rank$Médaille.d.or-MemoireVin_rank$NC)
MemoireVin_rank$x_Bio<-abs(MemoireVin_rank$Bio-MemoireVin_rank$NC)
MemoireVin_rank$x_Millessime<-abs(MemoireVin_rank$X2014-MemoireVin_rank$X2011)
MemoireVin_rank$x=MemoireVin_rank$x_type+MemoireVin_rank$x_Origine+MemoireVin_rank$x_Enseigne+MemoireVin_rank$x_Prix+MemoireVin_rank$x_Medaille+MemoireVin_rank$x_Bio+MemoireVin_rank$x_MillessimeMemoireVin_rank$x_type<-MemoireVin_rank$x_type/MemoireVin_rank$x
MemoireVin_rank$x_Origine<-MemoireVin_rank$x_Origine/MemoireVin_rank$x
MemoireVin_rank$x_Enseigne<-MemoireVin_rank$x_Enseigne/MemoireVin_rank$x
MemoireVin_rank$x_Prix<-MemoireVin_rank$x_Prix/MemoireVin_rank$x
MemoireVin_rank$x_Medaille<-MemoireVin_rank$x_Medaille/MemoireVin_rank$x
MemoireVin_rank$x_Bio<-MemoireVin_rank$x_Bio/MemoireVin_rank$x
MemoireVin_rank$x_Millessime<-MemoireVin_rank$x_Millessime/MemoireVin_rank$x

En voici les résultats réalisé avec la commande plotMeans du package Rcmdr (la fonction x11() permet d’ajouter les graphiques), on s’apercevra que ceux qui se sentent experts donne un poids plus important au caractère bio et au prix, tandis que les novices accordent plus d’attention à la médaille, au millésime et à l’origine, alors que ceux qui se sentent un degré modéré d’expertise favorisent l’enseigne et le type de vin. Sans aller plus loin dans l’analyse on obtient un résultat général clair : on n’utilise pas les mêmes critères selon le niveau d’expertise, ce qui est assez logique. On laissera au lecteur le soin d’aller plus loin.


x11()
plotMeans(MemoireVin_rank$x_type, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance »,main= »Type »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Origine, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance « ,main= »Origine »,cex.lab=1)
x(11)
plotMeans(MemoireVin_rank$x_Enseigne, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »ENseigneG »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Medaille, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Medaille »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Bio, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »BIO »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Millessime, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Millessime »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Prix, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Prix »,cex.lab=1)

Généralement on cherchera à segmenter notamment pour identifier les groupes de consommateurs qui partagent les mêmes attentes. Ici on emploie les fonctions d’analyse hierarchique ( méthode de ward) fourni par l’interface graphique Rcmdr qui a déja été appelée, en choisissant la solution à trois groupes et en l’illustrant par le biplot. le code correspondant est le suivant ( mais en fait on s’est contenté d’utiliser le menu)


HClust.1 <- hclust(dist(model.matrix(~-1 + x_Bio+x_Enseigne+x_Medaille+x_Millessime+x_Origine+x_Prix+x_type, MemoireVin_rank)) , method= "ward") plot(HClust.1, main= "Cluster Dendrogram for Solution HClust.1", xlab= "Observation Number in Data Set MemoireVin_rank", sub="Method=ward; Distance=euclidian") summary(as.factor(cutree(HClust.1, k = 3))) # Cluster Sizes by(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank), as.factor(cutree(HClust.1, k = 3)), colMeans) # Cluster Centroids biplot(princomp(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank)), xlabs = as.character(cutree(HClust.1, k = 3)))

les profils apparaissent dans le tableau : le groupe 1 donne plus de poids à l’origine et au type, le groupe 2 à l’enseigne et au caractère bio, le groupe 3 au prix et au millesime. O peux penser que le premier favorise les goûts de l’individu, le second le style d’achat, et le troisième un certain rapport qualité/prix. On retrouve ainsi ce grand classique des avantages recherchés!


INDICES: 1
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07147493 0.10822056 0.09169431 0.11697915 0.22503436 0.19621573
x_type
0.19038097
————————————————————
INDICES: 2
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.17373411 0.19015292 0.15400115 0.05344901 0.07003827 0.16861833
x_type
0.19000620
————————————————————
INDICES: 3
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07657425 0.13635953 0.12456815 0.29134291 0.04337232 0.25255357
x_type
0.07522927

 

 

 

Atelier doctoral EOS : introduction à r pour la recherche en sciences sociales

8632719561_1f29ac3359_zL’objectif de l’atelier est la prise en main de r au travers de l’interface graphique Rcmdr et de Rstudio. Découverte de la communauté R et de ses ressources en 4 séances de 3 heures et 4 problématiques.
Public visé et pré requis : doctorants et autres chercheurs. Connaissance des tests statistiques et autres statistiques élémentaires.
Calendrier de la formation (période de l’année): mardi  5 juillet 14h 18h et mercredi 6 juillet 9h-13h 14h-18h
Lieu : UPOND (bât .A 3ème étage 304)
Inscription : envoyer un CV à Christophe Benavent avant le  28 juin 2016
Programme et durée : 12 heures
S1 : l’environnement r: communauté, packages, langage et prise en main. Vers une recherche reproductible.
S2 : régression avec r: des MCOs au modèle linéaire généralisé (logit, poisson, et autres régression ordinales)
S3 : analyses factorielles, échelles et équations structurelles avec PSYCH et LAVAAN
S4 :analyse lexicale avec R.Temis.
Modalité(s) d’évaluation envisagée(s): étude de cas
PS : un cours similaire est donné dans le cadre du Master Management de l’innovation GDO/MOPP.

Méthodes : analyse multi-niveaux

Nathan Sawaya
L’analyse multi-niveaux, connue aussi sous appellation d’économétrie des données de panel, est un ensemble de techniques développées pour traiter des données hétérogènes décrivant plusieurs niveaux d’observations définis par le temps, l’espace ou des niveaux d’organisation. 
L’exemple typique est celui de la performance scolaire où les individus, ne proviennent pas d’une même population, mais sont repartis dans différentes unités, hiérarchisées : la classe, l’académie, la nation. Ces unités étant susceptibles de produire leurs effets propres, il convient de les prendre en compte quand on souhaite établir l’effet de certaines variables individuelles sur la performance scolaire. On en trouvera ici une bonne introduction.
Dans le champs de la gestion ces méthodes doivent prendre une place fondamentale si l’on conçoit que l’organisation est un phénomène qui se développe à plusieurs niveaux…
Quelques références
  • Tom snijder est un des grands spécialistes de la question
  • M+ est un des software les plus usités notamment pour les modèles à équations structurelles

Méthodes : Attitudes implicites

Un débat s’est institué récemment à propos des attitudes. Certaines d’entre-elles se prêtent peu à la verbalisation, les préjugés à l’égard des minorités notamment. Comment mesurer des cognitions façonnés socialement et enfouies dans les représentations profondes que l’on se fait des autres?

La mesure des attitudes implicites s’est développée pour répondre à cette question. On trouvera sur ce site des tests et des textes théoriques. Il fera une bonne introduction à une littérature en pleine expansion.

Méthodes : Modèlisation multi agents

Les méthodes multi-agents sont relativement peu employées en sciences de gestion. Elles présentent cependant des intérêts particuliers :
– mieux comprendre les marchés complexes dans le cas de l’innovation
– mieux comprendre les phénomènes de groupes et d’interactions entre de multiples individus

La modélisation peut aussi se prêter à l’expérimentation.

D’un point de vue pratique des plateformes sont disponibles pour les mettre en oeuvre aisément, par exemple NET-logo qui proposent une librairie assez étendue de modèles en sciences sociales.

Méthode: Expérience Naturelle

Blue Bottle Experimentation

[Un élément de l’atelier méthodes d’étude et de recherche (Méthode) ]

Voici une méthode de plus en plus populaire chez les économistes et popularisée par Esther Duflo.  On lira cette synthèse. Alors que la matière sociale se prête peu à l’expérimentation telle qu’on la conduit en laboratoire, l’idée est, en s’appuyant sur la comparaison d’événements similaires, de tester l’impact d’un facteur donné.

Lectures

On lira cette belle synthèse. Esther Duflo a contribué à sa popularisation.

Exemples