Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche. Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensés aux étudiants du Master management de l’Innovation parcours MOPP et GDO.
Le cours s’organisent en 2 éléments :

1) Rappels élémentaires de statistique et d’analyse multivariée (tests, régression, ACP et classification) : 3 séances . L’environnement le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.

On travaillera sur un cas issu du Mémoire de Master Marketing de Pauline Vautrot. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.

  1. Analyse univariée avec r
  2. Analyse bivariées : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle
  4. Classification automatique
  5. Régressions

2) Un atelier des méthodes – présentation de protocoles méthodologiques dont les synthèses sont présentées par les étudiants sur la base d’articles significatifs dont voici un florilège. ( en Janvier 1 journée pleine)

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. Inscription ici

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.

 

Satisfaction : une étude barométrique

The refined beauty

Une situation courante dans les entreprises de services et de distribution est de mesurer la satisfaction ou d’autres indicateurs proches, pour des unités géographiques distinctes et identifiables : des points de ventes, des bureaux d’orientation, des bornes ou automates, une multitude de localisation. Quand le réseau comprend des centaines d’unités, certaines variétés, certaines d’analyse sont utiles.

C’est l’objet de cette étude, une première plongée dans une jolie base. 300 000 jugements de satisfaction.

Ce n’est pas tout à fait du big data mais cela donne une idée des méthodes de résolution qui doivent être mises en œuvre quand les données sont abondantes. Elles ne sont pas forcément complexes, elles tirent l’avantage d’une répétition. Pour chaque unité nous pouvons ajuster un modèle, une variation. Et comparer.

Dans notre cas il s’agit de données relatives à une mesure de satisfaction qui concerne 166 points de ventes d’une chaine de distribution dans un pays européen. Et juste une première analyse pour tester des données. Pour chacun des points de vente les tailles d’échantillons sont de l’ordre de 1000. la médiane est vers 900. Nous disposons sur cette base de données de près de 170 000 observations, pour 166 unités d’analyse – des points de ventes. Nous pouvons donc pour chacune d’elles estimer un modèle de satisfaction dont la structure est :

      Sij=aij+a1jOffre(ij)+a2jMerch(ij)+a3jCommodité(ij)+a4j*Personnel(ij)+eij

     ( i indice l’individu et j le point de vente)

Les paramètres correspondent ici à l’accroissement de satisfaction globale assurée par le fait d’être noté parmi les 15% meilleurs. Si le coefficient obtenu est de 0,5, cela signifie qu’être noté parmi les 15% des meilleurs accroit la satisfaction globale de 0,5 point. Voilà qui peut servir de point d’ancrage pour évaluer les valeurs de l’étude.

L’idée est dans l’esprit de la méta-analyse de prendre partie de la possibilité de faire une étude des études et ainsi de mieux comprendre et d’ajuster les modèles. Un exemple simple est donnée dans l’illustration suivante où un modèle de satisfaction multi-attributs est estimé à chaque point de vente. On peut ainsi étudier directement les distribution des paramètres, et d’essayer de comprendre en fonction de quoi elles varient.

Dans notre cas il s’agit de 4 facteurs principaux : l’assortiment des produit, la qualité du merchandising, la facilité de circulation dans le point de vente et la qualité des interventions du personnel. On observe que ces effets varient du simple au double. Dans le cas du merchandising qui a la valeur moyenne la élevée pour sa contribution (de l’ordre de 0.67), la plage de valeur va de près de 0.5 jusqu’à presque 1. L’influence de cette variable change fortement d’un point à l’autre. Il reste à savoir pourquoi.

Ces sensibilités ne sont pas tout à fait indépendantes comme en témoigne le tableau des corrélations suivant. Il y a un lien significatif entre l’offre et le merchandising, une autre entre la qualité du personnel et la facilitation de circulation. Dans certain cas c’est la manière dont l’offre est présentée qui compte, dans d’autres c’est l’orientation dans le magasin qui est déterminante. Les corrélations partielles confortent la force de ces liens.

On sera étonné que seul la sensibilité du merchandising varie négativement avec la taille des magasins, plus ils comprennent de personnel et moins la mise en scène est importante elle reste l’apanage des petits formats.C’est ici qu’il faut mettre en scène les produits et motiver les gérants.

Ces coefficients de sensibilité semblent cependant peu varier avec des variables telles que la taille du magasin, la localisation, ou même la région. En voici un résumé pour la taille des points de ventes.

A cette échelle peu de différences sont significatives, mais des patterns apparaissent. On comprend mieux cet effet dans la figure suivante ou les niveaux des facteurs varient avec la taille : la mise en place est d’autant plus importante que les magasins sont petits.

A l’inverse même si ce n’est pas tout à fait décisif, dans les grandes unités le personnel a un poids plus fort sur la formation de la satisfaction. Mais ce n’est qu’un facteur.

Donnons aussi les différences selon la localisation : en centre ville ou à l’extérieur. Très clairement le merchandising est plus important dans les unités hors centre. Dans cet environnement c’est sur la mise en place des produit qu’on peut obtenir une meilleure évaluation. Les données sont cohérentes. A contrario dans les zones urbaines, où les unités sont grandes c’est le personnel qui est la clé. On le comprend bien, le confort des visites devient important quand l’offre ne peut plus être bien évaluée, l’abondance demande de l’aide et des efforts.

Un des enseignements de cette étude est que les paramètres de sensibilité des attributs de la satisfaction varient fortement selon les points de ventes. Ces variations sont peu expliquées par la taille, la région, ou l’effectif. D’autres facteurs déterminent sans doute ces variations, il reste à les découvrir. L’essentiel d’en prendre compte : une politique bonne dans un magasin n’est peut-être pas la meilleure dans un autre.

Mais la méthode simple rend bien compte de cet enjeu : même si nous pouvons user de modèles sophistiqués et subtils comme les modèles multiniveaux (1), c’est l’ingéniosité qui doit avoir le premier mot, un ingéniosité qui rende compte que les modèles varient dans leurs paramètres, Rares sont les travaux de cet ordre, une exception est le travail de Mittal et kamakura(2)

Il reste à mettre en œuvre les procédures et les cadres théoriques qui en exploiteront la moelle : ces variations d’un lieu à l’autre. Cette idée que les modèles n’ont de sens que dans la variation de leurs paramètres. Et que c’est celà qui permet une gestion fine des canaux, de comparer les unité et d’évaluer au mieux l’allocation des ressources.

(1) Ray J.-J., Ray D., 2008. Modéliser les phénomènes multiniveaux en marketing, Recherche et Applications en Marketing, Vol 23, n°1: 55-80.

(2) Mittal V, Kamakura W, Govind R. Geographic Patterns in Customer Service and Satisfaction: An Empirical Investigation. Journal Of Marketing July 2004;68(3):48-62.

PS : données modélisées par A Benabi,  et rassemblées par Init .

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

Méthodes : Analyse du sentiment

Femme de lettres

[Un élément de l’atelier méthodes d’étude et de recherche (Méthode) ]
 

L’analyse du sentiment est devenue populaire. Ses origines s’enracinent dans le champs du TAL. Son objectif est de quantifier la valence d’avis exprimés dans un corps de texte.
Son principe est d’annoter le lexique, et sans doute au-delà la sémantique d’un contenu textuels qui peuvent prendre les formes d’un commentaire de blogs, d’un article, d’une conversation, et des ensembles qu’ils composent. et d’en quantifier la valeur.
La première difficultés que ces méthodes ont a résoudre, elles sont encore en cours d’élaboration même si des solutions commerciale sont déjà proposées, est de qualifier la nature de ce sentiments. Il s’agit d’aller au-delà des significations, de qualifier ce qui est de l’ordre de l’émotion, de l’humeur et de cette émotions telle que la définit Damazio.
La seconde difficulté réside dans ce rapport difficile des relation d’un lexique et d’une grammaire à ce qui fait sens. Le contexte seul permettant d’en démêler les fils.  La troisième la moins difficile est sans doute de pondérer les éléments.
On en trouvera une synthèse de littérature ici ou encore ici.
Les solutions commerciales proposées sont :

Meth : Comparaison interculturelles d’échelles de mesure

http://www.flickr.com/photos/phunk/4171465622/
D’une culture à l’autre, les échelles de mesure ne sont pas forcément comparables , ne serait-ce  car les items peuvent couvrir des champs sémantiques différents. Il importe cependant dans certaines études cross-culturelle d’établir des comparaisons sur une échelle unique.
Un certain nombre de procédures ont été mises au point pour réaliser cet objectif. Elles s’appuient principalement sur des méthodes Lisrel, par des tests sur les contraintes du modèle.

Construction d’échelle de mesure

La construction d’échelles de mesure dans les études par questionnaire est un moment important dans les processus de recherche mais néanmoins bien standardisé dans le champs des sciences de gestion.

Un  processus

On doit à Churchill d’avoir structuré la démarche, même si aujourd’hui une autre conception s’introduit : COARSE.

Des ressources :

Sujets avancés :

  • comparaison interculturelles
  • Modèles IRT

    Crédit photo

      Méthodes : Analyse de survie

      Le principe général

      Les méthodes d’analyses de survie s’intéressent à probabiliser la survenue d’un événement au bout d’une certaine durée. Quelle sont les chances de survie d’une entreprise, quelle est celle d’un client, quelles sont les chances qu’un employé quite l’entreprise au bout d’un certain temps, tel est un très faible échantillon des questions auxquelles peut répondre l’analyse de survie.
      Les modèles paramètriques
      • Modèle fréquentiel
      • Weibull et les autres formulations
      Le modèle de cox

        Applications en Gestion
        • mortalité et natalité des populations organisationnelles
        • Durée de vie des clients en marketing
        • défaillance d’un processus en gestion de la qualité. Les développements
        • Finance
        • GRH
        • etudes PMEs Italiennes

        Crédit Photo