Satisfaction : une étude barométrique

The refined beauty

Une situation courante dans les entreprises de services et de distribution est de mesurer la satisfaction ou d’autres indicateurs proches, pour des unités géographiques distinctes et identifiables : des points de ventes, des bureaux d’orientation, des bornes ou automates, une multitude de localisation. Quand le réseau comprend des centaines d’unités, certaines variétés, certaines d’analyse sont utiles.

C’est l’objet de cette étude, une première plongée dans une jolie base. 300 000 jugements de satisfaction.

Ce n’est pas tout à fait du big data mais cela donne une idée des méthodes de résolution qui doivent être mises en œuvre quand les données sont abondantes. Elles ne sont pas forcément complexes, elles tirent l’avantage d’une répétition. Pour chaque unité nous pouvons ajuster un modèle, une variation. Et comparer.

Dans notre cas il s’agit de données relatives à une mesure de satisfaction qui concerne 166 points de ventes d’une chaine de distribution dans un pays européen. Et juste une première analyse pour tester des données. Pour chacun des points de vente les tailles d’échantillons sont de l’ordre de 1000. la médiane est vers 900. Nous disposons sur cette base de données de près de 170 000 observations, pour 166 unités d’analyse – des points de ventes. Nous pouvons donc pour chacune d’elles estimer un modèle de satisfaction dont la structure est :

      Sij=aij+a1jOffre(ij)+a2jMerch(ij)+a3jCommodité(ij)+a4j*Personnel(ij)+eij

     ( i indice l’individu et j le point de vente)

Les paramètres correspondent ici à l’accroissement de satisfaction globale assurée par le fait d’être noté parmi les 15% meilleurs. Si le coefficient obtenu est de 0,5, cela signifie qu’être noté parmi les 15% des meilleurs accroit la satisfaction globale de 0,5 point. Voilà qui peut servir de point d’ancrage pour évaluer les valeurs de l’étude.

L’idée est dans l’esprit de la méta-analyse de prendre partie de la possibilité de faire une étude des études et ainsi de mieux comprendre et d’ajuster les modèles. Un exemple simple est donnée dans l’illustration suivante où un modèle de satisfaction multi-attributs est estimé à chaque point de vente. On peut ainsi étudier directement les distribution des paramètres, et d’essayer de comprendre en fonction de quoi elles varient.

Dans notre cas il s’agit de 4 facteurs principaux : l’assortiment des produit, la qualité du merchandising, la facilité de circulation dans le point de vente et la qualité des interventions du personnel. On observe que ces effets varient du simple au double. Dans le cas du merchandising qui a la valeur moyenne la élevée pour sa contribution (de l’ordre de 0.67), la plage de valeur va de près de 0.5 jusqu’à presque 1. L’influence de cette variable change fortement d’un point à l’autre. Il reste à savoir pourquoi.

Ces sensibilités ne sont pas tout à fait indépendantes comme en témoigne le tableau des corrélations suivant. Il y a un lien significatif entre l’offre et le merchandising, une autre entre la qualité du personnel et la facilitation de circulation. Dans certain cas c’est la manière dont l’offre est présentée qui compte, dans d’autres c’est l’orientation dans le magasin qui est déterminante. Les corrélations partielles confortent la force de ces liens.

On sera étonné que seul la sensibilité du merchandising varie négativement avec la taille des magasins, plus ils comprennent de personnel et moins la mise en scène est importante elle reste l’apanage des petits formats.C’est ici qu’il faut mettre en scène les produits et motiver les gérants.

Ces coefficients de sensibilité semblent cependant peu varier avec des variables telles que la taille du magasin, la localisation, ou même la région. En voici un résumé pour la taille des points de ventes.

A cette échelle peu de différences sont significatives, mais des patterns apparaissent. On comprend mieux cet effet dans la figure suivante ou les niveaux des facteurs varient avec la taille : la mise en place est d’autant plus importante que les magasins sont petits.

A l’inverse même si ce n’est pas tout à fait décisif, dans les grandes unités le personnel a un poids plus fort sur la formation de la satisfaction. Mais ce n’est qu’un facteur.

Donnons aussi les différences selon la localisation : en centre ville ou à l’extérieur. Très clairement le merchandising est plus important dans les unités hors centre. Dans cet environnement c’est sur la mise en place des produit qu’on peut obtenir une meilleure évaluation. Les données sont cohérentes. A contrario dans les zones urbaines, où les unités sont grandes c’est le personnel qui est la clé. On le comprend bien, le confort des visites devient important quand l’offre ne peut plus être bien évaluée, l’abondance demande de l’aide et des efforts.

Un des enseignements de cette étude est que les paramètres de sensibilité des attributs de la satisfaction varient fortement selon les points de ventes. Ces variations sont peu expliquées par la taille, la région, ou l’effectif. D’autres facteurs déterminent sans doute ces variations, il reste à les découvrir. L’essentiel d’en prendre compte : une politique bonne dans un magasin n’est peut-être pas la meilleure dans un autre.

Mais la méthode simple rend bien compte de cet enjeu : même si nous pouvons user de modèles sophistiqués et subtils comme les modèles multiniveaux (1), c’est l’ingéniosité qui doit avoir le premier mot, un ingéniosité qui rende compte que les modèles varient dans leurs paramètres, Rares sont les travaux de cet ordre, une exception est le travail de Mittal et kamakura(2)

Il reste à mettre en œuvre les procédures et les cadres théoriques qui en exploiteront la moelle : ces variations d’un lieu à l’autre. Cette idée que les modèles n’ont de sens que dans la variation de leurs paramètres. Et que c’est celà qui permet une gestion fine des canaux, de comparer les unité et d’évaluer au mieux l’allocation des ressources.

(1) Ray J.-J., Ray D., 2008. Modéliser les phénomènes multiniveaux en marketing, Recherche et Applications en Marketing, Vol 23, n°1: 55-80.

(2) Mittal V, Kamakura W, Govind R. Geographic Patterns in Customer Service and Satisfaction: An Empirical Investigation. Journal Of Marketing July 2004;68(3):48-62.

PS : données modélisées par A Benabi,  et rassemblées par Init .

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Média sociaux : la force du local


L’actualité rappelle avec le rachat possible de Yelp par Google que le véritable enjeu de l’internet social n’est pas forcément dans le global qui aura marqué la dernière décennie, mais le local. L’art de la publicité n’est plus de concevoir des messages pour le monde mais de s’accouder au comptoir. Quelques arguments militent pour cette thèse.

Le premier est qu’en dépit de la distorsion de l’espace-temps qu’apportent les technologies, leur effet social est de renforcer les centres. C’est une idée ancienne exprimée par Castells, qu’au fond les technologies de l’information moins qu’elles ne rapprochent les points éloignés de l’espace, les densifient, et par conséquent renforcent l’importance du voisinage.

Mais au-delà de ces effets macro-sociaux, l’internet de manière plus microscopique semble renforcer les liens avec les proches plus qu’il n’offre la possibilité d’échanger avec les étrangers. Ceci est d’autant plus marqué que la taille de nos réseaux personnels est relativement limitée (le fameux article de Dunbar). Il reste cependant à vérifier que ce renforcement des relations est plus fort que l’élargissement du cercle de socialité. Cette hypothèse est celle que Boase a testée montrant que plus nombreux sont nos liens, plus le mél est employé ainsi que les autres médias (les utilisateurs du Net ayant un réseau médian de 37 personnes pour 35 pour les autres.). Bien sûr il reste à savoir comment nos relations se distribuent dans l’espace. Mais ils semble que celui-ci soit plus restreint qu’on ne pense. Nous vivons donc toujours en un lieu dont l’aire est restreinte, même si nous y sommes très mobiles (voir par exemple).

L’horizon des réseaux sociaux reste aussi étroit que celui de nos villages, et la technique n’y peut rien que de renforcer cette tendance. Si ces faits sont avérés, on comprend que l’espace pertinent est un espace local.

Un deuxième argument relève de la valeur de l’information. Comme chacun l’aura remarqué en dépit des fantasmes, l’information sur le net et dans les réseaux est pauvre, redondante, et son agrégation n’est pas forcement la source de connaissance que l’on peut espérer. L’information ne prend de valeur que si elle est contextualisée.

De ce point de vue l’échelle locale est particulièrement pertinente. Car même minimale, par exemple un commentaire sur un commerce, l’information prend sens dans un univers bien connu des sujets. L’agrégation des commentaires apportera peu. Ce qui vaut pour les consommateurs est au fond une information factuelle dont la densité est faible mais la pertinence forte dès lors qu’elle est située dans un contexte que le consommateur connait bien et qui lui permet d’en tirer toute la valeur. Ainsi une note (agrégée) d’un hôtel sera utile certes, mais sans doute moins que de savoir à quelle distance se situe-t-il du lieu d’activité, d’une station de métro, quels sont les commerces environnants etc. De même la valeur d’un livre dépend moins du sondage que de retrouver l’avis ambigu de quelqu’un qu’on croit proche. La force des critiques littéraires au fond est d’apparaitre comme nos amis (je vous recommande de suivre les excellentes chroniques de Pierre Assouline et mieux encore d’en lire avec précision les commentaires de ses aficionados; je connais peu de cas où l’intimité est aussi grande).

Un troisième argument est qu’en dépit d’une croissance remarquable le commerce digital est encore marginal et risque de le rester. Nos commerces sont encore, si ce n’est au coin de la rue, au carrefour de nos villes. Si près de 75% des français achètent au moins une chose à distance, et dont la moitié par le net , la part des canaux distants ne dépasse pas les 6 ou 7%, en étant optimiste elle sera peut-être de 15 % dans quelques années.

Le quatrième élément est le formidable développement de la géolocalisation, non seulement la capacité à situer, mais aussi à reporter l’information dans son contexte géographique. Il est à peine nécessaire de souligner ici les développements des SIG. Il suffit de regarder son GPS favori. Et de ce point de vue le développement de la diffusion des smartphones risque de favoriser les usages de localisation comme en témoigne une étude de Gartner .

Dans une telle perspective, on peut s’attendre d’une part à un formidable développement de sites globaux à finalité locales. La globalisation du site permettant d’obtenir les échelles de recueil d’information nécessaires, mais le niveau d’utilisation pertinent reste local, villageois. Bref le net au service de la proximité.

On imagine les applications, on devine que les capacités de personnalisation de la communication risquent de tirer profit de ce que l’information locale et localisée vaut plus que les messages globaux. On comprend l’appétit de google qui avait déjà compris l’importance de la publicité locale .

Et l’échec du rachat qu’on vient d’apprendre n’empêchera pas la gourmandise. Les modèles publicitaires à venir ne dépendent plus de la créativité des graphistes et des rédacteurs, mais de l’intelligence qui est donné à des phrases ridicules, par un usage raisonné du contexte de leur expression. Peut importe de dire “Venez tels que vous êtes”, il importera d’inscrire sur l’écran du GPS, à 7 heures du matin coincé dans les bouchons “Bienvenue, MacDo vous offre un café, dans 10mn la route sera liberée”