Atelier doctoral : r pour la recherche en sciences sociales

L’objectif de l’atelier, organisé dans le cadre des enseignement de l’ED EOS,  est la prise en main de r au travers de l’interface graphique Rcmdr et de Rstudio et de découvrir la communauté r et ses ressources en 4 séances de 3 heures et quatre cas : décrire, expliquer, modéliser, traiter du texte.

Public visé et pré requis : Doctorants et autres chercheurs. Connaissance des tests statistiques et autres statistiques élémentaires. Une habitude de SAS ou SPSS fera du bien. Les participants doivent installer Rstudio au préalable. Rcommander servira d’interface pour démarrer et doit être le premier package (Rcmdr) à installer au préalable.

Calendrier de la formation (période de l’année): 11 et 12 septembre 2017 (9h30-12h30 : 13h30-16h30)

Lieu : UPOND (bât .A 3ème étage 304)

Inscription : envoyer un CV à christophe.benavent@parisnanterre.fr avant le 5 septembre 2017. – nombre maxi d’inscrits : 15.

Programme et durée

  • 1 : l’environnement r: communauté, packages, langage et prise en main  avec Rcmdr. Comparaison de moyennes, corrélation, classification automatique. Le cas de la segmentation par avantage du textile est employé. (Description)
  • 2 : régression avec r: des MCOs au modèle linéaire généralisé (Logit, Poisson, etc. Un peu de série chronologique avec le cas des retards de TGV sur la base des données open data de la Sncf. (timeseries)
  • 3 : analyses factorielles, échelles et équations structurelles avec Psych et Lavaan : le cas de l’analyse des effets du privacy concern sur le projet selfdata de la fing. (psychometrie)
  • 4 :analyse lexicale avec R.Temis , tm et éléments de text mining. Le cas de l’analyse de topic d’un flux de tweets. (lexicométrie)

ECTS : la participation au séminaire donne droit à 1.5 ECTS

Ressources :

  •  r blogger : un meta blog centré sur r , très riche en exemple et application.
  •  StackOverflow : plateforme de Q&A pour les développeurs, r y est fréquemment mis en question
  • PS : un cours similaire est donné dans le cadre du Master Management de l’innovation GDO/MOPP.
  • La doc de ggplot2, le package des graphiques élégants.

Crédit Photo : comme souvent l’excellent Jeff Safi

Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche. Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensés aux étudiants du Master management de l’Innovation parcours MOPP et GDO.
Le cours s’organise en 2 éléments :

1) Rappels élémentaires de statistique et d’analyse multivariée (tests, régression, ACP et classification) : 3 séances . L’environnement le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.

On travaillera sur un cas issu du Mémoire de Master Marketing de Pauline Vautrot. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.

  1. Analyse univariée avec r
  2. Analyse bivariées : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle
  4. Classification automatique
  5. Régressions

2) Un atelier des méthodes – présentation de protocoles méthodologiques dont les synthèses sont présentées par les étudiants sur la base d’articles significatifs dont voici un florilège. ( en Janvier 1 journée pleine)

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. Inscription ici

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.

 

Les pages de fans sont-elles sociales ?

Les réseaux sociaux ne sont pas tous identiques, chacun forme un substrat particulier dont les propriétés générales tiennent à leurs fonctionnalités particulières. Dans le cas des pages de fan de facebook, cette analyse peut conduire à penser qu’elle ont une fonction sociale limitée et que leur particularité réside moins dans leur faculté de diffusion que dans l’écologie du commentaire et un possible tour de magie.
Ce que communément on caractérise de social est cette aptitude des plateforme à relier de nombreux individus et à les encourager à échanger régulièrement des éléments d’information , d’opinion, et quelques document par des dispositifs facilitateurs. L’ensemble accélérerait la diffusion (le buzz) et intensifierait la fréquence des échanges.
Ce n’est pas forcément le cas des pages de fan. Pour bien le comprendre prenons le cas de H&M parmi d’autres. Plus de 8 millions de personnes ont déclaré aimer la page qui se présente comme une page publicitaire ordinaire (avec cette belle opération de glamourisation menée avec Versace!).
Parmi elles, au dernier post observé, 1407 personnes déclarent aimer, autrement dit un taux de 0,0166%, c’est à dire 5 à 8 fois plus faible que le taux de conversion des bannière. 65 personnes ont partagé le contenu, et 35 ont ajouté un commentaire. 
Naturellement le cumul donnerait des résultats plus substantiels. A deux ou trois posts journaliers on peut reconstituer l’impact. Il ne risque pas d’être substantiel. La dynamique des pages reste celle d’un espace publicitaire. On ne peut pas compter sur l’effet de buzz. Son effet s’éteint rapidement, et la répétition des messages n’est sans doute pas suffisante pour toucher une masse importante. 100 posts, soit un mois d’activité à 100 likes et partages ne représentent que 10 000 contacts, qu’on peut généreusement doubler pour avoir l’idée d’un impact secondaire. Et nous sommes larges car nous supposons qu’il n’y a pas de superposition. A ce rythme il faudrait 10 ans d’activités pour toucher un quart de la base des fans. Ce n’est pas convaincant.
Bien sur il serait intéressant de systématiser l’analyse sur un ensemble plus vaste de cas, d’en tirer des régularité statistiques, de mieux modéliser les effets de duplication. Je doute qu’on arrive à un diagnostic différent. L’effet de Buzz est marginal. La page de fan n’est pas virale, peu sociale, elle ne touche que ceux qui veulent y venir. Ils ont été 8millions, ce n’est pas négligeable, même si la base de clientèle se compte au moins en dizaines de millions. Mais ce sont ceux qui aiment la marque, ce sont ceux qui y ont un intérêts, les impliqués. Sont-ils engagés?
Alors intéressons nous à ceux que le 10% disons de la clientèle motivée regardent sur les pages de ce catalogue. Ils regardent un contenu qui n’a pas été produit entièrement par les publicitaires, ils lisent des messages qui sont contextualisé par les avis des autres, c’est la vertu de l’UGC. Cela crédibilise sans doute des messages qui tourneraient à vide car inséré dans un contenu d’information sans rapport, manquerait de crédibilité. On y lit ce qu’on aime et ce que d’autres confirment. On peut espérer que le contexte accroissent la capacité de persuasion des messages publicitaire. Ce qu’on lit est un message principal autour duquel des bribes d’avis volètent comme les mouches autour d’une dépouille.
Et c’est là qu’une autre facette du social apparaît. Cette vieille idée de l’opinion publique qui n’est pas tant la somme modérée des avis individuels, mais cette idée qui se forme dans leur agrégation et s’impose à chacun. L’opinion publique est une construction, non pas une sommation.
De nombreux travaux ont déjà été publié sur l’influence des recommandation sur la décisions des consommateurs. Ils s’appuient souvent sur le cas du cinéma. Avis positifs et négatifs. Avec des résultats parfois surprenants. Mais très peu se sont intéressés à la compositions de ces avis, à la formation de la tonalité. Quand certains s’inquiètent de ce qu’à donner libre cours aux opinions on risque un effet contre productif d’inciter les mécontents à manifester leur acrimonie, on peut être surpris de la tonalité positive générale des pages.
Par quel coup de magie, alors que nous avons vécu longtemps dans l’idée qu’une mauvaise expérience générait 7 fois plus de buzz qu’une expérience positive, se fait-il que les pages à de rares exceptions respirent le bonheur et la satisfaction ?
Ce que nous observons en fait n’est pas ce que la population pense et ce pour une raison simple. Ceux qui s’expriment le plus souvent adhèrent aux valeurs de la marque, et sont motivés par des raisons distinctes de ceux qui protestent, condamnent ou réclament. l’arithmétique du social content s’appuie très probablement sur une asymétrie dans les fréquences de publication, c’est ce qu’on appelle un biais d’auto-sélection. C’est du moins notre hypothèse, elle reste à tester, mais dessinons en le calcul. Imaginons que la population soit de 1000 personnes, que les mécontent ne se manifestent qu »une fois, et que les fans le font plus fréquemment, mettons 10 fois. Si les premiers sont 800, ils produiront 800 fragments d’information. Les second en produiront 2000, soit près des deux-tiers. Même avec 80% de mécontents, une page face book produit une tonalité à 70% positive. Bien assez pour convaincre, pas suffisamment pour devenir suspecte.
Ainsi les pages de fan de Facebook ne sont pas sociale parce qu’elles favorisent la diffusion, mais en ce qu’elles construisent par la magie de l’auto-sélection un contenu qui a la crédibilité des pairs et la tonalité positive que leur donne le sur-engagement des militants. Elles seraient un miroir déformant, un de plus.

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

L’invariance des baromètres de satisfaction

Malédiction de la satisfaction
Par Amine Benabi – Doctorant CEROS et Cifre Init . 
 
La question de la satisfaction n’est pas qu’une question de concept. C’est aussi un problème de mesure, d’une mesure qui se fait le plus souvent sous la forme d’un baromètre destiné à en identifier les variations. Ces enquêtes s’inscrivent comme des éléments de contrôle des stratégies sont menée au moins annuellement, souvent trimestriellement et parfois de manière continue.

La satisfaction client qui est souvent considérée comme la composante la plus importante des politique relationnelle, et qui conduit à la fidélité est définie comme une résultante de la comparaison entre les attentes et l’évaluation de la performance perçue du produit ou du service (Oliver, 1997). Ce modèle connu sous le nom de la Disconfirmation des attentes, est à la base du paradigme de la satisfaction, et explique le processus de sa réalisation.

Cependant les mesures effectuées sont plus souvent liées à une évaluation globale qui ne permet pas toujours de discerner l’accroissement des attentes et celle de la qualité perçue, ce qui permet d’expliquer un phénomène courant : les baromètres sont plats, et au cours du temps peu de variations sont observées. Le phénomène peut être accru quand les résultats sont agrégée au niveau de la marque. Dans un examen quotidien de l’efficacité de la politique centrée clients à travers des enquêtes de satisfaction ; les sondeurs utilisent différents indicateurs et parmi les plus populaires : le calcul de taux (pourcentages), de moyennes ou encore des scores. Ces outils sont considérés comme des indicateurs fiables et représentatifs du phénomène étudié. Les différentes firmes procèdent ainsi à des contrôles permanents visant à établir l’évolution des indicateurs et ainsi corriger si nécessaire leurs actions (qui vise essentiellement une amélioration du produit ou service), pour mieux satisfaire leurs clients et donc de les fidéliser.

Or ces indicateurs calculés d’une vague à une autre souvent bougent très peu. Un gain d’un point dans une moyenne, ou encore dans un taux de satisfaits est vraiment très rare.

Cette observation faite au quotidien par les professionnels, nous aamené à se questionner sur le pourquoi de cette constance ou invariance. Les facteurs qui peuvent expliquer cette stabilité reposent sur deux hypothèses, qui sont :

H1 : les attentes des clients sont continuellement réévaluées, au même titre que l’amélioration du produit ou du service
H2 : Les clients recrutés (satisfaits) remplacent les partants (insatisfait)
L’augmentation de la qualité ou du niveau de service (donc de satisfaction) conduit à une augmentation des attentes et à mesure que les entreprises répondent aux attentes des clients pour mieux les satisfaire, elles encouragent aussi la réévaluation des attentes se condamnant à de nouvelles innovations et amélioration pour simplement maintenir le niveau de satisfaction. Une sorte de tapis roulant que l’on qualifierait volontiers de malédiction de la satisfaction. Cela peut créé un état d’équilibre permanent Les entreprises fidélisent mais recrutent aussi des nouveaux clients car les départs sont inéluctables. On peut supposer que les clients partants sont ceux qui ont la plus basse satisfaction et des attentes assouvies face à des attentes élevée. En revanche les nouveaux clients n’ont pas un niveau prononcé d’attentes et peuvent être satisfait facilement et sans trop d’effort. 

A partir de cette double hypothèse configurations deviennent possibles :

1-Une progression  de la satisfaction par rapport à la vague précédente : c’est le cas ou les nouveaux arrivants sont plus nombreux que les partants et en même temps, les restants sont constants au niveau de la satisfaction 
2-Une diminution  de la satisfaction par rapport à la vague précédente : c’est le cas où les recrutés sont moins nombreux que les partants et que les restants sont en phase de devenir des futures partant (niveau de satisfaction baisse). 

Les deux hypothèses émises précédemment, sont centrées sur l’augmentation des attentes clients vue globalement sur la population des consommateurs. Si cette augmentation est comblée par l’évolution du produit, il y a équilibre (H1). Si ce n’est pas le cas un déséquilibre négatif peut être corrigé par le recrutement des nouveaux clients (H2). Si le déséquilibre est positif, les améliorations vont au-delà des nouvelles attentes, une stabilité des indicateurs marquerait simplement un équilibre de l’attrition et de l’acquisition. On voit ici que l’invariance des mesures de satisfaction est conditionnée à deux cas qui se complètent et qui sont maintenus comme tels par les entreprises. La stabilité des indicateurs de satisfaction masque en fait une dynamique plus forte. L’équilibre se situe dans le rapport entre les attentes et la performance perçue par les clients, et entre le renouvellement de ces derniers. 

Reste à tester cette invariance. Un calcul statistique est disponible pour réaliser ce test : l’indice de distorsion  (Térouanne,1995). En voici une illustration avec un baromètre de satisfaction d’un chaine de distribution portant sur douze trimestres et donc 12 vagues. Le cumul de données pour l’entreprise en question, dépasse les 126 000 individus (10 000 par vague). Cette grande dimension de l’information donnera une certaine sécurité aux résultats.Comme l’idée est de prouver la stabilité des mesures d’une vague à une autre, nous comparerons les mesures dans chaque vague pour voir si la stabilité existe. 

Pour celà nous utilisons un indice « distorsion » utilisée pour mesurer l’écart entre la concentration de deux distributions de fréquences. Cette notion de « distorsion » est utilisée pour comparer la distribution des fréquences du critère de satisfaction) d’une vague à une autre.Nous définirons l’indice de distorsion selon (Térouanne, 1995), entre deux distributions de fréquences p, et q, par δ(p,q) qui est compris entre 0 et 1. Si l’indice est égale à 0, nous nous trouvons dans le cas où les distributions des fréquences sont égales p=q, et si il est égale à 1 ça sera le cas où les deux distributions sont totalement différentes. Comme la problématique de notre étude, est de prouver que les distributions d’une vague à une autre, sont identiques, nous prendrons l’indicateur γ(p,q).

Ce qui nous permet de traduire la stabilité de la mesure par un indice qui exprimera la ressemblance entre deux distributions avec une valeur proche de un et proche de zéro dans le cas d’une dissemblance. Les données recueillies dans chaque vague, concernent un item de satisfaction qui est posée aux répondants. Il s’agit de la satisfaction globale concernant le service de l’entreprise en question. Ce critère est mesuré sur une échelle allant de 1 à 10, 1 signifiant une satisfaction très basse et 10 un niveau très élevé. Les réponses au critère sont recueillies, dans chaque vague dont nous disposons de la distribution des fréquences sur laquelle l’indicateur γ(p,q), sera calculé. L’objectif sera de voir comment cet indice évolue d’une vague à une autre. Les valeurs trouvées sont les suivantes :
Les résultats nous montrent que les distributions des fréquences pour le critère de satisfaction, restent stables d’une vague à un autre. La ressemblance est au minimum à 96.8%, ce qui nous renseigne sur le degré de la similitude entre les résultats fournis d’une vague à une autre. La réduction de la similitude au cours des dernières vagues indique un changement d’état qui reste à caractériser.
Dans cette étude, nous avons établi la stabilité des mesures de satisfaction d’une vague à une autre. Cette stabilité n’est pas une stagnation, le double mouvement de la réévaluation des attentes et du renouvellement du portefeuille produit une stabilité des indicateurs de satisfaction qui est le signe que l’entreprise conserve et améliore ses services. Cette stabilité est le résultat direct d’une bonne notoriété et un bon processus de travail de l’entreprise. Car les clients jugent le produit ou le service mais juge aussi l’historique de la relation.

Amine Benabi – Doctorant.