Consommation collaborative : prétester le matérialisme

Juste quelques résultats préliminaires. Un pré-test conduit par une de nos étudiants du Master Marketing Opérationnel International. Le questionnaire est là, remplissez le pour de meilleurs résultats. L’intérêt pour les formes de consommation collaborative vient-il des valeurs du matérialisme?

En matière de consommation le matérialisme n’est pas dialectique, du moins il ne se présente pas ainsi. Il se pétrit de croyances, de gouts, d’attitudes qui font qu’on puisse croire que l’accumulation des biens contribuent au bonheur, du sentiment que la dépense est nécessaire, de ce qu’on voit que le prestige s’incarne dans les biens que l’on possède. Des références clés dans ce domaine sont McCracken, Richins, et quelques autres. Qu’on prête aux bien une valeur plus ou moins importante pour réaliser le sentiment d’avoir réussi, de signaler aux autres sa valeur, ou de n’être que faiblement convaincu par les vertus de la frugalité, pourrait être une raison de pourquoi nous adhérons à l’idée de partager les biens dont nous tirons des effets utiles et agréables. Le voiture, un livre, un disque, une maison ou un crédit peuvent parfaitement être consommés collectivement, y sommes-nous prêts?

Est-on prêt à partager nos bien ? Quelques résultats répondent plutôt oui mais sans enthousiasme. On le ferait volontiers pour des livres ou des CD,- mais n’est-ce pas le rôle des bibliothèques ? , aussi pour le covoiturage – sans doute un budget à réduire! moins volontiers pour des emprunts collectifs – c’est sans doute une opération trop abstraite et apparemment incongrue.<

A ce stade peu de différences significatives, excepté les femmes qui partagent plus volontiers. En spéculant on partagerait d’autant moins qu’on est plus âgé et que le degré de diplôme est plus élevé. L’échantillon du pré-test est ici clairement insuffisant pour faire émerger des patterns significatifs.
La question centrale est cependant celui de l’importance de l’idéologie. Nous avons étudié cette question en nous appuyant sur l’échelle des valeurs du matérialisme proposée Richins et Dawson (1992) et adaptée en français par Richard Ladwein. Dans notre cas une ébauche de la solution, sur un pré-test de 140 personnes, apparaît dans le tableau suivant.
Les trois dimensions du matérialisme ( la frugalité, l’ostentation et la) expliquent peut être aussi dans leur généralité l’intention de partager ces catégories de produits. Le poids est mesurés ici grâce aux betas standardisés de modèles de régression appliqués à chacune des intentions de partage propres à chaque catégorie de produits – un modèle d’ensemble est aussi calculé.
On y ajoute deux questions spécifiques : l’intérêt pour la catégorie de produit ( implication) et de l’importance accordée à la possession de ces biens ( propriété), les deux variables sont saisis par un item. Les corrélations sont faibles, mais un certain nombre d’entre elles sont significatives, elle vont dans l’ensemble dans une même directions. Les r² cependant restent faibles même en deçà des seuils de signification : il y a sans doute de nombreux autres facteurs qui pèsent : la crédibilité de l’offre, son coût d’accès, les avantages qu’elles présentent.
La volonté de posséder est nullement liée aux partage, celui-ci serait-il sans rapport avec le sens de la propriété? Quand à l’implication c’est dans le cas des vêtement et du crédit qu’elle joue positivement, sans doute l’expression d’une certaine compétence qui trouve matière à s’exprimer : trouver la bonne affaire..
On observe une corrélation négative entre la croyance que posséder des choses donne du prestige et l’intérêt pour partager le bien. C’est de cas de la maison, des vêtements et de la voiture. Moins on y voit de vertu symbolique et plus on est prêt à partager. Quand le bien représentent notre puissance, il faut les posséder pour que l’effet d’ostentation se produise !C’est une corrélation positive qui se manifeste pour la maison, la voiture et le crédit et le sentiment que les biens terrestres font le bonheur. Plus on croit que l’accumulation des biens est importante et plus on serait prêt à partager, car c’est le moyen d’obtenir ce qu’on ne peut posséder avec ses propres ressources.La frugalité conduit à vouloir partager ses lectures et ses musiques. Cet anti-matérialisme est sensible à la poésie du livre qu’on abadonne sur un banc public, elle s’enthousiasme peut-être dans le piratage….

Manifestement le matérialisme ne prend son sens que dans son rapport aux objets. Il n’a pas un déterminisme unique, ses facettes jouent différemment selon les objets. Il contribue faiblement. Un effet fort s’enregistre avec de faibles échantillons, s’il reste à peine sensible, c’est que même avec des mesures plus solide, son effet est sans doute faible.

Voilà une piste intéressante. Le matérialisme n’est pas une fatalité de la faiblesse humaine, elle ne conduit pas nos conduite. Sans doute il faut revenir au détails de ces offres. La consommation collaborative pourra devenir significative pour autant qu’elle apportent des avantages évidents et un accès facile. L’idéologie sans doute forme une part marginale de nos préférences, surtout quand il s’agit de choses nouvelles.

Même si ce poids est faible, il peut cependant orienter les domaines où il peut jouer un rôle important. Sans doute là où les investissements des consommateurs sont importants mais aussi dans ces choses dont la valeurs marchande est faibles qui qui véhicule un éthos dont on est fier. Nous en sommes encore aux hypothèses. L’avantage des pré-tests par la faiblesse de leurs échantillon est d’écarter les hypothèses marginales, ils renseignent aussi ce dont nous ne savons encore presque rien.

Il n’y a pas de conclusion à cette note d’étude. Sauf une, n’attendons pas du côté de l’idéologie le vent qui oriente le destin de la consommation collaborative.

Recherche sur internet : une question de méthode

#radar

Les 19 et 20 Janvier le Congrès Marketing Trends se tenait à Venise et c’était aussi l’occasion de présenter une communication un peu ancienne mais auxquelles les évolutions de l’internet redonne un intérêt. L’objet de l’étude porte sur les stratégie de recherche  sur internet.

Les données ont été collectées en 2007 sous la forme de capture d’écran vidéo des recherches motivée par quatre tâche par sujet. Une piste son enregistre les commentaires du sujet au cours de l’exécution de la tâche. L’analyse des séquences d’action, notamment en calculant les probabilités d’effectuer une action en fonction de la précédentes permet de mettre en évidence une double boucle d’apprentissage.

Si la boucle essai-erreur est la plus fréquente, et n’aboutit pas, une autre méthode peut être utilisée. La recherche d’information est donc structuré par un flot de deux types d’évaluation et de décision : les résultats d’une recherche menée avec une certaine méthode, les méthodes elles-mêmes.

Par méthode c’est l’usage de google et les choix de mots clés, ou celui d’une application spécifique, par exemple si la tâche est de trouver un itinéraire, l’emploi de mappy constitue la méthode. Si google search est à l’évidence la méthode utilisée la plus fréquemment et la plus généraliste, des moteurs alternatifs peuvent être employée pour recherche un objet spécifiques. Un livre sera plus simple à trouver sur google books, une image dans Flickr, une actualité dans twitter.

Les méthodes de recherche tendent à se diversifier et à se spécialisées. Et c’est bien là où cette recherche en proposant une méthode d’étude originale est encore d’actualité. Nous sommes dans le monde des apps, ces programmes dédiés à des tâche spécifique, que l’on collectionne sur son écran. Ici le choix de la méthode est un choix d’application. Le problème pour le consommateur est alors celui de la composition de sa collection d’apps et de l’accès dans les Appstores.

Le texte :

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

L’invariance des baromètres de satisfaction

Malédiction de la satisfaction
Par Amine Benabi – Doctorant CEROS et Cifre Init . 
 
La question de la satisfaction n’est pas qu’une question de concept. C’est aussi un problème de mesure, d’une mesure qui se fait le plus souvent sous la forme d’un baromètre destiné à en identifier les variations. Ces enquêtes s’inscrivent comme des éléments de contrôle des stratégies sont menée au moins annuellement, souvent trimestriellement et parfois de manière continue.

La satisfaction client qui est souvent considérée comme la composante la plus importante des politique relationnelle, et qui conduit à la fidélité est définie comme une résultante de la comparaison entre les attentes et l’évaluation de la performance perçue du produit ou du service (Oliver, 1997). Ce modèle connu sous le nom de la Disconfirmation des attentes, est à la base du paradigme de la satisfaction, et explique le processus de sa réalisation.

Cependant les mesures effectuées sont plus souvent liées à une évaluation globale qui ne permet pas toujours de discerner l’accroissement des attentes et celle de la qualité perçue, ce qui permet d’expliquer un phénomène courant : les baromètres sont plats, et au cours du temps peu de variations sont observées. Le phénomène peut être accru quand les résultats sont agrégée au niveau de la marque. Dans un examen quotidien de l’efficacité de la politique centrée clients à travers des enquêtes de satisfaction ; les sondeurs utilisent différents indicateurs et parmi les plus populaires : le calcul de taux (pourcentages), de moyennes ou encore des scores. Ces outils sont considérés comme des indicateurs fiables et représentatifs du phénomène étudié. Les différentes firmes procèdent ainsi à des contrôles permanents visant à établir l’évolution des indicateurs et ainsi corriger si nécessaire leurs actions (qui vise essentiellement une amélioration du produit ou service), pour mieux satisfaire leurs clients et donc de les fidéliser.

Or ces indicateurs calculés d’une vague à une autre souvent bougent très peu. Un gain d’un point dans une moyenne, ou encore dans un taux de satisfaits est vraiment très rare.

Cette observation faite au quotidien par les professionnels, nous aamené à se questionner sur le pourquoi de cette constance ou invariance. Les facteurs qui peuvent expliquer cette stabilité reposent sur deux hypothèses, qui sont :

H1 : les attentes des clients sont continuellement réévaluées, au même titre que l’amélioration du produit ou du service
H2 : Les clients recrutés (satisfaits) remplacent les partants (insatisfait)
L’augmentation de la qualité ou du niveau de service (donc de satisfaction) conduit à une augmentation des attentes et à mesure que les entreprises répondent aux attentes des clients pour mieux les satisfaire, elles encouragent aussi la réévaluation des attentes se condamnant à de nouvelles innovations et amélioration pour simplement maintenir le niveau de satisfaction. Une sorte de tapis roulant que l’on qualifierait volontiers de malédiction de la satisfaction. Cela peut créé un état d’équilibre permanent Les entreprises fidélisent mais recrutent aussi des nouveaux clients car les départs sont inéluctables. On peut supposer que les clients partants sont ceux qui ont la plus basse satisfaction et des attentes assouvies face à des attentes élevée. En revanche les nouveaux clients n’ont pas un niveau prononcé d’attentes et peuvent être satisfait facilement et sans trop d’effort. 

A partir de cette double hypothèse configurations deviennent possibles :

1-Une progression  de la satisfaction par rapport à la vague précédente : c’est le cas ou les nouveaux arrivants sont plus nombreux que les partants et en même temps, les restants sont constants au niveau de la satisfaction 
2-Une diminution  de la satisfaction par rapport à la vague précédente : c’est le cas où les recrutés sont moins nombreux que les partants et que les restants sont en phase de devenir des futures partant (niveau de satisfaction baisse). 

Les deux hypothèses émises précédemment, sont centrées sur l’augmentation des attentes clients vue globalement sur la population des consommateurs. Si cette augmentation est comblée par l’évolution du produit, il y a équilibre (H1). Si ce n’est pas le cas un déséquilibre négatif peut être corrigé par le recrutement des nouveaux clients (H2). Si le déséquilibre est positif, les améliorations vont au-delà des nouvelles attentes, une stabilité des indicateurs marquerait simplement un équilibre de l’attrition et de l’acquisition. On voit ici que l’invariance des mesures de satisfaction est conditionnée à deux cas qui se complètent et qui sont maintenus comme tels par les entreprises. La stabilité des indicateurs de satisfaction masque en fait une dynamique plus forte. L’équilibre se situe dans le rapport entre les attentes et la performance perçue par les clients, et entre le renouvellement de ces derniers. 

Reste à tester cette invariance. Un calcul statistique est disponible pour réaliser ce test : l’indice de distorsion  (Térouanne,1995). En voici une illustration avec un baromètre de satisfaction d’un chaine de distribution portant sur douze trimestres et donc 12 vagues. Le cumul de données pour l’entreprise en question, dépasse les 126 000 individus (10 000 par vague). Cette grande dimension de l’information donnera une certaine sécurité aux résultats.Comme l’idée est de prouver la stabilité des mesures d’une vague à une autre, nous comparerons les mesures dans chaque vague pour voir si la stabilité existe. 

Pour celà nous utilisons un indice « distorsion » utilisée pour mesurer l’écart entre la concentration de deux distributions de fréquences. Cette notion de « distorsion » est utilisée pour comparer la distribution des fréquences du critère de satisfaction) d’une vague à une autre.Nous définirons l’indice de distorsion selon (Térouanne, 1995), entre deux distributions de fréquences p, et q, par δ(p,q) qui est compris entre 0 et 1. Si l’indice est égale à 0, nous nous trouvons dans le cas où les distributions des fréquences sont égales p=q, et si il est égale à 1 ça sera le cas où les deux distributions sont totalement différentes. Comme la problématique de notre étude, est de prouver que les distributions d’une vague à une autre, sont identiques, nous prendrons l’indicateur γ(p,q).

Ce qui nous permet de traduire la stabilité de la mesure par un indice qui exprimera la ressemblance entre deux distributions avec une valeur proche de un et proche de zéro dans le cas d’une dissemblance. Les données recueillies dans chaque vague, concernent un item de satisfaction qui est posée aux répondants. Il s’agit de la satisfaction globale concernant le service de l’entreprise en question. Ce critère est mesuré sur une échelle allant de 1 à 10, 1 signifiant une satisfaction très basse et 10 un niveau très élevé. Les réponses au critère sont recueillies, dans chaque vague dont nous disposons de la distribution des fréquences sur laquelle l’indicateur γ(p,q), sera calculé. L’objectif sera de voir comment cet indice évolue d’une vague à une autre. Les valeurs trouvées sont les suivantes :
Les résultats nous montrent que les distributions des fréquences pour le critère de satisfaction, restent stables d’une vague à un autre. La ressemblance est au minimum à 96.8%, ce qui nous renseigne sur le degré de la similitude entre les résultats fournis d’une vague à une autre. La réduction de la similitude au cours des dernières vagues indique un changement d’état qui reste à caractériser.
Dans cette étude, nous avons établi la stabilité des mesures de satisfaction d’une vague à une autre. Cette stabilité n’est pas une stagnation, le double mouvement de la réévaluation des attentes et du renouvellement du portefeuille produit une stabilité des indicateurs de satisfaction qui est le signe que l’entreprise conserve et améliore ses services. Cette stabilité est le résultat direct d’une bonne notoriété et un bon processus de travail de l’entreprise. Car les clients jugent le produit ou le service mais juge aussi l’historique de la relation.

Amine Benabi – Doctorant.

8ème Contecsi : et si le net entrait dans l’ère du mensonge?

Todo es mentira
Le 8ème Contecsi vient de s’achever dans un bel automne Brésilien. Ce rendez-vous auquel Paris Ouest a participé était naturellement marqué par les réseaux sociaux. Joey George de l’Université de Floride et président de l’AIS en a donné la conférence inaugurale en évoquant une question importante : comment dans les relations interculturelles et à travers les médias on peut détecter les mensonges. Deux grands résultats se sont imposés. D’abord l’asymétrie entre la capacité de détection du mensonge et celle de la vérité : quand la première est détectée dans 35% des cas, la seconde l’est dans 80%. On reconnaitrait mieux le vrai que le faux. Ensuite, la force de l’échange vocal qui rejoint en terme de performance le face-à-face qui reste l’étalon. Est-ce une question d’engagement?
Naturellement le congrès avec ses 500 participants du brésil, d’Amérique du sud, d’Asie et Europe a au cours des sessions parallèle abordés de bien nombreux autre sujets. Mais à l’heure où l’internet prend un nouvel élan avec les réseaux sociaux et la marée à venir du mobile, à l’heure où plus que jamais la confiance est le préalable à l’échange utile d’information, c’était une belle manière de souligner que le monde du big data et de la surcharge informationnelle n’a de sens que si l’information produite et reproduite à défaut d’être vraie est au moins sincère. La quantité ne suffira pas elle doit aussi être précise, juste, honnête pour être utile.
Les exemples ne manquent pas. Les faux commentaires en sont un des aspects les plus spectaculaires. Mais les ages déclarés sur les réseaux sociaux, les tailles et poids dans les sites de rencontre, même les préférences déclarées dans les formulaire d’enquêtes, en sont d’autres manifestation. Sans compter les canulars et autres fausses informations que traquent certains certains sites et certains chercheurs. Quelle est la proportion de trucage et de supercherie ? Quelle vérité dans les données?

Le mensonge de plus est un des moyens les plus simple de protéger son intimité. Tricher sur les questions, embellir un profil, masquer les défauts, l’ordinaire des ruses qui altère le vrai, risque donc au travers des réseaux sociaux d’accroître de manière considérable l’information trompeuse. La multitude des synonymes de la tromperie, telle qu’en témoigne la carte lexicale çi-contre, donne une idée assez profonde du goût humain pour le bluff et la feinte pourvu qu’il ne remette pas trop en cause l’idée de soi.

On comprend ainsi qu’à travers les canaux, la nécessité accrue de disposer de détecteurs et de méthodes de détection des filouteries. Des stratégies élaborées doivent être envisagées pour à la fois identifier les informations fiables, précises, valides, garanties et écarter les impostures et autres mystifications. Le mensonge est un vieux problème du marketing, celui de la publicité est étudié depuis bien longtemps, mais aujourd’hui à l’heure de l’UGC et du crowd sourcing, ses termes changent profondément.
Dans un monde où ne parlent qu’un nombre limité d’acteurs, la triche peut être circonscrite facilement par la loi, des agences d’évaluation, des règles de déontologie, la labelisation. Mieux encore le jeu institutionnel permet de distinguer les sources crédibles de celles qui le sont moins. On peut à juste titre faire varier le degré de confiance accordé à tel ou tel média : les messages publicitaires, l’opinion publique, et l’information vérifié et garantie sont assez clairement distinguée. Dans l’univers de l’internet où chacun peut écrire sans carte de journaliste, donner un avis sans être pondéré par celui des autres, quand les frontières des sources s’évanouissent, quand l’honneur mis en jeu est limité par des masques, il est nécessaire de reconsidérer la nature de l’information recueillie massivement.
Plus précisément ce qui est en cause est la pratique de l’écoute clients. Encouragée par tous, considérée parfois comme un substitut aux études classiques, sa valeur est liée à la sincérité des clients qui s’expriment. Que ce soit par le fait que certains modes de communication médiatisée par les ordinateurs engage moins ceux qui se déclarent, ou parce qu’exagérer le propos au minimum, et travestir sa pensée au pire, est aussi un mode d’action, cette sincérité doit être mise en toute. Le fan peut ne garder que les louanges et oublier les réticences, le déçu peut ajouter des défauts inexistants, et masquer ses contentements. C’est un enjeu méthodologique majeur : pouvoir distinguer le sincère de la dissimulation, le vrai du faux, le franc et le biaisé. On imagine aisément que cela passe par une évaluation des sources et le test des contenus. Il faudra le faire dans un environemment de big data.

Un thermomètre sur mesure ? Des sondages sans instrument.

Au hasard de l’actualité, deux sondages de l’IFOP posent des questions sérieuses de méthodes dans la presse. Celui présumé mesurer l’opinion des français face aux mesures (encore non formulées) de « lutte contre la délinquance » et celui destiné à apprécier l’efficacité perçue par les français du dispositif Hadopi.
On pourrait passer en revue les différents points de méthodes :  la méthode de recueil ( CAWI), la détermination de l’échantillon (quotas), et la présentation des résultats. Ce serait une matière à réécrire un manuel de pratique et d’études des sondages. Bien trop long pour un post. Et finalement pas aussi critiquable que ça à quelques points techniques près
Une seule phrase de Yves-Marie Cann  mérite d’être ici discutée :
« L’initiative d’un sondage peut revenir soit à l’institut soit au commanditaire de l’étude. Dans les deux cas, le questionnaire est toujours le fruit d’un échange approfondi entre les deux parties. À charge ensuite pour l’institut de mettre ceci en question puis de soumettre à son client un projet de questionnaire. Plusieurs allers-retours peuvent avoir lieu avant d’aboutir à la version finale qui sera administrée à un échantillon représentatif. » d’autant plus qu’elle est éclairée par une interrogation un peu plus loin: « Pourquoi s’en prendre systématiquement au thermomètre ? »
S’il s’agit d’un thermomètre, celui-ci doit mesurer un fait objectif : un état particulier d’une quantité particulière – le degré d’agitation moléculaire du milieu sondé, autrement dit la température. Il ne mesure pas la chaleur (qui est un transfert d’energie), et plusieurs échelles seront disponibles pour en donner une quantification ( Kelvin, Celcius ou Fahrenheit). Le thermomètre sera valide s’il mesure ce qu’il doit mesurer – l’agitation moléculaire – et si on le retire trop vite du milieu test, il mesurera autre chose, juste un transfert de chaleur.

En psychologie sociale, c’est ce que les (véritables) spécialistes appellent la validité de contenu : les items (questions)  retenues correspondent-ils à l’idée ( le concept) que l’on souhaite mesurer?

A l’évidence, ce contenu ne peut être négocié. Ce serait pour prendre une image simple, accepter que le thermomètre soit conçu par une discussion entre le patient, le médecin et la sécurité sociale.  Au lieu de capter la température interne du patient, même si à travers tous les orifices cette mesure est fiable (produit la même mesure), elle ne serait en aucun cas valide car entachée d’un biais systématique. On ne mesurerait qu’un rapport de force ou un consensus, d’autant plus qu’à chaque sondage, même exécuté dans les meilleures conditions, la graduation, et la nature même du thermomètre serait modifiée.
Si la mesure a pour ambition d’être objective, elle doit se rapporter à un construit bien établi. Quel est ce construit dans ces enquête? Une opinion, mais relative à quoi? Au soutien de la politique sécuritaire de Sarkozy ou à la croyance que la répression est le meilleur moyen de freiner la délinquance? Au soutien d’un dispositif de lutte contre la copie privée ou à l’attitude à l’égard de la copie privée?
Scientifiquement, même s’il est bien mené techniquement, un tel sondage n’apporte rien, au mieux connaître les intentions de ses commanditaires. De manière marginale, on découvrira des opinions dont la raison reste obscure. On mesurera un vent.
C’est cette critique de fond qui depuis longtemps a été adressée par Bourdieu et que reprennent de manière pédagogique et amusante les Guignols de l’info.
Le sérieux d’un institut de sondage tel que l’Ifop serait de fournir sur de tels sujets des instruments de mesure qui se rapportent à des concepts bien établis. Si au travers d’une opinion particulière il s’agit de rendre compte d’une attitude : degré de xénophobie, l’attitude à l’égard de l’autorité, soutien politique, sentiment de victimisation, des instruments valides dans leur contenu, fiables dans leur application, représentatifs des populations qu’ils appréhendent, sont nécessaires. Pour que l’instrument soit valide il lui faut un contenu, sinon les questions posées sont pure rhétoriques et l’interprétation des réponses, des sophismes.
Pour travailler ainsi les méthodes existent, et de nombreuses échelles de mesures sont disponibles,  pas besoin de R&D avancée, il suffit d’emprunter dans les bibliothèques les manuels adéquats ou de consulter les procédures typiques. Une longue histoire psycho et sociométriques donnent les méthodes adéquates et elle se poursuit, les spécialistes de marketing n’étant pas en reste dans le débat.

Et sans entrer dans la technique on peut espérer que dans de telles enquêtes les concepts ( la température) soient bien établis et que les items (l’alcool ou le mercure du thermomètre) soient représentatifs de ce qu’on veut mesurer. Si les sondeurs font bien leur travail de sondage ( au sens de recueillir les données), soulignons que le fait même de négocier les questions, leur ôte le thermomètre des mains, il n’y a même pas besoin de le briser, il est simplement absent.

—–
Complément : on trouvera ici l’article fondateur (1979) – pour le marketing – de la méthodologie du développement des échelles et quelques ouvrages fondamentaux :

crédit photo