Fringues, une question de regard – une courte étude

hawai1950Le burkini est avant tout une marque et le fait du marketing dans la globalisation. Avant tout, car c’est la l’invention d’une entreprise et non d’un mouvement religieux. Un marketing au pied de la lettre qui tente de satisfaire une attente d’un segment ou de plusieurs segments de consommatrices. Pas seulement celui des musulmanes mais de toutes celles (naturellement seules les femmes sont concernées) dont les normes sociales auxquelles elles adhèrent contiennent une modalité particulière de la pudeur – ne pas laisser apparaitre en public ce qui relève de l’intimité – mais aussi la revendication d’une forme de modernité  : un vêtement spécifique pour le bain en opposition à la tradition – se baigner habillée, comme le font les indiennes, ou pour des raisons de teint de peau comme le font les chinoises.

Les marques sont des signes et le vêtement est en grande partie ostentatoire. S’il présente des attributs fonctionnels (le confort, la facilité d’entretien .. ), il en comporte d’autres associés à des dimensions plus symbolique et identitaires. S’habiller c’est dire ce qu’on est.

Voilà qui m’a rappelé que je possédais un petit jeu de donnée constitué par des étudiants dans les années 2005 avec une enquête portant sur l’univers des marques surfs. Une belle occasion pour revisiter ces données avec une technique ancienne mais négligée qui s’adaptent parfaitement à nos données : en particulier une batterie de plus de 35 critères de décision de choix d’un vêtement (Slide 2) correspondant parfaitement à la notion d’avantage recherché. C’était aussi l’occasion de faire tester une vieille technique d’analyse, rarement employée en marketing, mais particulièrement utile pour traiter ce type de données : la fonction Iclust du package r Psych. le but sera d’identifier les avantages recherchés, de les construire et d’en tirer un modèle de benefit segmentation.

A la segmentation par avantage recherché on ajoutera l’étude d’une autre question portant sur les situations d’usage : porter le vêtement à  l’école ou à la campagne, pour faire les courses ou aller au travail… Ce sera l’occasion de revisiter la question du positionnement des marques (slide 7) et de leur écologie (slide 8).

La méthode Iclust est une variante de méthodes de classification hiérarchique ascendantes destinée à classer non pas les individus mais les variables. Elle permet de  mieux comprendre comment les catégories de jugements se forment et se généralisent. C’est William Revelle, l’un des principaux contributeur du package Psych de r, et un des meilleurs spécialistes de psychométrie, en est son inventeur. La mesure de similarité s’appuie sur  des critères de fiabilité. Deux réponses seront associées si le coefficient alpha de Cronbach , ou une variante -le coefficient beta –  propre à l’auteur – défini comme le plus mauvais split-half test du groupe d’items- est maximisé. Son intérêt réside dans l’identification de sous-échelles parmi un large ensemble d’items.

Passons au concret. Les données que l’on traitent d’abord (slide 2) sont une liste de critères de choix. Le résultat se présente sous la forme d’un arbre de regroupement (S3). Après quelques tâtonnements la meilleure solution s’avère comporter 9 groupes d’items, ou facteurs.

Ils se répartissent en trois groupes.  Le premier est constitué de critères fonctionnels :  la facilité à l’usage du vêtement et de son entretien, ainsi que son caractère économique. Un second à caractère hédonique est constitué d’un seul facteur : le confort du vêtement. Le troisièmes est relatif au rapport que l’on veut établir avec les autres : se conformer à la mode ou à l’avis du groupe de référence, échapper au regard des autres par la discrétion, se distinguer et exercer une certaine séduction. On apprendra à personne que le vêtement se définit essentiellement par le regard des autres même s’il est occulté.

A partir de cette analyse, 9 scores sont calculés en faisant la moyenne des items qui se rapportent aux traits latents, puis en calculant le poids relatifs de chacun des facteurs dans l’attention prêtée à l’ensemble de ces critères. Quatre grand profils sont identifiés, ils sont de poids égaux ( slide 4) égaux. Un quart des personnes interrogées ne prend en compte que les aspect fonctionnels et hédoniques : pratique et confortable. Les trois autres segments se définissent en fonction du rapport qu’ils établissent aux yeux des autres :

  • la discrétion où la stratégie de l’invisibilité
  • la stratégie du conformisme entre les modèles et l’entourage
  • la logique du standing et le principe du classique

Les 3/4 des consommateurs sont sensibles au vêtement dans la mesure où il permet de définir le rapport avec les autres : celui d’un inclusion mais parfois d’une exclusion, la distinction et le conformisme, et même échapper au regard. Les indifférents sont m’oins d’un quart.

Même méthode pour analyser les situations d’achat ( Slide 5 et 6).  On y découvre que deux types de situations se distinguent : le dehors et le dedans. On laisse au lecteur le soin d’interpréter les subdivisions plus fines. Elles se construisent aussi sur une dimension d’intimité. On les retrouve dans le biplot, où l’on situe les marques ( slide 7). Le slide suivant (slide 8) sous d’apparence d’un cladogramme donne l’arbre généalogique ou phénotypique des marques. On y retrouve des familles qui ont du sens.

Faut-il conclure ? S’habiller, ou se déshabiller, est un art. Le vêtement soit -il réduit à un tatouage, un tressage de cheveux, des colliers, ou se fait-il de mètres tissés, tâffetés, plissés, enroulés, robes de princesses ou tourbillons de voiles, est un langage. Il exprime le rapport que l’on veut établir aux autres mais aussi celui que l’on veut entretenir avec son corps. Si la liberté d’expression est un des premiers droits de l’homme et de la femme, le droit de se déshabiller ou de s’habiller est le droit fondamental de dire ce que l’on veut dire.

Analyse conjointe avec r

VinblancL’analyse conjointe est sans doute la méthode la plus spécifique du marketing, même s’il semble qu’elle soit un peu négligée de nos jours alors même que l’environnement digital en permettrait un renouveau. Dans cette note nous nous contenterons de présenter pas à pas, son application via le package Conjoint sur r , développé par Andrzej Bak et Tomasz Bartlomowicz.

Pour plus de détails sur la méthode elle-même on jettera un coup d’oeil en fin de post à une bien vieille note écrite avec Jean-claude Liquet, imparfaite mais utile au moins pour les étudiants. Pour un état de l’art récent on ira voir ce texte , pour des applications professionnelles on ira voir le site de Sawtooth.

L’exemple que nous utilisons est un jeu de donnée crée par une des étudiante du Master MOI, dans le but de tester le rôle de certain signes de qualité dans le choix d’un vin. La première étape de l’analyse conjointe consiste à choisir des attributs que l’on pense déterminant et à définir leur modalités. La seconde étape vise à générer des concepts à partir de ces attributs. Comme le nombre de combinaison devient rapidement important, on utilise généralement des méthodes de plan d’expérience incomplets ( toutes les combinaisons ne sont pas testées, et orthogonaux ( on s’arrange pour que les modalités apparaissent de manière équilibrée et non corrélées entres elle).

La procédure ici est très simple : on appele le package « conjoint », pis on créé le fichier vin qui va contenir les différents concept en définition les attributs ( variables : type, pays…) et leurs modalités (« doux, « demi-sec »,…). Le plan factoriel est défini par la commande caFactorialDesign avec ici deux options : le choix de l’option  » fractional », et une limite dans le nombre de concept que l’on a fixé à 13.


library (conjoint)
library (Rcmdr)
Vin<-expand.grid(
Type<-c(« Doux », »demi-sec », »sec »),
Pays<-c(« Bourgogne », »Bordeaux », »Italie-Nord », »Afrique du Sud »),
Marque<-c(« Millessima », »1jour1vin », »Nicolas »),
Prix<-c(« 7€ », »12€ », »20€ »),
Label<-c(« Médaille d’or « , »NC »),
Environ<-c(« Bio », »NC »),
Annee<-c(« 2014 », « 2011 »))
design_vin<-caFactorialDesign(data=Vin,type= »fractional »,cards=13)

Le résultat est obtenu avec

print(design_vin)

le voici :

        Var1           Var2       Var3 Var4           Var5 Var6 Var7
49      Doux      Bourgogne  1jour1vin  12€ Médaille d'or   Bio 2014
81       sec    Italie-Nord Millessima  20€ Médaille d'or   Bio 2014
95  demi-sec Afrique du Sud  1jour1vin  20€ Médaille d'or   Bio 2014
176 demi-sec    Italie-Nord    Nicolas  12€             NC  Bio 2014
208     Doux       Bordeaux    Nicolas  20€             NC  Bio 2014
221 demi-sec       Bordeaux Millessima   7€ Médaille d'or    NC 2014
360      sec Afrique du Sud    Nicolas   7€             NC   NC 2014
458 demi-sec      Bourgogne    Nicolas   7€ Médaille d'or   Bio 2011
558      sec       Bordeaux  1jour1vin   7€             NC  Bio 2011
586     Doux Afrique du Sud Millessima  12€             NC  Bio 2011
667     Doux    Italie-Nord  1jour1vin   7€ Médaille d'or    NC 2011
714      sec       Bordeaux    Nicolas  12€ Médaille d'or    NC 2011
842 demi-sec      Bourgogne  1jour1vin  20€             NC   NC 2011

Parmi les 3x4x2x3x2x2=288 concept possibles seuls 13 ont été choisis. Est-ce trop peu? Un moyen de tester celà est de calculer les corrélations entre les modalités. C’est une fonction offerte par le package :

design_vin2<-caEncodedDesign(design_vin)
print(cor(design_vin2))

En voici le résultat, et c’est entre la var 7 et 4 qu’on encourage la corrélation la plus forte. Dans la pratique on fait différent essais pour trouver le meilleur compromis. Dans notre exemple on se satisfera de cette solution.

Var1 Var2 Var3 Var4 Var5 Var6
Var1 1.0000000 0.15304713 0.10586263 -0.10586263 0.17593289 -0.17593289
Var2 0.1530471 1.00000000 -0.11216750 0.11216750 0.17605477 0.04142465

Var3 0.1058626 -0.11216750 1.00000000 0.23275862 0.08596024 0.08596024
Var4 -0.1058626 0.11216750 0.23275862 1.00000000 -0.08596024 -0.08596024
Var5 0.1759329 0.17605477 0.08596024 -0.08596024 1.00000000 0.07142857
Var6 -0.1759329 0.04142465 0.08596024 -0.08596024 0.07142857 1.00000000
Var7 0.1759329 -0.04142465 -0.08596024 -0.28653413 0.23809524 -0.07142857

La troisième étape est celle de la collecte d’information. On essaiera de donner plus de réalisme en proposant les concepts sous formes d’image (celle qui illustre le post en est un exemple) ou encore mieux sous la forme de maquette. Quant au nombre de sujet, une remarque importante est qu’il n’a pas de limite inférieure pour la raison simple que le modèle est calculé individu par individu : ce que l’on cherche c’est naturellement à prédire le classement des concepts à partir des profils, et cela individu par individu. Naturellement les conditions d’échantillonnage habituelles interviennent si l’on veut généraliser à une population, si l’on veut segmenter ou faire des comparaisons entre des groupes d’individus particulier. Dans notre exemple on se contente de 36 individus, c’est largement insuffisant pour généraliser, mais bien assez pour les vertus de l’exemple.

Le fichier de données recueillis par notre étudiante apparait sous la forme suivante : C1, C2,… représente le premier puis le second choix etc. Nous allons devoir le remettre en ordre pour qu’il puisse être traité.

ID SEXE C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C12 C13
1 1 homme 52 458 584 105 627 654 311 775 514 120 424 253 828
2 2 femme 105 775 52 458 828 654 253 311 627 120 584 514 424
3 3 homme 52 514 105 627 253 654 120 311 458 584 424 828 775
4 4 homme 52 584 105 627 775 654 120 311 458 514 424 253 828
….

L’ordre requis par le package est un fichier « long » qui énumère les individus, les concepts dans leur ordre de production, et le classement de ces concepts. Une petite manipulation doit être donc excecutée avec une fonction très utile de r : la fonction  » reshape » :

MemoireVin_rank3 <- reshape(MemoireVin_rank2, varying=list(c(« C1″, »C2″, »C3″, »C4″, »C5″, »C6″, »C7″
, »C8″, »C9″, »C10″, »C11″, »C12″, »C13 »)), idvar = « ID », v.names= »concept »,direction = « long »)

 

On trie le fichier ensuite avec

MemoireVin_rank4<-MemoireVin_rank3[order(MemoireVin_rank3[,4],decreasing=F),]
MemoireVin_rank4<-MemoireVin_rank4[order(MemoireVin_rank4[,1],decreasing=F),]

 

et l’on crée un fichier de label pour l’esthétique:

l’analyse conjointe proprement dite peut être exécutée avec la simple commande :

Conjoint(MemoireVin_rank4$concept,design_vin2,label)

 

qui produit les résultats principaux suivants: c’est à dire les utilités partielles ( path-worth) et le poids des attributs (on omet le modèle de régression et les tests associés qui sont redondants)

Residual standard error: 3,448 on 442 degrees of freedom
Multiple R-squared: 0,175, Adjusted R-squared: 0,1526
F-statistic: 7,811 on 12 and 442 DF, p-value: 2,991e-13
[1] « Part worths (utilities) of levels (model parameters for whole sample): »
levnms utls
1 intercept 7,3099
2 Doux 0,1999
3 demi-sec 0,8055
4 sec -1,0054
5 Bourgogne -0,9406
6 Bordeaux 0,5748
7 Italie-No -0,1933
8 AfriqueSud 0,5591
9 Millessima 0,5693
10 1jour1vin-0,9083
11 Nicolas 0,3389
12 7€ -0,901
13 12€ -0,6254
14 20€ 1,5264
15 Médaillor-0,0999
16 NC 0,0999
17 Bio -0,7956
18 NC 0,7956
19 2014 -0,8828
20 2011 0,8828
[1] « Average importance of factors (attributes): »
[1] 17,58 18,68 14,39 20,87 8,40 10,53 9,54

 

On notera d’emblée u r2 proche de 17,5%, ce qui signifie que l’on reconstitue imparfaitement les préférences mais de manière significative : le test d’analyse de variance l’est à moins de 1 pour 1000. D’autre facteurs interviennent mais n’ont pas été pris en compte : forme de la bouteille, étiquette, Chateau etc. Les path-worth représente le gain en terme de rang qui est obtenus : les valeurs négative signifie simplement qu’on améliore le classement avec la présence de la modalité. Par conséquent le profil préféré est un vin sec, de type bourgogne, vendu par 1j1vin à 7 euros, bio et ayant reçu  une médaille, et plutôt jeune. On s’aperçoit que le prix pèse vous 21% suivi par l’origine et le type de vin, la médaille et le millésime comptant pour peu.

La commande produit aussi de manière automatique les graphiques de profil d’utilité correspondants :

Poursuivons la procédure. Ces résultats généraux sont une chose, mais on souhaite avoir des résultats plus individualisés. Les commandes suivantes nous permettent de générer un fichier des utilités individuelles :

upartial<-caPartUtilities(MemoireVin_rank4$concept,design_vin2,label)
newData <- as.data.frame(upartial)
newData
names(newData) <- make.names(names(newData))

L’analyse conjointe à ce stade est achevée et nous pouvons en exploiter les résultats. A titre d’exemple on peut s’interroger sur le poids des attributs dont on se dit qu’ils peuvent varier selon le degré d’expertise des consommateurs. Pour vérifier cette proposition, il va falloir d’abord transformer les utilités des modalités en importance des attributs. La formule générale est simplement Wk = abs(Min(ki)-Max(ki)/ somme(abs(Min(ki)-Max(ki)), k représente l’attribut, i les modalités des attributs. Le code est simple même si un peu lourd.

#calcul des importances

MemoireVin_rank$x_type<-abs(MemoireVin_rank$Doux-MemoireVin_rank$sec)
MemoireVin_rank$x_Origine<-abs(MemoireVin_rank$Bourgogne-MemoireVin_rank$Afrique.du.Sud)
MemoireVin_rank$x_Enseigne<-abs(MemoireVin_rank$Millessima-MemoireVin_rank$Nicolas)
MemoireVin_rank$x_Prix<-abs(MemoireVin_rank$X7.-MemoireVin_rank$X20.)
MemoireVin_rank$x_Medaille<-abs(MemoireVin_rank$Médaille.d.or-MemoireVin_rank$NC)
MemoireVin_rank$x_Bio<-abs(MemoireVin_rank$Bio-MemoireVin_rank$NC)
MemoireVin_rank$x_Millessime<-abs(MemoireVin_rank$X2014-MemoireVin_rank$X2011)
MemoireVin_rank$x=MemoireVin_rank$x_type+MemoireVin_rank$x_Origine+MemoireVin_rank$x_Enseigne+MemoireVin_rank$x_Prix+MemoireVin_rank$x_Medaille+MemoireVin_rank$x_Bio+MemoireVin_rank$x_MillessimeMemoireVin_rank$x_type<-MemoireVin_rank$x_type/MemoireVin_rank$x
MemoireVin_rank$x_Origine<-MemoireVin_rank$x_Origine/MemoireVin_rank$x
MemoireVin_rank$x_Enseigne<-MemoireVin_rank$x_Enseigne/MemoireVin_rank$x
MemoireVin_rank$x_Prix<-MemoireVin_rank$x_Prix/MemoireVin_rank$x
MemoireVin_rank$x_Medaille<-MemoireVin_rank$x_Medaille/MemoireVin_rank$x
MemoireVin_rank$x_Bio<-MemoireVin_rank$x_Bio/MemoireVin_rank$x
MemoireVin_rank$x_Millessime<-MemoireVin_rank$x_Millessime/MemoireVin_rank$x

En voici les résultats réalisé avec la commande plotMeans du package Rcmdr (la fonction x11() permet d’ajouter les graphiques), on s’apercevra que ceux qui se sentent experts donne un poids plus important au caractère bio et au prix, tandis que les novices accordent plus d’attention à la médaille, au millésime et à l’origine, alors que ceux qui se sentent un degré modéré d’expertise favorisent l’enseigne et le type de vin. Sans aller plus loin dans l’analyse on obtient un résultat général clair : on n’utilise pas les mêmes critères selon le niveau d’expertise, ce qui est assez logique. On laissera au lecteur le soin d’aller plus loin.


x11()
plotMeans(MemoireVin_rank$x_type, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance »,main= »Type »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Origine, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance « ,main= »Origine »,cex.lab=1)
x(11)
plotMeans(MemoireVin_rank$x_Enseigne, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »ENseigneG »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Medaille, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Medaille »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Bio, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »BIO »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Millessime, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Millessime »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Prix, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Prix »,cex.lab=1)

Généralement on cherchera à segmenter notamment pour identifier les groupes de consommateurs qui partagent les mêmes attentes. Ici on emploie les fonctions d’analyse hierarchique ( méthode de ward) fourni par l’interface graphique Rcmdr qui a déja été appelée, en choisissant la solution à trois groupes et en l’illustrant par le biplot. le code correspondant est le suivant ( mais en fait on s’est contenté d’utiliser le menu)


HClust.1 <- hclust(dist(model.matrix(~-1 + x_Bio+x_Enseigne+x_Medaille+x_Millessime+x_Origine+x_Prix+x_type, MemoireVin_rank)) , method= "ward") plot(HClust.1, main= "Cluster Dendrogram for Solution HClust.1", xlab= "Observation Number in Data Set MemoireVin_rank", sub="Method=ward; Distance=euclidian") summary(as.factor(cutree(HClust.1, k = 3))) # Cluster Sizes by(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank), as.factor(cutree(HClust.1, k = 3)), colMeans) # Cluster Centroids biplot(princomp(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank)), xlabs = as.character(cutree(HClust.1, k = 3)))

les profils apparaissent dans le tableau : le groupe 1 donne plus de poids à l’origine et au type, le groupe 2 à l’enseigne et au caractère bio, le groupe 3 au prix et au millesime. O peux penser que le premier favorise les goûts de l’individu, le second le style d’achat, et le troisième un certain rapport qualité/prix. On retrouve ainsi ce grand classique des avantages recherchés!


INDICES: 1
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07147493 0.10822056 0.09169431 0.11697915 0.22503436 0.19621573
x_type
0.19038097
————————————————————
INDICES: 2
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.17373411 0.19015292 0.15400115 0.05344901 0.07003827 0.16861833
x_type
0.19000620
————————————————————
INDICES: 3
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07657425 0.13635953 0.12456815 0.29134291 0.04337232 0.25255357
x_type
0.07522927

 

 

 

Consommation collaborative : prétester le matérialisme

Juste quelques résultats préliminaires. Un pré-test conduit par une de nos étudiants du Master Marketing Opérationnel International. Le questionnaire est là, remplissez le pour de meilleurs résultats. L’intérêt pour les formes de consommation collaborative vient-il des valeurs du matérialisme?

En matière de consommation le matérialisme n’est pas dialectique, du moins il ne se présente pas ainsi. Il se pétrit de croyances, de gouts, d’attitudes qui font qu’on puisse croire que l’accumulation des biens contribuent au bonheur, du sentiment que la dépense est nécessaire, de ce qu’on voit que le prestige s’incarne dans les biens que l’on possède. Des références clés dans ce domaine sont McCracken, Richins, et quelques autres. Qu’on prête aux bien une valeur plus ou moins importante pour réaliser le sentiment d’avoir réussi, de signaler aux autres sa valeur, ou de n’être que faiblement convaincu par les vertus de la frugalité, pourrait être une raison de pourquoi nous adhérons à l’idée de partager les biens dont nous tirons des effets utiles et agréables. Le voiture, un livre, un disque, une maison ou un crédit peuvent parfaitement être consommés collectivement, y sommes-nous prêts?

Est-on prêt à partager nos bien ? Quelques résultats répondent plutôt oui mais sans enthousiasme. On le ferait volontiers pour des livres ou des CD,- mais n’est-ce pas le rôle des bibliothèques ? , aussi pour le covoiturage – sans doute un budget à réduire! moins volontiers pour des emprunts collectifs – c’est sans doute une opération trop abstraite et apparemment incongrue.<

A ce stade peu de différences significatives, excepté les femmes qui partagent plus volontiers. En spéculant on partagerait d’autant moins qu’on est plus âgé et que le degré de diplôme est plus élevé. L’échantillon du pré-test est ici clairement insuffisant pour faire émerger des patterns significatifs.
La question centrale est cependant celui de l’importance de l’idéologie. Nous avons étudié cette question en nous appuyant sur l’échelle des valeurs du matérialisme proposée Richins et Dawson (1992) et adaptée en français par Richard Ladwein. Dans notre cas une ébauche de la solution, sur un pré-test de 140 personnes, apparaît dans le tableau suivant.
Les trois dimensions du matérialisme ( la frugalité, l’ostentation et la) expliquent peut être aussi dans leur généralité l’intention de partager ces catégories de produits. Le poids est mesurés ici grâce aux betas standardisés de modèles de régression appliqués à chacune des intentions de partage propres à chaque catégorie de produits – un modèle d’ensemble est aussi calculé.
On y ajoute deux questions spécifiques : l’intérêt pour la catégorie de produit ( implication) et de l’importance accordée à la possession de ces biens ( propriété), les deux variables sont saisis par un item. Les corrélations sont faibles, mais un certain nombre d’entre elles sont significatives, elle vont dans l’ensemble dans une même directions. Les r² cependant restent faibles même en deçà des seuils de signification : il y a sans doute de nombreux autres facteurs qui pèsent : la crédibilité de l’offre, son coût d’accès, les avantages qu’elles présentent.
La volonté de posséder est nullement liée aux partage, celui-ci serait-il sans rapport avec le sens de la propriété? Quand à l’implication c’est dans le cas des vêtement et du crédit qu’elle joue positivement, sans doute l’expression d’une certaine compétence qui trouve matière à s’exprimer : trouver la bonne affaire..
On observe une corrélation négative entre la croyance que posséder des choses donne du prestige et l’intérêt pour partager le bien. C’est de cas de la maison, des vêtements et de la voiture. Moins on y voit de vertu symbolique et plus on est prêt à partager. Quand le bien représentent notre puissance, il faut les posséder pour que l’effet d’ostentation se produise !C’est une corrélation positive qui se manifeste pour la maison, la voiture et le crédit et le sentiment que les biens terrestres font le bonheur. Plus on croit que l’accumulation des biens est importante et plus on serait prêt à partager, car c’est le moyen d’obtenir ce qu’on ne peut posséder avec ses propres ressources.La frugalité conduit à vouloir partager ses lectures et ses musiques. Cet anti-matérialisme est sensible à la poésie du livre qu’on abadonne sur un banc public, elle s’enthousiasme peut-être dans le piratage….

Manifestement le matérialisme ne prend son sens que dans son rapport aux objets. Il n’a pas un déterminisme unique, ses facettes jouent différemment selon les objets. Il contribue faiblement. Un effet fort s’enregistre avec de faibles échantillons, s’il reste à peine sensible, c’est que même avec des mesures plus solide, son effet est sans doute faible.

Voilà une piste intéressante. Le matérialisme n’est pas une fatalité de la faiblesse humaine, elle ne conduit pas nos conduite. Sans doute il faut revenir au détails de ces offres. La consommation collaborative pourra devenir significative pour autant qu’elle apportent des avantages évidents et un accès facile. L’idéologie sans doute forme une part marginale de nos préférences, surtout quand il s’agit de choses nouvelles.

Même si ce poids est faible, il peut cependant orienter les domaines où il peut jouer un rôle important. Sans doute là où les investissements des consommateurs sont importants mais aussi dans ces choses dont la valeurs marchande est faibles qui qui véhicule un éthos dont on est fier. Nous en sommes encore aux hypothèses. L’avantage des pré-tests par la faiblesse de leurs échantillon est d’écarter les hypothèses marginales, ils renseignent aussi ce dont nous ne savons encore presque rien.

Il n’y a pas de conclusion à cette note d’étude. Sauf une, n’attendons pas du côté de l’idéologie le vent qui oriente le destin de la consommation collaborative.

La lecture à l’age des Rolling Stones

Dans notre compréhension des espaces digitaux il faudra se remettre à la lecture et à ses théories. Se rappeler aussi une histoire merveilleuse écrite par Manguel ou Chartier, du passage de la lecture à haute voix à celle du silence. Il faudra se  pencher sur l’appareillage des notes, les références bibliographique, les coins écornés, les marges annotées. Lire n’est pas l’évidence des yeux qui suivent les lignes, ils en sautent et reviennent en arrière.

Qu’on comprenne qu’un document aujourd’hui se compose du texte, des méta-données qui le référence, mais aussi des annotations dont on rêve qu’elle s’accroche au fil des pages à la manière de Souncloud où les commentaires s’épinglent sous la ligne du son. Il n’y jamais eu de texte isolé, et la lecture s’est toujours faite en collaboration.

Une observation. Deux cas parmi des proches. Suscitée par un livre : les mémoires de Keith Richard. Les deux personnes ont adopté une lecture particulière de cette histoire touffue dont la densité des anecdotes en fait l’index d’une histoire écrite ailleurs. Et cet ailleurs est Youtube. Chaque page lue fournissant les mots-clés pour retrouver la forme vivante des épisodes, leur pendant presque réel des images vidéos. Passant du livre à l’écran pouvoir projeter les images du livre en dehors de l’écran du cerveau. C’est sans dire que l’aller et retour du livre à l’écran est ponctué de partages. Facebook ou Twitter. Donner à son entourage des fragments de nos plaisirs et de nos découverte.

Il est bien d’autre cas où l’interaction de la page et de l’écran manifeste une fructueuse collaboration.  Celui-ci à l’avantage de montrer une chose de plus. La subtilité de cet expérience réside en fait dans une forme d’écriture. C’est la manière même de rendre compte de son histoire et de son objet qui incite à la recherche :

« Le premier 45 tours est sorti rapidement après la signature du contrat. Tous se comptait en jour pas en semaines. On avait fait un choix délibérément commercial : « come on » de Chuck Berry. Je ne pensais pas que c’était ce que nous pouvions faire de mieux, mais j’étais certain que ça allait laisser une marque» p115 – Keith Richard, Life.

Les livres sont des nœuds, les fragments de texte sur le net le sont aussi. Et la lecture est cet art de jouer avec les nœuds, s’arrêtant sur l’un pour mieux repérer les autres. Ce qui change dans nos lectures est qu’un lien suffit pour glisser d’un texte à l’autre, le commentaire prend de l’importance au regard de la lettre. Le texte qu’on sors du rayonnage est encore lié à ses voisins. Ce qui s’ajoute est que la lecture silencieuse des autres, qui rarement se traduisait par une annotation, aujourd’hui prend de la couleur et tapisse le fond de nos lectures d’une sorte de choeur.

Recherche sur internet : une question de méthode

#radar

Les 19 et 20 Janvier le Congrès Marketing Trends se tenait à Venise et c’était aussi l’occasion de présenter une communication un peu ancienne mais auxquelles les évolutions de l’internet redonne un intérêt. L’objet de l’étude porte sur les stratégie de recherche  sur internet.

Les données ont été collectées en 2007 sous la forme de capture d’écran vidéo des recherches motivée par quatre tâche par sujet. Une piste son enregistre les commentaires du sujet au cours de l’exécution de la tâche. L’analyse des séquences d’action, notamment en calculant les probabilités d’effectuer une action en fonction de la précédentes permet de mettre en évidence une double boucle d’apprentissage.

Si la boucle essai-erreur est la plus fréquente, et n’aboutit pas, une autre méthode peut être utilisée. La recherche d’information est donc structuré par un flot de deux types d’évaluation et de décision : les résultats d’une recherche menée avec une certaine méthode, les méthodes elles-mêmes.

Par méthode c’est l’usage de google et les choix de mots clés, ou celui d’une application spécifique, par exemple si la tâche est de trouver un itinéraire, l’emploi de mappy constitue la méthode. Si google search est à l’évidence la méthode utilisée la plus fréquemment et la plus généraliste, des moteurs alternatifs peuvent être employée pour recherche un objet spécifiques. Un livre sera plus simple à trouver sur google books, une image dans Flickr, une actualité dans twitter.

Les méthodes de recherche tendent à se diversifier et à se spécialisées. Et c’est bien là où cette recherche en proposant une méthode d’étude originale est encore d’actualité. Nous sommes dans le monde des apps, ces programmes dédiés à des tâche spécifique, que l’on collectionne sur son écran. Ici le choix de la méthode est un choix d’application. Le problème pour le consommateur est alors celui de la composition de sa collection d’apps et de l’accès dans les Appstores.

Le texte :

Une culture des usages et l’usage des cultures.

La technologie est unique pour le monde. Nous utilisons les même PC, les mêmes tablettes, les mêmes serveurs, les mêmes antennes, les mêmes satellite, les mêmes câbles, les mêmes claviers, les mêmes souris, les mêmes écran tactiles et pourtant nos usages diffèrent.
En chaque endroit du monde les mêmes objets, ces intrus puissants, font l’objet de choix distincts et s’inscrive dans l’usage général d’une manière propre. Chacun cultive et accueille les technologies à sa manière. Le processus de l’appropriation conduit à des résultats différent de manière naturelle puisque chacun vit dans un environnement différent. Il peut être matériel, économique ou culturel.
Cet environnement est à caractériser, il n’est pas externe au sujet et en est plutôt la continuation. Il est un arrangement de choses et de gestes qui médie les groupes sociaux auxquels les sujets ont affaires. Il se constitue donc d’un ensemble de normes, de désirs, d’outils et d’habitudes. Les habitudes forgent les normes, les normes orientent les désirs, les outils les canalisent et les focalisent. Il est fait de possibles et des produits de l’imaginaire, d’une culture.
Ces déterminants culturels de la la technologies sont le plus souvent réduit aux 5 dimensions de Hofstede : incertitude, masculinité, rapport à l’autorité, individualisme, orientation temporelle. Mais moins que culturels ils décrivent des traits individuels qui peuvent être associés aux variables clés de l’adoption des technologies nouvelles : self-efficacicy, technological anxiety, utilité, facilité d’utilisation, jouabilité, présence sociale, synchronicité, … D’autres variables sont parfois employées : low context vs high context. Dans de tels modèles les cultures sont des essences qui conditionnent les actes. Plus la distance culturelle est grande et plus les différences le seront. Le multi-culturel détermine l’usage par nature.
Cette conception est discutable car l’approche substantialiste fait des traits culturels des éléments persistants alors qu’on peut y opposer une conception plus dynamique de la culture dans laquelle les objets culturels sont continuellement produits, diffusés, intégré et investi de valeurs prioritaires telles l’identité. Certaines monographies ou études quali laissent transparaitre la diversité d’usage qu’un tel processus est susceptible de produire, une approche anthropologique est nécessaire. 
Pour ne donner qu’un exemple, la manière dont on manipule et on parle au téléphone varie d’une zone à l’autre du monde. Si nous avons l’habitude en Europe de porter l’appareille à l’oreille, le micro vers la bouche, Au Bresil il n’est pas rare de voir les utilisateurs alterner la position de l’appareil entre l’oreille( et il est tenu perpendiculaire au plan d’écoute), puis à la bouche ( tenu comme un micro). Cette position rapple le protocole des radios ( plus utilisés dans le milieu agricole) et largement utilisé avec le réseau ( nextel): . La manière de manipuler l’appareil n’est pas la seule chose. Il y a aussi la personnalisation de la coque qui au moyen orient et en Asie peut se faire dans de petits ateliers qui avec des perles, des pierres et de la de la colle compose un habillage unique à la personne. On peut aussi examiner la manière dont le téléphone est transporté : à la ceinture en collier, dans une poche de veston, un sac, les stratégies de recharge etc.
La grille d’analyse culturelle des usages se déploie d’abord dans une histoire et une géographie : celle de l’environnement technologique ( dans le cas du brésil l’usage préexistant de la CB) et des sujets. Elle doit être d’abord attentive aux productions : ces gestes et ces habitudes spécifiques qui semble avoir diffusé dans le groupe culturel ( cette manière de porter l’appareil à l’oreille). 
La régularité de ces gestes peut ensuite être examinée du point de vue de leur association à d’autres gestes, d’autres objets ( casques ou écouteurs dont la floraison dans le métro parisien témogne d’une véritable mode), d’autres images (les porteurs d’oreillette ont toujours un air de personnel de sécurité). L’investissement enfin doit être au centre de l’attention : dans l’exemple de la décoration des coques il est non seulement affectifs ( ce sont d’autre doudou et colifichets) mais social dans la mesure où l’esthétique est largement codifiée et reproduite dans cette micro-institutions que sont les ateliers et qu’elle semble participer à cette culture Kawaii.
Voici donc pour le programme. Ne pas tant chercher des différences systématiques qui découleraient de certain traits de caractère culturels, mais en identifiant des pratiques singulières dans le processus de leur développement, montrer comment des fonctions génériques sont mises en pratiques différemment, et reçoivent parfois une signification spécifique. C’est quand cette signification, identitaire ou non, peut être observée que l’on saisira un phénomène culturel.

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

L’invariance des baromètres de satisfaction

Malédiction de la satisfaction
Par Amine Benabi – Doctorant CEROS et Cifre Init . 
 
La question de la satisfaction n’est pas qu’une question de concept. C’est aussi un problème de mesure, d’une mesure qui se fait le plus souvent sous la forme d’un baromètre destiné à en identifier les variations. Ces enquêtes s’inscrivent comme des éléments de contrôle des stratégies sont menée au moins annuellement, souvent trimestriellement et parfois de manière continue.

La satisfaction client qui est souvent considérée comme la composante la plus importante des politique relationnelle, et qui conduit à la fidélité est définie comme une résultante de la comparaison entre les attentes et l’évaluation de la performance perçue du produit ou du service (Oliver, 1997). Ce modèle connu sous le nom de la Disconfirmation des attentes, est à la base du paradigme de la satisfaction, et explique le processus de sa réalisation.

Cependant les mesures effectuées sont plus souvent liées à une évaluation globale qui ne permet pas toujours de discerner l’accroissement des attentes et celle de la qualité perçue, ce qui permet d’expliquer un phénomène courant : les baromètres sont plats, et au cours du temps peu de variations sont observées. Le phénomène peut être accru quand les résultats sont agrégée au niveau de la marque. Dans un examen quotidien de l’efficacité de la politique centrée clients à travers des enquêtes de satisfaction ; les sondeurs utilisent différents indicateurs et parmi les plus populaires : le calcul de taux (pourcentages), de moyennes ou encore des scores. Ces outils sont considérés comme des indicateurs fiables et représentatifs du phénomène étudié. Les différentes firmes procèdent ainsi à des contrôles permanents visant à établir l’évolution des indicateurs et ainsi corriger si nécessaire leurs actions (qui vise essentiellement une amélioration du produit ou service), pour mieux satisfaire leurs clients et donc de les fidéliser.

Or ces indicateurs calculés d’une vague à une autre souvent bougent très peu. Un gain d’un point dans une moyenne, ou encore dans un taux de satisfaits est vraiment très rare.

Cette observation faite au quotidien par les professionnels, nous aamené à se questionner sur le pourquoi de cette constance ou invariance. Les facteurs qui peuvent expliquer cette stabilité reposent sur deux hypothèses, qui sont :

H1 : les attentes des clients sont continuellement réévaluées, au même titre que l’amélioration du produit ou du service
H2 : Les clients recrutés (satisfaits) remplacent les partants (insatisfait)
L’augmentation de la qualité ou du niveau de service (donc de satisfaction) conduit à une augmentation des attentes et à mesure que les entreprises répondent aux attentes des clients pour mieux les satisfaire, elles encouragent aussi la réévaluation des attentes se condamnant à de nouvelles innovations et amélioration pour simplement maintenir le niveau de satisfaction. Une sorte de tapis roulant que l’on qualifierait volontiers de malédiction de la satisfaction. Cela peut créé un état d’équilibre permanent Les entreprises fidélisent mais recrutent aussi des nouveaux clients car les départs sont inéluctables. On peut supposer que les clients partants sont ceux qui ont la plus basse satisfaction et des attentes assouvies face à des attentes élevée. En revanche les nouveaux clients n’ont pas un niveau prononcé d’attentes et peuvent être satisfait facilement et sans trop d’effort. 

A partir de cette double hypothèse configurations deviennent possibles :

1-Une progression  de la satisfaction par rapport à la vague précédente : c’est le cas ou les nouveaux arrivants sont plus nombreux que les partants et en même temps, les restants sont constants au niveau de la satisfaction 
2-Une diminution  de la satisfaction par rapport à la vague précédente : c’est le cas où les recrutés sont moins nombreux que les partants et que les restants sont en phase de devenir des futures partant (niveau de satisfaction baisse). 

Les deux hypothèses émises précédemment, sont centrées sur l’augmentation des attentes clients vue globalement sur la population des consommateurs. Si cette augmentation est comblée par l’évolution du produit, il y a équilibre (H1). Si ce n’est pas le cas un déséquilibre négatif peut être corrigé par le recrutement des nouveaux clients (H2). Si le déséquilibre est positif, les améliorations vont au-delà des nouvelles attentes, une stabilité des indicateurs marquerait simplement un équilibre de l’attrition et de l’acquisition. On voit ici que l’invariance des mesures de satisfaction est conditionnée à deux cas qui se complètent et qui sont maintenus comme tels par les entreprises. La stabilité des indicateurs de satisfaction masque en fait une dynamique plus forte. L’équilibre se situe dans le rapport entre les attentes et la performance perçue par les clients, et entre le renouvellement de ces derniers. 

Reste à tester cette invariance. Un calcul statistique est disponible pour réaliser ce test : l’indice de distorsion  (Térouanne,1995). En voici une illustration avec un baromètre de satisfaction d’un chaine de distribution portant sur douze trimestres et donc 12 vagues. Le cumul de données pour l’entreprise en question, dépasse les 126 000 individus (10 000 par vague). Cette grande dimension de l’information donnera une certaine sécurité aux résultats.Comme l’idée est de prouver la stabilité des mesures d’une vague à une autre, nous comparerons les mesures dans chaque vague pour voir si la stabilité existe. 

Pour celà nous utilisons un indice « distorsion » utilisée pour mesurer l’écart entre la concentration de deux distributions de fréquences. Cette notion de « distorsion » est utilisée pour comparer la distribution des fréquences du critère de satisfaction) d’une vague à une autre.Nous définirons l’indice de distorsion selon (Térouanne, 1995), entre deux distributions de fréquences p, et q, par δ(p,q) qui est compris entre 0 et 1. Si l’indice est égale à 0, nous nous trouvons dans le cas où les distributions des fréquences sont égales p=q, et si il est égale à 1 ça sera le cas où les deux distributions sont totalement différentes. Comme la problématique de notre étude, est de prouver que les distributions d’une vague à une autre, sont identiques, nous prendrons l’indicateur γ(p,q).

Ce qui nous permet de traduire la stabilité de la mesure par un indice qui exprimera la ressemblance entre deux distributions avec une valeur proche de un et proche de zéro dans le cas d’une dissemblance. Les données recueillies dans chaque vague, concernent un item de satisfaction qui est posée aux répondants. Il s’agit de la satisfaction globale concernant le service de l’entreprise en question. Ce critère est mesuré sur une échelle allant de 1 à 10, 1 signifiant une satisfaction très basse et 10 un niveau très élevé. Les réponses au critère sont recueillies, dans chaque vague dont nous disposons de la distribution des fréquences sur laquelle l’indicateur γ(p,q), sera calculé. L’objectif sera de voir comment cet indice évolue d’une vague à une autre. Les valeurs trouvées sont les suivantes :
Les résultats nous montrent que les distributions des fréquences pour le critère de satisfaction, restent stables d’une vague à un autre. La ressemblance est au minimum à 96.8%, ce qui nous renseigne sur le degré de la similitude entre les résultats fournis d’une vague à une autre. La réduction de la similitude au cours des dernières vagues indique un changement d’état qui reste à caractériser.
Dans cette étude, nous avons établi la stabilité des mesures de satisfaction d’une vague à une autre. Cette stabilité n’est pas une stagnation, le double mouvement de la réévaluation des attentes et du renouvellement du portefeuille produit une stabilité des indicateurs de satisfaction qui est le signe que l’entreprise conserve et améliore ses services. Cette stabilité est le résultat direct d’une bonne notoriété et un bon processus de travail de l’entreprise. Car les clients jugent le produit ou le service mais juge aussi l’historique de la relation.

Amine Benabi – Doctorant.

8ème Contecsi : et si le net entrait dans l’ère du mensonge?

Todo es mentira
Le 8ème Contecsi vient de s’achever dans un bel automne Brésilien. Ce rendez-vous auquel Paris Ouest a participé était naturellement marqué par les réseaux sociaux. Joey George de l’Université de Floride et président de l’AIS en a donné la conférence inaugurale en évoquant une question importante : comment dans les relations interculturelles et à travers les médias on peut détecter les mensonges. Deux grands résultats se sont imposés. D’abord l’asymétrie entre la capacité de détection du mensonge et celle de la vérité : quand la première est détectée dans 35% des cas, la seconde l’est dans 80%. On reconnaitrait mieux le vrai que le faux. Ensuite, la force de l’échange vocal qui rejoint en terme de performance le face-à-face qui reste l’étalon. Est-ce une question d’engagement?
Naturellement le congrès avec ses 500 participants du brésil, d’Amérique du sud, d’Asie et Europe a au cours des sessions parallèle abordés de bien nombreux autre sujets. Mais à l’heure où l’internet prend un nouvel élan avec les réseaux sociaux et la marée à venir du mobile, à l’heure où plus que jamais la confiance est le préalable à l’échange utile d’information, c’était une belle manière de souligner que le monde du big data et de la surcharge informationnelle n’a de sens que si l’information produite et reproduite à défaut d’être vraie est au moins sincère. La quantité ne suffira pas elle doit aussi être précise, juste, honnête pour être utile.
Les exemples ne manquent pas. Les faux commentaires en sont un des aspects les plus spectaculaires. Mais les ages déclarés sur les réseaux sociaux, les tailles et poids dans les sites de rencontre, même les préférences déclarées dans les formulaire d’enquêtes, en sont d’autres manifestation. Sans compter les canulars et autres fausses informations que traquent certains certains sites et certains chercheurs. Quelle est la proportion de trucage et de supercherie ? Quelle vérité dans les données?

Le mensonge de plus est un des moyens les plus simple de protéger son intimité. Tricher sur les questions, embellir un profil, masquer les défauts, l’ordinaire des ruses qui altère le vrai, risque donc au travers des réseaux sociaux d’accroître de manière considérable l’information trompeuse. La multitude des synonymes de la tromperie, telle qu’en témoigne la carte lexicale çi-contre, donne une idée assez profonde du goût humain pour le bluff et la feinte pourvu qu’il ne remette pas trop en cause l’idée de soi.

On comprend ainsi qu’à travers les canaux, la nécessité accrue de disposer de détecteurs et de méthodes de détection des filouteries. Des stratégies élaborées doivent être envisagées pour à la fois identifier les informations fiables, précises, valides, garanties et écarter les impostures et autres mystifications. Le mensonge est un vieux problème du marketing, celui de la publicité est étudié depuis bien longtemps, mais aujourd’hui à l’heure de l’UGC et du crowd sourcing, ses termes changent profondément.
Dans un monde où ne parlent qu’un nombre limité d’acteurs, la triche peut être circonscrite facilement par la loi, des agences d’évaluation, des règles de déontologie, la labelisation. Mieux encore le jeu institutionnel permet de distinguer les sources crédibles de celles qui le sont moins. On peut à juste titre faire varier le degré de confiance accordé à tel ou tel média : les messages publicitaires, l’opinion publique, et l’information vérifié et garantie sont assez clairement distinguée. Dans l’univers de l’internet où chacun peut écrire sans carte de journaliste, donner un avis sans être pondéré par celui des autres, quand les frontières des sources s’évanouissent, quand l’honneur mis en jeu est limité par des masques, il est nécessaire de reconsidérer la nature de l’information recueillie massivement.
Plus précisément ce qui est en cause est la pratique de l’écoute clients. Encouragée par tous, considérée parfois comme un substitut aux études classiques, sa valeur est liée à la sincérité des clients qui s’expriment. Que ce soit par le fait que certains modes de communication médiatisée par les ordinateurs engage moins ceux qui se déclarent, ou parce qu’exagérer le propos au minimum, et travestir sa pensée au pire, est aussi un mode d’action, cette sincérité doit être mise en toute. Le fan peut ne garder que les louanges et oublier les réticences, le déçu peut ajouter des défauts inexistants, et masquer ses contentements. C’est un enjeu méthodologique majeur : pouvoir distinguer le sincère de la dissimulation, le vrai du faux, le franc et le biaisé. On imagine aisément que cela passe par une évaluation des sources et le test des contenus. Il faudra le faire dans un environemment de big data.