Réseaux sociaux : qu’y fait-on? Pourquoi on les fréquente?

Que fait-on sur les réseaux sociaux? Quels bénéfices y trouve-on? Quelles gratifications y obtient-on? Les fréquente-t-on parce qu’ils  nous donnent des opportunités ou parce qu’ils noient l’ennui? Y va-t-on parce qu’on est malheureux ou parce qu’on est heureux ?

A vrai dire on en sait assez peu. L’étude Wave est sans doute la plus étendue par le nombre des nations qu’elle étudie, mais peut être pas totalement convaincante sur sa méthodologie. L’univers académique néglige cette question pratique préférant des thèses plus audacieuses, ou l’étude de comportements déviants ou périphérique. Et d’ailleurs ce serait bien de l’analyser systématiquement nous savoir quelles dispositions elle met en évidence.

Un jeu de données produit par une des mes étudiantes de master va nous permettre d’aborder la question au moins sur le plan de la méthode. Son jeu de donnée (260 individus) est représentatif du cercle social d’une étudiante franco- russe qui aura recueilli dans une population majoritairement jeune et étudiante les réponses à trois questions :

  1. Quels sont les réseaux que les gens utilisent  et avec quelle fréquence ?
  2. Quelles y sont leurs activités et les gratifications qu’ils en retirent : une batterie de 36 items est exploitée à cette fin
  3. Etes-vous heureux dans la vie ? C’est une approche du concept de Customer Well Being qui semble recueillir un intérêt de plus en plus grand dans la littérature académique.

L’approche ici reste descriptive. Le plus c’est de segmenter sur une base très traditionnelle, mais fondamentale, quels sont les avanatges que recherche les utilisateurs de réseaux sociaux dans l’usage de ces réseaux? La question subsidiaire c’est de comprendre comment ces usages sont liés à leur qualité de vie.

Commençons par le début et par l’analyse des réseaux qu’ils emploient. deux critères sont mis en avant, le sexe et la nationalité. L’un reflète un ordre social qui se perpetue dans la construction du genre, l’autre au moins une différence culturelle façonné par l’histoire, les conditions économiques et sociales. En deux graphiques on y observe qu’il y a peu de différence de genre, mais des spécificités nationales importantes. Si Facebook est dominant en france, c’est vcontack qui semble exploiter la même niche en russie.

Une analyse complémentaire

 

Fringues, une question de regard – une courte étude

hawai1950Le burkini est avant tout une marque et le fait du marketing dans la globalisation. Avant tout, car c’est la l’invention d’une entreprise et non d’un mouvement religieux. Un marketing au pied de la lettre qui tente de satisfaire une attente d’un segment ou de plusieurs segments de consommatrices. Pas seulement celui des musulmanes mais de toutes celles (naturellement seules les femmes sont concernées) dont les normes sociales auxquelles elles adhèrent contiennent une modalité particulière de la pudeur – ne pas laisser apparaitre en public ce qui relève de l’intimité – mais aussi la revendication d’une forme de modernité  : un vêtement spécifique pour le bain en opposition à la tradition – se baigner habillée, comme le font les indiennes, ou pour des raisons de teint de peau comme le font les chinoises.

Les marques sont des signes et le vêtement est en grande partie ostentatoire. S’il présente des attributs fonctionnels (le confort, la facilité d’entretien .. ), il en comporte d’autres associés à des dimensions plus symbolique et identitaires. S’habiller c’est dire ce qu’on est.

Voilà qui m’a rappelé que je possédais un petit jeu de donnée constitué par des étudiants dans les années 2005 avec une enquête portant sur l’univers des marques surfs. Une belle occasion pour revisiter ces données avec une technique ancienne mais négligée qui s’adaptent parfaitement à nos données : en particulier une batterie de plus de 35 critères de décision de choix d’un vêtement (Slide 2) correspondant parfaitement à la notion d’avantage recherché. C’était aussi l’occasion de faire tester une vieille technique d’analyse, rarement employée en marketing, mais particulièrement utile pour traiter ce type de données : la fonction Iclust du package r Psych. le but sera d’identifier les avantages recherchés, de les construire et d’en tirer un modèle de benefit segmentation.

A la segmentation par avantage recherché on ajoutera l’étude d’une autre question portant sur les situations d’usage : porter le vêtement à  l’école ou à la campagne, pour faire les courses ou aller au travail… Ce sera l’occasion de revisiter la question du positionnement des marques (slide 7) et de leur écologie (slide 8).

La méthode Iclust est une variante de méthodes de classification hiérarchique ascendantes destinée à classer non pas les individus mais les variables. Elle permet de  mieux comprendre comment les catégories de jugements se forment et se généralisent. C’est William Revelle, l’un des principaux contributeur du package Psych de r, et un des meilleurs spécialistes de psychométrie, en est son inventeur. La mesure de similarité s’appuie sur  des critères de fiabilité. Deux réponses seront associées si le coefficient alpha de Cronbach , ou une variante -le coefficient beta –  propre à l’auteur – défini comme le plus mauvais split-half test du groupe d’items- est maximisé. Son intérêt réside dans l’identification de sous-échelles parmi un large ensemble d’items.

Passons au concret. Les données que l’on traitent d’abord (slide 2) sont une liste de critères de choix. Le résultat se présente sous la forme d’un arbre de regroupement (S3). Après quelques tâtonnements la meilleure solution s’avère comporter 9 groupes d’items, ou facteurs.

Ils se répartissent en trois groupes.  Le premier est constitué de critères fonctionnels :  la facilité à l’usage du vêtement et de son entretien, ainsi que son caractère économique. Un second à caractère hédonique est constitué d’un seul facteur : le confort du vêtement. Le troisièmes est relatif au rapport que l’on veut établir avec les autres : se conformer à la mode ou à l’avis du groupe de référence, échapper au regard des autres par la discrétion, se distinguer et exercer une certaine séduction. On apprendra à personne que le vêtement se définit essentiellement par le regard des autres même s’il est occulté.

A partir de cette analyse, 9 scores sont calculés en faisant la moyenne des items qui se rapportent aux traits latents, puis en calculant le poids relatifs de chacun des facteurs dans l’attention prêtée à l’ensemble de ces critères. Quatre grand profils sont identifiés, ils sont de poids égaux ( slide 4) égaux. Un quart des personnes interrogées ne prend en compte que les aspect fonctionnels et hédoniques : pratique et confortable. Les trois autres segments se définissent en fonction du rapport qu’ils établissent aux yeux des autres :

  • la discrétion où la stratégie de l’invisibilité
  • la stratégie du conformisme entre les modèles et l’entourage
  • la logique du standing et le principe du classique

Les 3/4 des consommateurs sont sensibles au vêtement dans la mesure où il permet de définir le rapport avec les autres : celui d’un inclusion mais parfois d’une exclusion, la distinction et le conformisme, et même échapper au regard. Les indifférents sont m’oins d’un quart.

Même méthode pour analyser les situations d’achat ( Slide 5 et 6).  On y découvre que deux types de situations se distinguent : le dehors et le dedans. On laisse au lecteur le soin d’interpréter les subdivisions plus fines. Elles se construisent aussi sur une dimension d’intimité. On les retrouve dans le biplot, où l’on situe les marques ( slide 7). Le slide suivant (slide 8) sous d’apparence d’un cladogramme donne l’arbre généalogique ou phénotypique des marques. On y retrouve des familles qui ont du sens.

Faut-il conclure ? S’habiller, ou se déshabiller, est un art. Le vêtement soit -il réduit à un tatouage, un tressage de cheveux, des colliers, ou se fait-il de mètres tissés, tâffetés, plissés, enroulés, robes de princesses ou tourbillons de voiles, est un langage. Il exprime le rapport que l’on veut établir aux autres mais aussi celui que l’on veut entretenir avec son corps. Si la liberté d’expression est un des premiers droits de l’homme et de la femme, le droit de se déshabiller ou de s’habiller est le droit fondamental de dire ce que l’on veut dire.

Analyse conjointe avec r

VinblancL’analyse conjointe est sans doute la méthode la plus spécifique du marketing, même s’il semble qu’elle soit un peu négligée de nos jours alors même que l’environnement digital en permettrait un renouveau. Dans cette note nous nous contenterons de présenter pas à pas, son application via le package Conjoint sur r , développé par Andrzej Bak et Tomasz Bartlomowicz.

Pour plus de détails sur la méthode elle-même on jettera un coup d’oeil en fin de post à une bien vieille note écrite avec Jean-claude Liquet, imparfaite mais utile au moins pour les étudiants. Pour un état de l’art récent on ira voir ce texte , pour des applications professionnelles on ira voir le site de Sawtooth.

L’exemple que nous utilisons est un jeu de donnée crée par une des étudiante du Master MOI, dans le but de tester le rôle de certain signes de qualité dans le choix d’un vin. La première étape de l’analyse conjointe consiste à choisir des attributs que l’on pense déterminant et à définir leur modalités. La seconde étape vise à générer des concepts à partir de ces attributs. Comme le nombre de combinaison devient rapidement important, on utilise généralement des méthodes de plan d’expérience incomplets ( toutes les combinaisons ne sont pas testées, et orthogonaux ( on s’arrange pour que les modalités apparaissent de manière équilibrée et non corrélées entres elle).

La procédure ici est très simple : on appele le package « conjoint », pis on créé le fichier vin qui va contenir les différents concept en définition les attributs ( variables : type, pays…) et leurs modalités (« doux, « demi-sec »,…). Le plan factoriel est défini par la commande caFactorialDesign avec ici deux options : le choix de l’option  » fractional », et une limite dans le nombre de concept que l’on a fixé à 13.


library (conjoint)
library (Rcmdr)
Vin<-expand.grid(
Type<-c(« Doux », »demi-sec », »sec »),
Pays<-c(« Bourgogne », »Bordeaux », »Italie-Nord », »Afrique du Sud »),
Marque<-c(« Millessima », »1jour1vin », »Nicolas »),
Prix<-c(« 7€ », »12€ », »20€ »),
Label<-c(« Médaille d’or « , »NC »),
Environ<-c(« Bio », »NC »),
Annee<-c(« 2014 », « 2011 »))
design_vin<-caFactorialDesign(data=Vin,type= »fractional »,cards=13)

Le résultat est obtenu avec

print(design_vin)

le voici :

        Var1           Var2       Var3 Var4           Var5 Var6 Var7
49      Doux      Bourgogne  1jour1vin  12€ Médaille d'or   Bio 2014
81       sec    Italie-Nord Millessima  20€ Médaille d'or   Bio 2014
95  demi-sec Afrique du Sud  1jour1vin  20€ Médaille d'or   Bio 2014
176 demi-sec    Italie-Nord    Nicolas  12€             NC  Bio 2014
208     Doux       Bordeaux    Nicolas  20€             NC  Bio 2014
221 demi-sec       Bordeaux Millessima   7€ Médaille d'or    NC 2014
360      sec Afrique du Sud    Nicolas   7€             NC   NC 2014
458 demi-sec      Bourgogne    Nicolas   7€ Médaille d'or   Bio 2011
558      sec       Bordeaux  1jour1vin   7€             NC  Bio 2011
586     Doux Afrique du Sud Millessima  12€             NC  Bio 2011
667     Doux    Italie-Nord  1jour1vin   7€ Médaille d'or    NC 2011
714      sec       Bordeaux    Nicolas  12€ Médaille d'or    NC 2011
842 demi-sec      Bourgogne  1jour1vin  20€             NC   NC 2011

Parmi les 3x4x2x3x2x2=288 concept possibles seuls 13 ont été choisis. Est-ce trop peu? Un moyen de tester celà est de calculer les corrélations entre les modalités. C’est une fonction offerte par le package :

design_vin2<-caEncodedDesign(design_vin)
print(cor(design_vin2))

En voici le résultat, et c’est entre la var 7 et 4 qu’on encourage la corrélation la plus forte. Dans la pratique on fait différent essais pour trouver le meilleur compromis. Dans notre exemple on se satisfera de cette solution.

Var1 Var2 Var3 Var4 Var5 Var6
Var1 1.0000000 0.15304713 0.10586263 -0.10586263 0.17593289 -0.17593289
Var2 0.1530471 1.00000000 -0.11216750 0.11216750 0.17605477 0.04142465

Var3 0.1058626 -0.11216750 1.00000000 0.23275862 0.08596024 0.08596024
Var4 -0.1058626 0.11216750 0.23275862 1.00000000 -0.08596024 -0.08596024
Var5 0.1759329 0.17605477 0.08596024 -0.08596024 1.00000000 0.07142857
Var6 -0.1759329 0.04142465 0.08596024 -0.08596024 0.07142857 1.00000000
Var7 0.1759329 -0.04142465 -0.08596024 -0.28653413 0.23809524 -0.07142857

La troisième étape est celle de la collecte d’information. On essaiera de donner plus de réalisme en proposant les concepts sous formes d’image (celle qui illustre le post en est un exemple) ou encore mieux sous la forme de maquette. Quant au nombre de sujet, une remarque importante est qu’il n’a pas de limite inférieure pour la raison simple que le modèle est calculé individu par individu : ce que l’on cherche c’est naturellement à prédire le classement des concepts à partir des profils, et cela individu par individu. Naturellement les conditions d’échantillonnage habituelles interviennent si l’on veut généraliser à une population, si l’on veut segmenter ou faire des comparaisons entre des groupes d’individus particulier. Dans notre exemple on se contente de 36 individus, c’est largement insuffisant pour généraliser, mais bien assez pour les vertus de l’exemple.

Le fichier de données recueillis par notre étudiante apparait sous la forme suivante : C1, C2,… représente le premier puis le second choix etc. Nous allons devoir le remettre en ordre pour qu’il puisse être traité.

ID SEXE C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C12 C13
1 1 homme 52 458 584 105 627 654 311 775 514 120 424 253 828
2 2 femme 105 775 52 458 828 654 253 311 627 120 584 514 424
3 3 homme 52 514 105 627 253 654 120 311 458 584 424 828 775
4 4 homme 52 584 105 627 775 654 120 311 458 514 424 253 828
….

L’ordre requis par le package est un fichier « long » qui énumère les individus, les concepts dans leur ordre de production, et le classement de ces concepts. Une petite manipulation doit être donc excecutée avec une fonction très utile de r : la fonction  » reshape » :

MemoireVin_rank3 <- reshape(MemoireVin_rank2, varying=list(c(« C1″, »C2″, »C3″, »C4″, »C5″, »C6″, »C7″
, »C8″, »C9″, »C10″, »C11″, »C12″, »C13 »)), idvar = « ID », v.names= »concept »,direction = « long »)

 

On trie le fichier ensuite avec

MemoireVin_rank4<-MemoireVin_rank3[order(MemoireVin_rank3[,4],decreasing=F),]
MemoireVin_rank4<-MemoireVin_rank4[order(MemoireVin_rank4[,1],decreasing=F),]

 

et l’on crée un fichier de label pour l’esthétique:

l’analyse conjointe proprement dite peut être exécutée avec la simple commande :

Conjoint(MemoireVin_rank4$concept,design_vin2,label)

 

qui produit les résultats principaux suivants: c’est à dire les utilités partielles ( path-worth) et le poids des attributs (on omet le modèle de régression et les tests associés qui sont redondants)

Residual standard error: 3,448 on 442 degrees of freedom
Multiple R-squared: 0,175, Adjusted R-squared: 0,1526
F-statistic: 7,811 on 12 and 442 DF, p-value: 2,991e-13
[1] « Part worths (utilities) of levels (model parameters for whole sample): »
levnms utls
1 intercept 7,3099
2 Doux 0,1999
3 demi-sec 0,8055
4 sec -1,0054
5 Bourgogne -0,9406
6 Bordeaux 0,5748
7 Italie-No -0,1933
8 AfriqueSud 0,5591
9 Millessima 0,5693
10 1jour1vin-0,9083
11 Nicolas 0,3389
12 7€ -0,901
13 12€ -0,6254
14 20€ 1,5264
15 Médaillor-0,0999
16 NC 0,0999
17 Bio -0,7956
18 NC 0,7956
19 2014 -0,8828
20 2011 0,8828
[1] « Average importance of factors (attributes): »
[1] 17,58 18,68 14,39 20,87 8,40 10,53 9,54

 

On notera d’emblée u r2 proche de 17,5%, ce qui signifie que l’on reconstitue imparfaitement les préférences mais de manière significative : le test d’analyse de variance l’est à moins de 1 pour 1000. D’autre facteurs interviennent mais n’ont pas été pris en compte : forme de la bouteille, étiquette, Chateau etc. Les path-worth représente le gain en terme de rang qui est obtenus : les valeurs négative signifie simplement qu’on améliore le classement avec la présence de la modalité. Par conséquent le profil préféré est un vin sec, de type bourgogne, vendu par 1j1vin à 7 euros, bio et ayant reçu  une médaille, et plutôt jeune. On s’aperçoit que le prix pèse vous 21% suivi par l’origine et le type de vin, la médaille et le millésime comptant pour peu.

La commande produit aussi de manière automatique les graphiques de profil d’utilité correspondants :

Poursuivons la procédure. Ces résultats généraux sont une chose, mais on souhaite avoir des résultats plus individualisés. Les commandes suivantes nous permettent de générer un fichier des utilités individuelles :

upartial<-caPartUtilities(MemoireVin_rank4$concept,design_vin2,label)
newData <- as.data.frame(upartial)
newData
names(newData) <- make.names(names(newData))

L’analyse conjointe à ce stade est achevée et nous pouvons en exploiter les résultats. A titre d’exemple on peut s’interroger sur le poids des attributs dont on se dit qu’ils peuvent varier selon le degré d’expertise des consommateurs. Pour vérifier cette proposition, il va falloir d’abord transformer les utilités des modalités en importance des attributs. La formule générale est simplement Wk = abs(Min(ki)-Max(ki)/ somme(abs(Min(ki)-Max(ki)), k représente l’attribut, i les modalités des attributs. Le code est simple même si un peu lourd.

#calcul des importances

MemoireVin_rank$x_type<-abs(MemoireVin_rank$Doux-MemoireVin_rank$sec)
MemoireVin_rank$x_Origine<-abs(MemoireVin_rank$Bourgogne-MemoireVin_rank$Afrique.du.Sud)
MemoireVin_rank$x_Enseigne<-abs(MemoireVin_rank$Millessima-MemoireVin_rank$Nicolas)
MemoireVin_rank$x_Prix<-abs(MemoireVin_rank$X7.-MemoireVin_rank$X20.)
MemoireVin_rank$x_Medaille<-abs(MemoireVin_rank$Médaille.d.or-MemoireVin_rank$NC)
MemoireVin_rank$x_Bio<-abs(MemoireVin_rank$Bio-MemoireVin_rank$NC)
MemoireVin_rank$x_Millessime<-abs(MemoireVin_rank$X2014-MemoireVin_rank$X2011)
MemoireVin_rank$x=MemoireVin_rank$x_type+MemoireVin_rank$x_Origine+MemoireVin_rank$x_Enseigne+MemoireVin_rank$x_Prix+MemoireVin_rank$x_Medaille+MemoireVin_rank$x_Bio+MemoireVin_rank$x_MillessimeMemoireVin_rank$x_type<-MemoireVin_rank$x_type/MemoireVin_rank$x
MemoireVin_rank$x_Origine<-MemoireVin_rank$x_Origine/MemoireVin_rank$x
MemoireVin_rank$x_Enseigne<-MemoireVin_rank$x_Enseigne/MemoireVin_rank$x
MemoireVin_rank$x_Prix<-MemoireVin_rank$x_Prix/MemoireVin_rank$x
MemoireVin_rank$x_Medaille<-MemoireVin_rank$x_Medaille/MemoireVin_rank$x
MemoireVin_rank$x_Bio<-MemoireVin_rank$x_Bio/MemoireVin_rank$x
MemoireVin_rank$x_Millessime<-MemoireVin_rank$x_Millessime/MemoireVin_rank$x

En voici les résultats réalisé avec la commande plotMeans du package Rcmdr (la fonction x11() permet d’ajouter les graphiques), on s’apercevra que ceux qui se sentent experts donne un poids plus important au caractère bio et au prix, tandis que les novices accordent plus d’attention à la médaille, au millésime et à l’origine, alors que ceux qui se sentent un degré modéré d’expertise favorisent l’enseigne et le type de vin. Sans aller plus loin dans l’analyse on obtient un résultat général clair : on n’utilise pas les mêmes critères selon le niveau d’expertise, ce qui est assez logique. On laissera au lecteur le soin d’aller plus loin.


x11()
plotMeans(MemoireVin_rank$x_type, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance »,main= »Type »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Origine, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance « ,main= »Origine »,cex.lab=1)
x(11)
plotMeans(MemoireVin_rank$x_Enseigne, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »ENseigneG »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Medaille, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Medaille »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Bio, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »BIO »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Millessime, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Millessime »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Prix, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Prix »,cex.lab=1)

Généralement on cherchera à segmenter notamment pour identifier les groupes de consommateurs qui partagent les mêmes attentes. Ici on emploie les fonctions d’analyse hierarchique ( méthode de ward) fourni par l’interface graphique Rcmdr qui a déja été appelée, en choisissant la solution à trois groupes et en l’illustrant par le biplot. le code correspondant est le suivant ( mais en fait on s’est contenté d’utiliser le menu)


HClust.1 <- hclust(dist(model.matrix(~-1 + x_Bio+x_Enseigne+x_Medaille+x_Millessime+x_Origine+x_Prix+x_type, MemoireVin_rank)) , method= "ward") plot(HClust.1, main= "Cluster Dendrogram for Solution HClust.1", xlab= "Observation Number in Data Set MemoireVin_rank", sub="Method=ward; Distance=euclidian") summary(as.factor(cutree(HClust.1, k = 3))) # Cluster Sizes by(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank), as.factor(cutree(HClust.1, k = 3)), colMeans) # Cluster Centroids biplot(princomp(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank)), xlabs = as.character(cutree(HClust.1, k = 3)))

les profils apparaissent dans le tableau : le groupe 1 donne plus de poids à l’origine et au type, le groupe 2 à l’enseigne et au caractère bio, le groupe 3 au prix et au millesime. O peux penser que le premier favorise les goûts de l’individu, le second le style d’achat, et le troisième un certain rapport qualité/prix. On retrouve ainsi ce grand classique des avantages recherchés!


INDICES: 1
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07147493 0.10822056 0.09169431 0.11697915 0.22503436 0.19621573
x_type
0.19038097
————————————————————
INDICES: 2
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.17373411 0.19015292 0.15400115 0.05344901 0.07003827 0.16861833
x_type
0.19000620
————————————————————
INDICES: 3
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07657425 0.13635953 0.12456815 0.29134291 0.04337232 0.25255357
x_type
0.07522927

 

 

 

Le pari au cœur des modèles statistiques – le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.
Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L’utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d’hypothèse avec la notion d’intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d’intention de vote d’une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l’intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s’inscrivent dans le cadre d’une approche dite fréquentiste de l’inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l’inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d’hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d’avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l’ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L’inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L’inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L’inférence non paramétrique, comme son nom l’indique ne suppose pas l’existence d’un paramètre d’intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l’exemple type.
    L’inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d’en induire la probabilité qu’elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l’écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l’utilisation de l’inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c’est un cadre bayésien qui s’impose dans la littérature technique.
    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu’un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d’une régularité.
    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d’expert ou encore des anciennes données. Durant l’analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.
    Ainsi sachant qu’une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu’un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d’actualiser le calcul. ( la formule est sur le t-shirt).
    D’après Robert (2006), L’analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.
    L’approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l’inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d’effectuer des tests d’hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc…), mais un grand travail reste à faire dans se sens.
    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s’est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l’estimation. Le raisonnement bayésien désormais s’étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d’estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n’est qu’une invitation, voici un exemple où l’inférence bayésienne donne des capacités d’apprentissage aux robots.

    Et quelques livres:

    A vot’ bon coeur! Msieurs, Dames… – PWYW et NYOP

    Parfois le monde de l’internet semble donner des leçons au monde de la terre. De cette étrange planète il y a bien sûr cette idée de gratuité, qui semble aussi étrange à nos valeurs bourgeoises (l’effort récompensé, chaque chose a un prix etc) que les communautés guarani à l’œil du conquistador, aussi inconséquente que les communautés hippies aux traders. Il y a sans doute pire : cette pratique de ne payer que ce que l’on estime être juste. Pay What You Want!

    Cette pratique est bien installée dans le monde du freeware, où moins qu’un prix et qu’une récompense, la somme concédée est un don destinée à encourager l’innovation, l’amélioration, à financer non pas le produit (ce résultat d’une processus acccompli) mais son futur. Certains, comme RadioHead, l’ont testée comme alternative et voilà que des restaurants la mettent au menu.

    Le sceptique voit dans cette pratique moins l’expression d’un humanisme désintéressé mais réaliste, que la perversité d’un économiste avisé. Au fond en laissant libre au consommateur de fixer sa quotité, on révèle précisément son contentement à payer. Pourvu que le coût du produit soit si faible qu’il corresponde rarement à une fraction importante du prix de vente ordinaire, il est de grande chance pour que cette méthode, une technique de discrimination par les prix de premier degré, permette de toucher à la fois ceux qui ne veulent pas payer beaucoup et qu’un prix ordinaire éloignerait du banquet, et ceux qui dans l’euphorie de la bombance sont prêt à payer des fortunes. la méthode permet ainsi de réunir l’ensemble du marché à une même table. L’économiste connait bien ce principe. La condition idéale est qu’un couvert de plus à table ne coûte rien.

    Ce prix juste, car il correspond à ce qu’attend de payer le consommateur en considération de ce qu’il a dégusté, est pourtant bien fragile. Aussi riche soyons-nous, nous pouvons difficilement penser juste qu’autrui dépense moins pour le même délice. Et ceux qui ne seraient pas prêts à débourser un sou seraient ravi de manger au détriment de ceux qui possèdent plus. Les pauvres ont rarement plus de morale que les riches, et celle des riches est aussi fragile qu’une rose du matin. Un tel système est possible à la condition qu’il n’y ait pas de transfert, il exige un secret, celui du montant des ardoises. Pour éviter le transfert, il faut donc l’ignorance, et l’obscurité des prix ! La justice se voile-t-elle d’ignorance ? A l’heure des comparateurs (et des garanties de prix bas -EDLP) cela semble bien difficile, même si des techniques comme le NYOP y remédient (Name your own price).

    Et pourtant les cas se multiplient , et notemment avec les causes telle l’action de Linkin Park pour Haiti. Ce qui laisse à penser que la réussite de ce type de stratégie, au-delà de l’effet participatif du mécanisme sur l’intention de payer, relève aussi de mécanismes particuliers d’évaluation.

    Avec cette idée que la gratuité est un synonyme du don, de l’abandon, le « payer ce que vous voulez » devient un « à votre bon coeur! », l’échelle du prix n’est plus celle de la valeur mais celle de la générosité.

    Référence :
    Ju-Young Kim, Martin Natter & Martin Spann (2009) « Pay What You Want: A New Participative Pricing Mechanism,” Journal of Marketing 73, no. 1 (January 2009)

    Retargeting : l’art de rentrer par les fenêtres

    L’idée n’est pas neuve, et le principe est simple. Si un internaute témoigne d’un certain intérêt en s’arrêtant sur une page de e-commerce, autant noter sa présence, et si on le retrouve lui offrir à nouveau ce sur quoi il semble avoir hésiter. Le retargeting se limite à cette idée. Mais il est plus fort que les grecs du quartier latin qui poursuivent le touriste hésitant, menu en main. Il revient le lendemain.

    La technique plus sophistiquée. Pour un aperçu, on jettera un coup d’oeil ici . Il semble que la technique soit sous-utilisée , même si elle produit apparemment des résultats remarquables . En france, il semblerait que ce soit critéo qui en offre un des meilleurs outil .

    Dans le principe, la technique est parfaitement convaincante, de même que les vieilles techniques de réactivation des clients, elle s’appuie sur l’idée que l’hésitation permet de cibler des prospects pas encore tièdes pour pouvoir craquer si on leur force la main. Un bel exemple de ciblage comportemental qui s’appuie sur un critère simple et fort : l’envie ne résiste pas à une seconde tentation, et il y tant de processus d’achat abandonnés qu’il faut de tenter de les rattraper.

    Mais quelques questions : qu’en est-il du respect de la vie privée, des données personnelles? Quel effet à long terme de la vente forcée? Le débat est ouvert. Sans aucun doute, c’est ce type de technique marketing qui va crisper la société, et conduire les hommes politiques à mettre une main noire et liberticide sur la libre circulation de l’information. Mais plus important encore, se pose la question des résistances des consommateurs à ces nouvelles actions. Dans le jeu du glaive et du bouclier, attendons nous à de nombreuses innovations.

    —–

    credit photo : jef safi ( encore et toujours lui!)

    Mass Customization – un mythe moderne


    Le sur-mesure de masse (Mass-customization) est sans doute un des mythes les plus persistants du marketing contemporain. La personnalisation se confond souvent avec l’idée qu’il faille ajuster les offres au plus près des désirs des consommateurs. On en oublie au passage que l’idée de personnalisation se satisfait d’offre standardisée, pourvu qu’une attention particulière, unique soit accordée au destinataire. Le sourire de la crémière valorise certainement le panier d’œufs standard que le consommateur vient d’acheter, mais c’est une autre histoire.

    Restons-en donc au sur-mesure, dont les technologies de l’information rendent possible la massification et l’automatisation. Il est assez curieux de constater la popularité de cette idée, alors que l’histoire de la consommation nous montre somme toute, que les solutions standardisées ont écarté dans de nombreux domaines les solutions individualisées. Le prêt à porter a anéanti la population des couturières, la grande distribution a presque éradiqué les épiciers traditionnels, il y a bien longtemps que nos apothicaires ne préparent plus dans leur mortiers les médications qui nous conviennent pour nous tendre des doses standards sous blisters.

    Naturellement on comprend que les économies apportées par ces solutions, et les coûts abaissés par l’économie d’échelle ont transformé le rapport de valeur entre le standard et le sur-mesure, et que c’est donc l’espoir qu’on puisse produire, avec les mêmes échelles et les mêmes réductions de coût, des solutions sur-mesure qui justifient cet engouement persistant.

    Aurélie Merle dans une thèse soutenue en 2007 et un article de 2008 (1), montre que la valeur du sur-mesure tient en grande partie dans la valeur du produit ainsi ajusté, mais ne dépend pas directement de l’expérience participative, même si cette dernière contribue à la valeur du produit individualisé. De ce point de vue, elle soutient cette opinion. L’essentiel tient dans le produit individualisé et celui-ci a plus de valeur que le produit standardisé.

    Cependant, dans les détails de la thèse, qui ne sont pas dans l’article, un fait particulier était qu’une fraction minoritaire des sujets étudiés percevait moins de valeur dans la solution individualisée que dans la solution standardisée. Ce résultat partiel et marginal dans la recherche pouvait être compris comme le fait que pour certains consommateurs le bénéfice de l’individualisation était dépassé par le coût du processus. Quand on va chez la couturière, il faut subir le temps des mensurations, cela peut être pénible.

    C’est cette hypothèse que confortent deux publications récentes (2,3) en montrant l’une et l’autre que la valeur du sur-mesure est essentiellement liée aux caractéristiques du consommateur : son degré de compétence et plus particulièrement la connaissance qu’il a de ses propres critères de choix, et de son degré d’implication et de motivation.

    Sur un plan plus fondamental, on doit rapprocher ces éléments du point de vue moderne de la psychologie cognitive qui rend compte que face à un choix dans lequel les alternatives sont nombreuses, la décision est de piètre qualité et souvent insatisfaisante. C’est la thèse de B. Schwartz sur les paradoxes du choix. Quand le choix est trop difficile, trop coûteux, on s’en remet au hasard! Qui n’a pas connu cette panique face à un rayon trop vaste?

    Pour exposé limpide et largement développé de ce point de vue, on ira volontiers suivre la leçon de Barry Schwartz (4), dont des tests empiriques commencent à être fournis dans l’analyse des décisions sur le web. (sur un sujet proche et des voies de solution on s’intéressera à la toute fraîche Collapsed Choice Theory)

    Les conséquences pratiques sont importantes. Inutile de faire participer un consommateur qui ne sait pas ce qu’il veut exactement et qui n’est pas prêt à faire un grand effort de recherche, à la conception du produit ou du service qui lui conviendra le mieux. Il risque même de se détourner des plateformes qui lui proposent ces solutions pour leur préférer des options plus frustres, dont le choix est limité. Sauf si l’on peut lui simplifier la tâche, non seulement lui offrir la possibilité d’individualiser son offre mais aussi le prendre par la main et lui prenant le moins de temps possible.

    La mass-customization est sans doute une option réservée à des groupes étroits de consommateurs et des secteurs dans lesquels l’implication et la compétence sont élevées. Deux signes sont révélateurs des situations favorables : quel prix est prêt à payer le consommateur? Quel est le statut de la marque? Ainsi ce que peut faire Nike serait interdit aux autres fabriquant de chaussures.

    Toute la question est au fond de savoir quelle proportion des consommateurs (d’un marché ou d’une marque) est finalement assez motivée et compétente? Il est probable qu’elle soit faible, laissant de beaux jours encore au marketing de masse. Mais c’est un point de vue à discuter !

    (1) Merle A, Chandon J, Roux E. Comprendre la valeur perçue de la customisation de masse. Une distinction entre la valeur du produit et la valeur de l’expérience de co-design. (French). Recherche et Applications en Marketing [serial online]. September 2008;23(3):27-50.

    (2)Bharadwaj N, Naylor R, ter Hofstede F. Consumer response to and choice of customized versus standardized systems. International Journal of Research in Marketing [serial online]. September 2009;26(3):216-227.

    (3) Franke N, Keinz P, Steger C. Testing the Value of Customization: When Do Customers Really Prefer Products Tailored to Their Preferences?. Journal of Marketing [serial online]. September 2009;73(5):103-121.
    (4) Schwartz, B. The Paradox of Choice: Why More Is Less. Harper Perennial, 2005.

    ____________

    A lire aussi ici :

    Le profit du ciblage individualisé

    Le paradis de la customization

    De la valeur au capital (client)

    Une suite à « retour à la valeur« 

    Et non, nous n’évoquerons pas cette transmutation fondamentale qui est au cœur de la pensée marxiste, ce passage de la valeur d’usage à la valeur marchande, même si cela reste au programme. Nous resterons plus modestes en nous intéressant à ce que comment de l’idée que chaque client est un actif de l’entreprise, on peut imaginer que la valeur de l’entreprise est celle de l’ensemble clientèle. De quoi se constitue le capital client (Customer equity) ?

    En posant que le client est un actif, nous allons au cœur du problème. Si la valeur de l’entreprise est bien la somme des cash flow futurs que sa politique actuelle va générer, il est évident que cette valeur est équivalente à celle que l’ensemble de son portefeuille de client va générer en fonction de la politique qu’elle mène. Pour affirmer cela, il faut partager l’idée que dans un temps indéfini, la valeur de la firme dépend des revenus qu’elle génère, de ses investissements, et des coûts qu’elle concède pour les obtenir. Et donc que quels que soient les modèles d’affaires, la valeur de la firme se résout dans sa capacité à obtenir des flux de revenus contre des dépenses de ressources. C’est un point extrêmement discutable, d’une part parce que les revenus peuvent venir d’une autre source que celle qui motive les dépenses, c’est le modèle des marchés à plusieurs faces, mais aussi du fait que les revenus peuvent venir du fait de l’espérance d’un revenu futur, actualisé sur le marché financier, c’est le modèle des ventures Business.

    Restons donc dans le cadre traditionnel, de ce qu’à terme le revenu est produit par ceux qui achètent le produit, ou le service, de la firme. Dans l’effort de valorisation des actifs, il est clair qu’il faut comparer ce que l’on investit, ce qu’on dépense, à ce qu’on espère gagner. L’investissement correspond à la dépense actuelle qui peut générer des revenus immédiats et futurs, la dépense est ce que l’on doit consacrer pour servir la réalisation des revenus immédiats. La balance se fait en comparant le cumul de ce qui est investi, plus celui qui est dépensé, au flux cumulé des revenus obtenus. La différence est exactement ce qu’on appelle le customer equity. Le capital client.

    Une première intention serait comme nous l’avons analysé, de le définir comme la somme les Customer Life Time values. Mais si le capital client se limitait à cette seule sommation nous n’aurions pas défini de concept nouveau. Il faut aller plus loin. Life time Value et customer equity seraient la même chose à la base de clientèle près.

    Mais avant d’aller plus loin réglons le sort d’autres formes de capital. Le premier d’entre eux est le capital de marque, un autre plus fondamental est le capital produit, je n’ose encore parler de capital relationnel, ou pire de capital social. Nous abusons du capital, le capital ne se multiplie pas, sauf dans le temps, il ne fait que s’ajouter. Le capital produit est cette quantité qui fait que les revenus de l’offre mise sur le marché moins les dépenses nécessaires pour le concevoir et le produire, génèrent sur le long terme une accumulation de profit positive. Le capital de marque est dans le même esprit, cette différence qui s’ajoute parce que la marque permet de pratiquer des prix plus élevés ou de retenir l’attention d’un plus grand nombre de consommateurs. Le capital d’innovation est de même nature. Les uns et les autres ne s’ajoutent pas au capital client, ils ne font que le composer. Nous pourrions simplement concéder que dans la nature même de la relation établie avec les clients, il y a une source de valeur qui excède celle que produit la fonction, plus celle que produit le symbole, cet excès représentant la qualité particulière de la relation que la firme établit avec ses clients. En imaginant qu’on apporte les mêmes fonctionnalités que les concurrents, en imaginant qu’on leur apporte la même réputation, le fait de valoir plus que les autres, ne pourra provenir que de ce qu’on a établit une meilleure relation que les autres.

    Dans cette conception la valeur client est la valeur de la firme, même si elle peut être décomposée en une valeur de l’offre, une valeur de la marque et une valeur de la relation.

    Le capital client est donc clairement égal à la valeur de la firme, en ce sens qu’il représente la somme des cash-flows actualisés. La différence n’est pas de nature, mais dépend du mode de calcul. La valeur de la firme s’évalue à partir d’un indicateur comptable synthétique, celle de la clientèle à partir d’un indicateur agrégé. D’un côté on agrège les profits par unité de temps, de l’autre par unité d’actif productif. Voilà pour une définition générale. Il faut maintenant s’intéresser à la décomposition de ce capital client, généralement désigné par la terminologie de customer equity.

    La part essentielle naturellement est constituée de la somme des cash-flow futurs générés par les clients d’aujourd’hui, compte-tenu de la politique menée actuellement. Mais cette politique menée actuellement ne se contente pas de maintenir les clients existants. L’agrégation de leur valeur bien sûr nécessite de prendre en compte des phénomènes de cohorte, les vagues successives de nouveaux clients. C’est un détail technique. Le point principal est que la politique actuelle induit le recrutement de nouveaux clients, élément que les modèles de CLTV ne prennent pas en compte. Le customer-equity se définit donc dans la sommes des cash-flow futurs générés par la base de clientèle actuelle, plus ceux de la clientèle future, compte de la politique actuelle de marketing. Celle-ci comprend la politique d’acquisition, de rétention, de développement, mais aussi de manière fondamentale la politique de création de valeur pour le consommateur.

    En distinguant ces catégories nous mettons l’accent sur le fait que les dépenses marketing sont relatives d’une part à une offre de base, qui peut susciter un plus ou moins grand potentiel de demande, et d’autre part à des actions de stimulation qui peuvent accélérer ou ralentir l’accès au potentiel. Les dépenses d’acquisition ou de rétention ne font finalement que déterminer la vitesse à laquelle la firme atteint son potentiel de marché dans la limite de ce que ces dépenses peuvent aussi affecter le potentiel.

    Mais ne raffinons pas trop le raisonnement, le capital client est ce flux de cash-flow constitué par les clients actuels, et les clients futurs que la politique marketing actuelle laisse à espérer. Il faudrait simplement ajouter ces clients que les clients actuels et futurs vont par leurs comportements, leurs opinions, leurs recommandations ajouter à la population que l’on gère actuellement. Dans une analyse précédente nous avons refusé d’ajouter leur contribution à la CLTV. Nous pouvons nous en expliquer maintenant. Sur le principe il aurait été assez raisonnable d’ajouter cette contribution à ceux qui en sont les inducteurs, mais cela reviendrait dans notre décomposition à comptabiliser cette contribution dans la valeur créée par les consommateurs actuels. Et donc à sous estimer l’efficience des investissements et des dépenses.

    En séparant cette contribution on donne un visage plus réaliste à ce qui forme le capital client : la somme des gains futurs produit directement par les clients acquis aujourd’hui, plus celle des clients que notre politique d’acquisition aujourd’hui va permettent d’atteindre demain, et enfin ceux que l’offre de base, la marque et la qualité de relation, vont produire sans qu’on ait fait d’effort directement vers eux.

    Ainsi nous pouvons défendre l’idée que le capital client ne se confond pas avec celle de la somme des CLTV mais la déborde. Et au passage un ratio du type CE/n*CLTV serait un bon indicateur de la capacité à générer des externalités de clientèle.

    En étendant cette idée, on pourrait même mieux comprendre des modèles d’affaire moins traditionnels. Autrement dit ceux dans lesquels la valeur de client est quasi nulle, mais par ses effets secondaires, génère des revenus dérivés très élevés comme cela est le cas dans les marchés à plusieurs faces. Si la life time value des usagers de Google est clairement négative, le customer equity à la lecture des résultats est très largement positif.

    Mais restons sur notre ligne principale, celle de business-model traditionnels dans lesquels la valeur se constitue dans la différence entre les investissements consentis pour servir une clientèle et les revenus qu’elle génère directement. Le paramètre clé est ici la politique d’acquisition, et de la même manière que nous avons défini une CLTV optimale, nous pouvons définir un CE value optimal, qui sera déterminé par la meilleure combinaison entre les investissements destinés au renouvellement de la base de clientèle et au maintien de l’ancienne.

    Mais il n’y a pas d’isomorphisme. Il est raisonnable ainsi de penser que si client par client, nous devions penser qu’il faut mieux investir sur la fidélisation, à l’échelle du portefeuille c’est l’acquisition qui deviennent la priorité. Dépenser beaucoup pour plus que renouveler la base de la clientèle pourrait être compatible avec l’idée de dépenser peu pour acquérir chaque client, un budget d’acquisition élevé est compatible avec une dépense par client actif qui soit faible. Une telle situation se comprend dans la mesure où dépenser peu en moyenne pour acquérir un nouveau client, laisse espérer que celui -ci ait une forte valeur, dépenser beaucoup au total signifierait juste d’élargir considérablement le marché potentiel.

    Voilà qui milite pour une idée simple, l’intérêt du concept de customer equity concerne un aspect stratégique du marketing, quand celui distinct du CLTV relève essentiellement d’un problème opérationnel.

    Le profit du ciblage individualisé


    Les promesses de la personnalisation sont faites depuis longtemps, mais son évidence n’est pas acquise. Si l’on ne remet pas en cause sa vertu à obtenir une meilleure réponse des consommateurs – quoique cette hypothèse doive être aussi discutée – se pose néanmoins la question de sa profitabilité. Plus on personnalise, plus cela coûte, et si les gains en termes de réponse sont faibles alors il y a toute les chances qu’on les dilapide dans un coût excessif de mise en œuvre des opérations. Deux articles dans une récente livraison de Journal of Marketing Research s’attaquent à cette question.

    Le premier article de Zhang et Wedel (1) s’intéresse à l’optimisation de la promotion et obtient des résultats remarquables. Le plus général est qu’adopter une stratégie d’optimisation améliore fortement les profits. Cette stratégie consiste à calculer au niveau de l’individu, du segment, ou du marché danss son ensemble, les paramètres d’une fonction de demande, puis sur la base de ces données (sensibilité au prix et à la réduction de prix), à fixer l’offre de manière à optimiser le profit. L’un des résultats est que le gain obtenu par une hypersegmentation ( au niveau individuel) est faible au regard de celui obtenu par une approche par segment et par une approche de masse, principalement dans un contexte off line. Le gain n’est sensible que lorsque les catégories de produit sont très sensibles au promotion. La source de ces résultats mitigés, pour le contexte off-line (par exemple des système Catalina), réside dans le faible taux de redemption des coupons, qui est de 100% dans le cas du on-line, dans le premier cas les coupons obtenus sont utilisés au prochain achat quand dans le second leur utilisation est immédiate. Il en résulte que le ciblage fin n’est véritablement rentable que dans le cadre de l’achat on-line.

    Le second article de Dong, Manchanda et Chintagunta (2) concerne le secteur pharmaceutique et s’intéresse au ciblage quand on peut prendre en compte l’action de la concurrence. Ici la variable d’action n’est plus le prix, mais les visites effectuées par les délégués médicaux. Une même approche est entreprise : calculer une fonction de demande individuelle puis simuler les profits réalisables, et comparer une approche individualisée à une approche globale. Ici les résultats sont plus éloquents, les auteurs reportent des gains potentiels de l’ordre de 14 à 23%.

    On notera dans les deux cas que les méthodes employées sont extrêmement complexes, et l’on peut se demander quelle est la capacité des firmes à les mettre en œuvre de manière opérationnelle. Dans les deux cas, l’exigence est de mesurer au niveau individuel des fonctions de réponses des consommateurs, la disponibilité des données est essentielle, mais le problème principal n’est pas aujourd’hui dans cette disponibilité, mais dans la routinisation de procédures statistiques lourdes. Le coût de cette mise en œuvre risque d’obérer les gains de profit obtenu, ce qui réserve cette approche aux firmes qui font des profits supérieurs à un ordre de grandeur de plusieurs millions d’euros, si l’on considère que le coût de mise en œuvre est de plusieurs centaines de milliers d’euros. Voilà un élément qui va conforter les marques dominantes !

    L’alternative serait d’utiliser des méthodes plus grossières mais plus simples, au risque cependant de voir fondre les gains qui peuvent être obtenus. Une approche par grands segments reste donc toujours d’actualité, même si pour les marques fortes l’individualisation du ciblage promet de meilleures rentabilités.

    (1) Zhang, Jie; Wedel, Michel Wedel (2009)  » The effectiveness of Customized Promotion in on-line and off-line stores« , Journal of Marketing Research (JMR); May2009, Vol. 46 Issue 2, p190-206, 17p

    (2)Dong, X., Manchanda, P. and , Chintagunta, P. K.(2009) « Quantifying the Benefits of Individual-Level Targeting in the Presence of Firm Strategic Behavior » Journal of Marketing Research (JMR); May2009, Vol. 46 Issue 2, p207-221, 15p

    Sociabilité et participation : au coeur des réseaux sociaux

    Chaque professionnel le sait. Fidéliser apporte moins que ce qu’on espère et pour gagner plus on est tenté de faire de nos clients fidèles les premiers agents du recrutement. Cette idée pratique n’est pas vraiment à l’ordre du jour des académiques, qui poursuivent plutôt celle que la qualité du recrutement détermine, à raison, la fidélité des clients restants.

    Et pourtant, c’est bien cette idée qui est au cœur du travail d’un Duncan Watts que nous avons déjà évoquée dans ces pages ou pour prendre un autre auteur celle de Netpromoter. C’est une vieille idée, celle des acteurs du marketing direct, que de faire de leurs clients fidèles les parrains de nouveaux recrutements, et d’en faire leurs influenceurs. Cette idée est si évidente.

    Sa mise œuvre nécessite de savoir avec qui nos chers clients sont amis. C’est une chose que l’on connaît peu, et l’on doit aux sociologues de s’y être intéressé au travers de la notion de sociabilité. François Héran a largement contribué à ce type d’études qui ont été populaires dans les années 90, mais semblent connaître une certaine désaffection.

    Nous apprendrons ainsi que plus nous sommes aisés et éduqués et plus nous avons d’amis, passant de 4 à 10. La sociabilité décrit quantitativement la nature des réseaux que nous habitons, elle s’intéresse aussi pour partie au degré d’engagement social et politique. Pour dire les choses simplement, quand dans une population de 60 millions de personnes, quelques millions participent à des associations, quelque centaines de milliers sont membres de partis politique, moins de trois cent mille occupent des fonctions électorales, c’est-à-dire quelque chose de l’ordre du demi pour cent. Nous devons nous interroger sur les moteurs de l’organisation sociale. Quels que soient les domaines.

    Très récemment, Rue89 a publié quelques résultats d’une étude de la participation de ses lecteurs. On y retrouve les mêmes ordres de grandeur. Si 600 000 personnes chaque mois consultent le site, 45 000 y sont inscrits. 4500 ont posté des commentaires, et 1500 d’entre eux en ont produit 80% du volume. La participation est ainsi le fait de moins de 0,1% des lecteurs.

    On pourrait jaser sur l’illusion participative, en politique, tout comme sur les marchés. Mais soyons prudents, les choses sont plus complexes, on connaît le phénomène des porte-voix. Et notre sujet ne porte pas sur la question participative, mais sur les structures des réseaux sociaux.

    Si dans la vie quotidienne, l’horizon de la sociabilité se limite à quelques toute petites dizaines de personnes, à l’échelle de la société, un très petit nombre communique avec un très grand nombre. La structure qui se dégage est assez simple. Pour un leader, il y a cent militants, les accompagnent un millier de supporters, et peut être 10 000 compagnons. Ceux-ci entraînent dans leu sillage 10% de la population concernée. Les autres attendent, sensibles aux propositions des précédents, la moitié d’entre elle est certainement inerte. Cette asymétrie structurale, qui mérite d’être mieux définie, quantifiée, nous semble fondamentale. Elle structure aussi les clientèles.

    Parmi les fidèles, d’un parti, d’une idée, d’un produit, il en est qu’une fraction minimale qui s’engage, milite, défend et prend parti. Cette minorité a cependant une influence décisive, elle est extrêmement active. Elle milite, elle écrit, influence-t-elle? Se confond-elle aux fameux leaders d’opinion dont le rôle est remis en cause?

    Il reste cependant à savoir comment l’employer. La masse des fidèles ne peut être la cible. Il s’agit de la sélectionner. Deux critères nous semblent essentiels : d’une part la connectivité, d’autre part l’engagement. La connectivité décrit simplement le nombre de personnes que ces individus sont capables d’influencer, et secondairement les caractéristiques qui leur permettent de le faire. Certains ont une sociabilité intense, dans une période de temps ils peuvent interagir avec plusieurs centaines d’individus, quand les autres, la très grande majorité n’en touche que quelques dizaines, au mieux. L’engagement est relatif à leur volonté de défendre dans leur réseau de sociabilité, des idées qui leurs sont chères. Certains dans un domaine chercheront à convaincre tous leurs amis, d’autres se contenterons de ceux qu’ils considèrent proches du sujet.

    En combinant ces deux critères ne soyons pas étonné que la capacité d’influence des plus fidèles soit inférieure à 1. Leur effort persuasif ne peut atteindre plus d’une personne. Le produit du nombre de leurs amis, et de la probabilité qu’ils les convainquent en faisant l’effort nécessaire ne dépasse certainement pas l’unité. Pour conquérir de nouvelles voix il s’agit donc de porter l’effort sur ceux qui ont beaucoup d’amis et sont prêt sur chacun à exercer une forte conviction.

    L’application pratique devient alors évidente. Dans le corps des clients que l’on fidélise, inutile de les appeler tous, il s’agit de repérer ceux qui à la fois ont un large réseau et, sur la question pour laquelle on les motive, sont prêts à faire l’effort de persuader. Il reste à savoir comment mesurer ces deux caractéristiques, et en fonction de celles-ci à déterminer qui toucher et impliquer dans un programme de bouche à oreille.

    Les méthodes sont multiples, mais le critère est simple : ceux dont la capacité à recruter est supérieure à 1. Au moins un nouveau client conquis. Il s’agira aussi de s’interroger sur leur rémunération, les gratifications qui stimulent et renforcent cette activité.

    Nous laissons au lecteur le soin de déterminer les techniques opérationnelles, même si nous en avons quelques idées. Nous lui recommandons juste de réfléchir à cette idée : il n’y qu’une fraction minime de leurs clients fidèles qui possède à la fois un réseau de sociabilité assez large et une motivation assez forte pour effectivement amener à la marque de nouveaux clients. Savoir les cibler est le cœur de la réussite. C’est sans doute un objectif des nouvelles segmentations.

    Voilà pour l’opérationnel. Il reste à méditer sur la nature des réseaux sociaux, à mieux comprendre leur structure et leur dynamique, et à mieux penser cette idée que la démocratie comme le marché, ne se constitue pas comme un ensemble d’atomes équivalents, mais de grumeaux de petites tailles, très nombreux et de grains très liants mais très rares. Mieux comprendre la sociabilité, mieux comprendre les influenceurs, mieux comprendre comment les deux structures interagissent sera sans doute la clé des nouvelles stratégies de communication.
    Entre la théorie des leaders d’opinion, et l’utopie de la participation, se dessine un chemin finalement assez peu exploré.

    Et gardons pour la fin cette question essentielle : la matérialisation des réseaux sociaux par les multiples plateformes digitales, de MySpace à FaceBook, modifient-elle profondément le phénomène? Les sujets élargissent-il le cercle de leur sociabilité? Exercent-ils un effort plus intense ou plus efficace pour amener leurs proches à partager les mêmes préférences?