Veille et intelligence Marketing – Cours Master 2 Marketing à Paris Ouest

14130834379_ee025af715_zL’objet de ce cours est porte sur la nécessité du marketing à veiller de manière continue sur l’environnement des marques : suivre naturellement les évolutions des pratiques et des comportements des consommateurs, celles de la concurrence, veiller aux tendance émergentes qui peuvent amener les entreprises à réviser leur plan marketing.

Nous le partagerons avec François Cazal en mettant l’accent sur les innovations dans les pratiques de marketing. Il s’agira dans un champs d’activité spécifique d’identifier les principales innovation en marketing et d’en évaluer les effets sur les pratiques du secteur. Une première suggestion pour 2015/16 sera d’examiner les innovations marketing dans la distribution spécialisée (produits culturels, électroménager, cosmétique …).

Dans un premier temps il s’agira pour les étudiants d’identifier ces innovations, quelques soit leur stade de développement (concept, expérimentation, test à l’échelle ou déploiement) concernant les grandes catégories de politiques marketing : politique de produit (définition de l’offre), politique de prix et de tarification, politique de communication, politiques de distribution (concepts et formats) et de gestion de la relation client. On les évaluera en s’inspirant de la carte de transilience proposée par Abernathy et Clark en 1985 qui bien avant la mode de la disruption en ont conceptualisé la notion.

Voici un petit questionnaire pour l’identification. On prendra soin de vérifier que les innovations proposées n’ont pas été déjà suggérées en examinant le tableau ici (les lecteurs du blog sont encouragés aussi à faire des suggestions)

 

Dans un second temps, on sélectionnera la vingtaine d’innovation dont l’impact semble le plus sensible dans les 5 années à venir, et chaque étudiant aura à réaliser une fiche d’évaluation de l’impact de cette  innovation sur le marché et l’organisation des entreprises, et à identifier les principaux acteurs de la mise en oeuvre de ces innovations. L’objectif serait d’éditer et publier sur cette page un White paper des 25 innovations qui vont transformer le secteur étudié.

Crédit Photo : Jocelyn Kinghorn … On ne pouvait rêver mieux pour illustrer l’innovation destructrice.. à la Schumpeter.

Les artisans face aux plateformes : les machines ont encore besoin de nous

5356204261_be99dd2b17_o25 sept. Après cette interview dans Atlantico : Après les taxis Uberisés, les artisans « Amazonés » ? Le défi d’une économie d’indépendants confrontés à la concurrence des géants du Web voici l’occasion d’en parler directement avec des entreprises et des artisans de l’énergie suite à une invitation de Synerciel, lors d’un salon de l’habitat en province.

….

26 sept Et voici quelques remarques après-coup. Le public était composé de chef de petites ( et moins petites) entreprises spécialisée dans la rénovation énergétique. Dans ce marché un peu particulier le rôle d’une entreprise telles que Synerciel est de récupérer auprès des artisans des certificats d’économie d’energie que les obligés doivent racheter pour satisfaire les obligations imposée par la loi de 2005. Au-delà, l’entreprise anime un réseau de plus de 2000 PMEs.

La première chose est l’attention extrême du public pour cette sorte de synthèse de l’internet d’aujourd’hui dont ma thèse est qu’il est dominé par les plateformes et les données, qui en maitrisant la coordination des activités les plus triviales, sont en mesure d’une part de dégager des gains de productivité élevé dans le champs de la consommation, et d’absorber par cette intermédiation une grande part des profits dans de nombreux secteurs. L’uberisation n’est pas le remplacement des taxis par autre chose, mais l’absortion des marges par celui qui coordonne une demande diverse avec une offre aussi diverse. Un booking.com réalise la même chose dans l’hôtellerie, la nouvelle de la consommation collaborative à la AiRnB au fond réside dans une ouverture de la plateforme à des acteurs non professionnelles ce qui accroit les économie de diversité (longue traîne) tout en exerçant une pression forte sur les prix qui dynamise en retour le marché. Et ce public dont la culture est avant tout celle du métier et de la technique (pensons aux cités de Thévenot et Boltanski) a parfaitement entendu le message, et parfaitement compris la menace, même s’il n’est pas au fait des raffinements de la théorie économique.

Leur question principale bien sur a été de savoir comment se défendre et résister à un rouleau compresseur qui ne va pas tarder à se mettre en branle : il suffit de jeter un coup d’oeil à la nouvelle aventure d’Amazon Home Service.

J’avoue n’avoir pas pris suffisamment de temps pour répondre à cette question et je ne crois pas qu’on puisse répondre simplement. Il y a tout de même quelques pistes que je souhaiterais mentionner ici.

La première est la nécessité d’une transformation culturelle et de l’identité professionnelle qui soit telle qu’en plus de l’attention au métier qui se caractérise en autre par la nécessité d’intégrer sans cesse les innovation techniques des produits et des savoirs faire du secteur, une attention grandissante doit être accordée à la relation commerciale : peu on des sites, moins encore sont dans les réseaux sociaux, et s’ils ont consciente de leur néçéssité, il leur manque moins que des outils (qui sont simples et peu coûteux) que le sentiment d’urgence qui doit les conduire à gérer leur e-réputation comme le jardinier soigne ses plantations.

La seconde est qu’au fond les plateformes ne sont pas un ennemi direct, dès lors que la culture qu’on vient d’évoquer, ces plateformes peuvent pour nombre d’entre eux, les plus honnêtes, les plus sérieux, les plus coopératifs, une source d’affaire importante. N’oublions pas que dans ces métiers ( la rénovation de l’habitat pour le dire vite), le plus difficile est la transformation commercial : des clients novices et méfiants ont tendance à procastiner et reporter leur projets à plus tard.  Apprendre à travailler avec les plateformes peut permettre de bénéficier des gains de productivité relationnelle qu’elles apportent.

Il va de soi elle restent un ennemi indirect dans la mesure où elle organise la compétition et la rendent plus féroce à la fois en faisant entrer dans le marché des acteurs à temps partiels, les amateurs éclairés et les géniaux bricoleurs du dimanche, tout autant qu’elles déstructurent l’organisation de marché locaux au profit de quasi-marchés : des marchés de réputation. Pour les spécialistes notons que les notes et les avis ne traduisent pas forcément la qualité réelle des services, mais révèlent plutôt des attributs conventionnels. La quantité d’information qu’elle font circuler ne correspond pas forcement à une plus grande information. Ainsi les photos des membres des plateformes ne dise rien de la qualité des services offert, mais donne l’illusion d’affinités. On sait que celà peut créer des effets discriminatoire, quand dans la société les stéréotypes raciaux, religieux ou sociaux sont fortement développés.

Une réponse à cette menace me semble très simplement résider dans la nécessité du regroupement et de la fédération, sans doute au travers des formes traditionnelles de la coopérative, et moins sous celle plus corporatives des chambres de métier. Des coopératives de moyens qui naturellement ont à prendre en charge un travail de prospection et d’acquisition électronique qui ne peut que difficilement être réalisé individuellement, à animer un réseaux d’échange de services pour accroitre l’étendue de l’offre et des services ( à la manière des districts industriels), à entretenir des solidarités entre des entreprises fragiles par la taille et la nature. Il y a dans le monde de l’artisanat sans doute à emprunter au mouvement coopératif agricole des années soixantes jusqu’à aujourd’hui, ou encore à ce mouvement récent des centres médicaux chez les médecins. Sans doute cela demandera-t-il aussi un changement de culture professionnelle.

Une dernière voie de réflexion tient à l’évolution même de l’internet des objets qui aujourd’hui se manifeste plus par les objets eux-même que par ce qu’il est véritablement: un système gigantesque de feed-back sur nos activités quotidienne, et en l’occurence sur les évènements microscopique de la vie de la maison : éteindre une lumière, augmenter la température de la maison, verrouiller les portes avant un voyage, surveiller le chien errant qui s’immisce dans le jardin. Il y a aujourd’hui la croyance naïve qu’enregistrer ces faits et les retransmettre sous la forme de tableaux de bord ou de notification suffira à changer les comportements des consommateur dans le sens d’un meilleure contrôle de soi et de son environnement. Ce n’est pas parce qu’on dispose d’une balance connectée qui trace nos courbes de poids que l’on réussi à maigrir. On a souvent besoin d’un coach. Dans des métiers qui s’organise autour de chantier, c’est à dire de projet ponctuel, il y a sans doute une évolution à venir, celle de prendre en charge la prise en charge, de poursuivre les chantiers par la surveillance des effets, et l’accompagnement des réglages que les acheteurs peuvent souhaiter au-delà de l’exécution des travaux, sans compter les activités de maintenance préventive. Cet accompagnement, ce coaching, même si les plateformes possèdent les données, elle ne peuvent véritablement l’assurer. C’est sans doute la que les professionnels pourront trouver des relais de croissance. Mais là encore seul ce sera difficile pour les professionnels, c’est par une approche collective qu’il seront en mesure d’expérimenter et d’apprendre les modalités pratiques de l’exercice de ces activités nouvelles.

Et pour un dernier mot, disons simplement que se confronter au terrain est un excellent moyen de donner plus d’épaisseur à ce que nous observons souvent d’un peu trop loin. Dans ce cas précis, ce que nous avons appris, c’est ce que le monde des plateformes n’est menaçant que si les acteurs des vieux métiers en reste sur les conventions individualistes qui en a marqué l’histoire, et qu’à l’heure des plateformes l’antique idée de l’action collective peut retrouver un élan. Si nous observons depuis quelques mois le développement d’un mouvement critique nous ne pas dire conflictuel à l’égard de ces plateforme, la désillusion succédant à l’enthousiasme, il est possible d’envisager non pas une alternative, mais des formes d’accommodation : elles passent par une action plus collectives qui se concentrent sur ce que les plateformes ne savent pas faire : interpréter, accompagner, donner du sens aux données dans l’environnement concret et local de nos vie.

Juste une anecdote sur cette dernière observation. J’ai retransmis par mail, la copie d’un titre de voyage à la personne qui gère ma comptabilité, l’application Google Now lui a signalé qu’elle avait à faire le voyage que j’avais fais. L’algorithme qui m’alerte quand je dois entreprendre un trajet en lisant mon courrier, ne sait pas encore assez bien lire, il est au fond encore très peu intelligent et ne reconnait pas les contextes. Les machines ont encore besoin de nous.

Les enfants de Compton ne font pas de meilleurs capitalistes

maxresdefaultC’est un billet d’humeur. Depuis déjà un bon moment mon collègue et ami Jean-philippe Denis, trouve des ressources étonnantes pour le management dans les aventures du rap, jusqu’à défendre l’idée du Hip Hop Management. Et je vois qu’aujourd’hui dans les échos qu’on célèbre les 7 leçons de management des rapeurs de Compton données aux entrepreneurs. Oui Dr Dre a vendu à prix d’or ( 2 milliards de dollars) la marque Beat, oui Snoop Doggy Dog est investi dans cette extension du marché du divertissement qu’est la weed.

Des fortunes sont édifiées sur des beats rageurs et construisent le capitalisme le plus furieux qu’il soit. J’en aurai été admiratif, si cela ne m’avais pas couté un compte soundcloud, où à mes heures de loisirs, je déposais les playlist ( je n’ose parler de mix tapes) que je prépare pour mes amis. Mais les robots d’Universal et de Sony que désormais soundcloud laisse courir à travers ses comptes ont vite fait de découvrir ma sympathie pour Kendrick Lamar, Drake ou Shabbaz palaces, intimant à la plateforme de retirer les morceaux et de sanctionner l’amateur imprudent qui pensait partager avec quelques dizaines d’amis les sons qu’il aimait.

J’aurais tant aimé que ceux qui sortant du ruisseau, donne leur voix à une parole d’émancipation, et participent à ce monde nouveau d’une économie de la contribution, du partage et des communs. Les relégués de monde urbain ont été de bons élevés du capitalisme et veillent comme des notaires sur le moindre fragment de droit, la moindre vente ratée. Le capitalisme peut être cool, porter baggies et casquette, il reste cette manie de la propriété, de l’accaparement, et du culte fétichiste de l’argent. Les dominés d’hier n’ont pas eu de meilleures idées que de devenir les dominateurs aujourd’hui, plus agiles et moins engoncés que leur maitre, tout aussi féroces pour préserver un bien qu’ils doivent autant à la chance qu’aux conditions commune de leur existence.

C’est sans doute un fait culturel, si l’invention se fait à la périphérie de la société et se fait absorbée au centre pour renouveler le désir perpétuellement émoussé  des classes moyennes, cela ne suffit pas pour créer une culture nouvelle. L’art, et le rap est un art, reste une consommation.  Et s’il est une déception, c’est qu’on ne peut pas compter sur l’art pour changer les sociétés.

La tragédie de la culture, c’est au fond son mensonge, se parant des habits du sacré, elle scintille comme le divertissement.

Crédit Photo : il ne suffit pas de renverser le regard pour changer de perspective….

 

Sujets de mémoire de Master

3602473676_b54126a178_zVoici une liste de sujets de mémoires de master qui me tiennent à cœur et que je propose à la fois aux étudiants et aux entreprises et administrations qui seraient intéressées par un focus sur leur cas et prêtes à fournir l’accès au terrain (me contacter via linked in).

Les mémoire font de 40 à 60 pages, comprennent systématique un aspect théorique (revue de littérature) et un travail empirique d’enquête qualitative ou quantitative.

La liste sera complétée et les sujets affinés au fur et à mesure, elle n’est pas forcément limitative.

  1. Objets connectés : adoption et appropriation.
  2. Moteurs de recommandation : évaluation de leur efficacité ( voir le projet conduit avec les étudiants de MIAGE)
  3. Open Data : impact sur l’innovation et la participation citoyenne.
  4. Blablacar et autres plateformes : déterminant des prix et de la demande : reprendre et développer le travail entrepris sur l’impact des signes de confiance ( avis, photos et autres commentaires).
  5. Digitalisation du point de vente : motivations et fonctionnalités : il s’agit de reprendre et de développer le travail de Johanna Stroz
  6. La relation citoyen/Etat et sa digitalisation
  7. Expérience client : l’appropriation des applications mobiles…..
  8. Nudges : effets des notifications et autres tableaux de bord fournis par les objets connectés sur le comportement ( consommation électrique, sport et santé, nutrition et régime)
  9. Nudges et politiques publiques : analyse comparative des approches coercitives et persuasives sur les comportements civiques.

Je signe pour les communs

17418854304_4de243a5c1_zIl est rare que des pétition soient positives. En voici une qui soutient une initiative du gouvernement, celle de faire entrer dans le droit le principe des communs, sur la base des travaux de concertation du Conseil national du numérique. Pour en savoir plus il suffira de lire Favorisons la libre diffusion de la culture et des savoirs, paru dans le Monde d’hier et pour signer c’est ici.

Parmi les nombreuses raisons qui doivent motiver ce soutien, une première très pratique concerne l’ensemble de notre profession universitaire : alors qu’une grande partie de la recherche est produite par des fonds public, le système de la course aux étoiles orchestrée par les multinationale de l’édition s’est accaparée cette ressource. Non seulement ce que nous publions, notre travail, n’est payé que par le fruit de leurs algorithmes : les indices de réputation, mais nous devons de plus en plus fréquemment payer pour partager avec nos collègues, nos amis, nos étudiants, le droit de publier dans nos blogs, nos réseaux sociaux et les nouvelles plateformes sociales universitaire telles que Research Gates ou Academia. L’open acces est devenu un business. Il est temps de mettre fin à cette dérive, et dans des conditions honorables pour le travail d’édition ( l’embargo), pouvoir donner un accès ouvert à l’ensemble du public, des résultats d’une recherche publique. Signons pour que cette loi fixe le droit à l’open access.

Une autre raison tient dans ce que le principe des communs pourrait enfin s’inscrire dans le droit. Un principe qui suppose le renoncement à une propriété exclusive sur certains bien ( programmes informatiques, données, textes, images, air ou eau) au bénéfice d’une humanité qui ne se définit pas simplement comme collectivité, mais comme l’affirmation d’une solidarité à travers l’espace et le temps de cette collectivité. Pourrions-nous vivre dans un monde où l’on interdise simplement le fait de dénombrer le nombre d’oiseaux migrateurs dans le ciel, pour la raison que ces oiseaux eussent-été brevetés, et que l’information qu’ils portent appartient au dépositaire du brevet? Remplacez les oiseaux par les champs de mais, et vous comprendrez aisément que c’est s’interdire toute recherche sur l’environnement, sans les communs il n’y aurait aucune connaissance possible.

La loi ne sera pas parfaite, elle contiendra cependant, si nous la soutenons, les germes juridiques qui permettrons de limiter les excès de l’appropriation, que dis-je, de l’accaparement, au seul profit de ceux qui dispose du capital nécessaire. La propriété n’est pas toujours le vol, elle induit parfois une responsabilité et permet l’échange et le marché qui a démontré ses vertus pour le bien de l’humanité. Il y a des choses que l’on ne peut que donner ( la vie), et d’autres qu’on doit garder. La propriété est toujours limitée.

C’est pourquoi, entre autres raisons, je signe pour les communs.

MAJ : Le 26 septembre le projet de loi est présenté sous la forme d’une plateforme participative. Une bonne chose dont on trouvera dans Atlantico mon analyse du processus et de ses enjeux.

crédit photo : parce que c’est bientôt la saison des Palombes et qu’on gardera une pensée pour tout les migrants.

Analyse conjointe avec r

VinblancL’analyse conjointe est sans doute la méthode la plus spécifique du marketing, même s’il semble qu’elle soit un peu négligée de nos jours alors même que l’environnement digital en permettrait un renouveau. Dans cette note nous nous contenterons de présenter pas à pas, son application via le package Conjoint sur r , développé par Andrzej Bak et Tomasz Bartlomowicz.

Pour plus de détails sur la méthode elle-même on jettera un coup d’oeil en fin de post à une bien vieille note écrite avec Jean-claude Liquet, imparfaite mais utile au moins pour les étudiants. Pour un état de l’art récent on ira voir ce texte , pour des applications professionnelles on ira voir le site de Sawtooth.

L’exemple que nous utilisons est un jeu de donnée crée par une des étudiante du Master MOI, dans le but de tester le rôle de certain signes de qualité dans le choix d’un vin. La première étape de l’analyse conjointe consiste à choisir des attributs que l’on pense déterminant et à définir leur modalités. La seconde étape vise à générer des concepts à partir de ces attributs. Comme le nombre de combinaison devient rapidement important, on utilise généralement des méthodes de plan d’expérience incomplets ( toutes les combinaisons ne sont pas testées, et orthogonaux ( on s’arrange pour que les modalités apparaissent de manière équilibrée et non corrélées entres elle).

La procédure ici est très simple : on appele le package « conjoint », pis on créé le fichier vin qui va contenir les différents concept en définition les attributs ( variables : type, pays…) et leurs modalités (« doux, « demi-sec »,…). Le plan factoriel est défini par la commande caFactorialDesign avec ici deux options : le choix de l’option  » fractional », et une limite dans le nombre de concept que l’on a fixé à 13.


library (conjoint)
library (Rcmdr)
Vin<-expand.grid(
Type<-c(« Doux », »demi-sec », »sec »),
Pays<-c(« Bourgogne », »Bordeaux », »Italie-Nord », »Afrique du Sud »),
Marque<-c(« Millessima », »1jour1vin », »Nicolas »),
Prix<-c(« 7€ », »12€ », »20€ »),
Label<-c(« Médaille d’or « , »NC »),
Environ<-c(« Bio », »NC »),
Annee<-c(« 2014 », « 2011 »))
design_vin<-caFactorialDesign(data=Vin,type= »fractional »,cards=13)

Le résultat est obtenu avec

print(design_vin)

le voici :

        Var1           Var2       Var3 Var4           Var5 Var6 Var7
49      Doux      Bourgogne  1jour1vin  12€ Médaille d'or   Bio 2014
81       sec    Italie-Nord Millessima  20€ Médaille d'or   Bio 2014
95  demi-sec Afrique du Sud  1jour1vin  20€ Médaille d'or   Bio 2014
176 demi-sec    Italie-Nord    Nicolas  12€             NC  Bio 2014
208     Doux       Bordeaux    Nicolas  20€             NC  Bio 2014
221 demi-sec       Bordeaux Millessima   7€ Médaille d'or    NC 2014
360      sec Afrique du Sud    Nicolas   7€             NC   NC 2014
458 demi-sec      Bourgogne    Nicolas   7€ Médaille d'or   Bio 2011
558      sec       Bordeaux  1jour1vin   7€             NC  Bio 2011
586     Doux Afrique du Sud Millessima  12€             NC  Bio 2011
667     Doux    Italie-Nord  1jour1vin   7€ Médaille d'or    NC 2011
714      sec       Bordeaux    Nicolas  12€ Médaille d'or    NC 2011
842 demi-sec      Bourgogne  1jour1vin  20€             NC   NC 2011

Parmi les 3x4x2x3x2x2=288 concept possibles seuls 13 ont été choisis. Est-ce trop peu? Un moyen de tester celà est de calculer les corrélations entre les modalités. C’est une fonction offerte par le package :

design_vin2<-caEncodedDesign(design_vin)
print(cor(design_vin2))

En voici le résultat, et c’est entre la var 7 et 4 qu’on encourage la corrélation la plus forte. Dans la pratique on fait différent essais pour trouver le meilleur compromis. Dans notre exemple on se satisfera de cette solution.

Var1 Var2 Var3 Var4 Var5 Var6
Var1 1.0000000 0.15304713 0.10586263 -0.10586263 0.17593289 -0.17593289
Var2 0.1530471 1.00000000 -0.11216750 0.11216750 0.17605477 0.04142465

Var3 0.1058626 -0.11216750 1.00000000 0.23275862 0.08596024 0.08596024
Var4 -0.1058626 0.11216750 0.23275862 1.00000000 -0.08596024 -0.08596024
Var5 0.1759329 0.17605477 0.08596024 -0.08596024 1.00000000 0.07142857
Var6 -0.1759329 0.04142465 0.08596024 -0.08596024 0.07142857 1.00000000
Var7 0.1759329 -0.04142465 -0.08596024 -0.28653413 0.23809524 -0.07142857

La troisième étape est celle de la collecte d’information. On essaiera de donner plus de réalisme en proposant les concepts sous formes d’image (celle qui illustre le post en est un exemple) ou encore mieux sous la forme de maquette. Quant au nombre de sujet, une remarque importante est qu’il n’a pas de limite inférieure pour la raison simple que le modèle est calculé individu par individu : ce que l’on cherche c’est naturellement à prédire le classement des concepts à partir des profils, et cela individu par individu. Naturellement les conditions d’échantillonnage habituelles interviennent si l’on veut généraliser à une population, si l’on veut segmenter ou faire des comparaisons entre des groupes d’individus particulier. Dans notre exemple on se contente de 36 individus, c’est largement insuffisant pour généraliser, mais bien assez pour les vertus de l’exemple.

Le fichier de données recueillis par notre étudiante apparait sous la forme suivante : C1, C2,… représente le premier puis le second choix etc. Nous allons devoir le remettre en ordre pour qu’il puisse être traité.

ID SEXE C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C12 C13
1 1 homme 52 458 584 105 627 654 311 775 514 120 424 253 828
2 2 femme 105 775 52 458 828 654 253 311 627 120 584 514 424
3 3 homme 52 514 105 627 253 654 120 311 458 584 424 828 775
4 4 homme 52 584 105 627 775 654 120 311 458 514 424 253 828
….

L’ordre requis par le package est un fichier « long » qui énumère les individus, les concepts dans leur ordre de production, et le classement de ces concepts. Une petite manipulation doit être donc excecutée avec une fonction très utile de r : la fonction  » reshape » :

MemoireVin_rank3 <- reshape(MemoireVin_rank2, varying=list(c(« C1″, »C2″, »C3″, »C4″, »C5″, »C6″, »C7″
, »C8″, »C9″, »C10″, »C11″, »C12″, »C13 »)), idvar = « ID », v.names= »concept »,direction = « long »)

 

On trie le fichier ensuite avec

MemoireVin_rank4<-MemoireVin_rank3[order(MemoireVin_rank3[,4],decreasing=F),]
MemoireVin_rank4<-MemoireVin_rank4[order(MemoireVin_rank4[,1],decreasing=F),]

 

et l’on crée un fichier de label pour l’esthétique:

l’analyse conjointe proprement dite peut être exécutée avec la simple commande :

Conjoint(MemoireVin_rank4$concept,design_vin2,label)

 

qui produit les résultats principaux suivants: c’est à dire les utilités partielles ( path-worth) et le poids des attributs (on omet le modèle de régression et les tests associés qui sont redondants)

Residual standard error: 3,448 on 442 degrees of freedom
Multiple R-squared: 0,175, Adjusted R-squared: 0,1526
F-statistic: 7,811 on 12 and 442 DF, p-value: 2,991e-13
[1] « Part worths (utilities) of levels (model parameters for whole sample): »
levnms utls
1 intercept 7,3099
2 Doux 0,1999
3 demi-sec 0,8055
4 sec -1,0054
5 Bourgogne -0,9406
6 Bordeaux 0,5748
7 Italie-No -0,1933
8 AfriqueSud 0,5591
9 Millessima 0,5693
10 1jour1vin-0,9083
11 Nicolas 0,3389
12 7€ -0,901
13 12€ -0,6254
14 20€ 1,5264
15 Médaillor-0,0999
16 NC 0,0999
17 Bio -0,7956
18 NC 0,7956
19 2014 -0,8828
20 2011 0,8828
[1] « Average importance of factors (attributes): »
[1] 17,58 18,68 14,39 20,87 8,40 10,53 9,54

 

On notera d’emblée u r2 proche de 17,5%, ce qui signifie que l’on reconstitue imparfaitement les préférences mais de manière significative : le test d’analyse de variance l’est à moins de 1 pour 1000. D’autre facteurs interviennent mais n’ont pas été pris en compte : forme de la bouteille, étiquette, Chateau etc. Les path-worth représente le gain en terme de rang qui est obtenus : les valeurs négative signifie simplement qu’on améliore le classement avec la présence de la modalité. Par conséquent le profil préféré est un vin sec, de type bourgogne, vendu par 1j1vin à 7 euros, bio et ayant reçu  une médaille, et plutôt jeune. On s’aperçoit que le prix pèse vous 21% suivi par l’origine et le type de vin, la médaille et le millésime comptant pour peu.

La commande produit aussi de manière automatique les graphiques de profil d’utilité correspondants :

Poursuivons la procédure. Ces résultats généraux sont une chose, mais on souhaite avoir des résultats plus individualisés. Les commandes suivantes nous permettent de générer un fichier des utilités individuelles :

upartial<-caPartUtilities(MemoireVin_rank4$concept,design_vin2,label)
newData <- as.data.frame(upartial)
newData
names(newData) <- make.names(names(newData))

L’analyse conjointe à ce stade est achevée et nous pouvons en exploiter les résultats. A titre d’exemple on peut s’interroger sur le poids des attributs dont on se dit qu’ils peuvent varier selon le degré d’expertise des consommateurs. Pour vérifier cette proposition, il va falloir d’abord transformer les utilités des modalités en importance des attributs. La formule générale est simplement Wk = abs(Min(ki)-Max(ki)/ somme(abs(Min(ki)-Max(ki)), k représente l’attribut, i les modalités des attributs. Le code est simple même si un peu lourd.

#calcul des importances

MemoireVin_rank$x_type<-abs(MemoireVin_rank$Doux-MemoireVin_rank$sec)
MemoireVin_rank$x_Origine<-abs(MemoireVin_rank$Bourgogne-MemoireVin_rank$Afrique.du.Sud)
MemoireVin_rank$x_Enseigne<-abs(MemoireVin_rank$Millessima-MemoireVin_rank$Nicolas)
MemoireVin_rank$x_Prix<-abs(MemoireVin_rank$X7.-MemoireVin_rank$X20.)
MemoireVin_rank$x_Medaille<-abs(MemoireVin_rank$Médaille.d.or-MemoireVin_rank$NC)
MemoireVin_rank$x_Bio<-abs(MemoireVin_rank$Bio-MemoireVin_rank$NC)
MemoireVin_rank$x_Millessime<-abs(MemoireVin_rank$X2014-MemoireVin_rank$X2011)
MemoireVin_rank$x=MemoireVin_rank$x_type+MemoireVin_rank$x_Origine+MemoireVin_rank$x_Enseigne+MemoireVin_rank$x_Prix+MemoireVin_rank$x_Medaille+MemoireVin_rank$x_Bio+MemoireVin_rank$x_MillessimeMemoireVin_rank$x_type<-MemoireVin_rank$x_type/MemoireVin_rank$x
MemoireVin_rank$x_Origine<-MemoireVin_rank$x_Origine/MemoireVin_rank$x
MemoireVin_rank$x_Enseigne<-MemoireVin_rank$x_Enseigne/MemoireVin_rank$x
MemoireVin_rank$x_Prix<-MemoireVin_rank$x_Prix/MemoireVin_rank$x
MemoireVin_rank$x_Medaille<-MemoireVin_rank$x_Medaille/MemoireVin_rank$x
MemoireVin_rank$x_Bio<-MemoireVin_rank$x_Bio/MemoireVin_rank$x
MemoireVin_rank$x_Millessime<-MemoireVin_rank$x_Millessime/MemoireVin_rank$x

En voici les résultats réalisé avec la commande plotMeans du package Rcmdr (la fonction x11() permet d’ajouter les graphiques), on s’apercevra que ceux qui se sentent experts donne un poids plus important au caractère bio et au prix, tandis que les novices accordent plus d’attention à la médaille, au millésime et à l’origine, alors que ceux qui se sentent un degré modéré d’expertise favorisent l’enseigne et le type de vin. Sans aller plus loin dans l’analyse on obtient un résultat général clair : on n’utilise pas les mêmes critères selon le niveau d’expertise, ce qui est assez logique. On laissera au lecteur le soin d’aller plus loin.


x11()
plotMeans(MemoireVin_rank$x_type, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance »,main= »Type »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Origine, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissance « ,main= »Origine »,cex.lab=1)
x(11)
plotMeans(MemoireVin_rank$x_Enseigne, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »ENseigneG »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Medaille, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Medaille »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Bio, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »BIO »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Millessime, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Millessime »,cex.lab=1)
x11()
plotMeans(MemoireVin_rank$x_Prix, MemoireVin_rank$EXPERTISE_PERCUE, error.bars= »none »,xlab= »Connaissances « ,main= »Prix »,cex.lab=1)

Généralement on cherchera à segmenter notamment pour identifier les groupes de consommateurs qui partagent les mêmes attentes. Ici on emploie les fonctions d’analyse hierarchique ( méthode de ward) fourni par l’interface graphique Rcmdr qui a déja été appelée, en choisissant la solution à trois groupes et en l’illustrant par le biplot. le code correspondant est le suivant ( mais en fait on s’est contenté d’utiliser le menu)


HClust.1 <- hclust(dist(model.matrix(~-1 + x_Bio+x_Enseigne+x_Medaille+x_Millessime+x_Origine+x_Prix+x_type, MemoireVin_rank)) , method= "ward") plot(HClust.1, main= "Cluster Dendrogram for Solution HClust.1", xlab= "Observation Number in Data Set MemoireVin_rank", sub="Method=ward; Distance=euclidian") summary(as.factor(cutree(HClust.1, k = 3))) # Cluster Sizes by(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank), as.factor(cutree(HClust.1, k = 3)), colMeans) # Cluster Centroids biplot(princomp(model.matrix(~-1 + x_Bio + x_Enseigne + x_Medaille + x_Millessime + x_Origine + x_Prix + x_type, MemoireVin_rank)), xlabs = as.character(cutree(HClust.1, k = 3)))

les profils apparaissent dans le tableau : le groupe 1 donne plus de poids à l’origine et au type, le groupe 2 à l’enseigne et au caractère bio, le groupe 3 au prix et au millesime. O peux penser que le premier favorise les goûts de l’individu, le second le style d’achat, et le troisième un certain rapport qualité/prix. On retrouve ainsi ce grand classique des avantages recherchés!


INDICES: 1
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07147493 0.10822056 0.09169431 0.11697915 0.22503436 0.19621573
x_type
0.19038097
————————————————————
INDICES: 2
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.17373411 0.19015292 0.15400115 0.05344901 0.07003827 0.16861833
x_type
0.19000620
————————————————————
INDICES: 3
x_Bio x_Enseigne x_Medaille x_Millessime x_Origine x_Prix
0.07657425 0.13635953 0.12456815 0.29134291 0.04337232 0.25255357
x_type
0.07522927

 

 

 

Mobile In Store : ça dépend du shopping style

14930205588_38c71f399f_oLes enquêtes se succèdent et semblent confirmer l’intérêt des consommateurs pour l’utilisation en magasin du digital et avant tout de leur smartphone. Une de nos étudiantes du master Marketing de Paris Ouest, Joanna Stroz, s’est intéressée à la question dans un mémoire qu’elle soutiendra bientôt au travers d’une enquête (n=330) dans le domaine de la parfumerie. On trouvera son questionnaire ici (n’hésitez pas à y répondre!).

UsageMobileLes questions principales sont relatives à l’intérêt accordé à une dizaine de services ( recevoir des informations sur les évènements en magasins, recevoir des conseils personnalisé via le smartphone etc…). Les résultats enregistrés par une échelle d’intérêt allant de 1 à 7, sont résumés dans le graphique ci-contre.  Recevoir un conseil personnalisé recueille un score d’intérêt très moyen (3,5), l’échange de point de fidélité et l’obtention de coupon entraine une forte adhésion.

Au fond le digital ne change pas grand chose : les consommateurs veulent d’abord des avantages pécuniaires et si c’est plus facile par le mobile tant mieux. Si l’on compare les hommes et les femmes, quelques petites différences apparaissent : les femmes cherchent les avantages monétaire plus que les hommes, tandis que ceux-ci expriment un intérêt plus fort pour le paiement via le smartphone ou être mieux orientés par la géolocalisation.

Mais dans cette étude le plus important n’est pas là, il réside dans les causes probables qui rendent chacune de ces applications intéressantes. Parmi ces causes un petit nombre a été étudié de plus prêt. D’abord des variables générales telles que la tendance à adopter la nouveauté ( innovativité), le degré d’implication dans la catégorie de produit, l’inquiétude que l’on témoigne à l’égard de ce qu’on fait de nos données ( Privacy Concern) et enfin le degré d’expérience digitale.

Ensuite des variables qui décrivent les  orientations d’achat des consommateur : faire des économie en profitant des promos et bonnes affaires, la tendance à planifier ses achats, le plaisir tiré à découvrir et à fouiner dans les rayon ( hédonisme), le fait de s’appuyer sur les marque et la fidélité au magasin, et la reconnaissance souhaitée dans le point de vente. Pour évaluer l’importance de ces variables on a simplement chercher à expliquer l’influence de ces dernières sur le score d’intérêt, par des régressions multiples ( une par application). Les résultats détaillés apparaissent dans le tableau suivant que nous analysons ensuite.

regressions2

Les faits principaux que l’on peut identifier sont les suivants :

  1. l’expérience en matière digitale n’ aucun impact, aucun des coefficients de régression n’est significatif, sauf pour les conseils personnels : conseiller les clients via le smartphone n’a d’intérêt que pour les geek!
  2. L’implication pour la parfumerie est un déterminant très significatif pour la plupart des applications, sauf pour le paiement. Le web In store concerne donc d’abord les fans de la cosmétiques.
  3. La tendance à adopter de nouveaux produits, ou de nouvelles manières d’acheter a un effet contrasté : il joue pour le conseil, le paiment, les QR code et la geolocalisation. On retrouve le côté geek, et c’est à se demander si ce n’est pas le fait d’hommes qui s’ennuient dans ce type de magasin, l’usage du smartphone palliant le désintérêt pour la boutique.
  4. La privacy a aussi un effet contrasté et négatif comme attendu. Il joue sur les aspects qui implique le plus d’intimité
  5. Quand aux orientation d’achat c’est un tableau très nuancé qui apparait et démontre que l’usage du smartphone est étroitement liés aux stratégies de consommation.
    • La recherche d’économie n’a quasiment aucun impact sur l’usage d’appli In store, sauf recevoir des coupons.
    • La recherche de variété et le plaisir de la découverte (hédonisme) est le facteur qui a un impact sur la plus grande variété d’applications, ce qui est peu étonnant : ceux qui cherche du divertissement dans l’acte d’achat en cherche autant dans les produits que dans le shopping lui-même. Le smartphone est un jouet.
    • La tendance à planifier les achats a peu d’impact ou alors négatif : c’est le cas des jeux et concours et celui des alertes sur la disponibilité des produits. L’acheteur organisé n’aime pas les prothèses numériques!
    • Quant à ceux qui sont attachés aux marques et vont toujours dans le même point de ventes, ce qui traduit une sorte d’achat ritualisé ( plus que de la fidélité), vont être plus intéressés aux applis qui leurs procurent des avantages consistant. Le smartphone optimiserait leur rituel!
    • Pour finir, plus on tend à souhaiter être reconnu plus on sera intéressé par les alertes produits où les évènements, l’impact étant nul pour les autres orientations.

Les enseignements sont assez clairs. Le premier est que la notion d’intérêt pour le « Web In store » n’a pas de sens en général. L’intérêt pour les applications digitales dépend d’abord de la manière dont on fait ses courses, et de comment les appareils fournis permettent au consommateurs d’atteindre les buts qu’il se fixe.

Le second est que le driver principal de l’adoption de béquille digitale pour le shopping dépend principalement de l’intérêt que l’on a dans la catégorie de produit, et non pas de la familiarité que l’on a avec les outils. Cela conduit à la réflexion suivante : le digital n’est pas une solution pour le consommateur, mais d’abord un cout. Les consommateurs le supporte dans la mesure où il est un investissement qui rapporte en lui permettant d’atteindre ses buts et qu’il est suffisamment motiver pour les atteindre.

Le troisième est une idée récurrente : la question des données est finalement assez secondaire pour les consommateurs, sauf s’il ne sont pas impliqués dans la catégorie de produit.

Et s’il fallait conclure sur quelques recommandations, la principale est de rappeler que l’expérience du consommateur n’est pas dans les objets techniques et leur usage, mais dans ce qu’ils recherchent lorsqu’il font leur courses (économie, rituel, divertissement, reconnaissance ou optimisation) . Ceux qui s’équiperont sont ceux qui se sentent concernés par la catégorie de produit, et ils le feront en piquant parmi les applis celles qui leurs permettent d’atteindre leur but. L’ expérience est définie par ces buts et non par la technologie.

MAJ 18 novembre 2015 : Joanna Stroz a remporté le Trophée des Etudes dans la catégorie du Meilleur mémoire de M2. On peut le lire en intégralité ici.

 

 

L’innovation fait les inégalités qui la tuent

4346411307_185ffbb373_oVoici déjà un bon moment que l’hypothèse d’un effet négatif des inégalités sur la croissance, dont on sait depuis fort longtemps qu’elle résulte de gain de productivité essentiellement du à l’innovation et au progrès technique, devient un thème majeur de réflexion même si des travaux plus anciens ont conclu à un effet positif ou du moins constrasté. l’OCDE lui a consacré récemment un livre fort bien documenté. Il est à peine nécessaire que Stiglitz en a établi le prix.

De là à conclure que l’effet le plus spectaculaire de la globalisation réside dans l’accroissement considérable des inégalités, ce qui n’est pas contraire à l’idée que le niveau de vie, en termes de capacité des plus pauvres, se soit amélioré, et ne s’oppose pas à celle d’une croissance des classes moyennes dans les pays émergeant, serait la cause de la crise qui sévit dans les pays occidentaux se poursuit par une croissance poussive  et le ralentissement des économies émergentes comme c’est le cas en chine, et surtout en Russie ou au Brésil, est sans doute excessif. Difficile de conclure aussi vite que la globalisation freine l’innovation même si certains ont d’ailleurs noté que la bulle des émergents tient non seulement à l’incapacité de sortir d’une économie de matières première, et d’innover, que de n’avoir pas réalisé leur changement de régime et s’être doté d’institution qui assure les intérêts de tous. L’inégalité croissante empêche sans doute la construction d’institutions solides et la régression de la corruption.

Si les inégalités sont une cause de la faible croissance car le capital concentré dans un faible nombre de main cherche la rente ( à la Piketty) ou tout simplement ne peut être investi dans des idées vraiment nouvelles, car peu de main c’est peu d’idées, il s’avère aussi qu’elles sont une conséquence de l’innovation. Une série de travaux récent défendent cet effet négatif de l’innovation technologique, y compris ceux du FMI, et la critique de la Silicon valley en donne une illustration flagrante : la région qui connait un revenu moyen double de celui du revenu américain est aussi celle qui concentre la plus grande proportion de SDF. La bonne et le geek deviennent les figures antipodiques du monde nouveau, au moins pour certains.

Les travaux de Autor sont absolument essentiels ;  en défendant la thèse de la polarisation du marché du travail, il décrit un effet différent de la première révolution industrielle, l’automatisation induite par le développement du BIG data et de L’IA : en automatisant les tâches des classes intermédiaires (cadres et employés) on réduit cette part d’emploi et la force de travail qui s’oriente vers les services à la personne peu automatisables ( coursier, femme de menages, gardien, call center, chauffeur uber et autres aides soigants) vient concurrencer les moins qualifiés, faisant baisser le prix du travail, alors que les emplois créatifs, à forte spécificité (ils sont peu substituable car leur valeur travail se fondent dans l’accumulation des expériences et savoirs faires) voient leur revenus s’envoler.  Il y a bien sur aussi la thèse plus brutale de Brynjolsson et McAffee et on renverra à cette synthèse du MIT pour un aperçu plus général du débat.

 

Plus récemment une recherche de Philippe Aghion et ses collègues vient d’apporter une autre touche au tableau, déjà noir (on peut suivre son séminaire au collège de France). Il confirme un lien significatif entre l’activité d’innovation ( qu’il mesure par le nombre de dépôts de brevet comme l’a fait Diana Weinhold) et intensification des inégalités, attribuant explicitement à l’innovation technologique, l’accroissement des revenus accaparépar les 1%. C’est le phénomène clé de l’accroissement des inégalités qui se caractérise moins par une bipolarisation, que par l’enrichissement accéléré des plus riches qui étire la pointe de la pyramide. Il tente d’apporter une éclaircie en soulignant que l’accroissement des inégalités s’accompagnait d’une plus grande mobilité, cherchant sans doute à sauver une certaine idée libérale et en déplaçant le problème. On pourrait critiquer ce point de vue en signalant simplement que cette mobilité traduit aussi une très grande incertitude : si chacun a sa chance, elle est autant de perdre que de gagner, surtout pour les revenus des 90%. Les auteurs en déduisent un axe directeurs des politiques publiques et fiscales : distinguer les riches par la rentes, ils donnent le modèle de Carlos Slim, des riches par l’innovation et ils citent Xavier Niel, laissant aux derniers une part de mérite auquel les premier, dans l’esprit de Piketty n’ont pas droit. On laisse le lecteur le soin de juger la pertinence d’une telle distinction.

Ces lectures me ramènent à une petite réflexion que nous avions eu il y a quelques temps. Imaginons 100 individus, doté des mêmes qualités qui leur donne droit à un même revenu. Supposons ensuite qu’il gagnent en moyenne 5% de plus chaque année, cette moyenne correspond une amélioration générale due à l’innovation, et se distribue normalement avec une certaine variance. Comment va évoluer la distribution globale des revenus? C’est un modèle extrêmement naïf qui présuppose que la distribution des richesses est aléatoire. Les riches le sont ici par accident, comme le sont les innovateurs. Qu’un Xavier Niel ou qu’un Zukenberg se soient enrichis phénoménalement en quelques années, est sans doute le fruit d’une grande chance. Il y avait une place pour un opérateur alternatif, une autre pour un réseau social global, la chance a donné la place au premier et au second. S’ils n’avaient pas été là d’autres l’auraient prise. Pour savoir la part de leur mérite, il faudrait pouvoir tester sur la même place l’enrichissement produit par d’autres managers et comparer. La question reste ouverte, mais l’hypothèse du hasard est forte. Ce qui n’est pas hasardeux ce sont les loi de probabilités et leur distribution.

Le résultats apparait clairement à gauche de la figure, les deux distribution comparant la situation en t+4 et t+20. Et si on retient une idée du revenu concentré par les 1% les mieux dotés à chaque période, on s’aperçoit qu’on part de 10% à près de 20% – c’est l’ordre de grandeur de ce qui est observé aux Etats-Unis, la ligne en rouge donne l’accroissement du coefficient de variation, c’est à dire l’évolution de l’écart moyen des richesses qui passe de 10% du revenu moyen à 45%.

inegalité

Ce modèle est naïf, il faudrait le comparer à un modèle qui traduisent les phénomène d’héritage et de rente d’une part, et d’autre part l’effet inégalitaire de l’innovation ( en supposant que les gains dépendent d’une part de dépense du revenu en formation, éducation, innovation). Il est suffisant pour montrer l’effet stochastique de l’inégalité, et de son manque de justification. La rente l’aggrave, et sans doute, c’est le fait nouveau, l’innovation aussi.

Même en restreignant la rente et en favorisant l’innovation au motif qu’elle accroit la mobilité, comme un moindre mal, se dessine un monde douloureux où l’incertitude des positions individuelles succèdent aux inégalités structurelles, et où un cercle peu vertueux peut s’engager : l’innovation renforce les inégalités qui accroissent les couts sociaux et empêchent à leur tour l’innovation nécessaire pour les réduire. A lire les travaux récents des économistes, il est évident que pour que l’innovation reste un progrès il faudra la conduire en s’assurant que ses bienfaits soient distribués plus également au risque qu’elle s’éteigne. L’enjeu n’est pas seulement une innovation durable mais une innovation partagée.