Réseaux sociaux : qu’y fait-on? Pourquoi on les fréquente?

Que fait-on sur les réseaux sociaux? Quels bénéfices y trouve-on? Quelles gratifications y obtient-on? Les fréquente-t-on parce qu’ils  nous donnent des opportunités ou parce qu’ils noient l’ennui? Y va-t-on parce qu’on est malheureux ou parce qu’on est heureux ?

A vrai dire on en sait assez peu. L’étude Wave est sans doute la plus étendue par le nombre des nations qu’elle étudie, mais peut être pas totalement convaincante sur sa méthodologie. L’univers académique néglige cette question pratique préférant des thèses plus audacieuses, ou l’étude de comportements déviants ou périphérique. Et d’ailleurs ce serait bien de l’analyser systématiquement nous savoir quelles dispositions elle met en évidence.

Un jeu de données produit par une des mes étudiantes de master va nous permettre d’aborder la question au moins sur le plan de la méthode. Son jeu de donnée (260 individus) est représentatif du cercle social d’une étudiante franco- russe qui aura recueilli dans une population majoritairement jeune et étudiante les réponses à trois questions :

  1. Quels sont les réseaux que les gens utilisent  et avec quelle fréquence ?
  2. Quelles y sont leurs activités et les gratifications qu’ils en retirent : une batterie de 36 items est exploitée à cette fin
  3. Etes-vous heureux dans la vie ? C’est une approche du concept de Customer Well Being qui semble recueillir un intérêt de plus en plus grand dans la littérature académique.

L’approche ici reste descriptive. Le plus c’est de segmenter sur une base très traditionnelle, mais fondamentale, quels sont les avanatges que recherche les utilisateurs de réseaux sociaux dans l’usage de ces réseaux? La question subsidiaire c’est de comprendre comment ces usages sont liés à leur qualité de vie.

Commençons par le début et par l’analyse des réseaux qu’ils emploient. deux critères sont mis en avant, le sexe et la nationalité. L’un reflète un ordre social qui se perpetue dans la construction du genre, l’autre au moins une différence culturelle façonné par l’histoire, les conditions économiques et sociales. En deux graphiques on y observe qu’il y a peu de différence de genre, mais des spécificités nationales importantes. Si Facebook est dominant en france, c’est vcontack qui semble exploiter la même niche en russie.

Une analyse complémentaire

 

Une économie équilibrée

26901305512_3b005154c5_kLe mois de l’ESS s’annonce et à Paris Nanterre, on y contribuera avec une table -ronde « Un coopérativisme de plateformes est-il possible ?« . On pourrait voir se dessiner rapidement une réponse qui se constitue autour de la capacité de financement et qui assombrirait le futur des plateformes. Oui les grandes plateformes sont possibles par la puissance du Venture capitalisme qui peut y engouffrer des milliards en attendant un résultat opérationnel confortable. Les coopératives n’ont pas cette faculté.

C’est par un autre argument qu’il faut se saisir de la question. Il va dans le sens que Henry Minzberg donne à sa réflexion : celui d’une société équilibrée entre le secteur privé, le secteur public et ce secteur tiers composés d’association, de fondation, de coopérative, de mutualités, et dont le trait commun se résume en non-profit.

Souvent le discours relatif à ce secteur tiers s’appuie sur des valeurs et  sous-tend que l’économie doit avoir  des vertus, une morale. On veut une économie humaine, une économie solidaire, une économie respectueuse, et moins que de s’interroger sur les fins on s’interroge sur les moyens. Elle s’opposerait faiblement à la voracité du capitalisme (néo-liberal), son but est le renforcement d’une résistance.

Ce discours  écarte l’idée que le collaboratif n’est pas forcément une valeur mais aussi une source de performance. La compétition par l’émulation et l’apprentissage améliore la performance mais elle peut la détruire en réduisant les comportements solidaires et bienveillant dont la définition est : qui prend en compte l’intérêt de l’autre, et qu’on retrouve dans les notion de stewardship ou de civilité organisationnelle dont l’effet est de mieux faire face aux inattendus de la vie économique, et d’en amortir les conséquences négatives.  Inversement si les modèles solidaires contribuent à la performance en palliant aux défauts de connaissance, ils peuvent la réduire par son ossification, son appesantissement. Il n’y a pas un bon modèle contre un autre plus mauvais, mais deux modèle ambigus dans leurs effets qui parfois se complètent. L’économie est performante si elle trouve un équilibre entre les deux : la compétition et la coopération. L’une s’appuie sur la connaissance, l’autre fait face à l’ignorance.

Cette performance naturellement doit s’analyser en deux composantes : l’une qui est relative à l’organisation économique, l’autre à celle du milieu ( appelons ça bien-être, intérêt général, communs etc). Cette dualité est une affaire de politique, ce qui est bon c’est que l’une soit accomplie avec l’autre car comment les pondérer ? Faire des profits et améliorer l’environnement est la meilleure chose. Cette situation semble-t-il est prise en compte dans la littérature récente au travers de la notion de caractère transformatif des projets ou des stratégies. Elle s’oppose d’une certaine manière à l’approche de la responsabilité sociale, qui de manière normative, se contente de rappeler que les organisations peuvent produire des externalité négatives qu’il faut réduire ou compenser. L’approche transformative va plus loin, elle s’attache aussi aux externalités positives qu’elle souhaite encourager.

C’est une des raisons qui conduisent à penser, en matière de plateformes, qu’il s’agit moins d’imaginer un monde où des plateformes conduites par le profit écrasent les autres alternatives, qu’un monde où se cotoient différentes formes et leurs hybrides. Et s’il faut se poser des questions sur les raisons et la manière de les réguler, il faudra s’interroger sur les potentiels transformatifs de ces modèles, faire une balance complète des avantages apportés à leurs partie prenantes et des externalités positives et négatives injectées dans le milieu.

Consommation collaborative : prétester le matérialisme

Juste quelques résultats préliminaires. Un pré-test conduit par une de nos étudiants du Master Marketing Opérationnel International. Le questionnaire est là, remplissez le pour de meilleurs résultats. L’intérêt pour les formes de consommation collaborative vient-il des valeurs du matérialisme?

En matière de consommation le matérialisme n’est pas dialectique, du moins il ne se présente pas ainsi. Il se pétrit de croyances, de gouts, d’attitudes qui font qu’on puisse croire que l’accumulation des biens contribuent au bonheur, du sentiment que la dépense est nécessaire, de ce qu’on voit que le prestige s’incarne dans les biens que l’on possède. Des références clés dans ce domaine sont McCracken, Richins, et quelques autres. Qu’on prête aux bien une valeur plus ou moins importante pour réaliser le sentiment d’avoir réussi, de signaler aux autres sa valeur, ou de n’être que faiblement convaincu par les vertus de la frugalité, pourrait être une raison de pourquoi nous adhérons à l’idée de partager les biens dont nous tirons des effets utiles et agréables. Le voiture, un livre, un disque, une maison ou un crédit peuvent parfaitement être consommés collectivement, y sommes-nous prêts?

Est-on prêt à partager nos bien ? Quelques résultats répondent plutôt oui mais sans enthousiasme. On le ferait volontiers pour des livres ou des CD,- mais n’est-ce pas le rôle des bibliothèques ? , aussi pour le covoiturage – sans doute un budget à réduire! moins volontiers pour des emprunts collectifs – c’est sans doute une opération trop abstraite et apparemment incongrue.<

A ce stade peu de différences significatives, excepté les femmes qui partagent plus volontiers. En spéculant on partagerait d’autant moins qu’on est plus âgé et que le degré de diplôme est plus élevé. L’échantillon du pré-test est ici clairement insuffisant pour faire émerger des patterns significatifs.
La question centrale est cependant celui de l’importance de l’idéologie. Nous avons étudié cette question en nous appuyant sur l’échelle des valeurs du matérialisme proposée Richins et Dawson (1992) et adaptée en français par Richard Ladwein. Dans notre cas une ébauche de la solution, sur un pré-test de 140 personnes, apparaît dans le tableau suivant.
Les trois dimensions du matérialisme ( la frugalité, l’ostentation et la) expliquent peut être aussi dans leur généralité l’intention de partager ces catégories de produits. Le poids est mesurés ici grâce aux betas standardisés de modèles de régression appliqués à chacune des intentions de partage propres à chaque catégorie de produits – un modèle d’ensemble est aussi calculé.
On y ajoute deux questions spécifiques : l’intérêt pour la catégorie de produit ( implication) et de l’importance accordée à la possession de ces biens ( propriété), les deux variables sont saisis par un item. Les corrélations sont faibles, mais un certain nombre d’entre elles sont significatives, elle vont dans l’ensemble dans une même directions. Les r² cependant restent faibles même en deçà des seuils de signification : il y a sans doute de nombreux autres facteurs qui pèsent : la crédibilité de l’offre, son coût d’accès, les avantages qu’elles présentent.
La volonté de posséder est nullement liée aux partage, celui-ci serait-il sans rapport avec le sens de la propriété? Quand à l’implication c’est dans le cas des vêtement et du crédit qu’elle joue positivement, sans doute l’expression d’une certaine compétence qui trouve matière à s’exprimer : trouver la bonne affaire..
On observe une corrélation négative entre la croyance que posséder des choses donne du prestige et l’intérêt pour partager le bien. C’est de cas de la maison, des vêtements et de la voiture. Moins on y voit de vertu symbolique et plus on est prêt à partager. Quand le bien représentent notre puissance, il faut les posséder pour que l’effet d’ostentation se produise !C’est une corrélation positive qui se manifeste pour la maison, la voiture et le crédit et le sentiment que les biens terrestres font le bonheur. Plus on croit que l’accumulation des biens est importante et plus on serait prêt à partager, car c’est le moyen d’obtenir ce qu’on ne peut posséder avec ses propres ressources.La frugalité conduit à vouloir partager ses lectures et ses musiques. Cet anti-matérialisme est sensible à la poésie du livre qu’on abadonne sur un banc public, elle s’enthousiasme peut-être dans le piratage….

Manifestement le matérialisme ne prend son sens que dans son rapport aux objets. Il n’a pas un déterminisme unique, ses facettes jouent différemment selon les objets. Il contribue faiblement. Un effet fort s’enregistre avec de faibles échantillons, s’il reste à peine sensible, c’est que même avec des mesures plus solide, son effet est sans doute faible.

Voilà une piste intéressante. Le matérialisme n’est pas une fatalité de la faiblesse humaine, elle ne conduit pas nos conduite. Sans doute il faut revenir au détails de ces offres. La consommation collaborative pourra devenir significative pour autant qu’elle apportent des avantages évidents et un accès facile. L’idéologie sans doute forme une part marginale de nos préférences, surtout quand il s’agit de choses nouvelles.

Même si ce poids est faible, il peut cependant orienter les domaines où il peut jouer un rôle important. Sans doute là où les investissements des consommateurs sont importants mais aussi dans ces choses dont la valeurs marchande est faibles qui qui véhicule un éthos dont on est fier. Nous en sommes encore aux hypothèses. L’avantage des pré-tests par la faiblesse de leurs échantillon est d’écarter les hypothèses marginales, ils renseignent aussi ce dont nous ne savons encore presque rien.

Il n’y a pas de conclusion à cette note d’étude. Sauf une, n’attendons pas du côté de l’idéologie le vent qui oriente le destin de la consommation collaborative.

Satisfaction : une étude barométrique

The refined beauty

Une situation courante dans les entreprises de services et de distribution est de mesurer la satisfaction ou d’autres indicateurs proches, pour des unités géographiques distinctes et identifiables : des points de ventes, des bureaux d’orientation, des bornes ou automates, une multitude de localisation. Quand le réseau comprend des centaines d’unités, certaines variétés, certaines d’analyse sont utiles.

C’est l’objet de cette étude, une première plongée dans une jolie base. 300 000 jugements de satisfaction.

Ce n’est pas tout à fait du big data mais cela donne une idée des méthodes de résolution qui doivent être mises en œuvre quand les données sont abondantes. Elles ne sont pas forcément complexes, elles tirent l’avantage d’une répétition. Pour chaque unité nous pouvons ajuster un modèle, une variation. Et comparer.

Dans notre cas il s’agit de données relatives à une mesure de satisfaction qui concerne 166 points de ventes d’une chaine de distribution dans un pays européen. Et juste une première analyse pour tester des données. Pour chacun des points de vente les tailles d’échantillons sont de l’ordre de 1000. la médiane est vers 900. Nous disposons sur cette base de données de près de 170 000 observations, pour 166 unités d’analyse – des points de ventes. Nous pouvons donc pour chacune d’elles estimer un modèle de satisfaction dont la structure est :

      Sij=aij+a1jOffre(ij)+a2jMerch(ij)+a3jCommodité(ij)+a4j*Personnel(ij)+eij

     ( i indice l’individu et j le point de vente)

Les paramètres correspondent ici à l’accroissement de satisfaction globale assurée par le fait d’être noté parmi les 15% meilleurs. Si le coefficient obtenu est de 0,5, cela signifie qu’être noté parmi les 15% des meilleurs accroit la satisfaction globale de 0,5 point. Voilà qui peut servir de point d’ancrage pour évaluer les valeurs de l’étude.

L’idée est dans l’esprit de la méta-analyse de prendre partie de la possibilité de faire une étude des études et ainsi de mieux comprendre et d’ajuster les modèles. Un exemple simple est donnée dans l’illustration suivante où un modèle de satisfaction multi-attributs est estimé à chaque point de vente. On peut ainsi étudier directement les distribution des paramètres, et d’essayer de comprendre en fonction de quoi elles varient.

Dans notre cas il s’agit de 4 facteurs principaux : l’assortiment des produit, la qualité du merchandising, la facilité de circulation dans le point de vente et la qualité des interventions du personnel. On observe que ces effets varient du simple au double. Dans le cas du merchandising qui a la valeur moyenne la élevée pour sa contribution (de l’ordre de 0.67), la plage de valeur va de près de 0.5 jusqu’à presque 1. L’influence de cette variable change fortement d’un point à l’autre. Il reste à savoir pourquoi.

Ces sensibilités ne sont pas tout à fait indépendantes comme en témoigne le tableau des corrélations suivant. Il y a un lien significatif entre l’offre et le merchandising, une autre entre la qualité du personnel et la facilitation de circulation. Dans certain cas c’est la manière dont l’offre est présentée qui compte, dans d’autres c’est l’orientation dans le magasin qui est déterminante. Les corrélations partielles confortent la force de ces liens.

On sera étonné que seul la sensibilité du merchandising varie négativement avec la taille des magasins, plus ils comprennent de personnel et moins la mise en scène est importante elle reste l’apanage des petits formats.C’est ici qu’il faut mettre en scène les produits et motiver les gérants.

Ces coefficients de sensibilité semblent cependant peu varier avec des variables telles que la taille du magasin, la localisation, ou même la région. En voici un résumé pour la taille des points de ventes.

A cette échelle peu de différences sont significatives, mais des patterns apparaissent. On comprend mieux cet effet dans la figure suivante ou les niveaux des facteurs varient avec la taille : la mise en place est d’autant plus importante que les magasins sont petits.

A l’inverse même si ce n’est pas tout à fait décisif, dans les grandes unités le personnel a un poids plus fort sur la formation de la satisfaction. Mais ce n’est qu’un facteur.

Donnons aussi les différences selon la localisation : en centre ville ou à l’extérieur. Très clairement le merchandising est plus important dans les unités hors centre. Dans cet environnement c’est sur la mise en place des produit qu’on peut obtenir une meilleure évaluation. Les données sont cohérentes. A contrario dans les zones urbaines, où les unités sont grandes c’est le personnel qui est la clé. On le comprend bien, le confort des visites devient important quand l’offre ne peut plus être bien évaluée, l’abondance demande de l’aide et des efforts.

Un des enseignements de cette étude est que les paramètres de sensibilité des attributs de la satisfaction varient fortement selon les points de ventes. Ces variations sont peu expliquées par la taille, la région, ou l’effectif. D’autres facteurs déterminent sans doute ces variations, il reste à les découvrir. L’essentiel d’en prendre compte : une politique bonne dans un magasin n’est peut-être pas la meilleure dans un autre.

Mais la méthode simple rend bien compte de cet enjeu : même si nous pouvons user de modèles sophistiqués et subtils comme les modèles multiniveaux (1), c’est l’ingéniosité qui doit avoir le premier mot, un ingéniosité qui rende compte que les modèles varient dans leurs paramètres, Rares sont les travaux de cet ordre, une exception est le travail de Mittal et kamakura(2)

Il reste à mettre en œuvre les procédures et les cadres théoriques qui en exploiteront la moelle : ces variations d’un lieu à l’autre. Cette idée que les modèles n’ont de sens que dans la variation de leurs paramètres. Et que c’est celà qui permet une gestion fine des canaux, de comparer les unité et d’évaluer au mieux l’allocation des ressources.

(1) Ray J.-J., Ray D., 2008. Modéliser les phénomènes multiniveaux en marketing, Recherche et Applications en Marketing, Vol 23, n°1: 55-80.

(2) Mittal V, Kamakura W, Govind R. Geographic Patterns in Customer Service and Satisfaction: An Empirical Investigation. Journal Of Marketing July 2004;68(3):48-62.

PS : données modélisées par A Benabi,  et rassemblées par Init .

Facebook – et nos dividendes?

Facebook entre en bourse et la question qui se pose est celle de l’atteinte ou non d’une valorisation à 100 milliards de $. Accessoirement, celle de l’enrichissement de sesinvestisseurs.

Le modèle connu sous le terme de crowd-sourcing, ou d’UGC, est en suivant l’analyse de de George Ritzer une forme nouvelle d’exploitation capitaliste. Non pas par l’appropriation de la valeur crée par les ouvriers, mais par celle des consommateurs.

Non content de payer la taxe de l’intrusion (être exposé à des publicités que nous ne souhaitons pas), ce sont les données que l’on confie qui sont simplement appropriées par facebook (et les autres) et vendues sous la forme d’actions aux investisseurs (Et non! nos données ne sont pas revendues telles quelles).

L’idée de Ritzer n’est pas nouvelle. De pur consommateur il n’y en a pas eu toujours, Toffler en est l’inventeur. Que le consommateur participe à la production est à la fois le modèle historique, ne serait-ce que par l’auto-production, et un élément critique de la société de consommation dès les années 60. La nouveauté n’est plus seulement dans l’organisation physique de la consommation : le chariot que l’on pousse, l’article que l’on scanne, le plateau que l’on jette à la poubelle, l’essence que l’on verse dans le réservoir, le billet de train que l’on sélectionne sur un automate. La nouveauté est que cette participation à la production, mais aussi à la conception, peut se partager avec les autres. Et cela d’autant plus facilement que le produit de cette participation prend la forme d’un bien public : sa consommation n’est ni exclusive, ni rivale.
Dans cette nouvelle configuration, le consommateur est toujours ce prosumer (ou produmer ou consommacteur ou coconcepteur ou coproducteur), mais ce qu’il produit est absorbé dans des plateformes géantes qui en assurent la logistique et partagé avec les autres. Facebook n’est qu’une des formes les plus abouties pour la capacité d’agréger un volume considérable de production. Il s’avère désormais que ce volume d’information prend une valeur considérable sur les marché.

Une question d’importance serait de discerner quelle est la part de valeur qui vient de l’infrastructure, et quelle est la part de ce qui vient des données. Si cette dernière représentait, disons la moitié, un véritable problème de droits aux fruits de cette valeur.

On comprend le changement, qui ne vient pas tant de l’activité des consommateurs, ils sont nombreux ceux qui font des phots, écrivent des poèmes, collectionnent les timbres, réalisé des vidéos, annotent des livres, critiquent des films. Ils le faisaient avant le crowd-sourcing, le neuf est que ce qu’is abandonnaient à l’usage gratuit de leurs proches est transformé et approprié par le capital, et un peu avant par les plateformes. Le prosumer ne se contente plus de partager les coûts de production avec la marque, il lui abandonne la plus-value de sa propre création, la valeur monétaire de son apport en capital physique.
On peut imaginer que d’autres modèles émergent, qui conçoivent un partage de cette valeur en rémunérant les contributeurs. Puisque la procédure d »inscription identifie clairement les membres d’un réseau, qu’il semble relativement facile de mesurer la quotité de contributions de chacun, on peut aisément répartir une part déterminée des dividendes. C’est assurément une mesure authentiquement socialiste par ces temps libéraux auxquels les consommateurs ne souscrivent plus. Ce pourrait être une initiative libérale : quelle serait le choix des consommateurs entre deux plateformes équivalentes à tout égard excepté que l’une d’elle rende la valeur à ceux qui en sont la source ? Imaginons qu’un autre Facebook grâce aux contributions de ses membres décide de reverser la moitié de sa valeur au 200 millions de ses meilleurs membres, cela représenterait une valeur de 100 euros pour une capitalisation à 20 milliards ! Des cas de cette taille sont bien sur rares, et c’est sans doute d’un facteur cent fois moindre que ce capital peut être valorisé. Le prosumer ne fera sans doute pas fortune mais si un droit lui est reconnu !
De fait le tour de magie vient du renoncement des internautes. Dans d’autres cas les pièces jaunes que nous négligeons font le bien d’oeuvres caritatives. Mais ce processus de valorisation d’un bien public fait de facebook plutôt une nouvelle Générale des Eaux ( les utilities fonctionnent finalement de manière identique : ce n’est pas l’eau qui est vendue, elle est est un bien public, mais son acheminement). L’eau que Facebook conduit n’est cependant pas naturelle. Elle est plus proche des ordures ménagères que nous abandonnons et dont les récupérateurs se font le plaisir et le bénéfice d’en extraire les matières les plus précieuses.

Sans céder à l’utopie d’une autre économie, on peut au moins remarquer que dans cette perspective, l’enjeu clé réside dans le droit de propriété associées aux données* et de ce à quoi ils laissent prétendre. Plus encore dans la prétention à ces droits. Sur le marché des déchets, le consommateur-destructeurs est parfois payé (c’est le cas des consignes), le plus souvent il paye.

Cette double comparaison renforce l’idée de la place très particulière qu’occupent les médias sociaux dans nos société. On paye le plus souvent le ramassage de nos ordures ménagères par une taxe, et quand on nous débarrasse gracieusement de nos meubles et autres souvenirs nous abandonnons généralement la valeur résiduelle à des charités. Quand à l’eau qui irrigue nos maisons, même si nous en payant une facture calculée par une métrologie précise, c’est son transport qui est réglé. Un rôle de régisseur que la collectivité charge de gérer le bien collectif, et qui s’en accaparerait les recettes. Un garde chasse qui  en viendrait à braconner.
On devine que la morale a des intérêts dans cette question. On peut s’interroger sur la compétitivité d’un tel modèle que concurrencerait un modèle à droit de participation ( même partielle). Pour revenir à la thèse ancienne de Ritzer, et à cette interrogation sur la notion de consommation, l’introduction de FB en bourse, nous invite à en repenser la nature.

Le consommateur n’est pas seulement celui qui détruit pour satisfaire un besoin ou un désir personnel le produit d’un industrie, il en est aussi le producteur. Le consommateur n’est pas qu’un acheteur, ou du moins il n’achète pas seulement avec de la monnaie, en plus de sa contribution en travail, il peut contribuer en prêtant son attention – c’est ce vieux modèle de la publicité, et désormais avec le fruit de ses libéralités. Le consommateur désormais est un contributeur au capital.  Malheureusement il n’en touchera pas les dividendes.

* en l’occurrence si nous avons un droit de contrôle et de rectification sur nos données personnelles, que nous puissions en autoriser ou non la diffusion, ces données restent publiques.

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

Des agents multiples pour le marketing social

Connaître les raisons du comportement individuel est assurément une chose importante, mais c’est insuffisant pour comprendre le comportement de la population, notamment quand le comportement de chacun dépend de celui des autres. C’est bien cette situation qui prévaut dans le domaine du marketing avec la montée en force des réseaux sociaux.

Le fait n’est pas nouveau, rappelons simplement, l’analyse de la diffusion des produits nouveaux, que l’on modélise par l’interaction entre les adopteurs et les non adopteurs- le bon vieux modèle de Bass. Ce qui est nouveau est la systématisation de ces interactions obtenues en équipant les consommateurs de moyens pour exprimer leurs préférences, leurs coups de cœur, leur recommandations, mais aussi pour être informé des avis de leurs proches. Les boutons likes, les recommandations, les retweets sont quelques unes de ces techniques et de ces équipements.
On ne peut donc plus se contenter d’étudier le comportement individuel du consommateurs comme on le fait encore largement. Comprendre les facteurs de la confiance, la probabilité de répondre à une annonce publicitaire, la réaction à une baisse de prix est toujours utile mais insuffisante pour la raison simple et fondamentale que le comportements des marchés n’est pas, ou n’est plus, l’agrégation de décisions individuelles. Ce marché est un vol d’étourneaux qui se fractionne quand l’aigle plonge et se recompose quand il s’éloigne. Les sciences sociales le savent depuis longtemps, qu’il s’agisse des phénomènes de ségrégation urbaine, des comportements de coopération, de l’irruption d’émeute, ce n’est pas simplement en disposant d’un modèle d’action individuelle que l’on peut en déduire l’ensemble du comportement de la société. 
Une solution a été apportée par l’utilisation de modèles multi-agents, et les multiples travaux engagés dans cette voie ont mis en évidence l’émergence de propriétés globales parfois inattendues, comme celles des vols d’étourneaux.
On peut en donner un exemple très récent produit par Antonio A. Casilli et Paola Tubaro et publié dans OWNI. Les émeutes d’août 2011 en Angleterre ont amené les hommes politiques à prendre des positions sur l’usage des moyens de communication moderne, en particulier le système crypté de messagerie des Black-Berry. Puisque ce système a permis au émeutiers de se retrouver rapidement et de se coordonner plus vite que la police, il semble évident qu’en restreindre l’usage permettrait de réduire l’intensité des émeutes. Et même si la censure est contraire à nos principes de liberté d’expression, un peu de censure serait justifié pour réduire le coût social de ce que certain décrivent comme du hooliganisme.

Notons qu’en marketing, la même problématique peut se retrouver dans les expressions de contestation des marques et des politiques d’entreprises. Les réseaux sociaux favorisant le boycott, pour éviter des manifestations trop violentes, il semblerait judicieux de censurer modérément les plateformes de marques.La question fraiche de la limitation du débit de l’internet en est une bonne illustration.

Pour analyser ce problème, les auteurs ont procédé de la manière suivante. En s’appuyant sur le modèle d’Epstein de violence civile, ils ont simulé la fréquence des violences en fonction du degré de vision de chaque des agents, autrement dit en fonction du degré de censure fixé par le gouvernement. Chaque agent est supposé se rebeller – jeter des cocktails molotovs -en fonction de l’intensité des griefs qu’il éprouve, ceux-ci étant d’autant plus élevés que la frustation des agents est forte et que la légimité du gouvernement est faible, et en fonction de la probabilité d’être arrêté par la police. La police se meut dans l’espace cherchant les émeutiers et ceux-ci agissent là ils ne se font pas prendre.

Le modèle individuel est ici très simple, l’idée centrale est de simuler le comportement d’un grand nombre d’agents – émeutiers et policiers. L’apport de ces auteurs est de faire varier un paramètre du modèle : le degré de vision des émeutiers qui correspond à leur capacité de communication. Plus celui-ci est élevé et plus facilement ils fuiront les concentrations de la force publique rejoignant des lieux pour agir violemment où ils risquent moins d’être arrêté. Le résultat obtenu est contre-intuitif : au cours du temps, le scenario qui permet la plus grande fréquence de période de calme civil , des périodes sans émeute, est celui où la censure est absente. Une censure stricte maintient un niveau de violence constant.

Dans cette étude, les auteurs ont utilisé une plateforme de simulation remarquable : NetLogo qui permet de simuler le comportement de différents types d’agents à partir de règles simples de comportement, des liens qui les unissent mais aussi de l’espace dans lequel ils se distribuent et qui peut leur procurer des ressources. D’autres plateformes de ce type existent par exemple Brahms.  Un des avantages de cette plateforme particulière, outre les multiples outils de visualisation qu’elle propose, est de pouvoir organiser de véritables expérimentations pour explorer et tester le comportement du système en fonction des  paramètres du modèle qu’on y construit.
Un petit exemple peut être donné avec le modèle de ségrégation spatiale de Schilling. Imaginons que deux tribus les rouges et les verts se promènent dans un centre commercial et expriment des préférence pour être avec leurs semblables. Voici les configurations obtenues à partir d’une distribution au hasard pour 2 valeurs de deux paramètres (faible et forte densité de population d’une part, et d’autre part le souhait d’être entouré d’au moins 30%  ou de 70% de voisins similaires). On voit que la densité et l’homophilie conduisent à une ségrégation forte. C’est un résultat classique.

Mieux, on peut apprécier la satisfaction de ces usagers en calculant dans chacun des cas la proportion de ceux dont le nombre de voisins différents est supérieur à l’attente : en voici l’évolution au cours du temps pour les deux densités de population et 7 niveaux de préférences de similarités des voisins:


Si qualitativement les configurations pour le niveau à 70% semblaient semblables, on s’aperçoit ici que la situation à faible densité conduit cependant à un taux d’insatisfaits bien moindre que dans la situation de haute densité. On peut ainsi varier de manière systématique les paramètres, mais aussi réitérer les simulations pour mieux appréhender les variations aléatoires, et découvrir les propriétés globales du système. Même quand chacun tolère un degré raisonnable de diversité, la société se construit dans un entre-soi.
En marketing ces techniques sont malheureusement peu employées même si elles sont désormais anciennes. On notera en France la thèse de Christine Ballagué avec une variété particulière – les réseaux de pétri, on notera cette application récente aux stratégies de marketing viral (voir aussi ici), .Mais tout laisse à penser qu’elles seront de plus en plus employée, se souciant d’un meilleur réalisme par une meilleure calibration des modèles. En témoigne l’organisation cet été d’un cours avancé à l’Université de Sidney et la publication toute fraîche de l’article de Rand et Rust.
Ce qui nous semble fondamental est que dans un monde où les consommateurs s’influencent les uns les autres, où la compétition ne se présente pas de manière uniforme mais comme un véritable eco-système, non seulement il sera nécessaire de décrire de manière réaliste et simple les décisions des différents acteurs, mais sur la base de ces modèles simplifiés, de comprendre les propriétés de l’ensemble des populations en interactions par ce type de méthode, car on ne peut inférer du comportement de l’individu la propriété globale du système. Nous avons longtemps cru que connaitre l’individu moyen suffisait, nous découvrons peu à peu que le comportement d’une société découle plus des interactions de populations hétérogènes et de la capacité de rendre compte de leurs évolutions.

C’est une idée ancienne liée à l’idée même du marché : qu’un Smith ai pu pensé que l’avidité de chacun faisait le bien de tous en fait partie. Cette idée générale était bien trop générale. Le bon vouloir de chacun peut conduire à la ruine, la cupidité peut rendre les marché fous, le meilleur des produits peut être un flop, le plus mauvais devenir un standard. Aucune de ces lois n’a de vraie raison. Les lois qui régissent les populations ne sont pas pas extrapolations naïves du comportement de leurs individus. Les modèles basés sur de multiples agents sont à se jour les seuls méthodes qui nous permettent de passer de la compréhension des motifs individuels aux comportements de la collectivité qu’ils forment.

Publicité et digital : faut-il de nouvelles mesures ?

Friendfeed vs Twitter
[pour la Journée AFM GfK France – 1er avril 2011]
L’environnement publicitaire se caractérise d’abord par la multiplication des canaux et moyens d’actions dont les métriques varient sensiblement de ce à quoi on était habitué, chaque instrument par nature suscite ses propres indicateurs : les taux de clics, nombre de pages vues, nombres de vidéos vues, les niveaux de recommandation sur les réseaux sociaux, des indicateurs de sentiments, des scores d’influences, des taux d’ouverture, de conversion, de transformation, d’appétance. Cette multiplication des indicateurs cotoie sans complexe l’exigence du ROI, ce mot magique qui justement jamais ne donne le retour sur investissement, se contentant d’un ratio entre un effort et un résultat. Les As du ROI sont de piètres comptables, et souvent de mauvais économistes.
Si on peut croire qu’un indicateur peut refléter le résultat d’un effort effectué dans un canal et être comparé à travers différentes actions (le coût par clic en est un moyen), on voit mal comment comparer différents indicateurs d’un canal à un autre ( le coût du clic et celui de l’ODV). Il faudrait une échelle commune, où un critère définitif puisse trancher : quel impact sur les ventes, la part de marché, le profit ou mieux encore la valeur client ? Les myriades d’indicateurs que l’on constitue à mesure que des canaux nouveaux s’ouvrent, sont des indicateurs secondaires de performance, l’enjeu est de les lier aux mesures fondamentales.
Le caractère ad hoc des indicateurs est sans doute le problème le plus simple. Nous avions déjà rapporté l’argument de Gian Fulgoni à propos des taux de clics si faibles qu’on devrait abandonner l’usage des bannières, il sont de l’ordre de 0,1%, mais ils tiennent compte ni des effets de mémorisation ou d’image qu’on retrouve dans le glissement des ventes. C’est à travers la multiplicité des campagnes que l’on doit mesurer la performance. Le plan doit dominer sur les opérations. Les obsédés du ROI peuvent perdre de vue la stratégie. Et son résultat mesure l’effets de toutes les opérations sur les ventes.
Le problème le plus important vient des effets cross-canaux qui sont fortement intriqués. Les mass media incitent à fréquenter les sites, et la frequentation des sites accroit sans doute la performance des mass média. Le marketing direct peut pousser avec précision une marque et augmenter la fréquentation du site rendant un nombre important de consommateurs sensibles aux messages des mass-media. Les effet vont dans un sens et dans l’autre, ils sont récursifs.
La conséquence est qu’il est difficile de démêler les effets, sauf à comprendre les inductions dans le temps : comment un canal affecte la performance d’un autre. Les indicateurs d’un médium ne mesurent pas forcément l’effet unique de ce média, mais aussi l’influence des autres. Ce souci est augmenté par le fait que les campagnes sont désormais en continu, comment isoler l’effet d’une campagne de l’accumulation des effets des précédentes ?
C’est une question à laquelle Fulgoni propose une réponse simple. Pour analyser l’efficacité des bannières il ne faut pas regarder le taux de clics qui est extrêmement faible : 0.1%. L’effet d’une campagne peut difficilement être apprécié en tant que tel. Le clic représente une action, mais un silence n’est pas forcement sans effet, les expositions sans action peut aussi travailler la cible. C’est pourquoi il propose de regarder l’effet cumulé sur les ventes, et d’isoler ce « drift », qui n’est rien autre qu’un calcul d’élasticité. On en revient à l’idée fondamentale d’un Little et de son decision calculus.
La différence est qu’aujourd’hui nous disposons de quelques trésors économétriques. La solution passe par un effort de modélisation sophistiqué qui est le seul moyen de distinguer les effets. Les solutions sont disponibles depuis plus de 10 ans avec les modèles VAR, VECM ou DLM dont l’intérêt principal est de tester simultanément les effets d’un indicateur sur un autre par un jeu simple d’équation d’auto-régression. Une batterie d’outils les accompagnent :
    1. les tests de causalité à la Granger qui aide à étudier le sens de la causalité, par exemple de nombre cumulés de membres de la page de fan influence-t-il la mémorisation d’une campagne TV et/ou la campagne TV influence-t-elle le nombre de membres de la page ?
    2. Des tests de cointégration qui sont essentiel dans la mesure où de nombreux nouveaux indicateurs sont des indicateurs cumulatifs : le nombre de membre twitter est la somme des précédent plus des nouveaux. Dans ce cas les séries sont intégrées.
    3. Des fonctions d’impulsion qui par simulation permettent de calculer et de représenter l’influence d’une variation unitaire d’une des variables sur les autres variables en examinant sa distribution dans le temps. Ce sont en fait les formes modernes de l’élasticité qui reste le seul critère de mesure d’efficience.
Que l’on dispose de la méthode est une chose. Mais ce n’est pas suffisant. C’est une connaissance plus fine des interactions des médias qui est nécessaire. L’écologie des médias en temps réel, tels que twitter, et des grands médias d’information est instructive : à l’examen des grands événements on devine assez nettement les interactions. L’info primaire qui y circule a d’autant plus de chance d’être reprise par les médias qu’elle est retwittée, mais en retour sa reprise par ces médias active les Rtwits. Mais à ce cycle, qui prend quelques heures ( par observation directe de certains événements la reprise par les grands médias se réalise quelques heures après – souvent le temps de vérification – et son effet sur les re-tweets dure on va dire 36h), s’ajoute un effet parallèle sur les blogs qui se nourrissent de cette double information mais dans un rythme plus lent, celui de quelques jours. Pour compliquer la chose, un certain nombre de nouveaux médias reprennent a posteriori l’information en la republiant (syndication). Cette activité d’ailleurs peut être institutionnalisée, c’est ainsi que le Monde réinternalise un certains nombre d’articles de Internet.actu. Pour achever cette analyse, rappelons que les adwords s’articulent sur le contenu !! L’exposition dépend de la production des informations. D’une écologie complexe.
C’est ce cycle d’information qui doit être l’objet de recherche approfondies, doit être mieux compris, non seulement dans l’ordre et l’importance des interactions, mais aussi dans la structure des populations qui l’animent : spécialiste de RP, blogueurs influents, fan de marques, leader d’opinion et ce grand public qui demeure en dépit de la socialisation de l’internet : 90% des consommateurs d’information ne font rien ou presque, le taux de recommandation n’est guère plus important que 5% et celui des contributions inférieur à 1%. Une écologie complexe de la communication publicitaire et non publicitaire est en train de se mettre en place. Il est essentiel d’en avoir une connaissance plus fine sur le plan empirique.
Nous avons les méthodes, nous avons les données, il reste à les réunir. Quand à la nécessité de nouveaux indicateurs et de nouvelles mesures laissons cela aux marketers des nouveaux services. En réalité on en a pas besoin. Il suffit de pouvoir mettre en ligne et en modèles, les données disponible. On examinera a postériori s’il permette de mieux rendre compte de la dynamique d’ensemble, et de savoir quelle place prendre dans le système à construire qui n’est rien d’autre qu’une forme de balanced scorecards
Alors oublions les mauvais comptables, coupons la tête au ROI, réapprenons ce que les spécialistes du contrôle de gestion nous apprennent depuis longtemps, prenons tous les indicateurs disponibles et cherchons quelles causalités les relient, et comment les tactiques contribuent à réaliser les objectifs de la stratégie. En marketing ces objectifs sont peu nombreux, ils se résument à la part de marché et à la valeur du portefeuille de clientèle.

Les surprises du parcours client

Bernard Pivot – parcours client?
La gestion de la relation client connait depuis plus de vingt des évolutions qui vont comme le fleuve, sinuant entre les obstacles du relief, laissant ici et là des bras morts, creusant ailleurs des méandres.

La géologie de ce relief est formée bien souvent des mêmes matières : les technologies en composent une bonne partie, l’autre est formée essentiellement de cette vieille question de confiance et d’engagement, la troisième reste toujours et encore ce bon vieux processus d’évaluation et de décision des consommateurs. C’est sans doute lui qui réapparait au travers de la problématique de la gestion du parcours client.

Cette réapparition est motivée par les nouvelles vagues de technologies. Après avoir appris à structurer des bases de données, à utiliser de multiples canaux, nous apprenons désormais à disposer sur la route de nos clients une large quantités de capteurs qui multiplient les points de contacts et d’action. Remarquons que notre consommateur n’est pas plus complexe qu’autrefois, c’est nous qui compliquons les choses en multipliant les occasions d’interaction. Difficile d’y échapper d’ailleurs, c’est la règle de la concurrence. Plus on multiplie les points de contacts et plus on augmente les chances de contrôler ses décisions.
Un exemple simple est celui de l’achat d’un livre. Autrefois quand le besoin de lire se faisait sentir, nous allions flâner dans une librairie, passant des heures à ouvrir des bouquins, lisant le début ou la fin, les reposant sur des piles, n’en gardant que quelques un en main, jusqu’au moment décisif où la nuit tombant, nous nous dirigions à la caisse pour n’en choisir qu’un, ou deux, dans la limite d’un budget bien souvent dépassé. Et nous lisions. Nous en parlions passionnément à nos amis. Ce temps étant pour moi lointain, c’est au lycée, au moment des pauses que l’échange se faisait. Naturellement, le choix s’était préparé bien avant, au moment de ces pauses et plus rarement en lisant des critiques. C’était un temps où le marketing était simple. Il y avait les journaux, les bibliothécaires, et la librairie. Chaque canal de communication correspondait à une étape du processus de décision : les médias alimentaient la reconnaissance du besoin et la formation des préférences, et c’est dans la boutique que je décidais.
Depuis Amazon.com les choses se sont bien compliquées. Le nombre de points de contact s’est multiplié au cours du processus. D’abord au lieu d’emmener le livre acheté et emballé dans son sac de papier au premier banc public, comme nous l’avons commandé sur la plateforme, il faudra attendre plusieurs jours, pendant lesquels la cavalière décochent des mails pour nous informer du parcours de l’ouvrage, nous incitant au passage à réengager un nouveau processus d’achat. Ensuite, c’est plus récent, notre impatience peut nous conduire à commander la version électronique pour la lire de suite sur notre petit Kindle – bon ce n’est pas vraiment le cas en France mais le modèle va bientôt venir. On imagine qu’Amazon ne va pas en rester là, et qu’au cours même de la lecture en cliquant sur une phrase ou une autre, nous serons invités à lire autre chose. J’avoue aujourd’hui ne plus acheter de livre en librairie, j’y vais seulement pour humer l’humeur du temps. C’est au chaud de la maison que j’achète, et les critiques littéraires, je les lis plus souvent après la lecture, moins pour m’informer que pour confirmer mon jugement. Si Bernard Pivot a stimulé les désirs littéraires, c’est entre la république des livres ou non-fiction, qu’aujourd’hui je forme mes envies.
Bref, on comprendra qu’aujourd’hui non seulement les canaux de communication et de distribution se sont multiplié, mais qu’ils jouent un rôle important dans chacune des étapes de la décision. Pour ajouter à la complication, ces rôles différent selon les consommateurs. Il faut segmenter : tout le monde n’a pas un Kindle, ceux qui ont un I-pad ne sont pas des lecteurs, et il y a toujours des gens dans les librairies trop rare et des bibliothèques en pleine évolution. 
C’est cette triple évolution qui donne de la force à la notion de parcours client : multiplication des canaux, multiplication des stades de décision et multiplication des modèles de décisions. Cela pose donc la question de l’étude de ces comportement et de leur modélisation.
Pas de loi générale en la matière, mais une méthode. Un moyen simple en est le calcul probabiliste par le biais notamment des chaines de Markov. Un exemple est donné dans le tableau suivant. Imaginons que 5 canaux soient disponibles à chacune des 4 grandes étapes du processus de décision et d’achat. Nous restons classique, revenant à cette bonne vieille structure popularisée par Howard et Sheth en 1969 : reconnaissance du problème, recherche d’information, évaluation, décision, achat.
La première ligne donne la répartition des consommateur entre les canaux lorsqu’ils s’informent pour résoudre le besoin qu’ils éprouvent. La première matrice donne les probabilités conditionnelles qu’il évaluent les alternatives en fonction du canal utilisé pour s’informer. Ainsi dans le tableau, si on a utilisé les réseaux sociaux pour s’informer, alors il y a 80% de chance qu’on appuient sur eux pour évaluer et 10% de chance pour qu’on utilise un moteur de cherche afin de faire cette évaluation. Mais si on a utiliser un moteur de recherche pour s’informer, l’évaluation se fera dans 50% des cas sur la base du site web.
En multipliant la première ligne par le tableau en italique, on obtient la répartition des consommateurs entre les canaux utilisés pour l’évaluation.  Ces probabilités conditionnelles font que par exemple même si le canal de recherche est utilisé dans 30% des cas pour rechercher une information, il ne sera utilisé que dans 2% des cas pour évaluer les solutions.
Et l’on poursuit de la même manière pour les autres étapes. En obtenant pas enquête, ou analyse du traffic,  ces probabilités conditionnelles, nous aurons modélisé le processus cross-canal à travers les étapes du parcours clients. L’exemple est élémentaire, la réalité est naturellement beaucoup plus compliquée…
Ce type d’analyse d’un point de vue pratique est cependant très utile. Imaginons par exemple, que nous décidions d’investir dans les réseaux sociaux pour faire en sorte qu’ils jouent un rôle plus important dans l’évaluation ( c’est ce qu’indique la colonne en rose) on pourra analyser l’impact sur les canaux de vente. En supposant que la stratégie et les opérations marketing fassent que quelque soient les canaux utilisé pour évaluer le choix dépendent à 20% de ce qui se fait sur le réseaux social, examinons les conséquences. Elles sont données dans le tableau suivant :
Le résultats est que l’impact de cette stratégie est considérable. Le catalogue représentera 23% de plus de vente, quand le canal du web s’effondrera de 52%. Ce n’était  pas ce à quoi intuitivement on pouvait s’attendre.
Pour nombre de nos lecteurs , ces deux tableaux sont déjà une horreur, ils sont pourtant très simples, conceptuellement, ils représentent des simplification fortes de la réalité.

Ils ont l’avantage de dessiner une méthode pour appréhender sérieusement la problématique du cross canal dans la perspective d’une gestion optimale du parcours client. Ils permettent de mesurer l’impact que peut avoir l’effort porté sur une des étapes.Et tel est l’enjeu de l’analyse du parcours client à travers les canaux. Comment un changement de politique pour une des étapes du parcours peut influencer l’activité des canaux aux étapes suivantes de ce parcours.

On ne tirera pas de généralité de cet exemple dont la valeur n’est qu’illustrative ( même si elle s’inspire de l’analyse d’un cas que nous avons eu à traiter). Mais on considérera qu’agir sur une des étapes du parcours client peut modifier en profondeur ce qui se fait à une autre, et souvent de manière peu intuitive. Dans notre illustration le choix audacieux d’aller vers les réseaux sociaux, effondre la capacité de vendre du canal internet au profit du catalogue. Attendons-nous à de telles surprises dans un environnement qui n’est pas complexe, mais simplement compliqué.

A Marketing giant has disappeared – About Professor Andrew Ehrenberg and “How his research happened”

Professor Andrew Ehrenberg a giant in marketing has passed away the 25 August 2010. I therefore would like to remember his important contributions over the last sixty years to marketing knowledge about topics ranging from consumer behaviour (e.g. brand loyalty) to how advertising works. This article outlines how the research of Andrew Ehrenberg, who was Professor of Marketing at the London Business School and London South Bank University, over the last 60+ years came about. it could be synthetize as Science should be simple and generalizable
With hindsight, he was always aiming at findings that were both simple and generalizable. Simple findings so that everybody could see the patterns in data which at first often looked complex. This attempt was published in his famous book in 1975 “Data Reduction” which was reprinted in the Journal of Empirical Generalisations in Marketing Science, 2000, 5, 1-391. It maintains that much of the approach to research methods and prediction depends on finding patterns in data and this is much aided by its presentation in simple tables. Such tables also aid communication of results. The basic ideas are very simple. They depend on the principles of how memory works as the great Nobel Prize Herbert Simon had reported that people could not remember numbers of more than two digits: clear layout of simple tables, rounding of figures, placing figures to be compared in the same column and showing averages.
Generalizable, within stateable conditions, to provide validated benchmarks, possibly lawlike in due course. Andrew Ehrenberg believed that the methods of physical science are applicable to social science. The discovery and development of such lawlike relationships was expressed in an article in the hard science journal Nature (1993) entitled « Even the social sciences have laws ». In it he asserted that even in a field dominated by people’s impulses to buy, that of marketing, there are striking regularities.

In 1955 Andrew Ehrenberg moved into marketing research working on consumer panels. His first milestone paper was « The Pattern of Consumer Purchases » (Ehrenberg 1959) which showed the applicability of the NBD-Negative Binomial Distribution (a heterogeneous mixture of Poissons distributions) to the numbers of purchases of a brand of consumer goods.
In the early 1980s, Ehrenberg extended the NBD model to the Dirichlet model to account for brand choices. This model gave a very close fit to the majority of observed purchasing data and it has been shown to hold over different product categories, big, medium, and small brands of very varied grocery-type products from soap to soup and mascara as well as soap operas, different countries, time, and for both subscription and repertoire repeat-purchase markets. Such a quantified regularity was unprecedented in marketing. So it was (and is still today) exciting. Andrew Ehrenberg had stumbled accidentally on an empirically widely-grounded theory to benchmark how many people do or should buy any brand how often. The theory itself was also exciting. It assumed that consumers behaved “as-if probabilistically”. That is very irregularly.
‘The Dirichlet’, as it became known, has been described as one of the most famous empirical generalisations in marketing, along with the Bass model of diffusion of innovation. It helped him be faithful to his “holy” scientific principles to deliver simple lawlike benchmarks for a number of empirical generalisations, including Double Jeopardy, the Duplication of Purchase law, Polygamous Brand-Buying and Natural Monopoly. These generalizations can be found in his book “Repeat-buying: facts, theory and applications” (1988). This is possibly the most important marketing book ever written on buyer behaviour.
The idea of « Double Jeopardy » proved particularly important, in arguing that a big brand will possess a greater number of loyal customers than a similar, smaller rival almost entirely because of its scale. More specifically, it suggested that repeat buying and other loyalty measures do not vary greatly between individual brands, meaning that increases in penetration are typically behind any growth in sales. One consequence of this finding for marketers was that the most cost-effective use of resources may be to « nudge » occasional customers to buy, rather than trying to « squeeze more out of » dedicated clientele.
Ehrenberg’s interests furthermore centered upon establishing empirical generalisations applicable in areas like brand buying, TV viewing, consumer attitudes and reactions to price changes. (A wide-ranging summary of his contribution to the industry is available here). He derived from these models of buyer behaviour a view on advertising for established brands. It mostly serves to publicise the advertised brand, but seldom seems to persuade. Promotions have only a short-term effect, and do not affect a brand’s subsequent sales or brand loyalty. The extra buyers during the promotion have been seen almost all to have bought it before the promotion rather than being the hoped for new buyers.
Andrew Ehrenberg set up the Centre for Research in Marketing at London South Bank University. At the university of South-Australia the The Ehrenberg-Bass Institute for Marketing Science was raised up for his honors. Both centres have worked with a large number of marketing-oriented companies to address critical issues in marketing. Over the years they contributed to marketing learnings based again and again on reliable, reusable marketing knowledge (empirical generalizations) or the Laws of Marketing.
The Dirichlet thus contributed to lawlike relationships. However, he was very controversy as his kind of theorising – which at base describes and explains already-established and generalised empirical discoveries and which thus post-dicts them – was anathema to many American academic marketing colleagues. They espoused much more ambitious and complex-looking econometric procedures which never worked in practice. Ehrenberg often spoke out against the pseudo-science of complex once-off statistical modeling which even lead him to label the American School of Modeling the “Scientification of Non-Knowledge-SoNK”. Hence he said “I SoNK therefore I Am”. Sadly, therefore has been little dialogue with US academics over the years. Was he too outspoken?
The marketing community has lost a legendary figure, in marketing, market research and the statistics field. It has been written on the website for the The Ehrenberg-Bass Institute for Marketing Science:”Over his life Professor Andrew Ehrenberg’s contribution to the development of marketing science has been enormous. »
But his work continues though to live and to influence the practice of both statistical science and marketing. Worldwide you can find his disciples in the “Dirichlet School”, such as Marc Uncles, Byron Sharp, Cam Rungie in Australia, Peter Fader in the USA who extended the NBD model to the BG/NBD model for customer lifetime value modelisation, in France Jean-Louis Chandon, Gilles Laurent, as well as Lars Meyer-Waarden and Christophe Benavent who recently directed a PHD thesis about the usage of these models to estimate the long term impact of sales promotions on customer lifetime value.
A giant in marketing has disappeared, but his work and his spirit are still alive. New baby disciples are born and continue to develop his work which is omnipresent in marketing literature and which continues to excite academics.

Bibliography:

  • Ehrenberg, A. (1959) The pattern of consumer Purchases, Applied Statistics, 8,1, 26-41.
  • Ehrenberg, A., (1964) Description, Prediction and Decision, Journal of the Market Research Society, 13, 14-33.
  • Ehrenberg, A., (1966) Laws in Marketing – A tailpiece, Journal of the Royal Statistical Society, Series C, 15, 257-268.
  • Chatfield C., Ehrenberg, A. and Goodhardt, G. (1966), Progress on a simplified model of stationary purchasing behaviour, Journal of the Royal Statistical Society A, 129, 317- 367.
  • Ehrenberg, A., (1968) The Elements of lawlike relationships, Journal of the Royal Statistical Society, Series A, 131, 280-329.
  • Ehrenberg, A. (1969), The discovery and use of laws of Marketing, Journal of Advertising Research, 9,2, 11-17.
  • Ehrenberg, A. (1975), Data Reduction, John Wiley, Chichester. Reprinted in the Journal of Empirical Generalisations in Marketing Science, 2000, 5, 1-391 (www.empgens.com).
  • Goodhardt G.J., Ehrenberg, A. and Chatfield (1984), The Dirichlet: A comprehensive model of buying behaviour, Journal of the Royal Statistical Society, Series A, 147, 621-655.
  • Goodhardt GJ, Ehrenberg A., Collins M. (1987), The television audience, 2nd ed. Gower, Aldershot, UK.
  • Ehrenberg A.(1988) Repeat-buying: facts, theory and applications, 2nd ed., Edward Arnold, London; Oxford University Press, New York. Reprinted in the Journal of Empirical Generalisations in Mark Science, 2000, 5, 392-770 (www.empgens.com).
  • Barwise, P. and Ehrenberg, A. (1988), Television and its Audience, Sage, London, 1998.
  • Ehrenberg, A , Goodhardt, G. and Barwise, P (1990), Double jeopardy revisited, Journal of Marketing, 54, July, 82-91.
  • Ehrenberg, A. (1993a), Even the social sciences have laws, Nature, 365, 30 September, 385.
  • Ehrenberg A. and Bound, J. (1993b), Journal of the Royal Statistical Society Series A, 156, 2, 167-206.
  • Ehrenberg A., Hammond K. and Goodhardt G. (1994), The after-effects of price-related consumer Promotions, Journal of Advertising Research, 34,4, 11-21.
  • Ehrenberg, A., Barnard N., Kennedy R., and Bloom, H. (2002), Brand advertising as creative publicity, Journal of Advertising Research, 42, 4, 7-18.
  • Ehrenberg, A. Uncles, M , and Goodhardt, G. (2004), Understanding Brand Performance Measures: Using Dirichlet Benchmarks, Journal of Business Research, 57, 12, 1307 – 1325.
  • Scriven, J.A and Ehrenberg A.S.C. (2004), Consistent Consumer Responses to Price Changes. Australasian Marketing Journal, 12, 3.