Objets connectés : le client n’est plus au centre, c’est le réseau

4571397670_4787e6e102_zLe monde des objets connectés est en train de déployer ses essaims qui bientôt vont constituer des ruches bourdonnantes et des écologies complexes. Pour le marketing il y a de nombreux défis à relever simultanément pour assurer à ces colonies un développement équilibré.  Un moyen de mieux les envisager est d’examiner la structure minimale des relations entre les principaux acteurs associés dans ces écologie.

Ils sont au minimum quatre. L’usager bien sur qui est en relation avec d’autres et d’autres services, l’objet lui-même qui parle à d’autres objets, la plateforme de données qui échange avec d’autres plateformes et le fournisseur de services qui s’associe à d’autres aussi.

Si l’on prend l’exemple du Pay How You Drive, on retrouvera le compteur de qualité de conduite, l’assuré, la compagnie d’assurance et la plateforme qui gérera les données pour le compte de l’assurance et de l’assureur. Notons de suite qu’il y a peu de chance que l’assureur aura sa propre plateforme, il risquerait d’avoir une taille trop petite et ne bénéficierait pas des avantages d’une plateforme globale, et un modèle fermé empêcherait l’utilisateur d’exploiter ses données avec d’autres entreprises de service (rappelons-nous que la valeur des données n’est pas intrinsèque mais dépend de leur association), par exemple c’est le constructeur automobile pour des services de maintenance préventive. Il ne se confondra pas plus avec le constructeur de l’objet qui reste dans une économie industrielle où les volumes signifient des économies d’échelle et d’expérience indispensable pour soutenir la future bataille des prix.  D’autres acteurs peuvent s’immiscer : les commerçants qui peuvent vendre les objets, des prestataire de services qui peuvent accompagner l’assureur (imaginons que pour améliorer l’offre, on propose aux mauvais conducteurs qui ne bénéficieront pas des réduction, des stages de conduite sure….). Idem dans la domotique : le thermostat intelligent ne se confond pas forcément avec la plateforme (quoique), et certainement pas avec le fournisseur de services d’économie d’énergie ou mieux de surveillance.

objetconnecté05

Il y a naturellement dans cette répartition minimale la question du business model, autrement où se trouve la valeur : dans l’objet, dans la gestion des données, ou dans le service associé à cette gestion. Cette valeur se concrétise dans le consentement à payer pour chacun de ces trois éléments, et il est probable qu’elle évolue fortement. Aujourd’hui elle se trouve surtout dans l’objet car il est concret, plus tard certainement dans le service car c’est lui qui fait vivre l’objet, et plus tard encore lorsque les consommateurs réaliseront que leurs données sont utiles et qu’ils exigerons d’en être les maitres, en utilisant le droit à la portabilité de ses données pour les transférer d’une plateforme à l’autre et d’un service à l’autre.

Mais ce qui nous intéresse ici, ce sont les relations qui s’établissent entre les acteurs, et il y en a mécaniquement au moins cinq :

  • Nous venons d’évoquer la question de la portabilité dans la relation à l’usager avec la plateforme, c’est sans doute une question essentielle, même si elle ne se pose pas dans l’immédiat comme se pose celle de la sécurité. Cette relation la la plateforme est de part le rôle des tiers de service associé aussi à la politique de gestion de la vie privée définie à la fois par la plateforme de données et par le fournisseur de service.
  • En restant sur le point de vue de l’usager se pose aussi la relation à l’objet qui se pose en terme d’appropriation : comment l’objet va s’insérer dans l’écologie quotidienne de l’usager. Comment va-t-il faire sien un objet qui l’observe, le surveille, parfois le commande, ou qui peut disparaitre dans l’environnement matériel, même si la particularité de nombreux objets parce qu’ils sont connectés, sera d’avoir une vie propre quand leurs prédécesseur était invisible : un interrupteur, un compteur électrique, le moteur d’une voiture. Les objets parlent et cela change tout. La voiture qui était un prolongement du corps, connectée devient un médiateur entre l’environnement lointain et nous mêmes.
  • La relation au tiers de service est essentielle, car c’est elle qui fait vivre les objets. On réalise qu’on abandonne nombre d’entre eux à des taux élevé, car le seul feed-back ne suffit pas. Contrairement à ce que l’on pense nous n’avons pas forcément le désir de contrôler notre corps et notre environnement proche, c’est pourquoi sans coaching, assistance, ou sans avantage particulier dans la délivrance du service, les objets nous semblent rapidement inutiles. La place des tiers de service est d’accompagner ce feed back, de lui donner de la valeur en déchargeant l’usager de l’effort considérable que demande l’optimisation de ses conduites. La qualité du service et de la relation est essentielle. Sa justice aussi.
  • Mais ce n’est pas tout, on comprend que l’équilibre de l’ensemble va tenir dans la relation qui associe les plateforme et les tiers de services : la qualité de l’accès aux données, la qualité des algorithmes qui les exploitent est en back-office le socle fondamentale de la production d’un service de qualité. Et en la matière, il s’agit de big data, il ne suffira pas de plaquer des outils, il s’agira de les construire progressivement, et de les mettre à jour continuellement. Au-delà des données et des algorithmes de base, la valeur réside dans les savoirs-faire spécifiques.
  • Reste la relation des plateforme aux objets qui se concrétisement par la production du feed-back et l’acquisition des données. Cela peut sembler purement technique mais est essentiel car en dépend la qualité des données. Imaginons simplement que pour des raisons associé à l’objet, des rupture de charge dans la transmission des données se produisent. Le simple oubli de changer une pile peut la causer.

Derrière les objets concrets et tangibles c’est donc tout un réseaux de relations qu’il s’agit de gérer de manière équilibrée pour créer une véritable utilité chez les utilisateurs ( qui ne sont pas forcement les usagers mais sont aussi) et maximiser la propension à payer. Cet équilibre est d’autant plus difficile, qu’il n’est pas assuré que les intérêts des acteurs du réseaux soient toujours convergents. Dans le monde des objets, le client n’est plus au centre, c’est l’équilibre de l’écosystème. Et l’on en reparlera le Jeudi 15 novembre à l’Ieseg.

Des agents multiples pour le marketing social

Connaître les raisons du comportement individuel est assurément une chose importante, mais c’est insuffisant pour comprendre le comportement de la population, notamment quand le comportement de chacun dépend de celui des autres. C’est bien cette situation qui prévaut dans le domaine du marketing avec la montée en force des réseaux sociaux.

Le fait n’est pas nouveau, rappelons simplement, l’analyse de la diffusion des produits nouveaux, que l’on modélise par l’interaction entre les adopteurs et les non adopteurs- le bon vieux modèle de Bass. Ce qui est nouveau est la systématisation de ces interactions obtenues en équipant les consommateurs de moyens pour exprimer leurs préférences, leurs coups de cœur, leur recommandations, mais aussi pour être informé des avis de leurs proches. Les boutons likes, les recommandations, les retweets sont quelques unes de ces techniques et de ces équipements.
On ne peut donc plus se contenter d’étudier le comportement individuel du consommateurs comme on le fait encore largement. Comprendre les facteurs de la confiance, la probabilité de répondre à une annonce publicitaire, la réaction à une baisse de prix est toujours utile mais insuffisante pour la raison simple et fondamentale que le comportements des marchés n’est pas, ou n’est plus, l’agrégation de décisions individuelles. Ce marché est un vol d’étourneaux qui se fractionne quand l’aigle plonge et se recompose quand il s’éloigne. Les sciences sociales le savent depuis longtemps, qu’il s’agisse des phénomènes de ségrégation urbaine, des comportements de coopération, de l’irruption d’émeute, ce n’est pas simplement en disposant d’un modèle d’action individuelle que l’on peut en déduire l’ensemble du comportement de la société. 
Une solution a été apportée par l’utilisation de modèles multi-agents, et les multiples travaux engagés dans cette voie ont mis en évidence l’émergence de propriétés globales parfois inattendues, comme celles des vols d’étourneaux.
On peut en donner un exemple très récent produit par Antonio A. Casilli et Paola Tubaro et publié dans OWNI. Les émeutes d’août 2011 en Angleterre ont amené les hommes politiques à prendre des positions sur l’usage des moyens de communication moderne, en particulier le système crypté de messagerie des Black-Berry. Puisque ce système a permis au émeutiers de se retrouver rapidement et de se coordonner plus vite que la police, il semble évident qu’en restreindre l’usage permettrait de réduire l’intensité des émeutes. Et même si la censure est contraire à nos principes de liberté d’expression, un peu de censure serait justifié pour réduire le coût social de ce que certain décrivent comme du hooliganisme.

Notons qu’en marketing, la même problématique peut se retrouver dans les expressions de contestation des marques et des politiques d’entreprises. Les réseaux sociaux favorisant le boycott, pour éviter des manifestations trop violentes, il semblerait judicieux de censurer modérément les plateformes de marques.La question fraiche de la limitation du débit de l’internet en est une bonne illustration.

Pour analyser ce problème, les auteurs ont procédé de la manière suivante. En s’appuyant sur le modèle d’Epstein de violence civile, ils ont simulé la fréquence des violences en fonction du degré de vision de chaque des agents, autrement dit en fonction du degré de censure fixé par le gouvernement. Chaque agent est supposé se rebeller – jeter des cocktails molotovs -en fonction de l’intensité des griefs qu’il éprouve, ceux-ci étant d’autant plus élevés que la frustation des agents est forte et que la légimité du gouvernement est faible, et en fonction de la probabilité d’être arrêté par la police. La police se meut dans l’espace cherchant les émeutiers et ceux-ci agissent là ils ne se font pas prendre.

Le modèle individuel est ici très simple, l’idée centrale est de simuler le comportement d’un grand nombre d’agents – émeutiers et policiers. L’apport de ces auteurs est de faire varier un paramètre du modèle : le degré de vision des émeutiers qui correspond à leur capacité de communication. Plus celui-ci est élevé et plus facilement ils fuiront les concentrations de la force publique rejoignant des lieux pour agir violemment où ils risquent moins d’être arrêté. Le résultat obtenu est contre-intuitif : au cours du temps, le scenario qui permet la plus grande fréquence de période de calme civil , des périodes sans émeute, est celui où la censure est absente. Une censure stricte maintient un niveau de violence constant.

Dans cette étude, les auteurs ont utilisé une plateforme de simulation remarquable : NetLogo qui permet de simuler le comportement de différents types d’agents à partir de règles simples de comportement, des liens qui les unissent mais aussi de l’espace dans lequel ils se distribuent et qui peut leur procurer des ressources. D’autres plateformes de ce type existent par exemple Brahms.  Un des avantages de cette plateforme particulière, outre les multiples outils de visualisation qu’elle propose, est de pouvoir organiser de véritables expérimentations pour explorer et tester le comportement du système en fonction des  paramètres du modèle qu’on y construit.
Un petit exemple peut être donné avec le modèle de ségrégation spatiale de Schilling. Imaginons que deux tribus les rouges et les verts se promènent dans un centre commercial et expriment des préférence pour être avec leurs semblables. Voici les configurations obtenues à partir d’une distribution au hasard pour 2 valeurs de deux paramètres (faible et forte densité de population d’une part, et d’autre part le souhait d’être entouré d’au moins 30%  ou de 70% de voisins similaires). On voit que la densité et l’homophilie conduisent à une ségrégation forte. C’est un résultat classique.

Mieux, on peut apprécier la satisfaction de ces usagers en calculant dans chacun des cas la proportion de ceux dont le nombre de voisins différents est supérieur à l’attente : en voici l’évolution au cours du temps pour les deux densités de population et 7 niveaux de préférences de similarités des voisins:


Si qualitativement les configurations pour le niveau à 70% semblaient semblables, on s’aperçoit ici que la situation à faible densité conduit cependant à un taux d’insatisfaits bien moindre que dans la situation de haute densité. On peut ainsi varier de manière systématique les paramètres, mais aussi réitérer les simulations pour mieux appréhender les variations aléatoires, et découvrir les propriétés globales du système. Même quand chacun tolère un degré raisonnable de diversité, la société se construit dans un entre-soi.
En marketing ces techniques sont malheureusement peu employées même si elles sont désormais anciennes. On notera en France la thèse de Christine Ballagué avec une variété particulière – les réseaux de pétri, on notera cette application récente aux stratégies de marketing viral (voir aussi ici), .Mais tout laisse à penser qu’elles seront de plus en plus employée, se souciant d’un meilleur réalisme par une meilleure calibration des modèles. En témoigne l’organisation cet été d’un cours avancé à l’Université de Sidney et la publication toute fraîche de l’article de Rand et Rust.
Ce qui nous semble fondamental est que dans un monde où les consommateurs s’influencent les uns les autres, où la compétition ne se présente pas de manière uniforme mais comme un véritable eco-système, non seulement il sera nécessaire de décrire de manière réaliste et simple les décisions des différents acteurs, mais sur la base de ces modèles simplifiés, de comprendre les propriétés de l’ensemble des populations en interactions par ce type de méthode, car on ne peut inférer du comportement de l’individu la propriété globale du système. Nous avons longtemps cru que connaitre l’individu moyen suffisait, nous découvrons peu à peu que le comportement d’une société découle plus des interactions de populations hétérogènes et de la capacité de rendre compte de leurs évolutions.

C’est une idée ancienne liée à l’idée même du marché : qu’un Smith ai pu pensé que l’avidité de chacun faisait le bien de tous en fait partie. Cette idée générale était bien trop générale. Le bon vouloir de chacun peut conduire à la ruine, la cupidité peut rendre les marché fous, le meilleur des produits peut être un flop, le plus mauvais devenir un standard. Aucune de ces lois n’a de vraie raison. Les lois qui régissent les populations ne sont pas pas extrapolations naïves du comportement de leurs individus. Les modèles basés sur de multiples agents sont à se jour les seuls méthodes qui nous permettent de passer de la compréhension des motifs individuels aux comportements de la collectivité qu’ils forment.

En attendant la révolution – A propos de Google+

Schisms

Les hommes et les femmes du marketing et de la communication vivent dans l’illusion d’une révolution permanente qui au fond n’est que l’idée Schumpeterienne de l’innovation destructrice. Elle ravit ces révolutionnaires qui ne rêvent pas de monde meilleur, mais simplement d’un éternellement recommencement, . Celui qui permet d’être premier quand la course est perdue. Dans ce registre fantasmatique, on repérera cette appétence à deviner que les institutions apparemment en bonne santé, sont en fait déjà en ruine. Dernier exemple en date, cette idée qui court dans les réseaux que Twitter s’effondrerait bientôt sous les coups de google+ ou que Facebook est désormais menacé.

Des argumentations partiales sont développées, sans concept fort, sans idée claire, juste ce désir rock’roll que ce qui monte doit tomber, et qu’un succès trop rapidement obtenu se paye par un effondrement.

L’idée de Schumpeter n’est pas mauvaise, ni totalement fausse, l’innovation dans un certain nombre de cas détruit l’environnement qui l’accueille. Cette destruction créatrice, on relira le chapitre 7 de capitalisme, socialisme et démocratie(1942!), s’enracine dans l’idée que la concurrence joue moins par les prix mais par l’innovation. Clark et Abernathy ont systématisé cette idée avec la notion de transilience : dans quelle mesure l’innovation rend obsolète les formes traditionnelles et reconstruit les liens du marché. Avant de conclure sur la mort ou le déclin des uns et des autres, il faudra statué sur la question de savoir si Google+ a un caractère révolutionnaire.
Mais ce n’est pas tout, dans le cas précis qui nous intéresse trois facteurs fondamentaux. Quatre facteurs fondamentaux méritent d’être rappelés.
Le premier est que la survie des organisations économique n’est pas seulement une question de concurrence et de performance dans les services qu’elles procurent. La théorie de l’écologie des populations (d’entreprises) a depuis longtemps souligné que si la concurrence éliminait les formes inadaptées, la légitimité gagnée avec l’accroissement de la population permettait à des formes peu compétitives de survivre. Nous n’entendrions plus parler de Windows depuis longtemps si la compétition jouait simplement sur la qualité intrinsèque de ce qui est offert. Que ce système d’exploitation soit inférieur aux autres n’a pas empêché qu’il traverse le temps. Sa force est dans sa légitimité, ce qui lui donne accès à des ressources auxquels mêmes les meilleurs ne peuvent prétendre. C’est ainsi que les vieux chevaux de retour battent tous les étalons.
Le second est propre au médias, et résulte sans doute du premier. C’est une régularité empirique au minimum. Aucun média n’a été chassé par les autres, ou il aura fallût très longtemps. La radio reine des années 30 est toujours là. Les journaux en papier qui tâchent ne sont pas encore mort. La tv enregistre une baisse infinitésimale de son audience et de sa durée d’exposition. MySpace voit son audience se rétracter fortement mais n’est pas menacé ou de manière encore lointaine par Souncloud. L’apparition de nouveaux médias redéfinit le rôle et la position des anciens, mais rarement s’y substitue. Chaque média apprend au cours du temps à s’adapter à l’usage dans lequel il est le meilleurs, la radio a trouvé dans la voiture son sanctuaire, fût-elle minimale elle y présente l’avantage d’être le seul média qu’on puisse suivre tout en faisant autre chose. La TV se déplace du salon à la cuisine. Cette observation peut s’expliquer au regard de l’écologie des populations par le fait que les différents médias ne sont pas associés en fait à la même niche écologique. Si dans le premier temps de le développement ils se superposent aux autres, à mesure que la compétition joue, c’est dans des espaces marginaux qu’ils subsistent.
De ce point de vue, on doit souligner l’extrême importance du troisième facteur : comme nombre de services digitaux, les réseaux sociaux ne sont pas conçus que par leur concepteurs. C’est l’usage qu’on en fait qui les définit, il ne sont pas des formes fixes, mais en continuellement redéfinition. Le cas de twitter est sans doute un des plus remarquables, mais l’utilisateur ancien de facebook, se souvient d’une plateforme sans rapport avec ce qu’on consulte aujourd’hui. Il y a là une véritable nouveauté conceptuelle : les innovations du digital parce que leur substance est produite par les utilisateurs eux-mêmes n’ont pas de formes définitive avant un long moment, celui qui justement leur permettra de trouver les espaces écologiques dans lesquels ils ont peu de concurrents.
Un quatrième facteur est spécifique aux réseaux sociaux numériques. Personne n’utilise un seul réseaux, les statistiques sont claires : l’utilisateur d’un réseau en utilise au moins deux ou trois autres, ne serait-ce que parce qu’il ne souhaitent pas mélanger ses réseaux véritables. Ce qui est vrai en matière d’économie de standard, ne peut l’être tout à fait en matière de réseaux sociaux. La dominance d’un standard s’explique notamment par les externalités positives, mais il y a peu d’économie pour l’utilisateur à rassembler sur une même plateforme l’ensemble de ses réseaux. Il y a même un coût : celui de la confusion. Souhaite-t-on faire se croiser en un même espace son épouse et sa maitresse ? Souhaite-t-on faire se croiser dans un même espace ses relations professionnelles et ses relations amicales ? C’est à ce problème que Google+ tente de s’adresser en introduisant l’idée des cercles mais assure-t-il vraiment l’étanchéité que l’on souhaite ? La réponse est non, car elle demande une gymnastique cognitive importante. Le raisonnement ensembliste n’est pas un calcul commun. Il est sophistiqué, et l’esprit simple préférera recourir à une solution apparemment plus lourde : celle de multiplier les plateformes. Cela évite d’avoir à calculer.
Combinant ces quatre facteurs, une idée simple émerge : le monde des réseaux sociaux va aller en se différenciant, il n’y aura pas une plateforme dominante, mais plusieurs plateformes qui cohabitent correspondant à des usages différenciés et plus précisément aux différentes idées de soi (social) que l’on se donne. Une place pour un réseaux professionnel, une place pour un réseaux amical, une place pour un réseaux affectif et sexuel, une place pour des souvenirs d’enfance, une place pour l’information usuelle, une place pour les engagements sociaux et politiques. Et nous en oublions. Chacun d’entre nous au titre de ses 4 ou 5 moi sociaux, construira ses réseaux aux travers de 4 ou 5 plateformes. Il y aura donc sans doute de la place pour une bonne douzaine de grandes plateformes, et certainement quelques dizaines de plateformes très spécialisées.
Stratégiquement ce qui est certain est que pour les grands usages, ceux qui sont déjà là par le jeu de la légitimité, resteront. Ce qui n’est pas assuré est la place que chacun d’eux va occuper. Alors faisons quelques pronostics : facebook sans doute va s’installer dans la position du réseaux universel, auquel presque tous appartiennent, mais où l’on gère les amis et les accointances, de petits réseaux personnels. Twitter ne sera pas une plateforme universelle, mais vaudra pour ceux pour qui la veille est importante et la diffusion plus encore. Linked est le grand réseau professionnel en devenir. Google plus sera le couteau suisse des masses, le complément naturel de facebook, celui qui permet de gérer ceux qui ne sont pas tout à fait nos amis.
Finissons sur une dernière idée. Parce que justement nous utilisons plusieurs réseaux, c’est la manière dont nous ferons passer de l’information de l’un à l’autre qui va nous donner la clé de leur institutionnalisation. Comme dans la vie, nos réseaux ne sont pas aussi distincts que l’on pense, on déverse dans l’un l’information qu’on obtient dans un autre. Moins que concurrents, les réseaux risquent donc d’être complémentaires, c’est ce facteur qui va contribuer à leur légitimité. On retrouve ici cette idée de l’écologie des communautés. Ce ne sont pas les espèces qui sont en compétitions mais les groupes. De ce point de vue google+ a un avantage important, car il s’insère dans un ensemble cohérent, celui de l’ensemble des applications de google, android inclus. Mais la messe n’est pas dite pour les autres. On risque de voir facebook se rapprocher de microsoft, twitter renforcer son insertion dans les plateformes professionnelles, mais surtout s’emparer de ce nouvel espace pour lequel il a été conçu : celui des mobiles.
Pour conclure sur la question de l’innovation, rappelons que la grande innovation des niveaux sociaux est bien ancienne, elle s’est enracinée dès les années 90 dans les systèmes de liste de diffusion et les plateformes actuelles n’en sont après tout que des sophistications. L’innovation en ce domaine est pour l’instant incrémentale. La véritable révolution viendra sans doute d’un nouvel acteur. L’innovation qu’il apportera, faisons un pari, viendra de sa capacité à matérialiser le véritable réseaux social dans lequel nous vivons : celui de nos objets.