Moteurs de recherche à l’ère de la guerre des boutons

UseNet Treemap
Au moment où la guerre des boutons fait rage, et que l’idée que les réseaux sociaux peuvent enterrer Google se propage, il peut être utile de se rappeler que tous les moteurs de recherche ne sont pas de même nature, et que si certains se cantonnent à un espace réduit d’autres peuvent voir leur utilité maintenue.
Google nous apparaît dans son universalité comme le modèle par excellence des moteurs de recherche. C’est une illusion. L’innovation apportée par Google est de proposer à partir de mots clés une liste de page classées selon un indicateur de pertinence calculé sur la base du nombre et de la qualité des sites référents. Elle fût un progrès sur le modèle hiérarchique de l’annuaire introduit par yahoo, son usage généralisé est étroitement lié à la plasticité des mots. Quelques mots clés suffisent pour retrouver un texte particulier, et les essais pour y arriver nous font balayer une palette consistante de site pertinents. D’autres principes de recherche cependant peuvent pour des usages précis donner de meilleurs résultats.
Par exemple le moteur à indicateurs de sentiment CultureWok, qui recherche en fonction d’un profil d’humeurs désiré. Les objets sont référencés et étiquetés les participants ce qui permet de calculé des similarités affectives. Un autre exemple, tout aussi modeste, simple et judicieux permet d’identifier un arbre à partir du calcul du ratio Long/larg de la feuille de l’arbre recherché. Ce ratio classe toute les espèces, et permet ainsi à vue de trouver dans la dizaine de spécimen au alentour de se ratio celui qui est effectivement rechercher. La ligne de temps est un critère classique qui prend toute sa force quand le moteur de recherche porte sur les événements historiques et vise à donner sur la frise du temps, les documents clés recherchés. C’est dans le domaine de l’image que des solutions originales apparaissent comme avec par exemple Retrievr. On oubliera pas qu’une des recherche les plus commune est la recherche géographique dans laquelle Google maps excelle et dont on peut s’attendre à un développement important sous le double mouvement de la diffusion des mobiles et de l’accumulation des points épinglés sur la carte. Des plateformes comme tweeter se distingue ainsi par l’abondance du contenu et des moteurs spécialisés comme topsy permettent d’y retrouver ses petits. La recherche sociale donne une autre direction.
Deux paramètres caractérisent les moteurs de recherche. D’une part la construction de l’indicateur qui classe les objets, et permet d’en évaluer un petit nombre, d’autre part l’étendue du corpus de recherche. Dans le cas de Google l’étendue est virtuellement définie par tous les documents du web, dans celui de nos arbres il se limite aux quelques dizaines de milliers d’espèces et de spécimens.
L’histoire des moteurs de recherche n’est certainement pas achevée et à mesure que le web mûrit, on peut se demander si l’hypothèse de la fragmentation n’est pas la plus réaliste , et qu’autour de quelques grands moteurs généralistes – par mots clés, en temps réels, géographiques et social – se nichent de multiples moteurs spécialisés dans un domaine ou une modalité particulière de recherche.

Multi, cross ou transcanal : une clarification


Voilà un bon moment que les nouveaux médias sèment la pagaille dans l’ordonnancement bien réglé des médias. On a cru s’en abstraire en affirmant bien fort qu’il s’agissait de communiquer à 360°C, comme si enfin on pouvait s’affranchir des limites naturelles de notre angle de vue qui est de l’ordre de 170°C. C’est bien plus que la température du corps mais bien moins que ce qui semble nécessaire.

Alors venons-en au fait. La multiplication des médias nécessite de repenser leur organisation. Et cette multiplication n’est pas que le fait de l’Internet, du mobile et des nouveaux écrans digitaux sur le point de vente, elle est que simplement au sein d’un système technique, l’Internet, des milliers, des millions de canaux sont en voie de constitution. Certains sont massifs comme les rares moteurs de recherches, et les nouvelles plateformes sociales, d’autres sont très spécialisés comme les blogs et leurs organisation communautaire. Ce qui trouble le paysage et qu’aucun de ces canaux n’est un animal solitaire, ils fonctionnent souvent en meutes, fidélisent très peu, et multiplient leurs échos entre des falaises imposantes, celles d’éco-systèmes aussi impénétrables qu’ils sont peu définis. Dans ce désordre une intuition s’impose : il ne s’agit plus de choisir quels canaux sont les meilleurs, et de répartir entre quelques-uns des investissements trop faibles. Il faut œuvrer à travers une multitude.

C’est cette pluralité qui est le premier défi, un multicanal qui s’impose comme l’art et la science de combiner au mieux des ressources le petits nombres des canaux disponibles pour atteindre toutes les cibles. Ce multicanal-là, comme l’est le multiculturel, ou le multinational, est un art de combinaison. Chaque canal définissant une cible différente, qui se superposent les unes des autres, la politique optimale est celle qui pour un minimum d’effort produit l’effet le plus efficace : un niveau moyen d’exposition défini pour une base donnée. Vive la programmation, linéaire ou plus complexe. Rien ne change que de mieux comprendre les critères de segmentation, les nouveaux médias se définissent moins en profils de CSP qu’en niveaux d’implication, qu’en situations d’information, et qu’en niveaux d’attention. Ce qui conduit à une hypothèse simple : c’est le cycle de vie du client et son degré d’engagement qui sont déterminants. Une fois bien définis les critères les plus pertinents, la place sera ouverte aux programmateurs. Le multicanal est un art, et la science, de gérer la diversité et ses superpositions. Cela requiert beaucoup de complications, mais c’est dans le principe, un problème très simple.

L’inter (cross) pose des problèmes de nature différente. Comme la question culturelle, il ne s’agit pas seulement de traiter individuellement les populations, l’entre-deux des cultures, mais l’entre-deux des canaux, leurs interactions. Ce que fait l’un, l’autre ne le fait pas, et les critères d’efficacité sont de natures différentes. Il s’agit de régler les effets de l’un sur les effets de l’autre. La campagne de grand médias pourra susciter un intérêt pour un site, mais le site pourra renforcer l’effet persuasif du mass média. Et c’est déjà une situation nouvelle. Un même sujet peut être atteint non pas par deux canaux différents, mais réagir différemment à différentes combinaison des deux canaux. Ce sera une question d’exécution. Ainsi une campagne virale pourra préparer et renforcer l’impact une communication de masse en mobilisant les leaders d’opinion, tout comme inversement la campagne de masse stimulera l’effet boule de neige d’une campagne virale. Laquelle des deux options est la meilleure? Cette problématique de l’inter(cross) canal se constitue dans l’idée qu’une même population peut être différentiellement touchée par des combinaison de médias, notamment parce que les différents médias jouent sur des aspects distincts du processus de décision d’achat. Nous avons tous en tête des cas dans lesquels la fréquentation du point de vente prépare la réception aux messages, autant que la réception des messages favorise la décision d’achat. L’art de ce média planning s’appuie sur la connaissance des modèles de décisions des consommateurs.

Comprenons à ce stade que deux approches bien différentes se présentent: la première met l’accent sur la diversité des cibles à toucher qui sont différentiellement sensibles aux différents médias, la seconde suppose que la cible est homogène mais que sa réponse dépend de la combinaison des médias.

Voilà qui est très certainement insuffisant, car les consommateurs diffèrent moins par leur sensibilité aux médias, qu’à leur sensibilité aux combinaisons de ces derniers. Et là c’est une complication. Sans doute la même que celle que connaissant les transnationales. Coordonner des activités dans de multiples pays en agissant comme dans un seul. Le transcanal reviendrait à intégrer les deux approches et à formuler pour chaque segment de clientèle une combinaison de canaux adéquats. Si l’idée est simple la réalisation devient complexe, car chaque canal se voit assigner des fonctions différentes et multiples pour des public distincts. Voilà qui conduit à une approche matricielle dont on connait les difficultés de mises en oeuvre.

La clé est de garder quelques principes en tête :

1) les canaux de communication se distinguent par leur portée et leur richesse et leur synchronicité.

2) L’ajustement du canal à une cible dépend du besoin de richesse et de synchronicité demandée par l’audience, il est d’autant plus élevé que l’engagement est important.

3) L’engagement varie selon les circonstances, l’audience peut basculer selon ses besoins d’un régime à un autre. D’une communication asynchrone et pauvre, qualifions-la d’ambiante, vers une interaction intense et immédiate.

Ayant ces idées en tête on voit se dessiner ce qu’est une communication trans-canal. C’est une communication ambiante, à faible intensité, formée de flux léger, qui donne cependant la possibilité de basculer quand cela est nécessaire, pour le consommateur, vers une interaction directe est riche. Dans un tel modèle les médias se superposent en couches, et l’aspect critique est la possibilité de basculement d’un canal à un autre. Il s’agit moins de rayonner dans tous les sens, à 360°C, que d’irradier et de concentrer.

Pour cela il faut disposer d’une architecture des médias. Nous y reviendrons. Mais en quelques mots sa structure se dispose autour d’une source permanente et fixe (les sites et les blog), qu’enveloppe une gamme de canaux de flux (de Twitter à Facebook sans oublier le RSS), l’ensemble sera dynamisé ponctuellement par des campagnes de masses (de la TV aux mails) des lignes téléphoniques seront tendues vers les aficionados, ainsi que des réseaux privés. On réservera certains canaux pour structurer une masse qui n’est plus une masse mais se constitue en une véritable société.

—–

En complément sur ces idées :

deux études dans le secteur bancaire – une synthèse dans la revue Banque

ATM 18 février 2010 : When brands get branded

For this session, we will welcome Johannes Vogel who is working for the Institute of Marketing ( directed by Prof. Huber) at the Johannes Gutenberg-University Mainz, Germany.

In the workshop he will provide an introduction to the research field “Brand Misconduct” and present a study we conducted to identify the effects of Brand Misconduct using a causal analysis.

Consumers establish relationships with brands and - similar to human relationships - transgressions may occur in such a relationship. Brand misconduct describes the actions of a brand owner that seriously disappoint the consumer’s brand expectations, for example the alleged use of child labor in soccer ball factories contracted by adidas, Nike and Puma. This can be caused by the violation of ethical norms or product and service-related defects, especially in terms of safety aspects. It results in an enormous public impact and, in most cases, a negative consumer response to the brand.

This worked will be published in ( they are available on request):

  • Brand Misconduct: Consequences on Consumer-Brand Relationships, in: Journal of Business Research, forthcoming 2010 (with Prof. Dr. Huber, Dr. Vollhardt and Dipl.-Kffr.Matthes)
  • When Brands get Branded, in: Journal of Marketing Theory Quarterly, Vol. 9 (2009), No. 1(with Prof. Dr. Huber and Dipl.-Kfm. Meyer)

Johannes Vogel is coordinator of the German-French-Studies, Johannes Gutenberg-University Mainz and University Paris Ouest. I teached at the universities in Darmstadt, in Warsaw, Poland and in Dalian, China and he worked as a consultant for two years. he as studied Business at the universities in Mainz and in Clermont-Ferrand.

Ne pas oublier la politique de produit ! Une affaire de bouquet.


Que le marketing se focalise sur la question de la relation est une évidence vieille de plus de vingt ans, et si la multiplication des canaux électroniques en renforce l’importance par le fait qu’ils permettent de donner chair à une relation qui a surtout été pensée comme une atmosphère (climat de confiance et degré d’engagement), il ne faut pas oublier ses conséquences en matière de politique de produits et de services.

Dans un petit ouvrage, Philippe Moati, souligne le fait autour de la notion de l’économie des effets utiles et plus concrètement dans l’analyse des bouquets. Ce qu’il appelle l’économie des effets utiles est une idée familière aux spécialistes de marketing. Le consommateur consomme moins les produits que les fonctions et les avantages que ceux-ci produisent. Cette idée va cependant au-delà de cette idée classique de Lancaster que l’on consomme des paniers d’attributs. Ce sont les effets de ces attributs qui doivent être au centre de l’analyse. En achetant un pneu, c’est moins ses caractéristiques de durabilité, de rigidité, de capacité d’évacuation de l’eau sur les routes trempées qui sont achetées que la sécurité ou l’économie que ces attributs produisent.

Nous aurions l’impression de rappeler une évidence si n’y avait un fait important : pour que les attributs du produit fassent leur effet il faut souvent que le consommateur participe et révèle cet effet par ses actions, c’est notamment le cas dans le domaine des services, et plus généralement dans ce qu’on appelle depuis quelques années les consommations expérientielles. De ce point de vue, les perspectives qui mettent l’accent sur le fait que le consommateur participe à la production de la valeur, qu’il est co-concepteur, co-producteur, co-distributeur, bref un prosumer pour reprendre la vieille expression de Toffler, touchent du doigt un point essentiel, même si leurs conclusions sont excessivement naïves et optimistes.

Un bon exemple est celui de la musique, quand autrefois dans nos années de lycée nous achetions une oeuvre conceptuelle tenant en 12 morceaux et une pochette que nous nous échangions, la qualité de la musique désormais provient de ce qu’elle est insérée avec talent dans une play-list composée avec plus ou moins de talent. La valeur d’un titre dépend autant de sa propre musicalité que de l’accord établis avec les autres titres. Quand autre fois le concept-album réalisait cette fonction, c’est le talent de l’auditeur qui l’exécute.

L’idée du bouquet est celle de fournir les morceaux et les moyens de les assembler. C’est ce que font aujourd’hui les Deezer et autres Spotify, quelles qu’en soient les difficultés à monétiser ces offres. Le bouquet comprend le droit d’usage d’un catalogue, mais l’ensemble des moyens qui permettent de valoriser la collection : gestion des play-lists, information corrélative, fonction de recherche et d’exploration, l’auditeur devenant le programmateur de sa radio personnelle.

Mais ne déifions pas le consommateur. S’il gagne la possibilité d’obtenir la bande musicale de ses rêves, celle-ci se fait au prix de sa compétence et de sa disponibilité, ce coût potentiel est ce qui fait l’opportunité des bouquets : en ajoutant une fonction de smart-radio le marketeur reprend la main, et notre prosumer redevient ce consommateur passif que certains pensent voir disparaître. Ne soyons pas sûr que la participation grandissante soit une tendance forte, elle est sans doute le résultat d’une phase transitoire.

L’économie des bouquets se fonde donc sur la relation, un certain degré de confiance, et surtout la cession de nombreux droits sur nos données personnelles, et sans nul doute la technique en facilite les variations et le développement. La relation est essentielle pour faciliter la tâche de l’assemblage des éléments de l’offre.

Ce qui est transformé est finalement la politique de produit. Nous nous éloignons des solutions de tout-en un, pour des solutions personnalisées qui s’appuient à la fois sur une désintégration des éléments de l’offre, mais aussi leur modularité qui facilite leur réintégration. Voilà une bonne matière pour repenser la politique de produit, moins en termes de variété, de gamme, que de l’adaptation aux besoins de degré d’intégration des composants de l’offre et des dispositifs de leurs réintégration.

Pensons ainsi à l’offre musicale de Apple qui se présente sous la forme d’un bouquet constitué d’un terminal et d’un logiciel associé en une seule offre auquel s’ajoute un catalogue dans lequel le consommateur peut puiser en les payant à l’unité les morceaux qu’ils souhaitent. Nous ne serons pas étonnés que si la concurrence s’intensifie sur ce segment, une réponse à cette dernière se présente par l’inclusion dans l’offre primaire d’un noyau de discothèque, le droit d’ajouter 20, 50, 100 titres dans une liste au choix.C’est au fond l’avantage premier des stratégies de bouquets : celui d’assurer une certaine plasticité de l’offre. C’est exactement ce que l’on a observé sur le marché de la téléphonie mobile, qui d’un marché à l’unité a évolué vers une généralisation du forfait.

Au coeur de la politique de produit, le paramètre clé apparaît donc comme le souhait plus ou moins intense des consommateurs à contrôler leur consommation. C’est ce paramètre qui définira l’étendue des éléments du bouquet mais aussi la forme du vase. C’est ce paramètre aussi qui définit la nature de la relation, l’intensité avec laquelle l’information doit circuler.

Question de grid – de l’électricité à la finance

On évoque depuis longtemps des smart grids qui sont amenées à révolutionner l’industrie de l’énergie en disposant sur le réseau des dispositifs de traitement de l’information, comme des compteurs intelligents, qui permettent aux appareils connectés de s’ajuster aux conditions techniques et économiques du réseau et de l’environnement proche. On imagine les cellules photovoltaïques dialoguer avec le compteur général pour « pricer » une projection de revente au moment où les propriétaires seront absents et auront activé un plan minimal de consommation. Pour établir le deal il est nécessaire que l’agenda de nos gentils propriétaires, les prévisions météo, le système de maintenance des panneaux solaires et le réseau de transports de l’électricité se soient mis d’accord sur un volume et un prix.

On en attend une réduction de la consommation de l’ordre de 20 à 30%, un lissage de la demande qui réduisent les points et les ruptures, ainsi que les coûts pour les consommateurs. C’est le secteur de l’énergie électrique qui est au centre de la lentille d’observation. Réduire les pics, remplir les heures creuses, mais servir aussi l’énergie quand elle est souhaitée, par un système qui n’est certainement pas planifié, mais qui n’est pas tout à fait un marché, plutôt une manière organique de s’ajuster aux variations. Cette approche de grille intelligente, résumée dans la faculté des nœuds à prévoir l’état de leurs correspondants, l’absence de lieux de coordination centrale, et une infrastructure informationnelle point à point, est ainsi sensée optimiser la production et la consommation électrique.

Un tel système au fond s’applique potentiellement à tous les réseaux qui convoient une matière mais simultanément peuvent rendre compte de l’état de la production, du transport et de la consommation de cette dernière. Un double flux, et une cybernétique généralisée. La finance personnelle en est sans doute un des champs d’applications les plus intéressants.

Un des réseaux les plus remarquables est le réseau de Western Union qui associe les terres d’émigrations à celles d’immigrations, contrebalançant le flux des populations par un flux de redistribution des richesses. Je ne suis pas sûr que le partageable soit équitable, mais les dispositifs d’échanges semblent instructifs. Ces flux d’ailleurs empruntent de plus en plus la voie de l’internet et des télécoms : le transfert d’argent par mobile est un des services les plus en vogue.

Ces flux répondent à d’autres instructions financières dont on a l’habitude. Et certains dans le domaine innovent réellement, un projet tel que friend clear qui tente d’opérer dans un domaine vaste mais obscur des prêts et avances entre proches, celui qui ailleurs se retrouve dans la traditions des tontines, en est un bel exemple. Sans compter le twitter des dépenses, Blippy qui est sans doute l’embryon des systèmes futurs de publication de l’information.

Dans tous les cas ce qui apparaît évident est que l’argent est comme l’électricité, moins une contrainte, un ascèse ou une économie, que le lubrifiant des activités à accomplir qui ne peuvent se satisfaire de manque de liquidité. Dans un tel système, l’extrême demande peut faire venir de grands risques. Etêter les crêtes de risque pour assurer un financement constant et raisonnable des activités semble un objectif raisonnable : celui de mener de manière fluide et sûre vers les demandeurs un flux de financement suffisant, dont le volume faible n’est pas forcement satisfait par les institutions centrales. Ce n’est pas pour rien que le micro-crédit est apparu.

Les marchés financiers n’ont pas produit cette grille intelligente et modérée. Bien au contraire ils ont démontré leur capacité à se constituer en bulles qui explosent sans qu’on soit en mesure de deviner les carnages. On ne supprimera pas la finance, et l’intéressant est de découvrir d’autres canaux d’intermédiation plus efficace, moins dans la valeur espérée que la faculté d’adoucir tous les risques, en assurant la livraison de cette énergie de l’entreprise qu’est l’argent.

Dans tous les cas, électricité ou monnaie, à l’heure où l’internet non seulement devient mobile, mais concerne de plus en plus les objets, il va devenir utile de s’interroger sur ces nouvelles formes de régulation de l’économie qui échappent à l’institution et au marché, à la planification et à la centralisation des flux. Une forme organique, locale, auto-organisée, des échanges économiques qui de plus en plus ne pourront plus être analysés dans le forme simple de l’échange d’un bien contre de l’argent, mais d’un échange accompagné de sa publication, d’une production d’information qui en assurera le contrôle.

Horizon 2015, internet cannibalise la pub.


La décennie n’est pas encore achevée qu’on se projette déjà dans la prochaine. Forrester a publié cet été son analyse pour la période 2009-2014. La croissance des médias interactifs serait telle qu’elle atteindrait un volume de 55 Milliards de dollars et couvrirait 21% des dépenses. Notons que déjà en GB ces médias dépassent la TV. Ces données convergent relativement bien avec celles de e-marketing.

Cette croissance se ferait au détriment des médias anciens, par cannibalisation. Le premier média atteint serait le marketing direct suivi de près par la presse. Les attentes en matière d’amélioration de l’efficacité sont attendues du côté des médias sociaux, du mobile, de la video et du SEO. Tandis qu’acune amélioration ne l’est du côté des médias traditionnels. On comprend ce point et l’évolution quand à croire les données proposées, alors que les consommateurs passent 34% du temps devant leurs écrans interactifs ( 31% devant la TV), ces derniers n’attirent encore que 12% des investissements (35% pour la TV).

Le grand vainqueur reste le SEO, mais aussi l’affichage digital essentiel par des applications de rich media. Mobile et média sociaux en dépit d’une croissance forte de 30% annuel ne représenteraient que moins de 10% des dépenses en marketing interactifs dont moins de 2% de l’ensemble. Le mail conservant une croissance saine avec un renouvellement via les réseaux sociaux et une focalisation sur les activités de rétention.

Le tableau est clair et évident. Ce qui l’est moins est qu’il est difficile de considérer isolément les médias, la performance de la communication dépendant intensément de leurs interactions. Le cross-canal a de beaux jours devant lui. Le multi-canal est d’abord du cross-canal, et la communication de masse aura sans doute de plus en plus le but d’amener les consommateurs potentiels vers les canaux interactifs. Acquisition et rétention restant les mots clés, même s’il faut de plus en plus distinguer les canaux selon que ce soient les consommateurs ou les entreprises qui initient la conversation.

Mais le point essentiel est sans doute que la crise accélère le changement structurel. L’avantage des médias interactifs de ce point de vue est certainement celui de leur mesurabilité (accountability).

_______________

credit photo : wonderlane

Un marketing participatif ? les lois communes du désir


Hier (le 3 décembre 2009), Fanny Reniou défendait sa thèse que Pierre Volle et Emmanuelle le Nagard ont dirigée.

Une belle thèse, riche en travaux empiriques, dont la contribution se tient d’abord dans l’identification d’un objet de recherche : les opérations de communication participative qui se sont multipliées ces derniers temps à l’exemple du vote pour la prochaine saveur de la Danette , mais encore dans l’analyse des motivations qui conduisent les consommateurs à adhérer et à participer à ces opérations. De ce point de vue, peu de surprises mais des précisions. La recherche de la gloire est un moteur puissant, tout autant que l’enjeu. Un des enseignements est que le jeu doit en valoir la chandelle. Ceux qui y participent doivent en avoir pour leur argent, et mieux encore connaître une heure de triomphe.

Mais on se doutera que s’il est indispensable qu’un certain nombre de consommateurs s’engagent dans ces opérations, ils sont généralement un petit nombre au regard de la cible concernée. Et les spécialistes savent qu’en ce domaine c’est un modèle pyramidal de la participation qui doit être retenu. Qu’il s’agisse de politique, de sport, ou de communication, au grand désarroi des promoteurs d’une démocratie participative, une proportion de l’ordre du 1% s’engage, quand quelques % soutiennent activement et que l’énorme majorité demeure dans l’observation ou simplement l’indifférence.

Si le succès de ces opérations doit se mesurer au quelques milliers de participants, ce n’est rien à la mesure des millions de consommateurs qui devraient être touchés. Il faut donc s’interroger sur ce pourquoi l’engagement de quelques-uns peut agir sur les opinions de la multitude.

Le participatif relève d’une sorte de triangulation entre l’objet de la promotion, les aficionados qu’elle séduit et la foule qui les suit. Le pan du triangle le plus important est celui qui associe les fans au public. De ce point de vue trois théories se dégagent.

La première est celle de la crédibilité, éventuellement celle de la légitimité. A l’heure où les marques constituent une écologie dense, touffue, leurs messages se dissolvent et le témoignage de quelques-uns pourraient emporter l’opinion des autres, de ce point de vue le participatif est une rhétorique du vrai, un vrai qui se confond dangereusement avec l’opinion dominante. En faisant participer à l’action quelques milliers de consommateurs, ce sont des millions qui peuvent être convaincus. La force du message est renforcée par l’adhésion des fans.

La seconde est celle de l’envie. La foule se projette dans les quelques-uns qui se sont engagés, et désire ce qu’ils ont et désiré et obtenu. Le désir, mimétique dans son essence, serait ainsi démultiplié en proportion de ceux qui l’éprouvent et le réalisent. Les milliers d’adhérents à la cause susciteraient des millions de jaloux. Les envieux emboiteraient le pas à ceux qui auraient obtenus le privilège d’une certaine reconnaissance.

La troisième est celle d’une vie par procuration. La participation des uns, qui sont ceux qu’ils sont, vaut leur engagement sans y mettre le prix. C’est une vue raisonnable si on considère que les consommateurs sont infiniment prudents, mais pas sans appétit. Ils vivraient ainsi heureusement au travers des autres une jouissance sans risque. Vertu du voyeurisme.

Il est fort probable que les trois processus coexistent, et cela pour la raison simple que les foules ne sont pas uniformes, que s’y équilibrent, plus ou moins, ceux qui se montrent et ceux qui se cachent, ceux qui s’engagent et ceux qui suivent, ceux qui agissent et ceux qui regardent. L’enigme reste de savoir pourquoi très peu s’activent et que si nombreux sont ceux qui les suivent. Est-ce une question de distribution des qualités? Est-ce le fruit d’un rapport de puissance, ceux qui s’affirment souvent dissuadent aussi ceux qui n’en ont que la volonté.

La participation dans tous les cas n’est pas un idéal démocratique, mais cette idée que dans le monde du désir, il ne suffit pas d’offrir, ni de demander, mais qu’il faut organiser dans les passions communes l’objet même du désir.

_______

credit photo : jef safi (encore! laissez-moi dire que chaque fois que je cherche une photo sur Flickr sur un sujet que je traite c’est jef safi qui arrive…mystère)

Le grand livre de l’internet


L’internet est un grand livre, un livre documentaire, une bibliothèque qui serait devenue un seul livre, comme si tous les feuillets avaient trouvé une même reliure. Mais notre relieur est fou et n’a pas pensé à y mettre de l’ordre, à classer, à ranger, ordonner, mettre en forme, c’est ce à quoi s’attachent des milliers d’éditeurs, des milliers d’archivistes, des millions de lecteurs.

L’internet est un grand livre, un livre qui se lit. Cela est si évident qu’on oublie que le rapport premier au web est celui de la lecture. Jamais la langue écrite n’aura été autant présente, même si elle est souvent phatique, et manque de style. Comme le livre ne se réduit pas au roman, la lecture du net n’est pas que suivre des histoires. Elle est documentaire, historique, factuelle, distractive, administrative, secrète, intime, dialogique, active, superficielle, elle est tout ce que peut être la lecture, et plus encore car sautant d’un texte à l’autre, revenant et arrière et allant au delà, elle parcourt un espace bien plus grand que celui des livre. Ceux-ci ne sont plus que des chapitres d’un immense recueil. Mais qu’est-ce la lecture ?

La littérature a apporté beaucoup avec la théorie de la réception et l’école de Constance, en faisant du lecteur le centre de l’analyse, repensant la lecture moins que comme le décryptage d’un texte, un décodage, mais la réinvention, la réécriture mentale de celui-ci, qui engage l’imaginaire et les savoirs du lecteur. Nul n’est point de dire qu’un livre n’est jamais terminé, il reste ouvert aux autres, et se poursuit dans le sens qu’y ajoute le lecteur. Le livre n’est qu’un possible dans lequel s’engage son sujet, une partition dont on saute ou l’on rajoute les notes.

Cette perspective permet de comprendre certaines transformations de la chaine de valeur de l’industrie du livre. A l’image de la musique, du cinéma, la digitalisation des contenus déplace les maillons forts de la chaîne, le plus notable est celui de l’édition. Ce métier roi issu de l’imprimerie et de la typographie s’efface peu à peu au profit de l’auteur du moins de certains auteurs, mais surtout du distributeur. L’auteur, lorsqu’il est fameux, retrouve la valeur qu’il n’aurait jamais dû perdre en rétablissant un lien direct avec son lecteur – Paolo Coehlo diffuse sur son site les pages de ses livres!- et fussent-ils confidentiels, il n’en sont plus à payer de leur poche pour être édités, les pages d’un blog suffisent à leur gloire. Depuis longtemps les libraires, artisans sourcilleux de la lecture, se battent contre la concentration des chaînes, des titres, et des auteurs, mais les marges reviennent à ceux qui s’appuyant sur le faible nombre de tirages importants, concentrent les ventes et imposent leurs prix.

Toute la chaîne est désormais frappée par le triple évènement de la fondation d’Amazon, de l’émergence du e-book, et du programme de numérisation de Google. On rêve désormais d’exploiter la longue traine par la résurgence des fonds oubliés, on espère de l’édition à la demande d’éviter les calamités du pilon, on fantasme sur cette bibliothèque qui tient dans la main et qu’on entraîne dans ses promenades, on s’inquiète de ce que le livre ne vaut que par l’attention qu’il attire, on bataille déjà pour contrôler ce qui n’appartient à personne en particulier mais à l’humanité dans son ensemble, mais on ne prend pas garde à ce qui fait la valeur du livre, simplement sa lecture qu’elle soit sur un écran, une feuille de papier, un vélin ou une photocopie.
Qu’est-ce lire? Non pas déchiffrer, même si c’est nécessaire. Lire c’est réinventer, critiquer, discuter, classer, indexer, feuilleter, consulter tel autre ouvrage qui nous semble comparable, vérifier tel mot rare dans un lexique, écorner les pages ou simplement les marquer, annoter, souligner, recopier, en parler à ses proches, référencer dans un article, commenter ici et là. Le ranger dans la bibliothèque, le donner à un ami, parfois le perdre, parfois le redécouvrir. Et lit-on un livre à la fois ? Rarement, c’est une pile qu’on a sur la table de chevet et celle du salon, car les livres se répondent, et s’ils semblent parfois solitaires, ils sont souvent solidaires.
Et les techniques qui sont déjà là, à l’évidence vont participer à la lecture. Quand remontant en arrière dans le roman nous cherchons à nous souvenir d’un évènement, imaginons qu’un seul mot nous fasse revenir exactement à l’endroit que nous souhaitions. Fût-il un vers que nous lisons, semblable à un vieux souvenir, et retrouver d’un geste tous ceux qui lui sont similaires. Et je ne dis rien des lexiques et des dictionnaires, sans compter les jeux de traductions et d’éditions, imaginons simplement qu’à portée des doigts, ce n’est plus un livre exemplaire que nous lisions, mais la superposition de ses variantes, de ses interprétations, faisant de la lecture une herméneutique. Les outils du langage et ceux de la communauté alliés sur le bord de la page vont renverser assurément les manières de lire.

Mais il est probable que cette instrumentation ne soit portée ni par les libraires, ni par les éditeurs, mais par ceux qui sans posséder le fonds peuvent fédérer l’ensemble des parties-prenantes de la lecture. Il est certain que ceux qui comprendront qu’aider à lire, compte plus qu’apporter la matière à lire. Comme Deezer, last.fm, ou spotify c’est moins le matériau (musical ou littéraire) qui compte, mais la faculté de faire des play lists- des listes de lecture, de surligner, d’annoter, d’échanger, d’inventorier. Dans le monde du document, comme dans le monde du livre, ou de la musique, la valeur est dans la réception et plus dans la diffusion.

crédit photo : jef safi

Cette idée a fait l’objet d’une présentation lors de la remise du Palmarès 2009 de Xplor France , le 29 septembre au Musée de l’Informatique sur le Toit de la Grande Arche de la Défense.

Les écrans de nos nuits blanches

Si le Mexique est à l’honneur du salon du livre, c’est sans doute le e-book et la numérisation de la chaîne du livre qui retiendront l’attention.

Le premier ajoute un nouvel écran à nos nuits blanches, un de plus pour occuper les précieuses minutes de notre attention, car depuis l’invention de la TV, les fenêtres électroniques colonisent notre temps. Celui du salon, celui de nos marches, les attentes dans les aéroports, les trajets ferroviaires, prenant du temps au papier, du temps à l’attente, du temps au travail, modifiant nos habitudes, nos façons de faire, étendant l’espace aussi, les points que nous occupons deviennent de vastes surfaces.

Aujourd’hui le marché est encore confidentiel, la Fnac aurait vendu 6000 des e-reader de Sony (et 14000 e-book). Et pour 2008, Amazon aurait vendu 189 000 kindles au US, 300 000 pour Sony. Les commentateurs relèvent que l’ i-pod, après deux ans, s’était vendu à plus d’1,3 millions d’exemplaires.

Les choses sont peu comparables, l’ i-pod bénéficiait d’un atout maître, des milliards de morceaux prêts à être transférés sur son disque dur. Prêt à l’écoute, l’économie pirate, puisque c’est ainsi que s’obstine à l’appeler le gouvernement avec la déjà obsolète loi Hadopi, a très certainement nourri la résurrection d’Apple. L’offre de e-book est aujourd’hui encore bien maigre pour qu’on puisse s’attendre à un décollage du produit. Rappelons ce que sont maintenant les vieilles lois de l’économique numérique : celle d’externalité (positive) de réseau, et en l’occurrence le fait que la valeur est essentiellement extrinsèque, elle est liée moins à ce que l’on possède qu’à ce qu’on pourrait posséder. C’est un argument classique qui s’applique aussi au livre (voir les chroniques de Françoise Benhamou ).

On observera à ce propos que cette économie de la diversité est absolument essentielle compte tenu du faible tirage des ouvrages. Les chiffres publiés par Didier Jacob sont éloquents, mais pour donner de simples ordres de grandeur, le marché de l’édition est de l’ordre de 5,5 Milliards d’euros, pour une offre de 500 000 ouvrages, 60 000 étant à moitié édités et réédités chaque année, pour un tirage moyen de 10 000 exemplaires. Ce n’est pas une industrie de blockbuster, mais une industrie de ruisseaux et de petites rivières.

Il convient donc de s’interroger dans le cas du e-book sur les facteurs qui engendreront les externalités positives pour son démarrage. Plusieurs hypothèses peuvent être envisagées.

La première est l’engouement des éditeurs pour ce type de produit ou de distribution, s’ils semblent prudents et même hostiles à ce jour, certains arguments pourraient les convaincre. La durée de vie d’un livre étant courte, la prolonger par une édition électronique pourrait s’avérer une bonne idée, dans le même esprit que les collections de poche poursuivent la vie des éditions originales. Mais il ne faudra pas être pressé.

Une seconde hypothèse est que le fond des ouvrage libres de droit étant important, on peut imaginer que certain s’engouffrent dans la voie, et proposent ces fonds à des prix très faibles. Mais est-ce vraiment ces livres que l’on veut lire ? Ceux que l’on fait acheter à l’école peut-être, ce qu’on aimerait mettre à notre panthéon quitte à n’en lire que quelques pages (au juste, lit-on vraiment les livres que l’on achète ?).

Les éditions professionnelles, celles des guides pratiques, les premières menacées par l’internet, peuvent voir là une opportunité intéressante, d’autant plus que leurs publics peuvent être prêts à s’engager dans l’acquisition de terminaux encore beaucoup trop coûteux pour un vaste public. Et notons que c’est dans ces domaines que les plus grands éditeurs font les plus grands chiffres, un Elsevier, un Pearson, un Springer ont fait leur lait des publications scientifiques, des ouvrages savants, des livres scolaires, en réussissant d’ailleurs une formidable performance dans la numérisation et la distribution digitale, imposant aux bibliothèques du monde un autre modèle économique que celui de l’achat à l’unité : un modèle d’abonnement institutionnel qui oblige tous les acteurs à adhérer, offrant au passage tous les bénéfices des techniques de discrimination par les prix. C’est sans doute la voie la plus raisonnable pour les éditeurs de littérature générale qui s’aventureront sérieusement dans le livres électroniques. Ne plus vendre des ouvrages, mais des bibliothèques.

Une quatrième hypothèse est celle du piratage, les pays du sud pratiquent déjà de manière abondante la photocopie de livres à une échelle industrielle, le papier étant lourd, les étudiants s’équipant largement de portables, grâce au pdf pourraient largement y trouver un usage intensif, et cette offre dérivera certainement vers les cartables de nos écoliers (quoique nous puissions regretter que ce ne sont pas nos étudiants qui lisent et achètent!). A ce sujet, juste un chiffre, en moins d’une dizaine d’année un pays comme le Brésil est passé de 2 millions d’étudiants à presque 6, quand en France elle stagne à 3. Pensons à l’Inde, la Chine, la Russie dans une moindre mesure, l’Iran, l’Egypte, le Mexique, le Vietnam, l’Indonésie, et la liste n’est pas close. Partout le nombre des lecteurs sans ressources s’accroît, ils lisent l’anglais et leur langue nationale, cela pèse des dizaines de millions de nouveaux étudiants qui bricoleront le moyen de lire les bibliographies de leurs enseignants.

La cinquième hypothèse est la plus probable nous semble-t-il. C’est celle de google books (on regardera l’accord innovant ), qui est l’acteur le plus engagé dans la numérisation, partielle et totale. Un billet d’olivier Ertzscheid en donne une bonne introduction. Vous me direz que cela ne concerne qu’Internet, mais les e-readers encore hésitants quant à leur connectique, ont de grande chance d’adopter quelques techniques qui leur permettent d’accéder directement à cette bibliothèque. C’est bien l’esprit du Kindle, et Sony a choisit une compatibilité multiple. Ne doit-on pas s’attendre à ce que certains choisissent Android ?

Dans ces cinq hypothèses on retrouve d’une certaine manière la conclusion du Rapport Patino qui souligne la tension entre les éditeurs et les diffuseurs. On ne sera pas étonné qu’il souhaite mettre la question des droits au centre du débat, même si le point de vue économique justement aurait tendance à la mettre en dehors.

Alors maintenant observons, le marché n’est pas encore là…la technologie est prête, les opérateurs aux aguets. La grande bataille va commencer, et nos écrans promettent de belles nuits blanches – nuits de cauchemar pour certains, nuits de bonheur à lire pour nous…

Retour à la roue – de la VPC au e-commerce

La vente par correspondance, mieux dénommée aujourd’hui comme Vente à Distance, VAD, semble vivre des jours difficiles que décrit, avec talent, Cyril Bedel dans un article des Echos : « Les années noires de la VPC ».

En complément de cette analyse, avançons une bien vieille hypothèse, celle de la Roue du Commerce, formulée par Malcolm P. McNair en 1931, et que Stanley Hollander* résume de la manière suivante en 1961 : les nouveaux formats de distribution entrent sur les marchés généralement comme des formules à faible statut, faibles marges et faibles coûts opérationnels, qui graduellement acquièrent des procédures plus élaborées, accroissant leurs investissements et leurs coûts opérationnels. Ils deviennent à maturité des entreprises à coûts et prix élevés, vulnérables à de nouveaux formats, qui à leur tour évolueront de la même manière. Parmi les explications du phénomène, deux d’entres d’elles méritent une attention : la première est une forme de myopie des dirigeants qui, attirés par des opportunités de marges supérieures, ont tendance à surinvestir dans la modernisation du service et le marketing ; la seconde résulte de l’imperfection de la concurrence qui conduit à des surcapacités dans le secteur.

Une telle théorie permet de comprendre comment et pourquoi les VPCistes ne se sont pas transformés en véritable e-commerçants, qui se sont engouffrés dans les segments à bas prix, les confinant dans ce qu’on appelle le big middle, dont Journal of Retailing a fait un numéro special en 2005.

De ce point de vue, les années noires risquent de l’être plus encore! Et l’issue risque d’aller encore plus loin dans la recherche des segments à haute marge, en réduisant la voilure, et se sauvant dans les niches du haut de gamme. N’est-ce pas l’histoire des Galeries Lafayette ?

Mais la roue du commerce est un concept critiqué, des exceptions sont observables. Hollander lui-même en donne quelques exemples. Pour échapper à cette malédiction, il est nécessaire de revenir aux causes : comment les innovations technologiques sont intégrées dans la stratégie ? Dans la mesure où elles servent une amélioration continue du service qui permet de justifier des marges plus élevées, les mêmes causes conduiront aux mêmes effets. Par contre si l’innovation est pensée comme un moyen de réduire les coûts opérationnels, de maintenir la structure des marges et le volume, et surtout de dissuader les innovateurs d’occuper la niche des bas prix, un sursis est possible.

Mais cela se heurte à de grandes difficultés, l’une d’elles mérite d’être évoquée : l’Internet porte une contradiction : s’il est prometteur dans sa capacité à réduire les coûts opérationnels, son usage est le fait des clients les plus aisés, les plus éduqués et les mieux équipés. On comprend le dilemme. Un ouvrage encore récent de Camal Gallouj aborde ces questions qui restent ouvertes. Le cas de la VPC apparait ainsi comme un laboratoire particulièrement intéressant pour répondre à la question de savoir si les technologies du net transforment les firmes existantes où ouvrent des boulevards à de nouvelles formes.
.

*Hollander, Stanley C. (1996), « The wheel of Retailing – What makes Skilled Manager Succumb to the ‘Proper Mature and decay’ pattern?» Summer, Vol 5 n°2 ( reprint de Journal of marketing July1961)