Question de grid – de l’électricité à la finance

On évoque depuis longtemps des smart grids qui sont amenées à révolutionner l’industrie de l’énergie en disposant sur le réseau des dispositifs de traitement de l’information, comme des compteurs intelligents, qui permettent aux appareils connectés de s’ajuster aux conditions techniques et économiques du réseau et de l’environnement proche. On imagine les cellules photovoltaïques dialoguer avec le compteur général pour « pricer » une projection de revente au moment où les propriétaires seront absents et auront activé un plan minimal de consommation. Pour établir le deal il est nécessaire que l’agenda de nos gentils propriétaires, les prévisions météo, le système de maintenance des panneaux solaires et le réseau de transports de l’électricité se soient mis d’accord sur un volume et un prix.

On en attend une réduction de la consommation de l’ordre de 20 à 30%, un lissage de la demande qui réduisent les points et les ruptures, ainsi que les coûts pour les consommateurs. C’est le secteur de l’énergie électrique qui est au centre de la lentille d’observation. Réduire les pics, remplir les heures creuses, mais servir aussi l’énergie quand elle est souhaitée, par un système qui n’est certainement pas planifié, mais qui n’est pas tout à fait un marché, plutôt une manière organique de s’ajuster aux variations. Cette approche de grille intelligente, résumée dans la faculté des nœuds à prévoir l’état de leurs correspondants, l’absence de lieux de coordination centrale, et une infrastructure informationnelle point à point, est ainsi sensée optimiser la production et la consommation électrique.

Un tel système au fond s’applique potentiellement à tous les réseaux qui convoient une matière mais simultanément peuvent rendre compte de l’état de la production, du transport et de la consommation de cette dernière. Un double flux, et une cybernétique généralisée. La finance personnelle en est sans doute un des champs d’applications les plus intéressants.

Un des réseaux les plus remarquables est le réseau de Western Union qui associe les terres d’émigrations à celles d’immigrations, contrebalançant le flux des populations par un flux de redistribution des richesses. Je ne suis pas sûr que le partageable soit équitable, mais les dispositifs d’échanges semblent instructifs. Ces flux d’ailleurs empruntent de plus en plus la voie de l’internet et des télécoms : le transfert d’argent par mobile est un des services les plus en vogue.

Ces flux répondent à d’autres instructions financières dont on a l’habitude. Et certains dans le domaine innovent réellement, un projet tel que friend clear qui tente d’opérer dans un domaine vaste mais obscur des prêts et avances entre proches, celui qui ailleurs se retrouve dans la traditions des tontines, en est un bel exemple. Sans compter le twitter des dépenses, Blippy qui est sans doute l’embryon des systèmes futurs de publication de l’information.

Dans tous les cas ce qui apparaît évident est que l’argent est comme l’électricité, moins une contrainte, un ascèse ou une économie, que le lubrifiant des activités à accomplir qui ne peuvent se satisfaire de manque de liquidité. Dans un tel système, l’extrême demande peut faire venir de grands risques. Etêter les crêtes de risque pour assurer un financement constant et raisonnable des activités semble un objectif raisonnable : celui de mener de manière fluide et sûre vers les demandeurs un flux de financement suffisant, dont le volume faible n’est pas forcement satisfait par les institutions centrales. Ce n’est pas pour rien que le micro-crédit est apparu.

Les marchés financiers n’ont pas produit cette grille intelligente et modérée. Bien au contraire ils ont démontré leur capacité à se constituer en bulles qui explosent sans qu’on soit en mesure de deviner les carnages. On ne supprimera pas la finance, et l’intéressant est de découvrir d’autres canaux d’intermédiation plus efficace, moins dans la valeur espérée que la faculté d’adoucir tous les risques, en assurant la livraison de cette énergie de l’entreprise qu’est l’argent.

Dans tous les cas, électricité ou monnaie, à l’heure où l’internet non seulement devient mobile, mais concerne de plus en plus les objets, il va devenir utile de s’interroger sur ces nouvelles formes de régulation de l’économie qui échappent à l’institution et au marché, à la planification et à la centralisation des flux. Une forme organique, locale, auto-organisée, des échanges économiques qui de plus en plus ne pourront plus être analysés dans le forme simple de l’échange d’un bien contre de l’argent, mais d’un échange accompagné de sa publication, d’une production d’information qui en assurera le contrôle.

Un avenir pour les monnaies virtuelles ?


Depuis Beenz et son échec, on aurait pu croire que les monnaies virtuelles seraient abandonnées. Il n’en est rien, Facebook réfléchit à la sienne, le Linden semble prospérer, un twollar est apparu, et des dizaines d’initiatives sont enregistrées ça et là. Sans compter les jeux vidéo et les univers virtuels (un numéro spécial de Journal of Virtual World traitera de la question), une industrie du goldfarming se mettant en place notamment en Asie et en Chine.

Ces monnaies peuvent être considérées comme monnaie dans la mesure où elles sont des instruments d’échanges, des unités de mesure, qu’elles puissent être accumulées et même investies. Il n’est pas sûr que toutes remplissent cette triple fonction, et même si elles la remplissent, cela se passe dans un espace si limité que sauf si elles sont convertibles, leur capacité à remplir les fonctions est limitée. Certaines cependant répondent bien à ce critère.

Voilà qui interpelle les économistes qui pourraient craindre que ces monnaies contribuent à la création monétaire que d’aucun pense encore un monopole de la puissance publique mais qu’à l’évidence on sait qu’elle est aux mains des banques et du crédit. De ce point de vue les monnaies virtuelles sont encore primitives, elles relèvent de la planche à billet, ou d’une simple opération de change. Mais ce n’est pas le sujet. Le sujet est de comprendre comment ces monnaies peuvent proliférer alors qu’elles sont fragiles et que leur capacité à devenir de véritables monnaies est très limitée. Au coeur de la monnaie il y a la confiance, au coeur de la confiance il y a la puissance.

Le premier argument est qu’une monnaie domestique, c’est au fond la véritable dénomination d’une monnaie privé car elle se limite à l’enceinte d’une propriété, permet de contrôler ce qui peut être échangé. On retrouve à une échelle réduite ce qui incite le prince à faire monopole de la monnaie son privilège. Imagine-t-on Flying Blue puisse abandonner à une autre monnaie que ses miles et leurs conditions d’utilisations soient définies ailleurs? Des comptes clients crédités en une monnaie générale empêcheraient tout ajustement, et feraient peser un risque insurmontable.

De ce moins de vue l’apparition de monnaie privée témoigne moins d’une liberté accrue, d’une créativité débridée ou de la déchéance des vieux systèmes, que de l’extension et de la radicalisation de tactiques qui visent à échapper au marché, à introduire de l’obscurité, des barrières, pour mieux maitriser les clientèles et les intempéries. C’est ce que fait second life sans doute en interdisant les banques (à lire avec attention).

Cet argument s’appuie donc sur une analyse de l’offre. Il contient la conclusion que la multiplication des monnaies privées n’est certainement pas une menace pour les monnaies souveraines, car les premiers qui s’opposeront à leur extension en sont les promoteurs. La généralisation de leur monnaie risquerait de les soumettre au marché et à en perdre le contrôle, en dépit de l’adage de Gresham. Si des taux de change fixes sont appliqués, ils ne sont pas le fait de la puissance publique mais celui de ces promoteurs, l’ouverture au marché les éliminerait à coup sur. L’euro vaut bien plus qu’un smile’s!

On peut donc s’attendre que se multiplient ces monnaies de zoo, mais aussi qu’elles ne franchissent pas les grilles de leur parc. Elles prendront une place avec la petite monnaie, mais ne risquent guère de se glisser dans le portefeuille. Ne résistons pas d’ailleurs à rappeler qu’au Brésil, en guise de change dans les petites transactions, les centimes sont souvent remplacés par des bonbons.

Un second argument réside dans l’acceptation de ces monnaies par les consommateurs. Ils pourraient les refuser préférant des pièces plus sonnantes et mieux trébuchantes. Mais dans le cas spécifique de ces monnaies, le poids indiffère car les objets qui en sont la contrepartie sont légers comme la brise du printemps. Ces monnaies permettent de dépenser sans compter, car ce qu’on acquière compte peu. C’est une économie de la légèreté. Les points gagnés le sont sans effort, sans valeur, ils sont en plus de l’économie quotidienne, des bonus inattendus, qui ne répondant à aucun plan, n’ont aucune valeur future, mais une valeur immédiate considérable : celle de la surprise. Les colliers de perle du Club Med en furent un bel exemple. Ces monnaies ne valent que parce qu’on les consomme. Ne pouvant être thésaurisées, elles valent d’autant plus qu’on les consomme rapidement. Il faut explorer les ressorts psychologiques de monnaie qui sont plus des moyens de paiement que les symboles inaltérables de la richesse. Il ne suffit pas d’être une unité de compte et d’échange, il faut cette foi inébranlable que la valeur se conserve ou s’échange, la valeur de la monnaie est son éternité.

Avec ces deux arguments, on comprend aisément pourquoi les monnaies se multiplient sans menacer la monnaie. Leur multiplication feront d’elles des monnaies complémentaires (c’est discutable!), spécialisées, qui permettent au consommateur d’arbitrer à la périphérie de ses désirs, mais en aucun cas laisse l’espoir qu’émerge du néant un nouvel ordre.

Sans doute prendront-elles la place de ces pots à petite monnaie, où l’on puise à la marge une frange de confort pour des dépenses sans compter. La valeur de ces monnaies est au fond une certaine gratuité.

Horizon 2015, internet cannibalise la pub.


La décennie n’est pas encore achevée qu’on se projette déjà dans la prochaine. Forrester a publié cet été son analyse pour la période 2009-2014. La croissance des médias interactifs serait telle qu’elle atteindrait un volume de 55 Milliards de dollars et couvrirait 21% des dépenses. Notons que déjà en GB ces médias dépassent la TV. Ces données convergent relativement bien avec celles de e-marketing.

Cette croissance se ferait au détriment des médias anciens, par cannibalisation. Le premier média atteint serait le marketing direct suivi de près par la presse. Les attentes en matière d’amélioration de l’efficacité sont attendues du côté des médias sociaux, du mobile, de la video et du SEO. Tandis qu’acune amélioration ne l’est du côté des médias traditionnels. On comprend ce point et l’évolution quand à croire les données proposées, alors que les consommateurs passent 34% du temps devant leurs écrans interactifs ( 31% devant la TV), ces derniers n’attirent encore que 12% des investissements (35% pour la TV).

Le grand vainqueur reste le SEO, mais aussi l’affichage digital essentiel par des applications de rich media. Mobile et média sociaux en dépit d’une croissance forte de 30% annuel ne représenteraient que moins de 10% des dépenses en marketing interactifs dont moins de 2% de l’ensemble. Le mail conservant une croissance saine avec un renouvellement via les réseaux sociaux et une focalisation sur les activités de rétention.

Le tableau est clair et évident. Ce qui l’est moins est qu’il est difficile de considérer isolément les médias, la performance de la communication dépendant intensément de leurs interactions. Le cross-canal a de beaux jours devant lui. Le multi-canal est d’abord du cross-canal, et la communication de masse aura sans doute de plus en plus le but d’amener les consommateurs potentiels vers les canaux interactifs. Acquisition et rétention restant les mots clés, même s’il faut de plus en plus distinguer les canaux selon que ce soient les consommateurs ou les entreprises qui initient la conversation.

Mais le point essentiel est sans doute que la crise accélère le changement structurel. L’avantage des médias interactifs de ce point de vue est certainement celui de leur mesurabilité (accountability).

_______________

credit photo : wonderlane

Smart pricing – une intelligence morale?

Un des effets majeurs des technologies de l’information est de permettre aux firmes de développer des politiques de prix sophistiquées dont les pratiques de revenue management sont l’exemple sans doute le plus abouti (pour une synthèse voir ici). En pratiquant à la fois une politique de prix dynamique et fortement discriminée, l’entreprise s’approprie le surplus du consommateur et peut ainsi accroître ses profits, comme le démontre depuis longtemps les économistes. Une large littérature s’est ainsi développée usant d’outils avancés tel que les techniques de contrôle optimal (Voir par exemple Joër Meissner pour des approfondissements ou ce livre).

Ces pratiques ne concernent pas que les industries de capacité. Elles sont par exemple au cœur de la politique de prix de Google en matière de publicité. La stratégie étant de pondérer la valeur des clicks en fonction de leur taux de transformation, afin d’assurer à l’annonceur le coût le plus faible. Elle est essentielle au modèle d’Amazon. Dans les deux cas la limite de l’exercice est apparue avec si ce n’est la révolte, du moins de vives protestations des consommateurs. L’économie de bazar où l’enchère est le mécanisme d’établissement des prix se heurterait à un profond sentiment d’injustice même si certaines recherches montrent que ce n’est pas toujours le cas et que d’autres défendent l’idée que les consommateurs au fond s’accoutument à ces pratiques.

La question du juste prix est aussi celle du prix juste. C’est ce qui fait émerger depuis quelques années cette notion de smart pricing. L’extrême de la pratique étant ces tentatives de laisser le consommateur payer ce qu’il souhaite, pratique importante dans le monde du logiciel, et que Radiohead a popularisée avec le lancement de son album. Un papier va bientôt sortir dans Journal of Marketing à ce propos.

Etablir en tout lieu et à tout moment le prix optimum du point de vue du profit doit tenir compte d’effets secondaires sur le comportement pour être véritablement optimal. Ce n’est pas qu’une question de justice, qui conduirait les consommateurs à adopter des stratégies d’achat au plus bas, et d’une certaine manière réveille le vieux problème d’Akerloff sur la qualité, mais aussi une question de logistique. L’expression de smart pricing a été sans doute proposée par Fleischmann, Hall, and. Pyke (1) pour prendre en compte le fait que les variations de prix ont des conséquences opérationnelles sur la chaîne d’approvisionnement en générant notamment des phénomène de stockage et de déstockage par les consommateurs, qui amplifient les coûts logistiques. L’EDLP est une réponse classique désormais à ce problème.

Ainsi le smart pricing peut être défini comme cette politique de prix qui, cherchant à maximiser les bénéfices de la discrimination, minimise aussi les effets secondaires sur la gestion des coûts et les effets secondaires sur la formation des prix de référence des consommateurs. L’enjeu est évident, il s’agit de maintenir le niveau de prix considéré comme juste tout en les individualisant, et de faire en sorte que les variations de prix n’induisent pas de variations de coût logistique. Voilà un programme de recherche considérable.

Il reste à se demander si les moyens de cette politique se trouvent effectivement dans la sophistication des calculs. Une réponse positive pourrait être trouvée dans l’indifférence des consommateurs, la période de crise qui s’est ouverte est intéressante à ce titre dans la mesure où l’effort promotionnel semble s’accroître et l’humeur des consommateurs les conduit vers le simple et le moins cher. Dans un moyen terme on peut être assez pessimiste quant à cette acception. Croire qu’un ajustement progressif puisse se constituer est à l’opposé une hypothèse aussi peu convaincante.

Il conviendrait sans doute d’adopter une approche plus anthropologique et de relire l’Economie du Bazar de Clifton Geertz, et de s’interroger sur les arrangements institutionnels qui rendent acceptable la multiplication des prix. L’étude des marchés marginaux où la technologie est absente pourrait aussi être utile. Quelles règles implicites et explicites sont en train pour maintenir ces pratiques? Un des enseignements de ces études est que les règles produites sont étroitement dépendantes de la nature de la relation établie entre les parties, ou plus précisément encore les modèles de socialité, de ce point de vue les travaux de Fiske pourraient être utilement mobilisés, comme l’on fait déjà Tetlock et Kristel (2003).

Le smart pricing ne serait pas de ce point de vue une approche de compromis, que la sophistication des moyens de calcul autorise, mais aussi une activité productrice de règles, de conventions, dont l’enjeu est la définition précise des conventions de justice qu’elles soient substantives ou procédurales, pertinentes au regard de la convention de socialité, et naturellement économiquement incitatives. Moins que la fixation d’un prix c’est donc la définition des règles de fixation qui est au cœur de la pratique.

(1) Fleischmann, M., J.M. Hall, and D.F. Pyke, “Smart Pricing: Linking Pricing Decisions with Operational Insights (Research Brief),” MIT Sloan Management Review 45(2): 9-13, 2004.

Sur les touches du qwerty


Les technologies, définitivement, se se limitent pas à des arrangements matériels qui associant l’eau et le feu, l’électron et la mécanique, produisent des objets qui nous sont utiles.

C’est autour d’une technologie, les touches du clavier, que l’économie de la connaissance s’est développée au sens propre, puisque le clavier est l’interface essentielle de l’industrie de l’écriture, de l’édition et de sa renaissance informatique, mais aussi cet objet qui a permis de penser une part de l’économie de l’information, et d’établir le standard comme un objet essentiel de l’économie. Le texte de Paul A. David, ‘Understanding the Economics of QWERTY: the Necessity of History’, in W. N. Parker (ed.), Economic History and the Modern Economist
(1986) en étant une clé essentielle.

Un commentaire de Robert Schiff que nous découvrons en éclaire la génèse, et souligne un point de méthode essentielle : la micro-histoire, l’histoire locale au sens de Foucauld, éclaire l’importance de la contingence. Une autre rencontre sur ce clavier, une note poétique de Cécile Portier.

Voilà qui invite à faire une collection d’objets. Si chaque histoire est unique, en ce qu’elle est irrversible, elles se croisent, militant pour que la bonne méthode pour les étudier s’appuie sur la mécanique du hasard et de l’indépendance, multipliant les possibles. La grande histoire c’est que des millions de contingences se percutent, et curieusement se hiérarchisent, se structurent, se configurent en mouvements plus réguliers.

La musique dans les nuages

Un article de CrunchGear illustre à quel point la loi Hadopi est obsolète avant même d’être adoptée et promulguée, y compris dans son dernier hoquet. Il met aussi en évidence la myopie si ce n’est l’aveuglement des hommes et des femmes politiques qui ne comprennent ni l’économie, ni la technologie, ni même sans doute la sociologie du monde numérique.

Le point principal tient ici dans le développement de ce qui désormais s’appelle le calcul dans les nuages (cloud computing). L’information n’est plus dans des serveurs dédiés et accessibles par des interfaces spécifiques, elle est dans les fermes de données, distribuable en tout point et tout moment, au travers de services accessibles par des interfaces multiples et indifférenciées.

Un exemple : pour écouter une musique diffusée par Last.fm, nous pouvons nous connecter sur Facebook, et possédant un terminal mobile, le i-phone, c’est quasiment à tout moment et en tout lieu que nous écouterons ce que nous voulons. Et si le morceau que nous désirons n’est pas proposé par last.fm, qui ne donne pas vraiment le choix de ce que nous voulons, il y aura bientôt, et c’est déjà là, un moteur de recherche sémantique, qui nous indiquerons où, le où est métaphorique, disons un là où se trouve notre musique. De Deezer à Kaaza, en passant par rhapsody, pandora ou Jiwa, il y aura bien une adresse qui fournira le son que nous voulons entendre.

Dans un monde où la connexion est ubiquitaire, nul besoin d’avoir le fichier MP3 dans son terminal, il suffit qu’on puisse se connecter, selon la nécessité, sur les réseaux GPS, wifi, wimax, Lan, pour fournir à la demande l’objet de nos désir. Il n’est plus besoin de posséder, pas plus qu’il n’est besoin d’une bouteille d’oxygène pour respirer.

Voilà pour la technique. Pour l’économie, le jeu est plus ouvert. On comprendra sans difficulté que ce que payent les diffuseurs dépend de la publicité. Et pour aller très vite, le rapport des forces est en train de conduire les producteurs de musique à ne prétendre qu’à la portion congrue à laquelle ils ont mené les créateurs. On ne se lassera pas de dire que dans le prix d’un CD, les inventeurs ne peuvent espérer que quelques pour cent du prix de vente. Ceux que la loi défend sont amenés à n’en exiger pas plus. Pour faire un détour historique rapide, rappelons que la création n’a pas toujours été financée par le domaine marchand, mais souvent par la manne des mécènes. Ce qui se passe aujourd’hui est au fond un simple changement de mode de financement de l’industrie musicale, qui menace moins les créateurs que ceux qui en marchands marxistes, ont su prélever leur part de la valeur d’échange. Restons à l’ironie et revenons à la véritable économie.

Celle-ci se résume à savoir comment les fermes de données sont financées. Saleforces.com semble gérer ses TeraOctet sur un millier de serveurs, Amazon en requiert 100 000, on attribue à Google plusieurs millions. Voilà les coûts fixes de l’économie de l’information. Google concentre son revenu sur la publicité, Salesforce facture des honoraires à ses clients, Amazon maintient un modèle très classiquement marchand. L’intérêt du phénomène est qu’il ne se réduit pas seulement à l’externalisation des bases de données, mais au partage, au mixage des données et de leurs canaux de distribution. Les nuages se croisent.

Mais chacun d’eux use d’une ressource qu’il ne paye pas tout à fait. Car il offre à ceux qui lui donnent cette ressource une valeur non monétaire qui est l’orgueil, la bonne volonté, l’esprit de partage, le don. Cette valeur permet à chacun, dans le champ dans lequel ils se placent, appelons cela un modèle d’affaire, d’obtenir un avantage compétitif. Plus d’audience, Google sait produire plus d’audience que les autres en offrant plus d’outils pour que l’information soit produite dans son aire, Salesforce sait mieux que les autres conduire l’information dans les canaux de l’expertise, et Amazon a su faire de ses utilisateurs les producteurs de la critique et du conseil de libraire.

Dans cette économie, le nerf de la guerre est celui de la gestion des coûts. Une gestion particulière qui n’est pas une forme d’avarice – comme on croît souvent – qu’est une stratégie fondée sur la maîtrise des coûts, mais au contraire une forme de générosité qui attire des ressources que l’on n’a pas à payer.

Pour revenir à notre sujet central, celui de la musique, quand cette dernière peut techniquement être écoutée sans coût pour le consommateur, on doit s’interroger sur les raisons qui amèneraient certains acteurs à en encourager la création. Ce ne sont pas les producteurs traditionnels, qui accaparant les droits de propriétés, n’ont jamais su la diffuser massivement à l’exception de quelques stéréotypes marquants, dont la valeur culturelle s’est construire dans l’idée de standard. Un tel modèle a toujours été voué à gérer une rareté.

S’il est un nouveau modèle, il s’appuie sur le don que les artistes font aux entreprises. Le don d’un talent que personne ne sait exactement évaluer, mais qui exige pour être donné d’obtenir la compensation suffisante pour qu’il se manifeste et survive. Les mécènes d’un temps passé subventionnaient des artistes pour leur gloire, elle pouvait être hagiographique, et parfois plus subtile. N’attendons pas des nouveaux mécènes la même motivation. Ils auront plutôt ce souci de nourrir un vivier, d’élever des semences, dont une belle croissance garantie des fruits sucrés. Quand le monde de la production musicale ne sera plus en mesure de produire les fruits qui font les délices des nouvelles entreprises, soyons sûrs que ces dernières arroserons les vergers qui garantissent leurs visites.

Pour un bref instant, revenons à cette Hadopi poussiéreuse qui hume l’odeur moisie des vieilles maisons de vacances, et recommandons à ses promoteurs de regarder au large et de quitter leur barque envasée. Rien ne sert d’interdire, il vaut mieux accompagner la marée. Encourager ceux qui profitent de la création à financer la création. Détaxons les nouvelles entreprises quand elles payent les poètes. Dans le nuage du monde dirigeons les pluies vers les terres les plus fertiles.

Au fond si la musique a cru échapper à la malédiction de Baumol et d’Owen, en finançant son activité plus par la reproduction que par le spectacle, la malédiction la rejoint sans doute et la question qui se pose est donc bien celle de la subvention, où plus précisément de savoir qui la subventionne. Ce pourrait être la publicité, y compris dans la forme radicale de Wilkinson avec Simone, mais on ne peut y voir que de l’anecdote. Ce sera sans doute un modèle différent, dans les nuages, celui de fournisseurs de services à la demande, les uns faisant payer ce contenu, les autres l’offrant. A la manière des journaux. Mais jamais plus nous n’achèterons de musique à l’unité, n’en déplaise à i-tune, pas plus qu’on achète d’articles à l’unité, ou si rarement. La valeur de la musique réside désormais plus dans son accès que dans son contenu.

PS : Pour mieux réaliser la lourdeur du nuage, une visite du nuage est parfaitement illustrative :

Paradoxes de la diversité : choisir et classer

Une des questions importantes posée par le développement des technologies du marketing est celle de la manière dont les consommateurs appréhendent l’incroyable diversité d’options qui leurs sont proposées. Un lieu commun est de faire de cette diversité une vertu et une source de joie. Dans l’immense diversité offerte par le miracle de la longue traine chacun trouve ainsi exactement ce dont il peut avoir besoin.

Et pourtant un certains nombre d’arguments théoriques militent contre cette perspective proposant que l’infinité des choix possibles génère à la fois de l’insatisfaction et de mauvaises décisions. La complexité du traitement de l’information conduit à des stratégies de simplification erronées. C’est cette thématique que Barry Schawtz développe dans « When more is less ». Sa conférence est un merveilleux cours de psychologie appliquée au marketing qui avec intelligence rappelle les principaux résultats de la psychologie économique telle que l’ont développée les Amos Tversky , Daniel Kahneman , Richard Thaler et quelques autres théoriciens.

The Paradox of Choice – Why More Is Less /

Barry Schwartz

Une conclusion très générale que chacun peut tirer est que pour améliorer la satisfaction des consommateurs, et plus profondément leur permettre de prendre des décisions adéquates, la solution réside très certainement dans la réduction des ensembles de choix, dans la simplification des offres, à la condition naturelle que ces ensembles restent pertinents du points de vue des mêmes consommateurs.

Cette tâche est notamment celle des systèmes d’aides à la recommandation, dont on ne peut que souligner l’importance dans les stratégies marketing à l’heure digitale. Ce sujet est immense, mais arrêtons nous ici à un de ses aspects particuliers qui rejoint cette question de la diversité et des moyens dont le consommateur disposent pour se retrouver dans l’infini des choix : celui de la classification des objets.

Une des innovations importantes en ce domaine est celui des folksonomies, qui ne sont pas des taxonomies, c’est-à-dire des classifications considérées comme universelles, mais des catégorisations partagées. Les tags, ou méta-données et les systèmes qui les gèrent socialement t à ce jour sans doute la couche principale. David Weinberger en donne ici un aperçu vivant et clair, nous faisant toucher du doigt toute la difficulté de ce qu’en psychologie, on appelle le problème de la catégorisation, et dont Elenaor Rosch est une des spécialistes les plus importantes.


/ David Weinberger

Anti-Spam : le dépot de garantie

Si le spamming ennuie les consommateurs, il est une menace pour les marketeurs qui y perdent leur légitimité et leur réputation.

La lutte contre les spams peut prendre des formes diverses : il y a d’abord, c’est la solution la plus répandue, les méthodes de filtrage (collaboratif et avec apprentissage), qui éliminent les sollicitations non attendues les plus grossières, mais tendent aussi à éliminer des messages publicitaires plus honorables, au détriment des marketeurs, certains ont pensé aux solutions de taxes, qui élimineraient les spammeurs abusifs.

Certains chercheurs proposent une solution analogue dans ses principes économiques, aux mécanismes de réduction de la pollution tels que les droits d’émission. Le principe s’apparente à un dépôt de garantie, l’émetteur de mail publicitaire déposerait chez un tiers une somme que le destinataire fixe comme valeur de l’intérêt du mail reçu. S’il considère que ce mail est du spam, il touche la somme, celle-ci est rendue à l’émetteur si le courrier n’est pas considéré comme tel. Cette technique prend le nom en anglais d’Attention Bond Mechanism, à traduire peut-être comme “dépôt de garantie attentionnel”?

Un de ces chercheurs, Marshall Van Alstyne, démontre économiquement que cette solution est la meilleure. On suivra avec attention sa démonstration dans la vidéo ci-dessous, ce qui nous permet de surcroît de signaler la collection remarquable dans laquelle elle s’insère (Videolecture).

An Economic Response To Unsolicited Communication – Marshall Van Alstyne

Et pour ceux qui auront trouvé l’exposé trop théorique, la lecture de la page de l’ITU complétera l’analyse du problème. On y trouvera notamment une FAQ instructive sur l’ABM.

Une traîne bien épaisse….


Certaines idées font florès sans que l’on s’interroge profondément sur leur signification. L’idée de « the long tail », dont on comprend que sa traduction exacte n’ait pu être adoptée, correspond exactement à cette idée d’une queue de distribution épaisse, dont une des particularités mathématiques est d’avoir une variance infinie…Mais là n’est pas le sujet.

La distribution pseudo-parétienne dont il est question n’a en fait aucune signification particulière. Elle n’en trouve une que si l’on introduit un élément de coût, et en particulier de coût marginal. Un exemple suffit à bien comprendre le raisonnement. Imaginons une librairie, ses clients sont divers et on comprend qu’elle a tout intérêt à offrir le plus grand nombre de titres. Mais son espace est limité. Agissant intelligemment elle remplit ses rayons avec les ouvrages qui se vendent le plus, tournent le plus sur le rayon. Elle accorde d’autant plus de place à un ouvrage, en le mettant en pile, que comme le Bonheur des Dames l’explique, la pile accroît les ventes et augmente la rotation. Le coût de chaque ouvrage peut être déterminé comme la surface de vente qu’il occupe. On comprend qu’une fois la librairie pleine, ajouter un ouvrage au catalogue génère un coût supplémentaire exorbitant, puisqu’il s’agit d’acheter le fond de commerce du voisin, fusse-t-il un cordonnier qui n’occupe que quelque mètres carrés.

Dans une librairie virtuelle il n’est pas besoin de cela. Inutile d’optimiser la surface accordée aux ouvrages, c’est un autre critère qui intervient, celui de la localisation sur les pages, problème techniquement difficile puisqu’il n’y a pas de localisation absolue dans la mesure où l’on peut construire une échoppe pour chaque lecteur. Mais le point essentiel est qu’il n’y a pas d’extension à faire, une base de données qui gère un million d’ouvrages ne coûte pas plus que celle qui en coûte 100 000. Le coût marginal est quasiment nul.

L’avantage relatif du libraire numérique sur le libraire physique ne se mesure pas tant à cette différence dans la structure des coûts, que dans l’épaisseur de la queue de distribution. Reprenons notre exemple. Supposons que pour l’un ou pour l’autre l’investissement nécessaire pour mettre en vente 100 000 ouvrages, ce qui fait une très belle librairie, est identique même si la nature de la dépense est différente. Si ces 100 000 ouvrages représentent 99% des ventes, il n’y aura pas de grande différence de rentabilité. Les choses seront différentes si ces ouvrages ne représentent que 80% des ventes. Le distributeur numérique pourra ajouter 900 000 ouvrages dont on pense qu’ils réalisent 99% des ventes possibles, sans coût supplémentaire, réalisant ainsi une rentabilité 20% plus grande (au passage pour donner des grandeurs réalistes rappelons que la production annuelle de l’édition en France est de l’ordre de 50 000 ouvrages).

La leçon est fort simple, quand la distribution des ventes par items est fortement asymétrique il n’y a pas d’avantage fort pour les opérateurs numériques. Dans le cas contraire, il est simplement insurmontable pour les vendeurs de papier. Notons qu’un libraire électronique n’est pas très différent d’un libraire physique, si les coûts se distribuent différemment, des halls de répartition pour l’un, un point de vente pour l’autre, ils obéissent à une même nature : au-delà de certaines échelles le coût marginal est excessif. La différence radicale s’impose quand le produit est entièrement numérisé comme commence à l’être la musique, voire même la vidéo. Pour le livre nous n’y sommes pas encore.

Pour aller plus loin dans l’analyse économique, il faut revenir sur cette distribution et notamment sur les possibilités, par le marketing, de la modifier. Nous prenons la distribution des ventes comme donnée, ce qui n’est pas forcement le cas. Dans nos exemples nous supposons que l’acheteur sait ce qu’il veut, et que son achat dépend largement de la disponibilité, et de manière secondaire du coût de recherche.

Considérons que les coûts de recherche sont extrêmement importants. Les rayons de la librairie traditionnelle sont assez peu adaptés, même si les vendeurs sont compétents, mais un catalogue électronique l’est encore moins, à moins que comme le fait Amazon on nourrisse les pages de recommandations et que l’on profile ces pages aux besoins du client. Nous comprenons ici immédiatement où se situe l’avantage des formes électroniques de distribution : la capacité à faciliter la demande pour les produits les moins demandés, et à renforcer l’épaisseur de la queue de distribution. Il s’agit ni plus ni moins de révéler la demande…

On pourrait appliquer ce raisonnement à une industrie en déclin, celle de l’édition musicale dont le modèle économique des charts est largement menacé. Son développement s’est construit sur le développement d’une demande dont les coûts de recherche acceptables étaient faibles. Il s’agissait donc de prendre position dans les grandes surfaces avec un nombre de titres réduit, dont la demande était stimulée par une débauche d’information destinée à pallier la paresse de la masse des consommateurs. Poussé par les radios et les TV le faible nombre de titres largement demandés remplissait l’espace économique disponible. L’abondance de ces produits, et la faible valeur relative que leur accordent les consommateurs, aboutit à une chute des ventes. La copie privée y est pour moins qu’on ne pense. La multiplication des radios classiques et numériques y contribue bien plus largement. Des espoirs sont donnés par la distribution numérique, certain comme i-tunes en démontre l’intérêt. Mais cela est largement insuffisant. Cette industrie ne retrouvera un équilibre, que dans la mesure où elle change de modèle de distribution. Non pas substituer le fichier numérique au CD, et surtout le disquaire au catalogue électronique, mais en stimulant la demande des produits qu’elle a longuement négligé, ceux qui forment cette queue de distribution.

Quand la demande s’effondre il faut la renouveler, et faire découvrir au marché des ressources négligées.

Droits de propriété


Certaines théories en font la pierre angulaire qui tend les voûtes de la société moderne, rationnelle et capitaliste. La propriété est une des questions centrales de l’économie de l’information. Il reste à la défendre.

La particularité des technologies dont nous usons est de reproduire à faible coût le moindre signal capturé sur le réseau. Que dans le droit, la propriété soit fondée et défendue ne fait aucun doute. Mais elle n’est pas respectée, et cela de manière massive. Ce fait seul justifie le discours de ceux qui ne voient aucun crime ni délit dans l’acte de copier. Si un usage est si large c’est que son interdiction même légale est illégitime. De meilleurs arguments pourraient être employés, des arguments plus profonds.

Mais ce qui retiendra notre attention ici, est que cet écart entre le droit et les possibilités, tend à stimuler des actions qui visent à le défendre et à le corrompre, redéfinissant du même coup la nature et l’étendue de la propriété.

Une première lecture des événements nous amènerait à conduire un double inventaire, une double histoire, celle du glaive et du bouclier. Une autre lecture oriente le regard vers des solutions alternatives. Pour parer la morsure de l’épée, plutôt qu’une côte de maille où un écu, il vaut mieux combattre en s’éloignant de l’aire d’attaque. Le Copyleft est une de ces parades. Parodiant le Copyright, il laisse à chacun le droit de copier pour autant que l’auteur original soit reconnu, s’inscrivant dans une économie de la gratuité, qui reconnaît la propriété, il introduit une nouvelle catégorie dans le jeu stratégique. Laure Muselli aura soutenu une belle thèse sur ce sujet. Un des exemples pratiques les plus remarquables est celui de Creative Commons.

Entre l’accaparement privé des sources de rentes, et un modèle public qui crée peu de valeur, cette solution discrimine entre les usages commerciaux et des usages privés, des usages qui génèrent de la valeur, en la préemptant, et les autres qui sont pure consommation en les exemptant du prix du droit. Ce modèle conserve alors la capacité à toucher une large population tout en préservant les sources les plus généreuses de valeur.

Ce n’est donc pas une question de morale, ou du moins elle n’est pas nécessaire, qu’importe la légitimité de la propriété, on peut y trouver les fondements d’une économie de la gratuité et une source de bien public : des biens auxquels on accède indépendamment de ses revenus.