Groupon – après la bataille

L’actualité parle parfois. Entre les rumeurs du rachat de Groupon par Google au prix exorbitant de 6 milliards de dollars – qui n’aura finalement pas lieu– et cette bataille d’arrière garde du papier contre la décision de Leclerc de supprimer d’ici 2020 le prospectus, se dessine avec une limpidité crue le nouveau paysage de la promotion.
C’est bien dans les smartphones que va se jouer la bataille du local, que les marques vont se battre à coup de code promotionnel. Les puces NFC ne seront pas là simplement pour assurer la sécurité d’un paiement, mais pour négocier à la caisse des rabais dument calculés dans des processus d’enchères et les les algorithmes de personnalisation. Ne nous intéressons pas aux détails mais aux lignes du champs de bataille.
Quand la promotion était une confrontation entre les distributeurs et les annonceurs, elle sera une partie à trois. Le tiers celui qui est capable de dire à l’un et à l’autre, où, quand et à qui faut-il concéder la remise nécessaire pour emporter le morceau. On est tenté de parier sur les intermédiaires. Groupon a sans doute la certitude l’emporter le morceaux, on ne doute pas que Google fait travailler ses labo pour une alternative.
Il y aura des variantes, c’est sur. Le modèle de Groupon est pertinent pour le petit commerce désemparé dont le souci est d’atteindre un chiffre d’affaire qu’il ne contrôle pas, en mobilisant les troupes Groupon est en mesure de combler le vide des affaires. Mais parallèlement, la puissance de calcul risque d’en élargir l’assiette. Examinons les intérêts.
Côté annonceur la promotion coûte cher en concession à la marge. Il importe que les clients fidèles et habituels continuent à payer le prix qu’ils acceptent, et par période d’amener d’autres qui d’ordinaire refuserait l’offre à rejoindre les premiers. Le besoin est celui du ciblage. Ayant peu de moyen d’identifier les uns et les autres ils sont prêt à concéder une partie de la marge à ceux qui leur amènent un revenu additionnel.
Côte distributeur la question est de maintenir une image prix basse même si les prix réels sont élevés. Il ont fait payé ce compromis aux annonceurs leurs arrachant des remises indistinctes au bénéfice de leur consommateur, mais au prix de malmener les marques qui leur assurent la fidélité de leur clientèle de base. Que leclerc s’engage dans la bataille se comprend bien. D’autres vont suivre. S’il y a un bénéfice durable, il concerne l’environnement c’est certain, mais surtout de cesser cette dispendieuse compétition de la remise indistincte. Si les distributeurs ne ciblent pas, google et d’autres le front à leur place, à moins que les annonceurs à leur tour s’y mettent comme le fait Danone et vous.
Dans tous les cas, c’est le début de la fin des promotions aveugles, la bataille des prix se loge désormais dans l’ombre digitale et le secret des bases de données.

Work in progress : CRM à l’heure digitale

Voici un document de travail, l’esquisse d’un chapitre pour un ouvrage coordonnée par Thomas Stenger pour Dunod. Le développement d’un certain nombre d’idées qui serpentent dans ce blog.

Celle que l’information est produite plus que nous ne pouvons la traiter, que des processus psycho-sociaux font de cet espace un espace privé plus que public, que le prix de l’adaptation est celui d’une perte de vie privée, que les systèmes locaux favorisent les dynamique locale, microlocale. Qu’au delà des communautés c’est de les faire vivre en de petites sociétés qui est nécessaire.Quelque idées à tester, en cours de mise en forme, et pour lesquelles vos commentaires sont bienvenus.

credit photo

Le pari au cœur des modèles statistiques – le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.
Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L’utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d’hypothèse avec la notion d’intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d’intention de vote d’une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l’intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s’inscrivent dans le cadre d’une approche dite fréquentiste de l’inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l’inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d’hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d’avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l’ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L’inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L’inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L’inférence non paramétrique, comme son nom l’indique ne suppose pas l’existence d’un paramètre d’intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l’exemple type.
    L’inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d’en induire la probabilité qu’elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l’écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l’utilisation de l’inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c’est un cadre bayésien qui s’impose dans la littérature technique.
    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu’un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d’une régularité.
    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d’expert ou encore des anciennes données. Durant l’analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.
    Ainsi sachant qu’une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu’un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d’actualiser le calcul. ( la formule est sur le t-shirt).
    D’après Robert (2006), L’analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.
    L’approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l’inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d’effectuer des tests d’hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc…), mais un grand travail reste à faire dans se sens.
    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s’est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l’estimation. Le raisonnement bayésien désormais s’étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d’estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n’est qu’une invitation, voici un exemple où l’inférence bayésienne donne des capacités d’apprentissage aux robots.

    Et quelques livres:

    Un troupeau de livres pour de rares bergers

    Le livre ne vit qu’en troupeau, que ce soit dans les bergeries des bibliothèques ou sur les alpages de l’âme (je parle naturellement d’une sorte de mouton sauvage).

    A l’heure où le livre électronique va prend son élan, il serait sans doute bon de se poser la question de qui lit et comment.

    Dans la profusion des discussions et commentaires à propos du livre électronique, si l’on parle des éditeurs et des nécessaires changements de modèle économique, un peu moins des auteurs, beaucoup de cet objet-livre comme l’on célèbre un fétiche, le lecteur est oublié plus encore que sa lecture et ses lieux. Il est une belle histoire de la lecture.
    Et ce lecteur est rare. Les enquêtes existent, celle du ministère de la culture ou du la CNDL donnent quelques indications. En s’appuyant sur ces indications 85% des livres sont lus par moins de 25% de la population et sans doute les 10 % qui ont achetés 12 livres et plus dans l’année représentent 80% des ventes.
    On comprend le pari de Apple : la tablette n’est pas faite pour le livre, ou incidemment, dans la mesure où ce paysage doit être nuancé par le niveau d’éducation. Les grands lecteurs sont cadres, ont un bac+5 et sont plutôt des femmes.  Ce sont aussi les acheteurs de la tablette. L’argile des babylonien n’était pas un média de masse. Et si la tablette voyait ses prix se réduire, par une stratégie classique d’écrémage, on l’utilisera bien plus pour jouer et s’informer au quotidien que pour lire.Les révolutions souvent se limitent au palais.
    Inutile donc de mettre en concurrence les Kindle, Nook et autre liseuses de Sony. Ces objets s’adressent à un petit marché, celui des lecteurs fréquents. Et ces lecteurs ont de particulier que si le livre est un objet unique , il ne prend sens que dans une bibliothèque déjà richement dotée. Ils sont les bergers d’un petit troupeau.
    Ils ne se contentent pas de lire en silence ( souvenez vous que cette lecture est une pratique somme toute récentes), ils lisent en résonnance. Ils ne lisent pas forcement du début à la fin (il n’y a que les policiers que l’ont lis du début à la fin), mais dans tous les sens, ils annotent, ils encochent, ils cornent. Ils ne lisent pas seuls, ils échangent, se nourrissent de compte-rendu, de critiques, en parlent à leurs amis. La lecture est sociale.Elle pourrait devenir pornographique aussi.
    Si l’on veut vraiment connaître ce marché sans doute vaudrait-il mieux étudier les superlecteurs que les otaries et les phoques assoupis sur les plages. Leurs 3 thrillers de l’été seront leur lecture de l’année. Ils oublierons les volumes dans leurs chambre d’hôtel qui iront peupler la bibliothèque du centre de vacances. Ces lecteurs forment un marché qui reste considérable, les 30 titres les plus vendus représentent 8 000 000 d’unités vendues annuellement, ou 5% du chiffre d’affaires de l’édition (les 1000 premier 20%), sur 450 millions d’exemplaires. 520 000 références ont été vendues au moins une fois et 60 000 nouveautés et rééditions sont publiées chaque année.
    Les super-lecteurs, ceux qui achètent plus de 30 ou quarante livres par an, en lisent le double, sont finalement peu connus. Ces boulimiques peuvent l’être par profession, universitaire ou journaliste, ou par passion. Gageons qu’ils venèrent moins l’objet que la bibliothèque. Une partie d’entre eux sont ces lecteurs de revues scientifiques qui progressivement prennent l’habitude d’aller dans ces bases documentaires géantes telles que ebsco, Elsevier, Scopus, thomson content currents sans compter les ArXviv… en voici un témoignage. Des milliers de revues, des millions d’articles rassemblés en bases qu’on annote, qui fournissent des références, que l’on peut échanger, classer, accumuler. Un rêve labyrinthique, borguesien.
    Les lecteurs ne lisent pas que des livres, les lecteurs professionnels d’ailleurs abandonnent les livres qui n’ont plus de valeur, ils lisent des revues, parfois la presse, le livre ne se limite pas au divertissement littéraire, il est ce moyen d’acquérir une connaissance qui grandit chaque jour aussi vite qu’elle fond.  Le livre change de forme. Comme l’album se réduit au morceau, les livres se réduisent à la nouvelle, à l’article. Mais le lecteur survit, le grand lecteur continue de lire, son addiction est telle qu’il exige moins l’accès au livre qu’à la bibliothèque.
    Le marché des liseuses, est un marché de clés. Qui va ouvrir les portes aux nouvelles tours de Babel?

    A lire aussi ici

    Le grand livre de l’internet

    et ailleurs (surtout) :  Read/Write Book sous la Direction de marin Dacos

    ___________

    Impressions numériques…Le document est un média

    Certaines technologies sont discrètes mais essentielles. Dans l’univers du marketing, l’impression numérique est sans doute la technologie qui a et qui aura le plus d’importance dans les pratiques. Permettant les petits tirages, et facilitant la personnalisation des documents, à des échelles de plus en plus vastes, plus que l’internet ce sont ces outils qui permettent les pratiques actuelles de marketing direct.

    Au-delà de l’industrie du marketing direct, l’impression numérique transforme en profondeur l’industrie textile, l’édition, et l’industrie du packaging. Et dans chacun des cas, elle assure le dernier maillon de la chaine de la personnalisation. On ira voir ici quelques éléments factuels produits par le spécialiste du domaine : Frank Romero du Rochester Institute of technology. Si ces technologies sont apparues dès 1993, leur impact croissant vient de l’accroissement continu de la définition, de la taille des documents, de la vitesse (des centaines de pages par seconde) mais surtout des échelles grandissantes de production auxquelles elles surpassent les techniques de l’offset. On consultera les publications d’Interquest pour plus de détails sur l’économie du secteur.
    Ainsi l’impression numérique a pour effet principal de transformer le papier en écran numérique, les possibilités techniques et économiques permettent d’obtenir sur le papier les même fonctions que sur un écran, finalement. Cela d’autant plus facilement que les offreurs de solutions (HP, Xerox, Kodak, Riso…mais aussi les spécialistes de la GED tels que CINCOM) associent à l’imprimante des solutions logicielles pour gérer les documents. Ces solutions forment le cœur de cette nouvelle industrie. En permettant d’aller chercher dans les bases de données des éléments d’informations variés, des documents personnalisés peuvent être composés puis produits. Ils seront diffusés sous forme numérique, ou papier. Le support compte finalement peu, c’est l’intégration de la chaine documentaire et de la chaine d’édition qui devient essentielle. L’imprimante n’est alors plus qu’un terminal comme les autres, et la production peut alors se faire au plus près de la consommation. Nous en somme au stade du PoD ( Printed on Demand).
    Il est assez évident que les solutions matérielles et logicielles ouvrent depuis plusieurs années un champ immense d’applications et de modèles d’affaires. C’est le cas notamment pour le marketing direct de cette approche à la dénomination malheureuse, mais importante : la transpromo. L’association des bases de données documentaires (GED), des systèmes CRM, de l’éditique, et de l’impression numérique permet aujourd’hui de transformer n’importe quel document transactionnel (une facture) en un support publicitaire. Toute la production documentaire de l’entreprise, devient un média à part entière. Un nouveau canal, personnalisé.

    Un marketing de la simplicité

    Tel est mon devoir du moment. Bientôt un débat pour la Web TV de Orange Business Services, et un papier à faire avec notre ami Laurent Florès. Le marketing de la simplicité en est l’énoncé. Voici un sujet qui n’est pas simple ! Car le simple ne se saisit pas de manière aussi évidente qu’on espérait.

    Le simple est ce qui varie de l’idiotie à l’évidence d’une compréhension immédiate. Le simple est avant tout une économie, une économie de pensée et de sentiment – le simple est heureux et ça lui suffit. Le simple c’est de n’user quand la tâche se présente, que ce dont on dispose sans faire d’excessifs efforts. Autant dire que le simple n’est pas un absolu, mais un relatif radical. Il n’y a pas d’originalité dans le concept. Le bon vieux modèle TAM, maintenant infiniment ressassé, en exprime l’essentiel : ce qui compte c’est la facilité d’utilisation et cette facilité d’utilisation c’est le simple. La réduction radicale des efforts nécessaires pour user d’un bien ou d’un service. C’est bien ce principe que poursuivent avec succès Apple ou Nintendo.

    Soyons plus nuancé, le simple est la réduction de tout effort supplémentaire au regard de ce que l’on est en mesure de faire. L’économie est celle de l’effort additionnel. L’ambiguïté est que le simple se définit par rapport aux ressources dont on dispose et dans la vie, l’inégalité étant bien dominante, le simple est une affaire bien compliquée. Faire simple c’est donc trouver une solution qui fasse qu’en dépit des différences de ressources, chacun ne se sente pas la nécessité d’y engager plus qu’il ne possède. Alors faisons minimal, mais ce minimal peut heurter ceux qui sont dotés de talents, le simple pourrait devenir idiot, indigent, simpliste. Je ne connais pas de DJ qui se contentent d’un simple variateur de volume, ou de pilotes qui renoncent au passage des vitesses.

    Mais le simple est aussi affaire de morale. Il s’oppose à l’ambition, à la perversité, au dispendieux, il est cette éthique qui parfois devient ascétique. Le simple est une modestie, cette règle qui impose que la qualité ne doit pas se dire, et parfois ne même pas s’affirmer. Le simple marche nu-pied quitte à passer pour un rustre. Bien plus que moral, le simple est politique, et dans son dépouillement il délégitime ceux qui font de leurs ors les symboles de la puissance.

    Les produits simples ne sont pas toujours ceux qui nous suffisent, mais ceux que l’on consomme pour contester à d’autres une certaine hégémonie. Le marketing de la simplicité peut aussi être la morale de Port-Royal. Un renoncement à l’amour d’ici bas pour l’improbable éblouissement de l’au-delà. Le simple peut dissimuler des intentions tortueuses, et son économie fonde une radicale contestation. Le simple fonde dans sa pauvreté une alternative au discours de la souveraineté. Mais le simple peut être aussi un fou. N’est-ce pas cette sorte de stratégie que poursuit Innocent?

    Le simple enfin est une esthétique. Ce minimalisme abstrait qui s’oppose aux désirs baroques, un monisme qui répond au panthéisme ambiant, un naturel qui défie l’artifice, cette idée que le monde peut se réduire à un principe si profond, qu’il est l’essence du monde comme un trait est l’essence de la peinture. Le simple, oui, est aussi un essentialisme. Au pire le rasoir d’Occam. Un classicisme qui épure le corps de ses rides, de ses fronces, de ses bijoux, de ses fards. Bref l’esthétique galbée des années 70 contre les floraisons des années 60, l’épure de Mondrian qui balaie les fauvismes, je laisse aux amateurs d’arts le soin de poursuivre.

    Le simple donc n’est pas si simple, moins qu’une vertu, il est une position politique. Et si certains militent pour un marketing de la simplicité, encourageons-les à en comprendre les raisons du succès. En cette fin de la troisième globalisation, et de son troisième effondrement, on comprend que les foules sont prêtes à lyncher leurs dirigeants, ne se reconnaissent plus dans le désordre du monde, et veulent rappeler que les simples ce sont elles.

    Le marketing de la simplicité n’est pas une vérité, mais un moment. Un appel de consommateurs désemparés, dominés, écrasés, à ce que les maîtres leur produisent des objets qui leurs conviennent. Des objets qu’ils puissent utiliser, des objets qui les reconnaissent, des objets qui leur disent qu’ils ne sont plus les victimes de la bagarres des dieux, mais des hommes et des femmes qui vivent sans ambitions plus grandes que celle de parcourir leurs vallées et de boire librement l’eau de leur ruisseaux.

    Comprenons bien ce message, la simplicité qui semble être demandée n’est pas une économie, n’est pas un ascétisme, ni un minimalisme. Elle est juste d’obtenir ce que l’on croit être juste d’obtenir.

    Retargeting : l’art de rentrer par les fenêtres

    L’idée n’est pas neuve, et le principe est simple. Si un internaute témoigne d’un certain intérêt en s’arrêtant sur une page de e-commerce, autant noter sa présence, et si on le retrouve lui offrir à nouveau ce sur quoi il semble avoir hésiter. Le retargeting se limite à cette idée. Mais il est plus fort que les grecs du quartier latin qui poursuivent le touriste hésitant, menu en main. Il revient le lendemain.

    La technique plus sophistiquée. Pour un aperçu, on jettera un coup d’oeil ici . Il semble que la technique soit sous-utilisée , même si elle produit apparemment des résultats remarquables . En france, il semblerait que ce soit critéo qui en offre un des meilleurs outil .

    Dans le principe, la technique est parfaitement convaincante, de même que les vieilles techniques de réactivation des clients, elle s’appuie sur l’idée que l’hésitation permet de cibler des prospects pas encore tièdes pour pouvoir craquer si on leur force la main. Un bel exemple de ciblage comportemental qui s’appuie sur un critère simple et fort : l’envie ne résiste pas à une seconde tentation, et il y tant de processus d’achat abandonnés qu’il faut de tenter de les rattraper.

    Mais quelques questions : qu’en est-il du respect de la vie privée, des données personnelles? Quel effet à long terme de la vente forcée? Le débat est ouvert. Sans aucun doute, c’est ce type de technique marketing qui va crisper la société, et conduire les hommes politiques à mettre une main noire et liberticide sur la libre circulation de l’information. Mais plus important encore, se pose la question des résistances des consommateurs à ces nouvelles actions. Dans le jeu du glaive et du bouclier, attendons nous à de nombreuses innovations.

    —–

    credit photo : jef safi ( encore et toujours lui!)

    Réalité augmentée – les toilettes sauvages!

    Il y a beaucoup à dire sur le sujet de la réalité augmentée. D’abord qu’il ne suffit pas d’incruster des images façonnées dans l’illusion du réel que l’esthétique de la vidéo semble suggérer. Relisons Baudrillard, il s’agit moins de réalité que de simulacre.

    Quand certains s’extasient devant la technique, ne regardons que l’art qui s’exprime par la technique. Pour ma part, je désespérais des publicitaires, ils en est quelques-uns qui au delà de la technique font de l’art et savent communiquer. Je ne sais s’ils ont eu en tête la pissotière de Duchamps, mais ils reprennent à coup sûr cette extension du street art dans le domaine de l’animation (dans le genre je conseille le travail de BLU).

    Disons de manière définitive que la réalité augmentée est au fond moins une question de technologie, qu’une affaire d’esthétique et de sémiotique, une affaire de langage. Nous discuterons plus tard du fait technique que la réalité augmentée est aussi une affaire de déréalisation de l’image par le fait même qu’elle permet d’en segmenter la vision.

    En attendant apprécions ce très joli message de protection. Bravo à l’agence Tbwa.

    Question de grid – de l’électricité à la finance

    On évoque depuis longtemps des smart grids qui sont amenées à révolutionner l’industrie de l’énergie en disposant sur le réseau des dispositifs de traitement de l’information, comme des compteurs intelligents, qui permettent aux appareils connectés de s’ajuster aux conditions techniques et économiques du réseau et de l’environnement proche. On imagine les cellules photovoltaïques dialoguer avec le compteur général pour « pricer » une projection de revente au moment où les propriétaires seront absents et auront activé un plan minimal de consommation. Pour établir le deal il est nécessaire que l’agenda de nos gentils propriétaires, les prévisions météo, le système de maintenance des panneaux solaires et le réseau de transports de l’électricité se soient mis d’accord sur un volume et un prix.

    On en attend une réduction de la consommation de l’ordre de 20 à 30%, un lissage de la demande qui réduisent les points et les ruptures, ainsi que les coûts pour les consommateurs. C’est le secteur de l’énergie électrique qui est au centre de la lentille d’observation. Réduire les pics, remplir les heures creuses, mais servir aussi l’énergie quand elle est souhaitée, par un système qui n’est certainement pas planifié, mais qui n’est pas tout à fait un marché, plutôt une manière organique de s’ajuster aux variations. Cette approche de grille intelligente, résumée dans la faculté des nœuds à prévoir l’état de leurs correspondants, l’absence de lieux de coordination centrale, et une infrastructure informationnelle point à point, est ainsi sensée optimiser la production et la consommation électrique.

    Un tel système au fond s’applique potentiellement à tous les réseaux qui convoient une matière mais simultanément peuvent rendre compte de l’état de la production, du transport et de la consommation de cette dernière. Un double flux, et une cybernétique généralisée. La finance personnelle en est sans doute un des champs d’applications les plus intéressants.

    Un des réseaux les plus remarquables est le réseau de Western Union qui associe les terres d’émigrations à celles d’immigrations, contrebalançant le flux des populations par un flux de redistribution des richesses. Je ne suis pas sûr que le partageable soit équitable, mais les dispositifs d’échanges semblent instructifs. Ces flux d’ailleurs empruntent de plus en plus la voie de l’internet et des télécoms : le transfert d’argent par mobile est un des services les plus en vogue.

    Ces flux répondent à d’autres instructions financières dont on a l’habitude. Et certains dans le domaine innovent réellement, un projet tel que friend clear qui tente d’opérer dans un domaine vaste mais obscur des prêts et avances entre proches, celui qui ailleurs se retrouve dans la traditions des tontines, en est un bel exemple. Sans compter le twitter des dépenses, Blippy qui est sans doute l’embryon des systèmes futurs de publication de l’information.

    Dans tous les cas ce qui apparaît évident est que l’argent est comme l’électricité, moins une contrainte, un ascèse ou une économie, que le lubrifiant des activités à accomplir qui ne peuvent se satisfaire de manque de liquidité. Dans un tel système, l’extrême demande peut faire venir de grands risques. Etêter les crêtes de risque pour assurer un financement constant et raisonnable des activités semble un objectif raisonnable : celui de mener de manière fluide et sûre vers les demandeurs un flux de financement suffisant, dont le volume faible n’est pas forcement satisfait par les institutions centrales. Ce n’est pas pour rien que le micro-crédit est apparu.

    Les marchés financiers n’ont pas produit cette grille intelligente et modérée. Bien au contraire ils ont démontré leur capacité à se constituer en bulles qui explosent sans qu’on soit en mesure de deviner les carnages. On ne supprimera pas la finance, et l’intéressant est de découvrir d’autres canaux d’intermédiation plus efficace, moins dans la valeur espérée que la faculté d’adoucir tous les risques, en assurant la livraison de cette énergie de l’entreprise qu’est l’argent.

    Dans tous les cas, électricité ou monnaie, à l’heure où l’internet non seulement devient mobile, mais concerne de plus en plus les objets, il va devenir utile de s’interroger sur ces nouvelles formes de régulation de l’économie qui échappent à l’institution et au marché, à la planification et à la centralisation des flux. Une forme organique, locale, auto-organisée, des échanges économiques qui de plus en plus ne pourront plus être analysés dans le forme simple de l’échange d’un bien contre de l’argent, mais d’un échange accompagné de sa publication, d’une production d’information qui en assurera le contrôle.