Réalité augmentée – la leçon de Lady Gaga

Télescopage. Il y a des théoriciens de l’image actuelle, finalement fort peu, et l’on citera parmi eux André Gunthert. Mais il y a l’image aussi, et dans la foule des professionnels très peu en font de vraiment fortes. Il nous arrive parfois des images faites avec la violence du punk, l’intelligence pop et l’art du plus rare des publicitaires.

Celles de Lady Gaga et de Beyoncé y appartiennent. “Telephone”, ou plutôt, le « she has no dick » qui introduit, saisit le portrait renversant d’une société qui emprisonne une personne sur 100 et fait de l’esthétique de la prison un art populaire. Ces images ne sont pas les premières et manifestement la prison est avec l’ouest, un des constituants essentiels de l’imaginaire américain. Voilà d’ailleurs qui donne au clip une étrange profondeur à un peuple épris de liberté. Il semble aussi prompt à célébrer les vastes plaines qu’à emprisonner et à tuer.

Dans l’art de l’image il y a aussi l’art du télescopage. De fausses images venant de fausses cameras de videosurveillance, de faux transexuels et de fausses femmes. De fausses publicités, et d’autre vraies. Voilà qui peut affoler aussi bien Baudrillard que Debord, ou les rasséréner. La société du spectacle est son propre simulacre, inversement aussi, et retournant encore le gant comme on retourne un préservatif, on retourne des cœurs qui n’ont plus d’endroit et d’envers, sauf l’ordre de cette chorégraphie qui fît de Broadway le lieu de toutes les parades. Après tout Lady Gaga est l’Esther Williams de l’extrême modernité.

Soyons clair. Il n’y a pas de post modernité. Il y a une nouvelle modernité, sans doute de multiples modernités, peut-être des modernités liquides, il y a sans doute une extrême modernité qui se forme dans l’exaspération de la technique. Quand la prison devient l’horizon ultime de la consommation que pouvons-nous voir encore?

L’ironie sans doute, l’agonie de la critique aussi. Juste la raison à l’œuvre de son extrême. Il y a des raisons pour tout. Et cette raison là est celle du spectacle, c’est à dire que ce qui se montre à voir a un sens pour tous, tous ont quelqu’un de proche en prison. Et tous magnifient la vie, fût-elle sous les barreaux. On y retrouve en partie l’imaginaire de Famille Royale, même si les références, et une vertu de ce film est bien d’être auto-référentiel, sont plus largement cinématographiques, pop, ou publicitaires.

Le propre de la modernité n’est pas l’exclusion, mais cette vertu d’inclure y compris ce qui par définition se situe aux marges. Sans doute y a-t-il eu de meilleures démonstrations, celle-ci est exceptionnelle. Elle appartient totalement à cet art de l’image que la publicité a développé : faire du dehors un dedans – la mode de la réalité augmentée n’en est qu’une pâle extension.

Le spectacle existe par le public. Dans ce rapport narcissique qui se forme par la magnification du soi, un extrême du romantisme, cette adoration du sujet mais qui dans son essence ne peut vivre que par sa socialité, son exigence d’inclusion. La modernité considère l’individu comme une variété sociale, elle peut être rare, elle n’est jamais unique, elle absorbe les marges car au fond elle n’accepte qu’une chose de l’individu, c’est que dans sa liberté il puisse se réduire à l’absolu d’une raison.

Revenons à l’image et à son message, d’une simplicité redoutable, fussions femme dans un univers Queer, nous sommes une raison qui mérite un spectacle. Et la force des mots ne vient pas des images, mais du statut de celles qui l’incarnent. Des stars. Juste le rêve de ceux qui survivent l’oppression. Juste une variation du maître et de l’esclave. La violence de l’image ne parvient pas à transgresser la modernité, elle lui donne des formes colorées, mais s’effondre comme le projet post-moderne se ruine dans une critique aiguë, mais impuissante, des formes que génère la modernité.

S’il fallait aller plus loin, il faudrait abandonner la forme, et reconnaître l’autre. Ce chemin serait de n’en donner aucune image. Juste admettre que l’altérité ne se fond pas à la raison, et accepter que certains mondes ne se réduisent à aucune image. Il faudra se faire aveugle et sourd, presser l’inconnu sans rien reconnaître, et faire de ce qui ne coïncide à aucune de nos catégories le centre d’une attention précise. Nous n’y sommes pas, pas encore, de regarder sans indifférence, les ombres qui traversent notre monde.

L’incroyable de ces images n’est finalement pas dans la maitrise des codes de la consommation, qu’on fait passer pour des codes culturels, mais dans leur incroyable capacité à toucher chacun de nous. Ces images sont à ce jour un des plus grands succès populaire de la TV selon Youtube.

Note :

A regarder après le clip…juste pour apprécier la profondeur historique : Let’s make a sandwitch

Multi, cross ou transcanal : une clarification


Voilà un bon moment que les nouveaux médias sèment la pagaille dans l’ordonnancement bien réglé des médias. On a cru s’en abstraire en affirmant bien fort qu’il s’agissait de communiquer à 360°C, comme si enfin on pouvait s’affranchir des limites naturelles de notre angle de vue qui est de l’ordre de 170°C. C’est bien plus que la température du corps mais bien moins que ce qui semble nécessaire.

Alors venons-en au fait. La multiplication des médias nécessite de repenser leur organisation. Et cette multiplication n’est pas que le fait de l’Internet, du mobile et des nouveaux écrans digitaux sur le point de vente, elle est que simplement au sein d’un système technique, l’Internet, des milliers, des millions de canaux sont en voie de constitution. Certains sont massifs comme les rares moteurs de recherches, et les nouvelles plateformes sociales, d’autres sont très spécialisés comme les blogs et leurs organisation communautaire. Ce qui trouble le paysage et qu’aucun de ces canaux n’est un animal solitaire, ils fonctionnent souvent en meutes, fidélisent très peu, et multiplient leurs échos entre des falaises imposantes, celles d’éco-systèmes aussi impénétrables qu’ils sont peu définis. Dans ce désordre une intuition s’impose : il ne s’agit plus de choisir quels canaux sont les meilleurs, et de répartir entre quelques-uns des investissements trop faibles. Il faut œuvrer à travers une multitude.

C’est cette pluralité qui est le premier défi, un multicanal qui s’impose comme l’art et la science de combiner au mieux des ressources le petits nombres des canaux disponibles pour atteindre toutes les cibles. Ce multicanal-là, comme l’est le multiculturel, ou le multinational, est un art de combinaison. Chaque canal définissant une cible différente, qui se superposent les unes des autres, la politique optimale est celle qui pour un minimum d’effort produit l’effet le plus efficace : un niveau moyen d’exposition défini pour une base donnée. Vive la programmation, linéaire ou plus complexe. Rien ne change que de mieux comprendre les critères de segmentation, les nouveaux médias se définissent moins en profils de CSP qu’en niveaux d’implication, qu’en situations d’information, et qu’en niveaux d’attention. Ce qui conduit à une hypothèse simple : c’est le cycle de vie du client et son degré d’engagement qui sont déterminants. Une fois bien définis les critères les plus pertinents, la place sera ouverte aux programmateurs. Le multicanal est un art, et la science, de gérer la diversité et ses superpositions. Cela requiert beaucoup de complications, mais c’est dans le principe, un problème très simple.

L’inter (cross) pose des problèmes de nature différente. Comme la question culturelle, il ne s’agit pas seulement de traiter individuellement les populations, l’entre-deux des cultures, mais l’entre-deux des canaux, leurs interactions. Ce que fait l’un, l’autre ne le fait pas, et les critères d’efficacité sont de natures différentes. Il s’agit de régler les effets de l’un sur les effets de l’autre. La campagne de grand médias pourra susciter un intérêt pour un site, mais le site pourra renforcer l’effet persuasif du mass média. Et c’est déjà une situation nouvelle. Un même sujet peut être atteint non pas par deux canaux différents, mais réagir différemment à différentes combinaison des deux canaux. Ce sera une question d’exécution. Ainsi une campagne virale pourra préparer et renforcer l’impact une communication de masse en mobilisant les leaders d’opinion, tout comme inversement la campagne de masse stimulera l’effet boule de neige d’une campagne virale. Laquelle des deux options est la meilleure? Cette problématique de l’inter(cross) canal se constitue dans l’idée qu’une même population peut être différentiellement touchée par des combinaison de médias, notamment parce que les différents médias jouent sur des aspects distincts du processus de décision d’achat. Nous avons tous en tête des cas dans lesquels la fréquentation du point de vente prépare la réception aux messages, autant que la réception des messages favorise la décision d’achat. L’art de ce média planning s’appuie sur la connaissance des modèles de décisions des consommateurs.

Comprenons à ce stade que deux approches bien différentes se présentent: la première met l’accent sur la diversité des cibles à toucher qui sont différentiellement sensibles aux différents médias, la seconde suppose que la cible est homogène mais que sa réponse dépend de la combinaison des médias.

Voilà qui est très certainement insuffisant, car les consommateurs diffèrent moins par leur sensibilité aux médias, qu’à leur sensibilité aux combinaisons de ces derniers. Et là c’est une complication. Sans doute la même que celle que connaissant les transnationales. Coordonner des activités dans de multiples pays en agissant comme dans un seul. Le transcanal reviendrait à intégrer les deux approches et à formuler pour chaque segment de clientèle une combinaison de canaux adéquats. Si l’idée est simple la réalisation devient complexe, car chaque canal se voit assigner des fonctions différentes et multiples pour des public distincts. Voilà qui conduit à une approche matricielle dont on connait les difficultés de mises en oeuvre.

La clé est de garder quelques principes en tête :

1) les canaux de communication se distinguent par leur portée et leur richesse et leur synchronicité.

2) L’ajustement du canal à une cible dépend du besoin de richesse et de synchronicité demandée par l’audience, il est d’autant plus élevé que l’engagement est important.

3) L’engagement varie selon les circonstances, l’audience peut basculer selon ses besoins d’un régime à un autre. D’une communication asynchrone et pauvre, qualifions-la d’ambiante, vers une interaction intense et immédiate.

Ayant ces idées en tête on voit se dessiner ce qu’est une communication trans-canal. C’est une communication ambiante, à faible intensité, formée de flux léger, qui donne cependant la possibilité de basculer quand cela est nécessaire, pour le consommateur, vers une interaction directe est riche. Dans un tel modèle les médias se superposent en couches, et l’aspect critique est la possibilité de basculement d’un canal à un autre. Il s’agit moins de rayonner dans tous les sens, à 360°C, que d’irradier et de concentrer.

Pour cela il faut disposer d’une architecture des médias. Nous y reviendrons. Mais en quelques mots sa structure se dispose autour d’une source permanente et fixe (les sites et les blog), qu’enveloppe une gamme de canaux de flux (de Twitter à Facebook sans oublier le RSS), l’ensemble sera dynamisé ponctuellement par des campagnes de masses (de la TV aux mails) des lignes téléphoniques seront tendues vers les aficionados, ainsi que des réseaux privés. On réservera certains canaux pour structurer une masse qui n’est plus une masse mais se constitue en une véritable société.

—–

En complément sur ces idées :

deux études dans le secteur bancaire – une synthèse dans la revue Banque

Média sociaux : la force du local


L’actualité rappelle avec le rachat possible de Yelp par Google que le véritable enjeu de l’internet social n’est pas forcément dans le global qui aura marqué la dernière décennie, mais le local. L’art de la publicité n’est plus de concevoir des messages pour le monde mais de s’accouder au comptoir. Quelques arguments militent pour cette thèse.

Le premier est qu’en dépit de la distorsion de l’espace-temps qu’apportent les technologies, leur effet social est de renforcer les centres. C’est une idée ancienne exprimée par Castells, qu’au fond les technologies de l’information moins qu’elles ne rapprochent les points éloignés de l’espace, les densifient, et par conséquent renforcent l’importance du voisinage.

Mais au-delà de ces effets macro-sociaux, l’internet de manière plus microscopique semble renforcer les liens avec les proches plus qu’il n’offre la possibilité d’échanger avec les étrangers. Ceci est d’autant plus marqué que la taille de nos réseaux personnels est relativement limitée (le fameux article de Dunbar). Il reste cependant à vérifier que ce renforcement des relations est plus fort que l’élargissement du cercle de socialité. Cette hypothèse est celle que Boase a testée montrant que plus nombreux sont nos liens, plus le mél est employé ainsi que les autres médias (les utilisateurs du Net ayant un réseau médian de 37 personnes pour 35 pour les autres.). Bien sûr il reste à savoir comment nos relations se distribuent dans l’espace. Mais ils semble que celui-ci soit plus restreint qu’on ne pense. Nous vivons donc toujours en un lieu dont l’aire est restreinte, même si nous y sommes très mobiles (voir par exemple).

L’horizon des réseaux sociaux reste aussi étroit que celui de nos villages, et la technique n’y peut rien que de renforcer cette tendance. Si ces faits sont avérés, on comprend que l’espace pertinent est un espace local.

Un deuxième argument relève de la valeur de l’information. Comme chacun l’aura remarqué en dépit des fantasmes, l’information sur le net et dans les réseaux est pauvre, redondante, et son agrégation n’est pas forcement la source de connaissance que l’on peut espérer. L’information ne prend de valeur que si elle est contextualisée.

De ce point de vue l’échelle locale est particulièrement pertinente. Car même minimale, par exemple un commentaire sur un commerce, l’information prend sens dans un univers bien connu des sujets. L’agrégation des commentaires apportera peu. Ce qui vaut pour les consommateurs est au fond une information factuelle dont la densité est faible mais la pertinence forte dès lors qu’elle est située dans un contexte que le consommateur connait bien et qui lui permet d’en tirer toute la valeur. Ainsi une note (agrégée) d’un hôtel sera utile certes, mais sans doute moins que de savoir à quelle distance se situe-t-il du lieu d’activité, d’une station de métro, quels sont les commerces environnants etc. De même la valeur d’un livre dépend moins du sondage que de retrouver l’avis ambigu de quelqu’un qu’on croit proche. La force des critiques littéraires au fond est d’apparaitre comme nos amis (je vous recommande de suivre les excellentes chroniques de Pierre Assouline et mieux encore d’en lire avec précision les commentaires de ses aficionados; je connais peu de cas où l’intimité est aussi grande).

Un troisième argument est qu’en dépit d’une croissance remarquable le commerce digital est encore marginal et risque de le rester. Nos commerces sont encore, si ce n’est au coin de la rue, au carrefour de nos villes. Si près de 75% des français achètent au moins une chose à distance, et dont la moitié par le net , la part des canaux distants ne dépasse pas les 6 ou 7%, en étant optimiste elle sera peut-être de 15 % dans quelques années.

Le quatrième élément est le formidable développement de la géolocalisation, non seulement la capacité à situer, mais aussi à reporter l’information dans son contexte géographique. Il est à peine nécessaire de souligner ici les développements des SIG. Il suffit de regarder son GPS favori. Et de ce point de vue le développement de la diffusion des smartphones risque de favoriser les usages de localisation comme en témoigne une étude de Gartner .

Dans une telle perspective, on peut s’attendre d’une part à un formidable développement de sites globaux à finalité locales. La globalisation du site permettant d’obtenir les échelles de recueil d’information nécessaires, mais le niveau d’utilisation pertinent reste local, villageois. Bref le net au service de la proximité.

On imagine les applications, on devine que les capacités de personnalisation de la communication risquent de tirer profit de ce que l’information locale et localisée vaut plus que les messages globaux. On comprend l’appétit de google qui avait déjà compris l’importance de la publicité locale .

Et l’échec du rachat qu’on vient d’apprendre n’empêchera pas la gourmandise. Les modèles publicitaires à venir ne dépendent plus de la créativité des graphistes et des rédacteurs, mais de l’intelligence qui est donné à des phrases ridicules, par un usage raisonné du contexte de leur expression. Peut importe de dire “Venez tels que vous êtes”, il importera d’inscrire sur l’écran du GPS, à 7 heures du matin coincé dans les bouchons “Bienvenue, MacDo vous offre un café, dans 10mn la route sera liberée”

Communication efficace et création de valeur – un appel à com de l’iREP


Les séminaires de l’IREP sont un moment privilégié pour réfléchir aux évolutions de la publicité en particulier et de la communication en général. La question de l’efficacité fait l’objet chaque année d’un rendez-vous spécifique.

Celui de cette année
aura une saveur particulière car il se tient après un double choc : celui des médias sociaux et celui de la récession. La seconde précipitant sans doute la première même si cette dernière défie toute récession (Communication efficace et création de valeur – appel à com ici) .

Le choc de la récession s’observe de manière immédiate dans la réduction des budgets publicitaires, mais au-delà dans une relative défiance qui s’installe à l’égard de marques dont les consommateurs peuvent croire qu’elles abusent de positions dominantes. Alors qu’ils recherchent dans le low-cost, les marchés alternatifs, une vérité vraie, de ce qui vaut vraiment, l’artifice publicitaire peut perdre toute son efficacité car ses feux, ses strass, manifestent sui generis une sorte de destruction de valeur. Des coûts inutiles.

C’est un vieil argument qui fait du marketing un emballage excessif, une sollicitation dispendieuse. Tant qu’à crier vers le chaland autant que l’appel lui apporte quelque valeur. Les publicitaires ont reconnu le fait depuis bien longtemps, faisant de leur message plus que des appels à la rhétorique rodée que des spectacles qui ravissent même si le produit n’est pas acheté.

Ce spectacle a sans doute quitté certains écrans pour se retrouver sur d’autres, et les vitrines valent sans doute plus qu’une chanson.

Ce qui en période de prospérité est ce à quoi on prête attention, en période de crise est ce qui fait rêver. Mais à quoi donc rêve-t-on aujourd’hui ? D’être un autre que soi ? Ou d’être avec les autres fussent-ils différents de soi? A croire les chiffres le film Avatar en donne une indication. Que le film soit une version supplémentaire et contemporaine des Westerns ( revoyons les cheyennes de John Ford), son argument répond sans doute à l’imaginaire du temps et à une permanence de l’histoire. Il sera un très beau conte de Noël, surtout après Copenhague !

Être avec les autres, être autre que soi. Nous rêvons d’être les deux, et sans doute est là l’essentiel des réseaux sociaux qui permettent d’être avec les autres, tout en étant un autre que soi. Les nouveaux écrans permettent cela. Ne nous étonnons pas qu’ils soient nos nouvelles vitrines.

Back and front channel – menaces sur nos arrières!

Les conférences ne sont plus ce qu’elles étaient. Le conférencier désormais doit savoir que sa voix et ses échos se transmettent sur le net à la vitesse de son débit. Ce phénomène a fait l’objet d’un livre de Cliff Atkinson, commence à faire l’objet de recherches sérieuses, et semble électriser la blogosphère depuis le four très médiatisé de Danah Boyd.

Que les auditeurs pianotent et commentent en direct, élargit l’audience et amplifie ses effets au meilleur et au pire. Voici une pratique qui risque d’effrayer au-delà du petit cercle des conférenciers la grande masse des enseignants et autres formateurs. Les auditoriums, les amphithéâtres et les salles de classes, ne sont plus murés! Le temps réel frappe la réalité de nos discours.

Mais au-delà de l’anecdote et du problème de pédagogie que cela pose, cette distinction du back channel et du front channel apparait comme tout à faire pertinente de manière générale dans le champ de la communication. Dans la mesure où la prise de parole des marques peut être commentée immédiatement et de manière continue à mesure de leur campagne, il est évident qu’il ne s’agit plus seulement d’avoir une approche des mesures d’efficacité par un simple feed-back, mais de prendre en compte le feed-back des effets de back channel. Bref, mettre en place une double mesure de la performance des canaux frontaux, et des canaux d’arrière plan (pour en donner une traduction).

Cette distinction permet aussi de clarifier les stratégies de communication et leurs enjeux. Si bien sûr les campagnes traditionnelles ne seront pas entièrement substituées par les médias sociaux, c’est qu’elles constituent toujours le front channel. En revanche dans l’univers des médias sociaux deux ensembles d’actions doivent être distinguées : celles qui visent à contrôler ou orienter la communication d’arrière plan, et celles qui visent a exploiter ces canaux comme des outils de communication frontale. Les secondes ne pouvant suppléer aux premières. Ce n’est pas car on communique avec un réseau social que la conversation d’arrière plan est réduite, bien au contraire, elle en sera sans doute amplifiée, et c’est peut-être une communication par un média classique qui permettra de la contrôler, en maintenant la cohésion d’un discours référentiel.

Les frontières de l’intimité

ETO et Marketing Audit , avec le concours de la CNIL et du Master MOI, viennent de présenter à la presse (on en trouvera un compte-rendu complet dans un article de Stratégie) les premiers résultats de la troisième édition du baromètre de l’intrusion.

Près de 30 000 consommateurs internautes ont été interrogés sur les messages qu’ils acceptent de la part des marques auxquelles ils sont fidèles et de la part des autres marques, mais aussi sur les informations personnelles qu’ils acceptent de partager, et leurs usages des nouveaux médias. Le sentiment d’intrusion semble augmenter et deux grandes leçons peuvent être tirées de l’étude :

  • Le sentiment d’intrusion est d’autant moins fort que la relation à la marque est satisfaisante. Construire la relation, pour les marques, est ainsi le préalable pour être écoutée par les consommateurs.

  • Les internautes ont pris conscience de l’information qu’ils donnent, et réclament en échange des avantages sonnants et trébuchants.

Voilà qui ouvre à une réflexion intéressante sur un sujet que nous avons déjà abordé (ici et ), mais qui devra faire l’objet d’analyses empiriques plus approfondies.

L’idée de l’intrusion se construit dans celle de l’intimité. Cette part de soi que l’on retire aux autres, pour ne la donner qu’à quelques-uns que l’on choisit. L’intimité, cet intérieur qu’on soustrait à la puissance du public, est cet espace que l’on soumet à l’ordre personnel, à nos fantaisies, et que l’on protège par un secret dont l’absolu ne concerne que ceux qui n’y sont pas conviés. L’intrusion de ce point de vue est ce regard que portent les importuns. Ne la confondons pas avec la notion de vie privée, qui relève du droit ou au moins de la convention sociale. Celui qui en enfreint les limites non seulement est un intrus, mais pire un violeur.

Ce que l’on doit comprendre est que les frontières de l’intimité ne coïncident pas forcement avec celles de la vie privée. Elles peuvent être en deçà ou au-delà. Et ce sera certainement une des voies d’approfondissement de cette étude, comprendre que les frontières de l’intimité sont extrêmement plastiques, et ne correspondent pas toujours aux droits. Elles varient en fonction des personnes, des marques, et des moyens de communiquer.

Certains sont pudiques, d’autres moins. Il est de bonne raison de penser que cette variation dépend d’un facteur important, celui de la ressource que l’on croit contrôler. Dans cette étude et dans d’autres, il apparaît que les moins fortunés acceptent plus facilement le regard de l’autre que les mieux dotés. Dans cette hypothèse on retrouve une réflexion qu’un certain nombre d’historiens ont développée. La vie privée est une idée bourgeoise, récente, et l’intimité en est l’expression. Ceux qui ressentent l’intrusion sont ceux qui pensent avoir quelque chose à protéger. Et dans le rapport aux marques on peut comprendre aisément que la frontière est d’autant plus imperméable que l’on se sent l’objet de leur convoitise.

L’intimité est aussi une question de relation. On livre beaucoup à ceux qu’on aime, qui nous sont proches et familiers. Point de fard le matin, on se livre sans apprêt, sans crainte de leur regard, quitte à les désespérer. Aux étrangers on expose une surface travaillée, fabriquée. Aux marques que l’on aime on se donnera tel qu’on est, sans réfléchir aux informations qu’on lui laisse. Aux autres on opposera une façade construite pour en tirer le meilleur avantage.

Mais ce n’est pas suffisant pour comprendre comment se construit la frontière de l’intimité, il faut aussi penser le média. Nous savons désormais que le plus puritain peut se mettre à nu, dans les forums et les chats, et que les plus natures se réservent une grande prudence quand ils sont sur la place publique. Ce n’est ni une question de ressource, ni une question d’amour, juste une question de contrôle et de maîtrise de l’environnement dans lequel l’intimité se développe.

Cette enquête a la ressource de nous aider à mieux comprendre comment se forme la frontière de l’intimité. Elle permet d’explorer cette triple hypothèse que pour chaque sujet, la frontière de son intimité varie en fonction des ressources qu’il croit représenter pour la marque (la convoitise), de la relation qu’il entretient avec elle (la familiarité), et la maitrise de l’environnement (la compétence).

Quant à la seconde leçon elle se déduit de ces trois hypothèses. L’intimité n’est pas un absolu, mais le fruit d’une négociation, d’une économie. Ses frontières peuvent êtres étirées pourvu que cet élargissement soit récompensé. Et si nous voulions le comprendre vraiment, intéressons nous à l’art du nu. Ce travail profond que l’artiste entreprend pour obtenir du sujet ce que d’ordinaire personne n’obtient.

L’intrusion n’est pas une violation, le sentiment de violence qui peut en émerger provient d’une mauvaise négociation, d’un échange inégal et inique, l’intrusion peut parfois être aussi chargée d’une force érotique, pour autant qu’elle soit le fruit d’un travail de séduction.

___

credit photo : Sokaris73

Imaginaire et institution – le cas de twitter?


L’imaginaire des technologies de l’information est une chose évidente à première vue. De suite on se souvient de Hal, et plus récemment de Matrix, avec un poil de culture en plus on pensera au Babylone Babies de Dantec, la production de genre est riche en la matière, sans compter leur père à tous Orwell. Qu’elle soit cinématographique ou romanesque la production des images des technologies de l’information est volumineuse, elle dit nos fantasmes, nos espoirs, les peurs, et cette manière dont nous donnons une forme à des idées. Mais qu’est-ce que l’imaginaire ? Un catalogue d’image ? Une sorte de bestiaire ? Un musée rêvé ? Mythologies, archétypes, grammaire, nombreux ceux qui ont tenté d’en mettre à jour les structures : Jung, Eliade, Caillois, Bachelard, Durand pour jeter quelques noms dans le désordre. Et à leur suite on pourrait se demander quel est l’imaginaire des technologies de l’information ?

Ce serait un travail utile dans lequel se sont engagés aux abords du second millénaire plusieurs auteurs. L’un d’eux, Patrice Flichy, dans un ouvrage remarqué (1), réinscrit l’imaginaire du net dans les structures d’un rêve américain que constituent la nouvelle frontière, la communauté et l’individu. La structure du Western reste quand les formes changent.

L’effort de comprendre comment se structure l’imaginaire est sans doute bien utile pour dénoncer ce qu’il y a d’utopique, ou d’idéologique dans les discours produits par les acteurs et les contempteurs des technologies de l’information et de leurs applications à l’économie, mais reste finalement d’un intérêt limité pour le gestionnaire.

Dans l’ouvrage de Flichy, une chose est d’un intérêt plus remarquable : en reprenant les catégories produites par Paul Ricoeur, celle de l’utopie et de l’idéologie, qui sont deux faces du même imaginaire social s’articulant autour de la question de l’autorité, l’une ayant pour fonction de la conforter et l’autre de la contester, il construit un modèle fécond pour comprendre comment l’innovation technique s’inscrit ou non dans la réalité sociale. D’une certaine manière, le réel n’existe pas sans imaginaire social.

C’est ainsi rejoindre Godelier dans son affirmation de la primauté du réel sur le symbolique et dessiner une alternative à la théorie de l’acteur réseau de Latour qui, si elle a l’avantage et l’originalité de placer humains et objets (techniques) sur un même plan, oublie que la réalité ne se confond pas à l’actuel. Le grand mérite de Flichy est finalement de rappeler l’importance de l’imaginaire social dans l’adoption, et mieux encore l’appropriation des technologies de l’information par la société et ses acteurs. Pour aller vite, sans l’utopie du client, de la conversation, de la relation, nous n’aurions pas les technologies du marketing. Sans cette utopie, l’idéologie qui se forge dans les cabinets, les séminaires, les congrès, n’aurait pas construit cette nouvelle réalité des marchés.

Dans la compréhension dont les technologies sont appropriées par la société et par ses acteurs, il faut donc accepter que l’adoption d’une technique ne se fait pas en fonction de son utilité, c’est l’hypothèse rationnelle du TAM, mais en fonction de sa légitimité, laquelle s’enracine dans le jeu des imaginaires. Nous en revenons dans une certaine mesure à la perspective Weberienne. Il n’est pas de pouvoir sans légitimité, et quand bien même Weber a donné à la forme rationnelle légale, la plus forte des légitimités, c’est bien l’idée que la légitimé se fonde dans un imaginaire, utopique et/ou idéologique qu’il a apporté pour comprendre le fondement de l’ordre social.

Voilà qui peut nourrir une réflexion neuve quand au statut des technologies de l’information et leur rôle dans les systèmes de gestion. Elles ne sont pas de purs construits sociaux comme une large littérature le défend, leur réalité se bâtit aussi dans leur matérialité, ces éléments concrets qui au regard des acteurs, munis d’un certain imaginaire, leur permettent de mettre en œuvre ce que l’on appelle des affordances. Ne serait-ce pas le sens profond du slogan de «Vous l’avez rêvé, Sony l’a fait ! » ?

Mais plus encore, elles se constitueraient comme institutions, imposant par la légitimation de leur être, des règles acceptables par tous. Au-delà de la question de la place de la légitimité dans le processus d’appropriation, c’est cette hypothèse qui va au-delà du travail de Flichy que nous devons explorer. L’usage des technologies dépend moins de leurs fonctions et leur performance que de leur caractère institutionnel, c’est à dire d’apparaître de manière légitime comme la manière de faire appropriée dans un contexte donné.

Un bel exemple de cette théorie se manifeste aujourd’hui avec Twitter. Nul ne sait véritablement ce qu’apporte la technique, et même en l’utilisant on peut s’interroger raisonnablement sur son intérêt. Mais on perçoit clairement dans les discours, les commentaires, à la fois ces éléments utopiques d’une communication libérée de presque toutes formes, alternatives aux formats dominants (on revoie aux oppositions entre Twitter et Facebook) mais aussi ces éléments idéologiques qui se concrétisent dans ces multiples livres de recettes et injonctions en tous genres. Voilà qui légitime d’ajouter le bouton t sur de nombreux sites, et qui par un mécanisme de mimétisme (isomorphique au sens de Powell et DiMaggio) construit et renforce l’institution.

Twitter est non seulement un objet technique et fonctionnel qui pénètre les multiples objets du net, c’est aussi une règle de comportement (renvoyer par ce canal ce qui semble intéressant), une règle d’évaluation (la valeur des informations dépend du nombre de RT), mais aussi un signe, disons, de maturité. Quant à l’usage il est encore largement peu déterminé et n’est le fait que du groupe dominant en terme d’activité (10% des usagers génèrent 90% du traffic). C’est la matérialité de la technologie qui le constituera par ce qu’elle offre. La particularité de cette technologie est que ce qu’elle offre n’est pas encore tout à fait défini puisque ces « affordances » se construisent tous les jours par l’arrivée sur le marché de nouveaux gadgets, de nouvelles applications, de nouvelles intégrations. Ce qui est remarquable dans le cas est que l’adoption se produit bien avant que soit réalisée sa véritable utilité.

Même s’il est difficile de conclure, nous n’avons qu’esquissé les points clés du raisonnement et d’autres développements étaient nécessaires, soulignons l’importance de lier la question de l’imaginaire à celle de l’institution, si nous voulons comprendre le rôle des technologies dans les pratiques sociales. Ce faisant, il sera aussi utile de rappeler que cette idée est celle amenée il y a plus de 30 ans par Cornelius Castoriadis. Celle d’un imaginaire instituant, source d’aliénation si l’on renvoie l’imaginaire au-delà de la sphère humaine et sociale, dans l’au-delà d’une raison désincarné, naturelle ou mystique, transcendante, en oubliant qu’aux sources de l’imaginaire il y a l’imagination radicale, la création.

(1) Patrice Flichy, L’imaginaire de l’internet, La Découverte, 2001 et édition du MIT (2007)

Fooding or Feeding ? La guerre de l’espace publicitaire


Facebook rachète donc Friendfeed, Publicis vient de reprendre Razorfish au prix de céder 3% de son capital à Microsoft, et peu avant Microsoft s’allie avec Yahoo. Voilà un été actif sur le front de la publicité sur internet qui indique peut-être la nouvelle ligne de front : les publicitaires contre les technologues, ceux qui savent faire valoir les espaces contre ceux qui les créent. L’appétit est grand, reste à savoir ce qui compte : la capacité de nourrir ou la qualité de l’aliment.

Sans aucun doute Google a pris une bonne longueur d’avance, en démontrant, provisoirement, que l’avantage vient à ceux qui créent l’espace publicitaire – le génie de Google est d’avoir su par-dessus les médias déployer la toile qui y donne accès. Mais d’autres, avec d’autres modèles, ont prouvé que l’on pouvait créer d’autres espaces. Facebook en est l’exemple le plus convaincant même si la rentabilisation n’est pas encore au rendez-vous.

Un coup d’œil aux résultats d’audience est de ce point de vue instructif, même si d’un organisme à l’autre ( Nielsen, OJD, médiamétrie..) les mesures sont difficilement comparables ( visiteurs uniques, visites, pages vues…Il faudra revenir sur ce problème de la mesure) et les bases d’études dissemblables, parfois les sites, souvent les groupes. S’y côtoient les différentes générations de producteurs d’espace publicitaires.

Les grands portails d’abord, qu’ils soient fournisseurs d’accès comme Free ou Orange en France ou e-commerçants tel que e-bay, il faudrait d’ailleurs y donner une place distincte aux plateformes de services. Leur avantage est que touchant des marchés de masses, ils produisent par leur contenu une audience plus ou moins captives.

Des médias traditionnels, seul TF1 est présent dans les 10 premiers de Nielsen, encore que s’y fédèrent plusieurs services distincts. La presse est derrière, et pourtant ce fût aussi son métier que de fabriquer de l’audience.

Microsoft maintient sa position sans doute grâce à MSN, les messageries instantanées représentant un espace tout à fait particulier, celui d’une grande intimité.

Les espaces du 2.0 qui travaillent les communautés que ce soit un Dailymotion, ou des fédérateurs de blogs tels que WordPress ou Skyrock, se sont taillés une belle part en faisant peser la production de l’espace sur les utilisateurs ( la vertu du modèle UGC) et multipliant les occasions de voir.

Enfin aujourd’hui les réseaux sociaux, Facebook s’installant en France à la 5ème position, prennent une part considérable de cette audience, leur force réside dans la répétition des consultations, vive l’addiction!

L’audience rappelons-le se fait au travers de trois paramètres : la capacité à pénétrer une large population (c’est le reach), celle de faire revenir fréquemment (le nombre de visites) et de maintenir longtemps l’internaute dans la session (le nombre de pages et la durée par page). Et toute la question des médias est de savoir comment atteindre ces trois objectifs. Manifestement les professionnels de l’information, qu’ils soient producteur de divertissement ou d’information ont perdu la main. Les grands vainqueurs sont ceux qui se sont installés dans les actes élémentaires de l’internaute : chercher et communiquer avec ses proches. Ces deux activités sont génériques et se reproduisent plusieurs fois, des dizaines de fois par jour, elles exposent à des dizaines de pages. Ne nous étonnons pas des résultats en termes de marché publicitaire.

Mais ce n’est pas tout, si on cherche de l’information, n’importe quelle information, y compris celles que l’on connait déjà (dans le top des mots-clés de Google arrivent les services qu’utilisent déjà les internautes : le moteur sert plus de bookmark que d’outil de recherche!), on la communique aussi. Le plaisir de trouver s’accompagne de celui de partager, c’est sans doute la leçon des médias sociaux.

A ce titre la nouvelle génération d’espace qui n’est pas encore présente au premier rangs des classement mais qui arrive à grande vitesse a toutes les chance de remporter le pompon. C’est celle de twitter, celle de friendfeed aussi, et c’est ce qui nous fait penser, que cette dernière acquisition est plus significative que celle opérée par Publicis.

Dans le nouveau paysage de l’internet, l’information en soi n’est pas ce bien rare de la période de l’ORTF, elle ne vaut plus rien, et ne capte plus personne, ou très rarement. En revanche, elle coûte cher à celui qui la recherche, encore plus cher à celui qui veut la diffuser. Le filtrage compte désormais plus que le contenu, et ce filtrage passe par ces outils multiples, dont le fait social est un moyen, mais l’effet principal est d’amener à chacun sa ration d’information quotidienne.

Le feed compte plus que le food, la pizza vaut moins que le livreur. Que l’information soit fournie par les agrégateurs RSS , les walls de facebook, ou la page de twitter, ces filtreurs ont toutes les chances d’être les écrans les plus consultés. Pendant longtemps la capacité à créer de l’audience a été liée à la capacité de produire l’information, la qualité de la nourriture était essentielle, aujourd’hui elle est définitivement associée à la capacité non pas de l’acheminer mais le la filtrer pour le compte de celui qui va la digérer.

Vlogging : l’effet de réalité?


De toutes les transformations du web, la vidéo est sans doute une des plus impressionnantes. Elle prend des formes multiples, l’apparition de Youtube et Dailymotion en est la plus apparente, la propagation des vidéos clips a capté largement l’attention. Mais c’est le Vlogging qui est le plus intriguant.

Évoluant dans son ton et son format, le message vidéo réalise aujourd’hui le vieux fantasme de la camera stylo, concept inventé par Alexandre Astruc en 1948 , et les idées d’un Jean Rouch et d’un Edgard Morin en 1961 dans leur idée de cinéma-vérité, incarnée dans le film “Chronique d’un été”.

Le neuf réside moins dans la technologie, même s’il faut rendre successivement hommage à Nagra, Arriflex , à la betacam puis la Handycam, pour, dans la préhistoire de l’internet, avoir fait que le concept d’écrire directement l’image et le son puisse se réaliser. L’image n’est plus une affaire d’équipe mais une action que chacun peut entreprendre, aussi simplement qu’avec un stylo et du papier…le talent faisant la différence ensuite. Ces techniques se sont moins mises au service de la fiction qui dès la naissance du cinéma a engagé des moyens industriels, qu’à celui du documentaire, et plus encore au service d’une réalité subjective, que l’on confie aux journaux intimes.

Le neuf réside bien dans la diffusion d’images personnelles, authentiques et sincères. Le Vlogging en est désormais l’expression : user du son et de l’image pour communiquer se fait ainsi aussi simplement que de répondre à un courrier. Rien de très original dans ces observations, sauf à s’interroger sur la nature du média. Quel impact ?

On peut penser que ce type de communication est plus efficace, puissant, persuasif que les textes et les images statiques. C’est le secret sans doute de la télévision et de son succès universel. Il reste à s’interroger sur les raisons de cet impact. On doit s’y interroger d’autant plus qu’on connait depuis longtemps le caractère trompeur et les intentions stratégiques dans l’image.

Quelques-unes viennent à l’esprit. La première est économique: l’effort est moins élevé que l’effort de lecture. Vive les couch potatoes! C’est l’argument du TAM. Une seconde peut provenir du principe de crédibilité de la source: l’image et le son réalisent un simulacre de réalité qui donne plus de vérité au message. Une troisième raison est la force de l’engagement, quand l’émetteur du message est inclus dans la communication, il crée un lien que le narrateur masqué élude dans l’écrit. D’autres raisons peuvent être invoquées, on invite les lecteurs à les proposer.

Pour notre part, nous nous arrêterons ici à cette simple proposition : dans un univers communicationnel médiatisé par les machines, le message vidéo recrée un lien dont les vertus sont l’authenticité, la confiance, l’engagement, quelques-uns des critères qui fondent les conditions de la conversation juste, tel que le pense Habermas et que reprennent à leur compte d’autres.

Quoi que l’on puisse rester sceptique, quelle vérité dans le simulacre? Une telle proposition doit être éprouvée à l’aune de ce qu’un Barthes a appelé l’effet de réel et dont jouent les réalisateurs, maîtres de notre culture. Car l’effet du réel ne vient pas tant de la technique, que de son appropriation culturelle. L’image et ses techniques n’évacuent pas la question du sens, qui s’il se construit par et dans les procédés, requiert des conventions communes pour être efficient.

La camera stylo, aujourd’hui le Vlog, offriraient ainsi un ensemble de conventions qui assurent le dialogue et forment l’espace public. D’un point de vue pratique, la culture du reality show!

PS1: Le billet n’a pas abordé la question de l’usage par les entreprises, pour y réfléchir un coup d’œil à la Web TV d’orange est intéressant! Et rappelons la belle expérience du Wiki client PS2: Et pour ceux qui ont le temps, la belle étude de Michael Welsh :

Fraude aux clicks…un sujet encore frais.


L’International Journal of Electronic Commerce consacre son numéro de décembre à la fraude aux clicks. Voici un thème qui de manière pressante s’impose dans le champ du search-marketing en plein essor, apparaissant comme une conséquence de l’évolution des systèmes de paiement. Après le coût à l’impression (CPM), équivalent aux modes classiques de facturation de la publicité (paiement à l’audience utile), le coût par click (CPC) s’est imposé sur de nombreuses plateformes, évoluant même vers un coût par action, ou conversion (CPA), quelques professionnels envisageant même un coût par temps d’exposition ! Ainsi, en passant d’un mode de rémunération fondé sur les moyens fournis ( l’audience) vers un mode de rémunération à la performance atteinte, des problèmes d’agence (au sens économique) se manifestent avec une certaine violence.

Le problème n’est pas neuf comme en témoigne cet article de Business Week en octobre 2006. Quelques chiffres sont discutés par Freakonomics, ils sont d’un ordre de 16%, et reprennent ceux de ClickForensic, un quart d’entre eux seraient le fait de robots, mais ils se stabiliseraient au cours de 2008. L’analyse qu’ils en donnent est simple : dans la mesure où les sanctions sont inexistantes, que le gain même faible est certain, que le coût de réalisation de la fraude est quasi-nul, on peut se demander quelle proportion ces clicks inappropriés peuvent atteindre.

Il faudrait analyser plus particulièrement les causes (voir http://blog.lafraudeauxclics.com/) : tactiques de la concurrence, appétit des petits diffuseurs, système de contrôle des régies, etc… Le phénomène est plus complexe qu’il ne semble : sa mesure est extrêmement difficile car elle passe par une comparaison des statistiques propres aux diffuseurs à celles des régies, ses causes sont multiples, ses acteurs sont extrêmement hétérogènes (l’éditeur d’un blog a sans doute moins de motivation à frauder que celui d’un annuaire d’annonces !), les comportements des régies ne sont pas identiques.

Le sujet peut intéresser l’économiste quant à la faculté des marchés à s’organiser par eux-mêmes, ou justement à ne pas en être capable, et à s’interroger sur les institutions qui permettront de maintenir un niveau de confiance suffisant pour que le marché se maintienne. Quels systèmes d’incitation ? Quels signaux ? Comment réduire les coûts d’agence? Quelles régulations ? Il intéresse déjà certains juristes.

Pour les professionnels du marketing, le problème se pose en termes légèrement différents : comment évaluer les coûts publicitaires en fonction des performances véritables ? Doit-on continuer à favoriser des modes de mesure à la performance ou revenir à la mesure des moyens ? Doit-on s’appuyer sur les mesures proposées par les régies, ou sur des mesures plus spécifiques ? Comment mieux maîtriser ses plans médias en choisissant mieux ses éditeurs ? Qui sont les plus touchés, les annonceurs modestes ou les plus importants ? Ces questions deviennent centrales alors qu’on s’inquiète d’une baisse des taux de clicks (voir l’article de Philippe Astor dans ZDnet).

Concluons en rappelant que cette thématique a fait florès en 2006, comme le montrent les statistiques de Google trends , mais la polémique depuis s’est éteinte, le problème sans doute non. L’étonnant est que peu de publications scientifiques en ont fait leur objet (11 références dont le numéro sus-indiqué dans Business Source Complete, aucune dans JSTOR) !