Pour une université digitale

Jorge in Wonderland
Quelle stratégie dans les médias sociaux pour les Universités?
C’est une question sur laquelle on m’a demandé de plancher pour un séminaire de la FNEGE et à laquelle je répond oui avec enthousiasme. Quelques lignes de réflexions peuvent en résumer les idées essentielles.
  1. Les réseaux sociaux sont efficaces pour ceux qui possèdent une communauté. De ce point de vue les universités sont bien dotées. Avec 30 000 étudiants, celle où j’officie dispose d’une force de frappe potentielle considérable. Au regard du 1/9/90, voilà qui laisse espérer 300 contributeurs, 3000 « recommandeurs », et ces quantités peuvent être largement augmentées avec les anciens étudiants. Sur 10 ans c’est près de 100 000 personnes qui y ont fait un passage. Le nombre n’est cependant pas suffisant, il faut encore que l’attachement à la communauté soit réel. Mais de ce point de vue là, il n’y a guère de souci à se faire, le passage dans une institution académique laisse des marques à vie, les universités sont parmi les rares institutions qui transforment nos vie avec l’église et l’hôpital. On est toujours un ancien de. Et si elle a une histoire, du prestige, une légitimité, cette communauté sera d’autant plus forte, ses membres plus attachés. Il y aura toujours quelque part un de ses représentants. Les réseaux socio-numériques, sont de ce point de vue un levier puissant pour incarner cette communauté silencieuse.Elle a forcement envie de parler et d’entendre les échos d’une jeunesse qui s’éloigne.
  2. Les universités ne sont pas une mais plusieurs communautés . Celle des étudiants, celles des enseignants, de ceux qui les secondent. Les premiers se réunissent dans le passage qui leur donne un élément d’identité pour la vie et on ne comprend pas pourquoi les adresses mails ne sont pas données à vie – quelque fusse leur utilité, elles marquent un lien indéfectible, elles sont le passeport et le contrat. Les seconds sont morcelés par leurs champs, leurs institutions et n’écoutent guère un centre qui est soit un centre administratif ou une arène politique. Ils s’y retrouvent quand la marque Université est forte. La segmentation est donc une étape clé, la construction de marque le moyen d’unifier les communautés. C’est là où se trouve la difficulté pratique : ce n’est pas un réseau social qui suffit, mais différents réseaux, sur différentes plateformes qu’il faut coordonner. Il faut fédérer des dispositifs multiples, intriqués, un tissu de communautés. Sans doute faut-il organiser un marché de ces communautés. Les animer, les encourager, les aider à grandir, les croiser. Rappelons-nous que la communauté est une organisation primaire et que la société est justement cette espace où des communautés superposées cherchent leurs règles. Le fédéralisme est une notion à ré-explorer. Le monde digital le favorise pour la simple raison qui diminue les coûts de coordination. On en conclue quant au rôle des unités de communication : elle doivent orchestrer les réseaux.
  3. Les réseaux sociaux sont d’autant plus forts que le contenu à diffuser est riche. De ce point de vue les universités sont munificentes. Avec plus de 2000 chercheurs, celle où j’officie produit du contenu à un rythme qu’aucune marque n’est capable de produire. Il reste à le mettre en forme, en scène, car souvent ce matériau est illisible, conçu pour n’être entendu que de quelques uns, ésotérique. Mais sans faire de story-telling, juste en dépoussiérant et en dégraissant les pièces sorties de l’atelier on peut faire étinceler une intelligence qui par habitude paresse dans le goût du secret et se couvre de scories, de paille et de boue. Sur un plan plus technique, cela exige une veille interne, la constitution d’un réseau d’informateurs et de retrouver cette belle tradition de la vulgarisation. Il faut communiquer ce sur ce qu’on produit. Chaque jour. Un oeil à Harvard ou au MIT donne un idée claire de ce dont il s’agit. Il reste à faire cette révolution culturelle de penser l’université moins comme une église que comme un média ( c’est d’ailleurs le beau travail fait par le Cleo) . Le réseau social de l’université est un média à part entière qui diffuse, souvent par capillarité, un savoir qui doit rester libre. Cette liberté c’est celle de l’accessibilité. D’un point de vue pratique, cela exige de jouer avec une cascade de médias : les revues scientifiques et leur plateformes de diffusion, les livres, les cours et les conférences: dire jour à jour la science qui se fait. Le volume demande un savoir faire. De ce point de vue on rêverait de fondre les centres de documentation avec les unités de communication. Fédérer des contenus.
  4. Les réseaux sociaux exigent une ligne éditoriale. Dans la continuité, on comprend que la matière doit être éditée. Dans le sens noble et ancien du métier d’éditeur. En respectant la lettre et l’esprit, faire briller le bronze que verdissent les intempéries. Dessiner des jaquettes, composer le texte. Faire du manuscrit une idée prête à affronter l’espace public. Mais plus encore donner au torrent, que dis-je, au fleuve, de la production universitaire, un lit sans trop de méandres, qui s’organise en un grand bassin. C’est là sans doute un point faible des universités. Le désordre que les institutions politiques ont introduit avec leurs grands machins est un ennemi évident. Seul un esprit véritablement scientifique et humaniste peut y remettre de l’ordre. Scientifique car il faut donner un sens qui correspond à une réalité, humaniste car il s’agit aussi de dépasser les bornes des spécialités pour qu’un véritable entendement soit possible. Peu importe les supports. Le portail central et ses réseaux périphériques, les campagnes publiques et le travail microscopique des diplômes. L’utilisation des réseaux sociaux à l’université dépend de la qualité d’un projet éditorial. Nous produisons un journal virtuel de la science, il nous faut le réaliser. C’est une idée difficile : penser l’université comme un média.Une audience qui rencontre une programmation. On oublie parfois que l’université est aussi une industrie culturelle.
  5. Les réseaux sociaux ont besoin d’une équipe éditoriale. C’est la petite découverte des praticiens des réseaux sociaux. Il ne suffit pas de cliquer et de retwitter. Ce n’est pas une équipe de bonne volonté qui fait les choses. L’équipe éditoriale doit être issue du corps productif, la valeur de vérité tient à celà. Qu’une ligne soit donnée, elle doit être alimentée. Les belles histoires de réseaux sociaux numériques sont des questions d’organisation, des équipes de 10 à 100 contributeurs. Une communauté dans la communauté. Il faut des informateurs, des reporters, des rédacteurs, des animateurs., une langue. La technique est secondaire. Une chaine vidéo, une plateforme de slides, des documentations, une radio digitale, il faut tout. Mais il faut surtout ceux qui acceptent de produire. Chacun avec son talent alimentera l’architecture des médias.
Nous avons évoqué les principes, nous n’avons pas discuté de technique. Nous serons court à ce sujet, rappelant simplement une distinction proposer par Christian Fauré entre techniques de la relation et technologiesrelationnelles. Si les universités possède le contenu, peuvent aligner des troupes considérables et disposent en puissance des technologies relationnelles, il lui reste à reconstruire ses techniques de relations. Repenser ses rapports aux étudiants, aux professeurs, aux entreprises, aux médias, aux proches de ses étudiants.
A repenser que l’article de recherche n’est pas que le moyen d’affiner un CV pour obtenir un meilleur poste, mais que leur format donne à l’idée le moyen d’en établir une valeur de vérité. A repenser que le cours n’est pas une obligation statutaire auquel les étudiants satisfont pour le bénéfice d’une note, mais le laboratoire où l’enseignant teste et formalise les idées qui viennent de son travail. A repenser que l’université est un espace public, qui s’il délivre des diplômes, doit ouvrir tous ses espaces à l’ensemble de la société. Que sa mission première est de diffuser la connaissance qu’elle produit. La connaissance est affaire de vérité, sa diffusion est affaire d’attention. Dans cet esprit les réseaux sociaux sont de formidables vecteurs de gains de productivité. Il rendront poreux les murs de l’académie, laissant entrer les questions de la société, laissant naître enfin leurs idées. Soyons décidément optimistes, les réseaux sociaux construisent une autre université quelque soient les stratégies qu’on leurs assignent. 
Ce n’est pas le classement de Shanghai qui règne, mais la société de la réputation. Le meilleur moyen de la construire est d’engager la conversation. Les réseaux sociaux en sont la chance.

Groupon – après la bataille

L’actualité parle parfois. Entre les rumeurs du rachat de Groupon par Google au prix exorbitant de 6 milliards de dollars – qui n’aura finalement pas lieu– et cette bataille d’arrière garde du papier contre la décision de Leclerc de supprimer d’ici 2020 le prospectus, se dessine avec une limpidité crue le nouveau paysage de la promotion.
C’est bien dans les smartphones que va se jouer la bataille du local, que les marques vont se battre à coup de code promotionnel. Les puces NFC ne seront pas là simplement pour assurer la sécurité d’un paiement, mais pour négocier à la caisse des rabais dument calculés dans des processus d’enchères et les les algorithmes de personnalisation. Ne nous intéressons pas aux détails mais aux lignes du champs de bataille.
Quand la promotion était une confrontation entre les distributeurs et les annonceurs, elle sera une partie à trois. Le tiers celui qui est capable de dire à l’un et à l’autre, où, quand et à qui faut-il concéder la remise nécessaire pour emporter le morceau. On est tenté de parier sur les intermédiaires. Groupon a sans doute la certitude l’emporter le morceaux, on ne doute pas que Google fait travailler ses labo pour une alternative.
Il y aura des variantes, c’est sur. Le modèle de Groupon est pertinent pour le petit commerce désemparé dont le souci est d’atteindre un chiffre d’affaire qu’il ne contrôle pas, en mobilisant les troupes Groupon est en mesure de combler le vide des affaires. Mais parallèlement, la puissance de calcul risque d’en élargir l’assiette. Examinons les intérêts.
Côté annonceur la promotion coûte cher en concession à la marge. Il importe que les clients fidèles et habituels continuent à payer le prix qu’ils acceptent, et par période d’amener d’autres qui d’ordinaire refuserait l’offre à rejoindre les premiers. Le besoin est celui du ciblage. Ayant peu de moyen d’identifier les uns et les autres ils sont prêt à concéder une partie de la marge à ceux qui leur amènent un revenu additionnel.
Côte distributeur la question est de maintenir une image prix basse même si les prix réels sont élevés. Il ont fait payé ce compromis aux annonceurs leurs arrachant des remises indistinctes au bénéfice de leur consommateur, mais au prix de malmener les marques qui leur assurent la fidélité de leur clientèle de base. Que leclerc s’engage dans la bataille se comprend bien. D’autres vont suivre. S’il y a un bénéfice durable, il concerne l’environnement c’est certain, mais surtout de cesser cette dispendieuse compétition de la remise indistincte. Si les distributeurs ne ciblent pas, google et d’autres le front à leur place, à moins que les annonceurs à leur tour s’y mettent comme le fait Danone et vous.
Dans tous les cas, c’est le début de la fin des promotions aveugles, la bataille des prix se loge désormais dans l’ombre digitale et le secret des bases de données.

Multi, cross ou transcanal : une clarification


Voilà un bon moment que les nouveaux médias sèment la pagaille dans l’ordonnancement bien réglé des médias. On a cru s’en abstraire en affirmant bien fort qu’il s’agissait de communiquer à 360°C, comme si enfin on pouvait s’affranchir des limites naturelles de notre angle de vue qui est de l’ordre de 170°C. C’est bien plus que la température du corps mais bien moins que ce qui semble nécessaire.

Alors venons-en au fait. La multiplication des médias nécessite de repenser leur organisation. Et cette multiplication n’est pas que le fait de l’Internet, du mobile et des nouveaux écrans digitaux sur le point de vente, elle est que simplement au sein d’un système technique, l’Internet, des milliers, des millions de canaux sont en voie de constitution. Certains sont massifs comme les rares moteurs de recherches, et les nouvelles plateformes sociales, d’autres sont très spécialisés comme les blogs et leurs organisation communautaire. Ce qui trouble le paysage et qu’aucun de ces canaux n’est un animal solitaire, ils fonctionnent souvent en meutes, fidélisent très peu, et multiplient leurs échos entre des falaises imposantes, celles d’éco-systèmes aussi impénétrables qu’ils sont peu définis. Dans ce désordre une intuition s’impose : il ne s’agit plus de choisir quels canaux sont les meilleurs, et de répartir entre quelques-uns des investissements trop faibles. Il faut œuvrer à travers une multitude.

C’est cette pluralité qui est le premier défi, un multicanal qui s’impose comme l’art et la science de combiner au mieux des ressources le petits nombres des canaux disponibles pour atteindre toutes les cibles. Ce multicanal-là, comme l’est le multiculturel, ou le multinational, est un art de combinaison. Chaque canal définissant une cible différente, qui se superposent les unes des autres, la politique optimale est celle qui pour un minimum d’effort produit l’effet le plus efficace : un niveau moyen d’exposition défini pour une base donnée. Vive la programmation, linéaire ou plus complexe. Rien ne change que de mieux comprendre les critères de segmentation, les nouveaux médias se définissent moins en profils de CSP qu’en niveaux d’implication, qu’en situations d’information, et qu’en niveaux d’attention. Ce qui conduit à une hypothèse simple : c’est le cycle de vie du client et son degré d’engagement qui sont déterminants. Une fois bien définis les critères les plus pertinents, la place sera ouverte aux programmateurs. Le multicanal est un art, et la science, de gérer la diversité et ses superpositions. Cela requiert beaucoup de complications, mais c’est dans le principe, un problème très simple.

L’inter (cross) pose des problèmes de nature différente. Comme la question culturelle, il ne s’agit pas seulement de traiter individuellement les populations, l’entre-deux des cultures, mais l’entre-deux des canaux, leurs interactions. Ce que fait l’un, l’autre ne le fait pas, et les critères d’efficacité sont de natures différentes. Il s’agit de régler les effets de l’un sur les effets de l’autre. La campagne de grand médias pourra susciter un intérêt pour un site, mais le site pourra renforcer l’effet persuasif du mass média. Et c’est déjà une situation nouvelle. Un même sujet peut être atteint non pas par deux canaux différents, mais réagir différemment à différentes combinaison des deux canaux. Ce sera une question d’exécution. Ainsi une campagne virale pourra préparer et renforcer l’impact une communication de masse en mobilisant les leaders d’opinion, tout comme inversement la campagne de masse stimulera l’effet boule de neige d’une campagne virale. Laquelle des deux options est la meilleure? Cette problématique de l’inter(cross) canal se constitue dans l’idée qu’une même population peut être différentiellement touchée par des combinaison de médias, notamment parce que les différents médias jouent sur des aspects distincts du processus de décision d’achat. Nous avons tous en tête des cas dans lesquels la fréquentation du point de vente prépare la réception aux messages, autant que la réception des messages favorise la décision d’achat. L’art de ce média planning s’appuie sur la connaissance des modèles de décisions des consommateurs.

Comprenons à ce stade que deux approches bien différentes se présentent: la première met l’accent sur la diversité des cibles à toucher qui sont différentiellement sensibles aux différents médias, la seconde suppose que la cible est homogène mais que sa réponse dépend de la combinaison des médias.

Voilà qui est très certainement insuffisant, car les consommateurs diffèrent moins par leur sensibilité aux médias, qu’à leur sensibilité aux combinaisons de ces derniers. Et là c’est une complication. Sans doute la même que celle que connaissant les transnationales. Coordonner des activités dans de multiples pays en agissant comme dans un seul. Le transcanal reviendrait à intégrer les deux approches et à formuler pour chaque segment de clientèle une combinaison de canaux adéquats. Si l’idée est simple la réalisation devient complexe, car chaque canal se voit assigner des fonctions différentes et multiples pour des public distincts. Voilà qui conduit à une approche matricielle dont on connait les difficultés de mises en oeuvre.

La clé est de garder quelques principes en tête :

1) les canaux de communication se distinguent par leur portée et leur richesse et leur synchronicité.

2) L’ajustement du canal à une cible dépend du besoin de richesse et de synchronicité demandée par l’audience, il est d’autant plus élevé que l’engagement est important.

3) L’engagement varie selon les circonstances, l’audience peut basculer selon ses besoins d’un régime à un autre. D’une communication asynchrone et pauvre, qualifions-la d’ambiante, vers une interaction intense et immédiate.

Ayant ces idées en tête on voit se dessiner ce qu’est une communication trans-canal. C’est une communication ambiante, à faible intensité, formée de flux léger, qui donne cependant la possibilité de basculer quand cela est nécessaire, pour le consommateur, vers une interaction directe est riche. Dans un tel modèle les médias se superposent en couches, et l’aspect critique est la possibilité de basculement d’un canal à un autre. Il s’agit moins de rayonner dans tous les sens, à 360°C, que d’irradier et de concentrer.

Pour cela il faut disposer d’une architecture des médias. Nous y reviendrons. Mais en quelques mots sa structure se dispose autour d’une source permanente et fixe (les sites et les blog), qu’enveloppe une gamme de canaux de flux (de Twitter à Facebook sans oublier le RSS), l’ensemble sera dynamisé ponctuellement par des campagnes de masses (de la TV aux mails) des lignes téléphoniques seront tendues vers les aficionados, ainsi que des réseaux privés. On réservera certains canaux pour structurer une masse qui n’est plus une masse mais se constitue en une véritable société.

—–

En complément sur ces idées :

deux études dans le secteur bancaire – une synthèse dans la revue Banque

Question de grid – de l’électricité à la finance

On évoque depuis longtemps des smart grids qui sont amenées à révolutionner l’industrie de l’énergie en disposant sur le réseau des dispositifs de traitement de l’information, comme des compteurs intelligents, qui permettent aux appareils connectés de s’ajuster aux conditions techniques et économiques du réseau et de l’environnement proche. On imagine les cellules photovoltaïques dialoguer avec le compteur général pour « pricer » une projection de revente au moment où les propriétaires seront absents et auront activé un plan minimal de consommation. Pour établir le deal il est nécessaire que l’agenda de nos gentils propriétaires, les prévisions météo, le système de maintenance des panneaux solaires et le réseau de transports de l’électricité se soient mis d’accord sur un volume et un prix.

On en attend une réduction de la consommation de l’ordre de 20 à 30%, un lissage de la demande qui réduisent les points et les ruptures, ainsi que les coûts pour les consommateurs. C’est le secteur de l’énergie électrique qui est au centre de la lentille d’observation. Réduire les pics, remplir les heures creuses, mais servir aussi l’énergie quand elle est souhaitée, par un système qui n’est certainement pas planifié, mais qui n’est pas tout à fait un marché, plutôt une manière organique de s’ajuster aux variations. Cette approche de grille intelligente, résumée dans la faculté des nœuds à prévoir l’état de leurs correspondants, l’absence de lieux de coordination centrale, et une infrastructure informationnelle point à point, est ainsi sensée optimiser la production et la consommation électrique.

Un tel système au fond s’applique potentiellement à tous les réseaux qui convoient une matière mais simultanément peuvent rendre compte de l’état de la production, du transport et de la consommation de cette dernière. Un double flux, et une cybernétique généralisée. La finance personnelle en est sans doute un des champs d’applications les plus intéressants.

Un des réseaux les plus remarquables est le réseau de Western Union qui associe les terres d’émigrations à celles d’immigrations, contrebalançant le flux des populations par un flux de redistribution des richesses. Je ne suis pas sûr que le partageable soit équitable, mais les dispositifs d’échanges semblent instructifs. Ces flux d’ailleurs empruntent de plus en plus la voie de l’internet et des télécoms : le transfert d’argent par mobile est un des services les plus en vogue.

Ces flux répondent à d’autres instructions financières dont on a l’habitude. Et certains dans le domaine innovent réellement, un projet tel que friend clear qui tente d’opérer dans un domaine vaste mais obscur des prêts et avances entre proches, celui qui ailleurs se retrouve dans la traditions des tontines, en est un bel exemple. Sans compter le twitter des dépenses, Blippy qui est sans doute l’embryon des systèmes futurs de publication de l’information.

Dans tous les cas ce qui apparaît évident est que l’argent est comme l’électricité, moins une contrainte, un ascèse ou une économie, que le lubrifiant des activités à accomplir qui ne peuvent se satisfaire de manque de liquidité. Dans un tel système, l’extrême demande peut faire venir de grands risques. Etêter les crêtes de risque pour assurer un financement constant et raisonnable des activités semble un objectif raisonnable : celui de mener de manière fluide et sûre vers les demandeurs un flux de financement suffisant, dont le volume faible n’est pas forcement satisfait par les institutions centrales. Ce n’est pas pour rien que le micro-crédit est apparu.

Les marchés financiers n’ont pas produit cette grille intelligente et modérée. Bien au contraire ils ont démontré leur capacité à se constituer en bulles qui explosent sans qu’on soit en mesure de deviner les carnages. On ne supprimera pas la finance, et l’intéressant est de découvrir d’autres canaux d’intermédiation plus efficace, moins dans la valeur espérée que la faculté d’adoucir tous les risques, en assurant la livraison de cette énergie de l’entreprise qu’est l’argent.

Dans tous les cas, électricité ou monnaie, à l’heure où l’internet non seulement devient mobile, mais concerne de plus en plus les objets, il va devenir utile de s’interroger sur ces nouvelles formes de régulation de l’économie qui échappent à l’institution et au marché, à la planification et à la centralisation des flux. Une forme organique, locale, auto-organisée, des échanges économiques qui de plus en plus ne pourront plus être analysés dans le forme simple de l’échange d’un bien contre de l’argent, mais d’un échange accompagné de sa publication, d’une production d’information qui en assurera le contrôle.

La longue traine et la topologie des réseaux

Un excellent article de Benghozi et Benhamou étudie la longue traîne dans le secteur des biens culturels, dont certains acteurs espèrent l’accroissement de la diversité des biens offerts et la réduction de l’effet de chart. Ils testent donc empiriquement l’idée d’un épaississement de la queue de distribution produit par le développement de l’offre numérique.

Ils découvrent un léger épaississement, mais aussi une accentuation de la concentration sur les principaux titres. Mais ils ne constatent guère de grands bouleversements dans le degré de concentration des ventes. Est-ce une remise en cause de l’argument de Chris Andersen ? En fait pas vraiment, mais ce résultat conduit à une autre réflexion beaucoup plus intéressante.

Pour le pas vraiment, il faut reprendre l’argumentation. L’intérêt de la longue traîne n’est pas lié à un changement de distribution des ventes, il est lié simplement aux conditions de distribution de l’offre. Tout l’intérêt des nouveaux canaux est de réduire les coûts de distribution, décalant l’optimum de profit vers une offre plus abondante. Dans le cas extrême et improbable où les coûts marginaux sont nuls, le distributeur numérique peut offrir 10 à 100 fois le nombre de produits qu’un distributeur classique est en mesure d’offrir. Dans la mesure où la répartition des ventes reste la même dans les deux cas, l’avantage du premier est de réaliser un surplus de vente par rapport au premier. C’est déjà beaucoup. Et c’est l’effet principal des technologies de l’information : en baissant le coût d’exploitation d’une unité supplémentaire d’assortiment – ou de client, ce qui est équivalent si l’idée est d’augmenter la base de clientèle en accroissant l’offre, on élargit l’offre optimale. A vrai dire l’effet de longue traîne ne peut se tester par un changement de distribution, mais plutôt par un déplacement des optimums de profit! C’est une autre histoire
Le point intéressant réside en fait dans ce double mouvement qui est décelé par ces chercheurs : les fortes ventes s’accroissent avec les ventes faibles, au détriment des ventes moyennes, indiquant de fait une dynamique de marché particulière qui dépend de l’exposition des titres.
L’offre accrue par la baisse des coûts de distribution, c’est à dire de mise en rayon, est sujette à une demande où les titres les plus vendus bénéficient à plein d’un effet d’exposition, recueillant plus de commentaires, d’avis, de recommandations. On pourrait tester le fait en corrélant le nombre de commentaires avec le niveau de vente de l’article. Cet effet d’exposition peut être amplifié par les effets de réseaux, une plus grande exposition étant multipliée par le web 2.0. Pour les titres à faibles ventes, mais à fort caractère, le phénomène peut jouer à une échelle réduite, mais de même nature. Ceux qui n’avaient pas de voix en trouvent une, et l’exposition d’articles qui n’étaient pas exposés peut recueillir les relais de groupes de fan et d’autres aficionados, dont les petites tailles sont compensés par l’activisme.
Cet argument trouve dans la formalisation des réseaux sociaux une force particulière. Notamment celle des free-scale networks développés par Barabasi , dans lesquels un principe d’attachement préférentiel génère à la fois une certaine forme de distribution, des propriétés fractales, mais plus fondamentalement une argumentation solide pour établir une hiérarchie que l’on peut qualifier de naturelle. Pour une analyse détaillée on lira ceci.
Reste à tester l’hypothèse : celle que la distribution de type longue traîne correspond à une dynamique de réseau de communication particulière, et que la modification (incurvation) de ces distribution est corrélée au degré de hiérarchisation des réseaux.
_______
voir aussi :

Le co-branding des cartes ou les saveurs de la monnaie

Depuis Octobre 2007, le co-branding des cartes de paiement est autorisé en France. Les banques ne se sont pas privées de cette opportunité, Sofinco avec Fiat 500, Renault avec et la Sofinco encore, la Société Générale avec Nouvelle Frontières et la SNCF, le Crédit Agricole avec la Banque de France, Orange et la BNP, la LCL et le vélo, la BRED et les femmes…bref le lecteur curieux de ces cas ira volontiers consulter les blog MarketingIsDesign ou Le bloc-notes d’Antoine Wintrebert .

La levée de l’interdiction participe d’un projet important celui de l’Espace Unique de Paiements en Euro, ou SEPA, caractérisé pour les cartes par l’adoption de la norme EMV. Notons que la carte de paiement représentent 38% des règlements, et qu’en France comme dans les grands pays européens le nombre de transactions réglées annuellement est de l’ordre de 250 (cartes, virement, prélèvement chèque et très marginalement paiement électronique). Il y aurait en France 81,5 millions de cartes de paiement (55,7 de cartes bancaire et 25,7 de cartes privatives) pour un volume de 430,7 milliards d’euros en 2007 (dont 13,1 concernant des paiements par internet), le taux de fraude étant de 0,062%. (observatoire de la sécurité des moyens de paiements ). Voici donc l’état marché, et une rupture : si les cartes privatives avaient une sorte de monopole sur le paiement à crédit, et les cartes bancaires l’exclusivité des paiements courants, la frontière est en train de se brouiller.

On comprend mieux l’importance de ces innovations qui permettent aux uns et aux autres de pénétrer la frontière. On comprend aussi la réorganisation des usages qui risque de s’ensuivre. La dualité carte principale universelle, cartes secondaires spécialisées dans des achats spécifiques, risque d’être remise en cause. Sans aucun doute, ces cartes sont des sortes de cheval de Troie au bénéfice de la conquête de clientèles, et leur succès dépend à l’évidence de l’intelligence de ces unions tant sur le plan symbolique que fonctionnel.

Mais ce qui est le plus intéressant est au fond ce rôle particulier de la technologie qui brouille l’unité et la neutralité de la monnaie. Nous avions été habitués à ce que la monnaie s’apparente à un bien indifférencié, monnaie papier ou scripturale, rarement elle n’a été associée à d’autres fonctions que celle d’unité de compte, de moyen d’échange, de réserve. Ce n’est désormais plus tout à fait le cas, les moyens de paiement nouveaux qui se constituent avec les cartes sont désormais associés à une litanie de services, qui vont de l’assurance à l’assistance en passant par le crédit sans oublier l’affirmation du statut et l’expression tribale du soi.

Au-delà du moyen de paiement, ces nouveaux modèles de cartes sont avant tout des instruments d’identification et d’accès. Et plus que le support d’un accroissement de l’efficience de l’enregistrement comptable que permet la digitalisation, elles deviennent le vecteur d’un marketing plus sophistiqués que jamais. L’étude de leur usage par les consommateurs et par leurs émetteurs devrait être aujourd’hui une priorité. La riche littérature sur les alliances de marques pourrait nous y aider.

Concluons sur ce joli paradoxe que la recherche de l’interopérabilité conduit à la fragmentation. Entre les cartes purement affinitaires (par exemple ces cartes associées à la pratique d’un sport), les cartes de services spécifiques (comme le seront les cartes destinées à gérer les voyages), les cartes d’optimisation consommation (associant crédit et fidélisation), ou les cartes de paiement universel (sorte de passe partout dont le micro paiement est un des atouts), nous assistons à la mise en place d’une nouvelle donne. Il faudra y associer les moyens de paiement électronique à la Paypal, et ne pas oublier que si le support de la carte à puce (EMV) s’est établi désormais comme standard, d’autres matérialisations sont encore possibles. Nous attendons avec impatience le prochain HTC cobrandé par HSBC, ou l’I-pod e-Virgin. Dans tous les cas, observons que l’on ne peut plus dire que la monnaie n’a pas d’odeur, elle porte sur elle désormais les saveurs du marketing le plus sophistiqué.

Workshop 17 Avril 2008 – Software Retailing : l’art du réseau

Thierry Cadix de l’agence Singapour est venu le Jeudi 17 nous présenter les méthodes qu’il utilise dans le cadre de son activité de conseil. La présentation a été passionnante, et nous a permis de mettre en évidence un problème générique de distribution, celui de produits informationnels : software, applicatifs, services. Dans cette industrie trois traits caractéristiques doivent être mentionnés, ils pèsent sur la politique de commercialisation et de distribution.

Le premier est l’énorme hétérogénéité du marché, l’hétérogénéité des clients : un faible nombre de comptes clés, quelques centaines, un nombre modéré de clients middle-market (quelques milliers) et une myriade de petits comptes (des centaines de milliers).

Le second est l’incapacité d’une firme, d’une marque, à offrir la totalité des services nécessaires pour la mise en œuvre des solutions. Elle a besoin de partenaires pour spécifier, programmer, développer, former, maintenir la solution. Sans alliances horizontales, il est difficile de travailler. De plus ces partenaires diffèrent largement selon le type de client qui est servi, impliquant des alliances verticales.

Le troisième est la nature des produits qui se prêtent à des approches versionnées au sens de Varian et favorise la déclinaison d’une solution de base, à des prix qui diffèrent de plusieurs ordres de grandeurs. Ainsi en matière de solutions CRM, un Siebel peut vendre une solution intégrée à plusieurs dizaines de millions d’euros aux premiers, et offrir un service à la demande pour quelques centaines.

Ces éléments étant posés, on voit assez bien le type de problème qui est posé dans l’élaboration des politiques de distribution. Sans tous les énumérer deux d’entre eux peuvent être évoqués.

Le premier est celui de la cannibalisation. Des solutions différentes étant offertes à des types de clients différents par des partenaires distincts, le client peut-être amené à hésiter entre deux versions d’une même solution de base. Comment maintenir les frontières de la segmentation en termes de taille et donc gérer les conflits entre des coalitions différentes. Si le principe du versioning se comprend aisément, sa mise en œuvre se confronte aux problèmes classiques des conflits et des contrôles des canaux. Ce qui est moins classique est que les canaux ne se définissent pas seulement verticalement, mais se constituent comme des réseaux d’acteurs. Il ne s’agit pas seulement d’une écologie des populations, mais d’une écologie de communautés pour reprendre l’intitulé d’un article d’ Asley.

Le second est celui de l’organisation des firmes. Si à l’évidence ce secteur bénéficierait très largement d’une approche orientée client et d’une organisation idoine (division par groupes de clients ou par solutions), son caractère technologique prononcé impose des formes d’organisation par produits. Les questions de coordination interne deviennent tout aussi importantes que celle de coordination externe, et conduisent à penser la mise en œuvre des alliances non seulement comme la constitution de réseaux entre les partenaires mais aussi à travers l’organisation. L’étude des solutions adoptées par les firmes constituent de ce point de vue un sujet de recherche de première importance.

D’autres questions pourraient être évoquées, celle du type d’approche commerciale (produit vs solutions), celle de la gestion de la baisse de la productivité commerciale, celle des politiques d’exclusivité dans le choix des partenaires. Nous les traiterons ultérieurement, le point principal à souligner restant que dans ce secteur particulier, la particularité de la politique de distribution réside dans une approche planifiée de la constitution de réseaux de partenaires qui exploitent des canaux différents. C’est sur ce point que Thierry Cadix nous a présenté des méthodes pratiques essentiellement fondées sur une triple segmentation : des clients, des partenaires et des solutions.

La logique des canaux

Pour de nombreuses entreprises de services, compagnies de télécom, banques, transports, énergie, la question de la gestion des canaux de distribution est cruciale dans la mesure où elles se diversifient en termes de technologie et de fonctionnalités.

Le web devient un canal incontournable, site, portail, simple blog, il tend à être le pivot d’un faisceaux de canaux soit enraciné dans la réalité spatiale (les agences et les automates), soit projeté dans les canaux interactifs : mail, chat, téléphone.

Le multicanal se construit ainsi dans le fil d’une orientation client authentique, dans le déploiement des technologies, et cette question difficile : faut-il accorder les canaux en fonction de l’utilisateur ou de l’utilisation ? De la conquête où de la défense? Des modèles différents émergent, mais converge aussi vers une intégration plus forte, centré sur les représentations du client.

Voici une question qui mérite une attention plus soutenue, celle des stratégies de distribution multicanales, dont on trouve un reflet dans les préoccupations 360° des publicitaires. Quelques éléments sont esquissés ici – Stratégie à l’horizon 2010 – Une enquête pour Cincom.

La société de l’accès

Cette idée popularisée par Rifkin est développée par un certains nombre d’analystes stratégiques qui se penchent sur la mort lente de l’économie traditionnelle de la musique. Un de leur argument est de dire que le contenu musical a perdu de valeur, il est un flux continu qui parvient au consommateur, et que ce qui vaut est la capacité d’agréger du contenu d’une part et de l’adapter au besoin du consommateur.

Ce modèle peut prendre des formes variées : celle d’une radio sur mesure comme last-fm, celle d’un Juke box comme WinAmp, une plate forme comme i-tunes a fait ses preuves, dans tout les cas, la valorisation se fait soit par la capacité à capter du temps d’attention pour les besoins publicitaires, comme une radio classique, ou à générer un abonnement, le droit d’accès à de larges ressources musicale dont le prix vaut car on y trouve ce que l’on veut c’est à dire à la fois ce qu’on connait et que l’on aime, mais aussi ce que l’on risque d’aimer.

Dans tout les cas l’enjeu est l’accès, pour les consommateurs mais aussi d’acceptation de payer le prix de l’accès par ces derniers en échange d’une diminution des coûts de recherche, de sélection d’achat, de maintenance que le consommateur engage dans un modèle où chaque musique est vendue à l’unité.

La technologie change ainsi un modèle de consommation, un modèle de distribution, un modèle de rémunération. Elle ne le fonde pas sur la réputation de tel ou tel artiste, le succès de tel ou tel morceau, mais sur l’expérience que souhaite chacun des consommateurs. Une expérience unique, particulière, conditionnée par l’histoire de son sujet, ses expériences ses connaissances.

L’accès en est la clé. Facilité de l’accès au service pour le consommateur, accès du diffuseur au consommateur.