Klout : influencer la mesure de l’influence ?

Clout

Klout s’impose comme l’instrument de mesure de l’influence (1), mais à l’instar de Yann Gourvennec  (Klout mesure-t-il l’influence ou la capacité à influencer Klout ?) nombreux sont ceux qui s’interrogent sur la validité d’un indicateur qui semble varier de manière trop prononcée en fonction de l’activité. Les semaines de vacances ont fait de gros trous dans de nombreux ego.
C’est l’occasion de revenir sur la question générale de la mesure de la performance. Dans le cas de Klout ce qui est mesuré assurément ce sont les conséquences de l’activité : les mentions, les retweet, les partages, les likes, tout ce fratras et cette agitation qui caractérise les réseaux sociaux. Il va de soi que plus on est actif et plus on fait de bruit. 
Les record(wo)men du klout sont ceux qui s’agitent non stop. A moins de 50 twits par jour, ce n’est pas la peine d’espérer figurer dans un top 300 quelconque. De ce point de vue, Yann a raison, Klout mesure la capacité que l’on a à l’influencer. Et même de ce point de vue, il y a des questions qui se posent. Les adresses raccourcies qui signalent un post sont-elle identifiées comme le fait Topsy, et attribuées à son auteur?  La foule des curateurs se repait d’un contenu qu’elle n’a pas créé et gagne les points précieux du klout system. L’influence de Lady Gaga (K=92) sur la musique est-t-elle plus importante  que celle de Timbaland (K=73)?
Mais cela n’explique pas le trou de l’été, l’explication est beaucoup plus simple. Formulons la sous la forme d’une hypothèse : Klout très certainement utilise un modèle de lissage exponentiel et très probablement a donné un poids trop faible au paramètre λ du modèle :
  • Ki'(t) = λKi’(t-1)+(1-λ)A(t)  avec Ki'(t) : l’estimation de l’influence de i à t-1 et Ai(t) l’activité dérivée par i en t – autrement dit l’influence aujourd’hui dépend pour une part de l’activité induite immédiatement observée et de l’influence calculée dans le passé.
Cette formule par récurrence, très simple est largement employée, y compris en marketing. Pour la petite histoire voici un texte de Little de 1965 qui en analyse l’usage pour la promotion des ventes, modèle utilisé d’ailleurs plus tard pour mesurer la fidélité des consommateurs. On s’amusera à redécouvrir qu’il n’y avait besoin ni de traitement de texte, ni d’ordinateur, ni d’internet pour modéliser !!!

Une image valant pour beaucoup plus qu’un mot, voici ce que celà donne pour un twittos dont l’influence grandit de manière linéaire, et qui suspend tout activité pendant quelques périodes (il reprend ensuite au niveau où il s’est arrêté simplement en mobilisant à nouveau le réseau qu’il a accumulé) et pour deux valeurs du  λ. La ligne en jaune colle à l’activité immédiate, celle en rouge atténue les aléas et “résiste” au creux de l’activité.

Le choix de Klout peut cependant se justifier dans la mesure où l’influence dans les réseaux est un processus sans mémoire. On relaye les messages qui ont une valeur dans l’immédiat et il est peu probable que la simple signature de son émetteur en assure la réémission. Autrement dit, une véritable mesure de l’influence devrait faire varier ce paramètre λ pour chacun des agents de manière à prendre en compte l’influence de l’activité passée sur l’activité future de son réseau. En ajustant le modèle individu par individu. Le λi mesurerait alors l’influence véritable.
Pour revenir à la question fondamentale, ce n’est pas l’activité dérivée d’une activité principale qui mesure la performance, mais la relation entre l’effort et le résultat. Une bonne mesure de performance devrait se rapporter au rapport relatif de l’activité sur les réseaux sociaux et de ses conséquences. Il faudrait mesurer une élasticité : le rapport de la variation de l’effort de communication et de la variation des effets de Buzz. Cette mesure distinguerait ceux qui exercent effectivement une influence, de ceux qui jouissent simplement d’effets d’échelles (en général, le nombre de followers résulte plus du following mécanisés que du magnétisme du twittos quand les échelles se comptent en milliers).
Pour conclure, le véritable souci avec Klout n’est pas véritablement dans le choix du modèle, mais plutôt dans ce cancer qui pourrit toutes les agences de notation : le conflit d’intérêt. L’objectif pour Klout est clairement de rassembler la base de données la plus vaste possible, et les mécanismes employées sont moins des mesures objectives de performance qu’un système de motivation et d’incitation. La note n’a pas d’autre rôle que de flatter – ou de vexer – les ego, afin de les encourager à produire plus. Elle joue aussi des instincts les plus bas : la jalousie et l’envie. 
Il n’est pas de saine compétition sans un juge irréprochable. On peut discuter la constitution des indicateurs, leur base d’observation et les choix de modèles, on doit rester attentif à ce que l’on veut mesurer ( qu’est-ce que l’influence?), mais avant tout un bon instrument de mesure doit échapper au conflit d’intérêt. Le doute que l’on peut avoir sur Klout et ses consorts est que le calcul des scores soit indépendant de leurs stratégies de croissance. Dans la mesure où les incitations produites encouragent les twittos à améliorer leur score, ce doute devient majeur. Klout ne mesurerait alors que la capacité à influencer l’influence mesurée, pire il mesure le conformisme des agents, le degré avec lequel les agents se plient à la norme d’influence qu’il a établi.
(1) Ets-il besoin de rappeler que “clout” signifie “influence” en anglais?

PS : il faudrait aussi ajouter pour Klout, que le score n’est pas une métrique comme les autres, il reflète une distribution, le score indique en réalité si l’on appartient au 0,1%, 1% , 10% etc les plus “influents”. Un score de 50 correspond en fait au 10% les plus “influents”.
____
A lire aussi : Du prix à la note – mutations des marchés

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Pour une université digitale

Jorge in Wonderland
Quelle stratégie dans les médias sociaux pour les Universités?
C’est une question sur laquelle on m’a demandé de plancher pour un séminaire de la FNEGE et à laquelle je répond oui avec enthousiasme. Quelques lignes de réflexions peuvent en résumer les idées essentielles.
  1. Les réseaux sociaux sont efficaces pour ceux qui possèdent une communauté. De ce point de vue les universités sont bien dotées. Avec 30 000 étudiants, celle où j’officie dispose d’une force de frappe potentielle considérable. Au regard du 1/9/90, voilà qui laisse espérer 300 contributeurs, 3000 « recommandeurs », et ces quantités peuvent être largement augmentées avec les anciens étudiants. Sur 10 ans c’est près de 100 000 personnes qui y ont fait un passage. Le nombre n’est cependant pas suffisant, il faut encore que l’attachement à la communauté soit réel. Mais de ce point de vue là, il n’y a guère de souci à se faire, le passage dans une institution académique laisse des marques à vie, les universités sont parmi les rares institutions qui transforment nos vie avec l’église et l’hôpital. On est toujours un ancien de. Et si elle a une histoire, du prestige, une légitimité, cette communauté sera d’autant plus forte, ses membres plus attachés. Il y aura toujours quelque part un de ses représentants. Les réseaux socio-numériques, sont de ce point de vue un levier puissant pour incarner cette communauté silencieuse.Elle a forcement envie de parler et d’entendre les échos d’une jeunesse qui s’éloigne.
  2. Les universités ne sont pas une mais plusieurs communautés . Celle des étudiants, celles des enseignants, de ceux qui les secondent. Les premiers se réunissent dans le passage qui leur donne un élément d’identité pour la vie et on ne comprend pas pourquoi les adresses mails ne sont pas données à vie – quelque fusse leur utilité, elles marquent un lien indéfectible, elles sont le passeport et le contrat. Les seconds sont morcelés par leurs champs, leurs institutions et n’écoutent guère un centre qui est soit un centre administratif ou une arène politique. Ils s’y retrouvent quand la marque Université est forte. La segmentation est donc une étape clé, la construction de marque le moyen d’unifier les communautés. C’est là où se trouve la difficulté pratique : ce n’est pas un réseau social qui suffit, mais différents réseaux, sur différentes plateformes qu’il faut coordonner. Il faut fédérer des dispositifs multiples, intriqués, un tissu de communautés. Sans doute faut-il organiser un marché de ces communautés. Les animer, les encourager, les aider à grandir, les croiser. Rappelons-nous que la communauté est une organisation primaire et que la société est justement cette espace où des communautés superposées cherchent leurs règles. Le fédéralisme est une notion à ré-explorer. Le monde digital le favorise pour la simple raison qui diminue les coûts de coordination. On en conclue quant au rôle des unités de communication : elle doivent orchestrer les réseaux.
  3. Les réseaux sociaux sont d’autant plus forts que le contenu à diffuser est riche. De ce point de vue les universités sont munificentes. Avec plus de 2000 chercheurs, celle où j’officie produit du contenu à un rythme qu’aucune marque n’est capable de produire. Il reste à le mettre en forme, en scène, car souvent ce matériau est illisible, conçu pour n’être entendu que de quelques uns, ésotérique. Mais sans faire de story-telling, juste en dépoussiérant et en dégraissant les pièces sorties de l’atelier on peut faire étinceler une intelligence qui par habitude paresse dans le goût du secret et se couvre de scories, de paille et de boue. Sur un plan plus technique, cela exige une veille interne, la constitution d’un réseau d’informateurs et de retrouver cette belle tradition de la vulgarisation. Il faut communiquer ce sur ce qu’on produit. Chaque jour. Un oeil à Harvard ou au MIT donne un idée claire de ce dont il s’agit. Il reste à faire cette révolution culturelle de penser l’université moins comme une église que comme un média ( c’est d’ailleurs le beau travail fait par le Cleo) . Le réseau social de l’université est un média à part entière qui diffuse, souvent par capillarité, un savoir qui doit rester libre. Cette liberté c’est celle de l’accessibilité. D’un point de vue pratique, cela exige de jouer avec une cascade de médias : les revues scientifiques et leur plateformes de diffusion, les livres, les cours et les conférences: dire jour à jour la science qui se fait. Le volume demande un savoir faire. De ce point de vue on rêverait de fondre les centres de documentation avec les unités de communication. Fédérer des contenus.
  4. Les réseaux sociaux exigent une ligne éditoriale. Dans la continuité, on comprend que la matière doit être éditée. Dans le sens noble et ancien du métier d’éditeur. En respectant la lettre et l’esprit, faire briller le bronze que verdissent les intempéries. Dessiner des jaquettes, composer le texte. Faire du manuscrit une idée prête à affronter l’espace public. Mais plus encore donner au torrent, que dis-je, au fleuve, de la production universitaire, un lit sans trop de méandres, qui s’organise en un grand bassin. C’est là sans doute un point faible des universités. Le désordre que les institutions politiques ont introduit avec leurs grands machins est un ennemi évident. Seul un esprit véritablement scientifique et humaniste peut y remettre de l’ordre. Scientifique car il faut donner un sens qui correspond à une réalité, humaniste car il s’agit aussi de dépasser les bornes des spécialités pour qu’un véritable entendement soit possible. Peu importe les supports. Le portail central et ses réseaux périphériques, les campagnes publiques et le travail microscopique des diplômes. L’utilisation des réseaux sociaux à l’université dépend de la qualité d’un projet éditorial. Nous produisons un journal virtuel de la science, il nous faut le réaliser. C’est une idée difficile : penser l’université comme un média.Une audience qui rencontre une programmation. On oublie parfois que l’université est aussi une industrie culturelle.
  5. Les réseaux sociaux ont besoin d’une équipe éditoriale. C’est la petite découverte des praticiens des réseaux sociaux. Il ne suffit pas de cliquer et de retwitter. Ce n’est pas une équipe de bonne volonté qui fait les choses. L’équipe éditoriale doit être issue du corps productif, la valeur de vérité tient à celà. Qu’une ligne soit donnée, elle doit être alimentée. Les belles histoires de réseaux sociaux numériques sont des questions d’organisation, des équipes de 10 à 100 contributeurs. Une communauté dans la communauté. Il faut des informateurs, des reporters, des rédacteurs, des animateurs., une langue. La technique est secondaire. Une chaine vidéo, une plateforme de slides, des documentations, une radio digitale, il faut tout. Mais il faut surtout ceux qui acceptent de produire. Chacun avec son talent alimentera l’architecture des médias.
Nous avons évoqué les principes, nous n’avons pas discuté de technique. Nous serons court à ce sujet, rappelant simplement une distinction proposer par Christian Fauré entre techniques de la relation et technologiesrelationnelles. Si les universités possède le contenu, peuvent aligner des troupes considérables et disposent en puissance des technologies relationnelles, il lui reste à reconstruire ses techniques de relations. Repenser ses rapports aux étudiants, aux professeurs, aux entreprises, aux médias, aux proches de ses étudiants.
A repenser que l’article de recherche n’est pas que le moyen d’affiner un CV pour obtenir un meilleur poste, mais que leur format donne à l’idée le moyen d’en établir une valeur de vérité. A repenser que le cours n’est pas une obligation statutaire auquel les étudiants satisfont pour le bénéfice d’une note, mais le laboratoire où l’enseignant teste et formalise les idées qui viennent de son travail. A repenser que l’université est un espace public, qui s’il délivre des diplômes, doit ouvrir tous ses espaces à l’ensemble de la société. Que sa mission première est de diffuser la connaissance qu’elle produit. La connaissance est affaire de vérité, sa diffusion est affaire d’attention. Dans cet esprit les réseaux sociaux sont de formidables vecteurs de gains de productivité. Il rendront poreux les murs de l’académie, laissant entrer les questions de la société, laissant naître enfin leurs idées. Soyons décidément optimistes, les réseaux sociaux construisent une autre université quelque soient les stratégies qu’on leurs assignent. 
Ce n’est pas le classement de Shanghai qui règne, mais la société de la réputation. Le meilleur moyen de la construire est d’engager la conversation. Les réseaux sociaux en sont la chance.