Klout : influencer la mesure de l’influence ?

Clout

Klout s’impose comme l’instrument de mesure de l’influence (1), mais à l’instar de Yann Gourvennec  (Klout mesure-t-il l’influence ou la capacité à influencer Klout ?) nombreux sont ceux qui s’interrogent sur la validité d’un indicateur qui semble varier de manière trop prononcée en fonction de l’activité. Les semaines de vacances ont fait de gros trous dans de nombreux ego.
C’est l’occasion de revenir sur la question générale de la mesure de la performance. Dans le cas de Klout ce qui est mesuré assurément ce sont les conséquences de l’activité : les mentions, les retweet, les partages, les likes, tout ce fratras et cette agitation qui caractérise les réseaux sociaux. Il va de soi que plus on est actif et plus on fait de bruit. 
Les record(wo)men du klout sont ceux qui s’agitent non stop. A moins de 50 twits par jour, ce n’est pas la peine d’espérer figurer dans un top 300 quelconque. De ce point de vue, Yann a raison, Klout mesure la capacité que l’on a à l’influencer. Et même de ce point de vue, il y a des questions qui se posent. Les adresses raccourcies qui signalent un post sont-elle identifiées comme le fait Topsy, et attribuées à son auteur?  La foule des curateurs se repait d’un contenu qu’elle n’a pas créé et gagne les points précieux du klout system. L’influence de Lady Gaga (K=92) sur la musique est-t-elle plus importante  que celle de Timbaland (K=73)?
Mais cela n’explique pas le trou de l’été, l’explication est beaucoup plus simple. Formulons la sous la forme d’une hypothèse : Klout très certainement utilise un modèle de lissage exponentiel et très probablement a donné un poids trop faible au paramètre λ du modèle :
  • Ki'(t) = λKi’(t-1)+(1-λ)A(t)  avec Ki'(t) : l’estimation de l’influence de i à t-1 et Ai(t) l’activité dérivée par i en t – autrement dit l’influence aujourd’hui dépend pour une part de l’activité induite immédiatement observée et de l’influence calculée dans le passé.
Cette formule par récurrence, très simple est largement employée, y compris en marketing. Pour la petite histoire voici un texte de Little de 1965 qui en analyse l’usage pour la promotion des ventes, modèle utilisé d’ailleurs plus tard pour mesurer la fidélité des consommateurs. On s’amusera à redécouvrir qu’il n’y avait besoin ni de traitement de texte, ni d’ordinateur, ni d’internet pour modéliser !!!

Une image valant pour beaucoup plus qu’un mot, voici ce que celà donne pour un twittos dont l’influence grandit de manière linéaire, et qui suspend tout activité pendant quelques périodes (il reprend ensuite au niveau où il s’est arrêté simplement en mobilisant à nouveau le réseau qu’il a accumulé) et pour deux valeurs du  λ. La ligne en jaune colle à l’activité immédiate, celle en rouge atténue les aléas et “résiste” au creux de l’activité.

Le choix de Klout peut cependant se justifier dans la mesure où l’influence dans les réseaux est un processus sans mémoire. On relaye les messages qui ont une valeur dans l’immédiat et il est peu probable que la simple signature de son émetteur en assure la réémission. Autrement dit, une véritable mesure de l’influence devrait faire varier ce paramètre λ pour chacun des agents de manière à prendre en compte l’influence de l’activité passée sur l’activité future de son réseau. En ajustant le modèle individu par individu. Le λi mesurerait alors l’influence véritable.
Pour revenir à la question fondamentale, ce n’est pas l’activité dérivée d’une activité principale qui mesure la performance, mais la relation entre l’effort et le résultat. Une bonne mesure de performance devrait se rapporter au rapport relatif de l’activité sur les réseaux sociaux et de ses conséquences. Il faudrait mesurer une élasticité : le rapport de la variation de l’effort de communication et de la variation des effets de Buzz. Cette mesure distinguerait ceux qui exercent effectivement une influence, de ceux qui jouissent simplement d’effets d’échelles (en général, le nombre de followers résulte plus du following mécanisés que du magnétisme du twittos quand les échelles se comptent en milliers).
Pour conclure, le véritable souci avec Klout n’est pas véritablement dans le choix du modèle, mais plutôt dans ce cancer qui pourrit toutes les agences de notation : le conflit d’intérêt. L’objectif pour Klout est clairement de rassembler la base de données la plus vaste possible, et les mécanismes employées sont moins des mesures objectives de performance qu’un système de motivation et d’incitation. La note n’a pas d’autre rôle que de flatter – ou de vexer – les ego, afin de les encourager à produire plus. Elle joue aussi des instincts les plus bas : la jalousie et l’envie. 
Il n’est pas de saine compétition sans un juge irréprochable. On peut discuter la constitution des indicateurs, leur base d’observation et les choix de modèles, on doit rester attentif à ce que l’on veut mesurer ( qu’est-ce que l’influence?), mais avant tout un bon instrument de mesure doit échapper au conflit d’intérêt. Le doute que l’on peut avoir sur Klout et ses consorts est que le calcul des scores soit indépendant de leurs stratégies de croissance. Dans la mesure où les incitations produites encouragent les twittos à améliorer leur score, ce doute devient majeur. Klout ne mesurerait alors que la capacité à influencer l’influence mesurée, pire il mesure le conformisme des agents, le degré avec lequel les agents se plient à la norme d’influence qu’il a établi.
(1) Ets-il besoin de rappeler que “clout” signifie “influence” en anglais?

PS : il faudrait aussi ajouter pour Klout, que le score n’est pas une métrique comme les autres, il reflète une distribution, le score indique en réalité si l’on appartient au 0,1%, 1% , 10% etc les plus “influents”. Un score de 50 correspond en fait au 10% les plus “influents”.
____
A lire aussi : Du prix à la note – mutations des marchés

Publicité et digital : faut-il de nouvelles mesures ?

Friendfeed vs Twitter
[pour la Journée AFM GfK France – 1er avril 2011]
L’environnement publicitaire se caractérise d’abord par la multiplication des canaux et moyens d’actions dont les métriques varient sensiblement de ce à quoi on était habitué, chaque instrument par nature suscite ses propres indicateurs : les taux de clics, nombre de pages vues, nombres de vidéos vues, les niveaux de recommandation sur les réseaux sociaux, des indicateurs de sentiments, des scores d’influences, des taux d’ouverture, de conversion, de transformation, d’appétance. Cette multiplication des indicateurs cotoie sans complexe l’exigence du ROI, ce mot magique qui justement jamais ne donne le retour sur investissement, se contentant d’un ratio entre un effort et un résultat. Les As du ROI sont de piètres comptables, et souvent de mauvais économistes.
Si on peut croire qu’un indicateur peut refléter le résultat d’un effort effectué dans un canal et être comparé à travers différentes actions (le coût par clic en est un moyen), on voit mal comment comparer différents indicateurs d’un canal à un autre ( le coût du clic et celui de l’ODV). Il faudrait une échelle commune, où un critère définitif puisse trancher : quel impact sur les ventes, la part de marché, le profit ou mieux encore la valeur client ? Les myriades d’indicateurs que l’on constitue à mesure que des canaux nouveaux s’ouvrent, sont des indicateurs secondaires de performance, l’enjeu est de les lier aux mesures fondamentales.
Le caractère ad hoc des indicateurs est sans doute le problème le plus simple. Nous avions déjà rapporté l’argument de Gian Fulgoni à propos des taux de clics si faibles qu’on devrait abandonner l’usage des bannières, il sont de l’ordre de 0,1%, mais ils tiennent compte ni des effets de mémorisation ou d’image qu’on retrouve dans le glissement des ventes. C’est à travers la multiplicité des campagnes que l’on doit mesurer la performance. Le plan doit dominer sur les opérations. Les obsédés du ROI peuvent perdre de vue la stratégie. Et son résultat mesure l’effets de toutes les opérations sur les ventes.
Le problème le plus important vient des effets cross-canaux qui sont fortement intriqués. Les mass media incitent à fréquenter les sites, et la frequentation des sites accroit sans doute la performance des mass média. Le marketing direct peut pousser avec précision une marque et augmenter la fréquentation du site rendant un nombre important de consommateurs sensibles aux messages des mass-media. Les effet vont dans un sens et dans l’autre, ils sont récursifs.
La conséquence est qu’il est difficile de démêler les effets, sauf à comprendre les inductions dans le temps : comment un canal affecte la performance d’un autre. Les indicateurs d’un médium ne mesurent pas forcément l’effet unique de ce média, mais aussi l’influence des autres. Ce souci est augmenté par le fait que les campagnes sont désormais en continu, comment isoler l’effet d’une campagne de l’accumulation des effets des précédentes ?
C’est une question à laquelle Fulgoni propose une réponse simple. Pour analyser l’efficacité des bannières il ne faut pas regarder le taux de clics qui est extrêmement faible : 0.1%. L’effet d’une campagne peut difficilement être apprécié en tant que tel. Le clic représente une action, mais un silence n’est pas forcement sans effet, les expositions sans action peut aussi travailler la cible. C’est pourquoi il propose de regarder l’effet cumulé sur les ventes, et d’isoler ce “drift”, qui n’est rien autre qu’un calcul d’élasticité. On en revient à l’idée fondamentale d’un Little et de son decision calculus.
La différence est qu’aujourd’hui nous disposons de quelques trésors économétriques. La solution passe par un effort de modélisation sophistiqué qui est le seul moyen de distinguer les effets. Les solutions sont disponibles depuis plus de 10 ans avec les modèles VAR, VECM ou DLM dont l’intérêt principal est de tester simultanément les effets d’un indicateur sur un autre par un jeu simple d’équation d’auto-régression. Une batterie d’outils les accompagnent :
    1. les tests de causalité à la Granger qui aide à étudier le sens de la causalité, par exemple de nombre cumulés de membres de la page de fan influence-t-il la mémorisation d’une campagne TV et/ou la campagne TV influence-t-elle le nombre de membres de la page ?
    2. Des tests de cointégration qui sont essentiel dans la mesure où de nombreux nouveaux indicateurs sont des indicateurs cumulatifs : le nombre de membre twitter est la somme des précédent plus des nouveaux. Dans ce cas les séries sont intégrées.
    3. Des fonctions d’impulsion qui par simulation permettent de calculer et de représenter l’influence d’une variation unitaire d’une des variables sur les autres variables en examinant sa distribution dans le temps. Ce sont en fait les formes modernes de l’élasticité qui reste le seul critère de mesure d’efficience.
Que l’on dispose de la méthode est une chose. Mais ce n’est pas suffisant. C’est une connaissance plus fine des interactions des médias qui est nécessaire. L’écologie des médias en temps réel, tels que twitter, et des grands médias d’information est instructive : à l’examen des grands événements on devine assez nettement les interactions. L’info primaire qui y circule a d’autant plus de chance d’être reprise par les médias qu’elle est retwittée, mais en retour sa reprise par ces médias active les Rtwits. Mais à ce cycle, qui prend quelques heures ( par observation directe de certains événements la reprise par les grands médias se réalise quelques heures après – souvent le temps de vérification – et son effet sur les re-tweets dure on va dire 36h), s’ajoute un effet parallèle sur les blogs qui se nourrissent de cette double information mais dans un rythme plus lent, celui de quelques jours. Pour compliquer la chose, un certain nombre de nouveaux médias reprennent a posteriori l’information en la republiant (syndication). Cette activité d’ailleurs peut être institutionnalisée, c’est ainsi que le Monde réinternalise un certains nombre d’articles de Internet.actu. Pour achever cette analyse, rappelons que les adwords s’articulent sur le contenu !! L’exposition dépend de la production des informations. D’une écologie complexe.
C’est ce cycle d’information qui doit être l’objet de recherche approfondies, doit être mieux compris, non seulement dans l’ordre et l’importance des interactions, mais aussi dans la structure des populations qui l’animent : spécialiste de RP, blogueurs influents, fan de marques, leader d’opinion et ce grand public qui demeure en dépit de la socialisation de l’internet : 90% des consommateurs d’information ne font rien ou presque, le taux de recommandation n’est guère plus important que 5% et celui des contributions inférieur à 1%. Une écologie complexe de la communication publicitaire et non publicitaire est en train de se mettre en place. Il est essentiel d’en avoir une connaissance plus fine sur le plan empirique.
Nous avons les méthodes, nous avons les données, il reste à les réunir. Quand à la nécessité de nouveaux indicateurs et de nouvelles mesures laissons cela aux marketers des nouveaux services. En réalité on en a pas besoin. Il suffit de pouvoir mettre en ligne et en modèles, les données disponible. On examinera a postériori s’il permette de mieux rendre compte de la dynamique d’ensemble, et de savoir quelle place prendre dans le système à construire qui n’est rien d’autre qu’une forme de balanced scorecards
Alors oublions les mauvais comptables, coupons la tête au ROI, réapprenons ce que les spécialistes du contrôle de gestion nous apprennent depuis longtemps, prenons tous les indicateurs disponibles et cherchons quelles causalités les relient, et comment les tactiques contribuent à réaliser les objectifs de la stratégie. En marketing ces objectifs sont peu nombreux, ils se résument à la part de marché et à la valeur du portefeuille de clientèle.