Satisfaction à l’égard des moteurs de recommandation : la transparence optimale

C’est une idée ancienne. Le mieux dans la transparence n’est pas le plus, c’est plutôt un clair-obscur, assez clair pour que la lumière traverse, assez obscur pour qu’on y devine un relief.

Il en est de même pour la transparence des algorithmes. Les utilisateurs réagissent le mieux à une information épurée, simplifiée, qui donne les principes sans brouiller avec les détails. Le simple plus que le complet.

Ce papier, publié dans la nouvelle et intéressante revue Management et DataScience en teste l’hypothèse. S’il est modeste dans la méthode et le principe ses résultats sont très net.  Cela a des conséquences en matière de design des sites et des applications. Donner des éléments clés qui favorise l’autonomie de jugement ( dois-je faire confiance à ce type d’algorithme ?)  et la connaissance de risque éventuel, sans demander un effort exorbitant. Cela cependant ne résout pas la question du contrôle effectif des algorithme qui demande une connaissance approfondie des détails.  On comprend que celle-ci n’est pas à la charge des consommateurs, mais des organismes spécialisés dans la défense des droits et des consommateurs, la recherche académique, ou de régulation.  La transparence est un arrangement institutionnel.

PS : au passage soulignons que cette publication est le résultat du mémoire de master marketing à Nanterre de Pauline Vautrot.

Marketing – MIAGE Paris Ouest

15866878743_3185771142_zLe cours dispensé aux étudiants du M1 Miage est une introduction au marketing qui donnera une large part au rôle des TIC dans la mise en oeuvre des politiques marketing. Il s’appuie d’une part sur les éléments du cours général de marketing, et d’autre part sur le cours de Management de de Clientèle.

  • Séance 1 : Satisfaction des attentes et 4P
  • Séance 2 : Segmentation et Positionnement
  • Séance 3 :  Le modèle de la gestion de clientèle
  • Séance 4 :  Innovation et politique de produit
  • Séance 5 :  Politique de prix et personnalisation
  • Séance 6 :  Des anciens aux nouveaux médias
  • Séance 7 :  Systèmes de distribution et plateformes

Un TD accompagne le cours. Sa finalité : élaborer une enquête sur l’usage d’une technique marketing. Pour 2015 : évaluation des  moteurs de recommandation

Il s’agira de construire une échelle d’évaluation : pertinence, jouabilité, surprise, satisfaction, serendipidité, trivialité… et de la faire utiliser par des évaluateurs sur un moteur spécifique d’un site particulier.  Le projet d’échelle est ici. N’hésitez pas à y répondre.

Ouvrage de référence

 

Big data – un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d’avant les années 2000 quand ont nous faisais espéré trouvé l’or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d’outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd’hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu’il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s’encastrer dans nos objets.
Soyons prudent sur les promesse, l’or est peut-être dans les données, mais le difficile c’est de l’extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l’information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.
Premier argument : l’avantage de la quantité. Il n’est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l’exploitation de la quantité montre que le rendement du volume d’information est rapidement décroissant. S’il faut explorer une consommation, quelques petites dizaines d’interview permettent de se rendre rapidement compte des points clés et d’une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d’un million de signe suffit.
Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d’un caractère ou du degré d’un opinion, les traits généraux sont saisis à partir de plusieurs centaines d’observation, les milliers permettent de comparer surement des sous-populations, et à l’ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l’échantillonnage contredit sérieusement les prétentions du big data : il n’y a pas besoin d’un volume très grand d’information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu’un partie de l’univers et son donc susceptible à des biais.
Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L’essentiel dans les données ce sont les grilles d’analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l’analyse des données de réseau produit aujourd’hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C’est très beau et ça ne nous apprend rien. En revanche disposer d’une théorie et d’un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d’en calculer des propriétés globales et une partie du comportement. la valeur n’est pas dans les données mais dans le modèle.
Un autre argument justifie l’approche Big data : L’avantage de hétérogénéité. S’il n’y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n’y pas pas une loi d’ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l’avantage de pouvoir dans l’instant de l’action projeter les valeurs des paramètres calculés par les modèles. La valeur de l’information n’est donc pas dans la connaissance mais dans l’exploitation de cette connaissance. 
Et c’est bien là la promesse du big data : l’automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d’un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu’on peut individualisée, et qui permet donc d’optimiser individuellement le prix pour tirer tout l’avantage d’une discrimination presque optimale) permet des gains dont l’espérance est sans doute faible unité par unité, mais dont l’accumulation peut sans doute justifier les vastes investissement du Big Data à venir.
Cette automatisation de la décision suppose qu’au-dessus de la couche des capteurs et des dispositifs de stockage et d’échange de l’information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d’inférence, des simulateurs. L’exigence c’est le temps réel et l’ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.
Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l’échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l’activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C’est la possibilité de projeter en temps réel l’information locale aux acteurs locaux pour qu’il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.
Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s’il s’accompagne d’une décentralisation de la décision et au moins de repenser l’organisation.

Au fil du feed : paper.li

Paper.li débarque en France, et semble largement se diffuser si j’en crois ma time-line. 
Paper.li est une simplicité déconcertante. C’est un journal, une page et une adresse composée comme la Une de nos quotidien, mais nourrie par l’es informations indexées le jour précédent par la horde de ceux qu’on suit sur twitter. Pour créer ce journal, il suffit de donner son login. Quelques minute d’analyse et la page est publiée. Efficace et beau. A ce jour la version est minimale, on ne peut paramétrer les comptes. Choisir un modèle d’édition, donner des priorité. L’engin fonctionne seul. Il envoie chaque jour l’édition du jour.
Quel engin dérrière qui décode les twits, séparant les hashatag, réponses, RT, et ramène à la surface les contenus des adresses raccourcies, et les distribue entre des catégories, leurs alloue une place et compose la page? Nous sommes curieux de le savoir, plus encore d’une version qui pourra permettre d’agir sur ce paramétrages, donnant plus d’importance à certaines sources, favorisant certains mots clés.
Cette couche superposée sur la couche des conversation de twiter remplit un double rôle de filtre et de mise en valeur. Le fil twitter que l’on ne peut raisonnablement suivre s’il l’on a plus de 200 à 500 suivants, pour nourrir convenablement notre appétit d’information doit être retraité. Filtrer d’une part pour éliminer les scories, brouillons, redondance, mais aussi classer hierarchiser et marquer ces différence par une capacité d’attraction de l’attention plus forte. C’est exactement ce que fait paper.li et que d’autres services font vraisemblablement.
On comprend du même coup le rôle de twitter, celui de nourrir le fil de nos information, non seulement par l’alimentation – ce qui est deja bien fait quand notre sélection de sources est avisée, mais aussi la digestion. C’est le rôle d’applications et de services comme paper.li. Les applications sont évidentes : la veille, qui peut ainsi être mieux distribuée, le compagnon d’un blog, les revues de presse. Répondre à la nécessité d’arrêter le temps dans un espace, de saisir le stream dans son ensemble.
Sans doute le prototype d’une évolution des plateforme qui associe crowdsourcing, personnalisation, filtrage auto-contrôlé et collaboratif, mashup ( car c’en est un), visualisation et design.C’est un produit d’une start-ip suisse, smallrivers.com  localisée au sur le campus du Swiss Institute of Technology EPFL. Une idée européenne.
La leçon est claire : le nouveau monde du digital n’est plus un problème de production de contenu, il n’est plus un problème de recherche du contenu, il est encore un problème de mise en relation des producteurs de contenus, il devient de plus en plus un problème de filtrage du contenu. Cette avanture apporte l’idée d’une solution, avec l’élégance de reprendre les code d’une vieille institution : celle de la presse.

A lire aussi 

Crédit photo

    Une recommandation pour mesurer la fidélité des clients

    La mesure de la fidélité se satisfait difficilement d’une seule mesure, c’est ce que les critiques du Net promotor score mettent en avant. Et c’est à raison.

    La fidélité a des raisons multiples : la préférence, l’habitude, la satisfaction, la dépendance, la confiance, l’engagement, la pression du groupe, sa gratification.

    Et ses formes sont variées : la recommandation en est un aspect, le réachat un autre, sans compter le taux de nourriture, la résistance à la persuasion, la propension à réclamer, le renforcement des attitudes, la consolidation de la relation, la faible sensibilité au prix, une propension plus forte à se dévoiler et à accepter la communication.

    Un avantage actuel de la mesure de la recommandation tient dans l’importance croissante des médias sociaux qui amplifient la diffusion des messages. Elle est d’autant plus importante qu’au-delà d’une simple mesure en 7 points portant sur l’intention de recommander la marque réalisée par sondage, des dispositifs spécifiques et systématiques sont proposés à la recommandations des visiteurs. 
    Ces instruments de recommandation se présentent sous la forme de nombre d’étoiles à attribuer, de commentaires, de bouton sociaux. Voici un résultat possible : 2234 tweet, 1013 FB shares, 176 thumbs-up, 49 commentaires, un millier de like.
    Le premier mécanisme demande peu d’effort et d’engagement, il induit par effet de sélection très certainement un biais de surestimation de l’appréciation générale, mais le nombre d’avis formulé vient nuancer : c’est moins la note moyenne qui compte que le nombre de réponses données. En voici un exemple issu d’Amazon.com. On appréciera le “84% des clients qui ont regardé cette page ont acheté l’article”, est-il un meilleur encouragement?

    Le second est très engageant, il demande un certain degré d’engagement et de ce fait est un dispositif très sélectif. Des opinions tranchée y sont le plus souvent formulées, positive ou négative et quand les opinions sont variées, il peut s’engager un débat passionné. Même si moins de 0,5 % des visiteurs y contribuent, les visiteurs silencieux les lisent aussi. Notons que les commentaires eux-même parfois peuvent être notés. Ils sont parfois aussi important que l’article principal.

    Les boutons sociaux demande un degré intermédiaire d’engagement, mais ils ouvrent à des potentiel s de relais qui peuvent être élevé. Dans un bon réseau twitter, dans le millier de followers que l’on a, si les 1% qui relayent, touche chacun le même nombre, c’est 10 000 contacts supplémentaires qui sont obtenus. Le rendement a un facteur 10, dans notre exemple.
    Dans chacun des cas, il est conceptuellement facile de proposer des indicateurs. La note moyenne, son écart-type, et le taux d’expression ( nombre de notes données/nombre de visiste de l’article) sont les métriques naturelles du premier cas. Les commentaire se prête à une analyse sémiotique. Une simple analyse lexicale peut fournir des éléments précieux. Un taux de commentaire est aussi pertinent.  Le nombre des likes, des partages, est une mesure directe des effets.

    Des notes de sentiments peuvent aussi être élaborées à partir d’une analyse sémantique. Quant aux boutons, des calculs d’audience intégrale ( nombre d’individus uniques touchés par un ensemble de réseaux – réseau propre, twitter, facebook, blogs, Linked in) semblent nécessaires. On peut imaginer aussi que sur le corpus élargi soit comptabiliser le nombre de mention de recommandation. Ceci exige techniquement qu’un lexique de la recommandation soit constitués. Il y a la un joli projet de développement à conduire.

    La simplicité est sans doute l’avantage trompeur du NPS. Mais son idée reste pertinente. La mesure de la recommandation est un critère clé de mesure de la fidélité de nos clients. Les dispositifs sociaux des sites web en facilite le recueil systématique, même si chacun des instruments est sensible au coût de participation. Seule une minorité s’exprime, sans doute la plus engagée. Mais au-delà de l’opinion, qu’elle soit biaisée ou non, ce qui importe est que ces mesures captent directement l’action de recommandation. Si seuls 10 commentaires sont produits pour un article, et qu’ils soient majoritairement enthousiastes, il peuvent générer un nombre de vente substantiellement plus élevés.
    Les limites tiennent d’abord à la réflexivité de l’instrument : Si l’affichage des bonnes recommandations a un effet sur les comportements, cette mesure sera biaisée car reflétant son propre effet, c’est ainsi qu’en accroissant artificiellement ces indicateurs (en mobilisant les militants de la marques) on peut provoquer un engouement qui ne correspond pas forcement aux attitudes de ceux qui ne s’expriment pas.

    Les indicateurs restent en surface de la masse des clients. Une apparente flambée de recommandations peut aussi s’accompagner d’une sourde défiance, il est donc nécessaire de sonder aussi la masse silencieuse par des instruments plus traditionnels de mesure de satisfaction.

    La recommandation peut être une affaire de courtisans, ils forment désormais des foules, une industrie.

    ————-
    A lire aussi : 
    – Du prix à la note – mutations des marchés
    – Les fourmis de Facebook – I like Buttons…

    Les fourmis de Facebook – I like Buttons…

    Depuis un mois les boutons « J’aime » de Facebook pullulent sur les pages du web. Ces boutons analogues aux boutons de partage remplissent une fonction toute à fait particulière, qui font que l’intelligence n’est désormais plus dans les moteurs de recherche mais dans le réseau lui-même, une intelligence sociale.
    L’intelligence sociale n’est pas plus grande que celle des fourmis mais passablement plus efficace que la nôtre. Son principe est remarquablement simple. Les fourmis qui ont trouvé de la nourriture laissent sur leur chemin de retour des traces de phéromones – l’environnement sert de support à la communication. En supposant que deux chemins de retour se présentent, un court et un long, et si le choix initial est aléatoire, les traces de phéromone se dissiperont moins vite sur le court chemin que sur le plus long car la fréquence de passage sera plus rapide modifiant la probabilité des choix jusqu’à devenir un chemin unique qu’une colonne régulière empruntera.
    Ce bouton « j’aime » est une phéromone numérique. En cliquant, on laisse une trace qui se répercute dans les pages de Facebook. Notons au passage que si la plateforme était fermée, elle s’ouvre à son dehors et en quelque sorte se réapproprie l’ensemble du web. Le remarquable du procédé réside dans la nouvelle conception du feed, qui désormais donne deux choix : la toute dernière actualité personnelle – empilement chronologique des messages, ou une sélection par défaut des « meilleurs » messages, ceux justement qui sont appréciés et commentés.
    Poursuivant l’analogie, la plateforme est la fourmilière, nous en sommes les fourmis, et nos clics laissent notre signal, celui qui guide les autres vers les informations les plus attractives (et il n’est pas sûr que le plus attractif soit le plus pertinent). Comme la fourmilière, une intelligence émergente apparaît sans cerveau central. Il n’est plus besoin d’algorithme et de calculateur, c’est la trace de nos pas qui crée de l’ordre et de la signification, au sein même du réseau, par le réseau lui-même, en tant qu’il est l’environnement dans lequel on évolue.
    Mais la limite de cette analogie est que l’odeur que nous laissons n’est pas la nôtre. Nous ne faisons que l’activer, ce sont les sites, autrement dit l’environnement qui la dépose, et c’est l’astuce de la plateforme qui la ramène dans son environnement interne au prix d’une certaine perte de contrôle des traces que nous laissons. On pourra largement discuter de ce sujet qui apporte une inquiétude de plus. Une analyse technique de Didier Durand et une discussion de Jean-Nicolas Reyt en donne quelques éléments.
    Mais dans ce post, contentons-nous de souligner un fait plus général : l’audience d’un site et sa valeur dépendent de ce qu’il est tout de même difficile d’appeler une intelligence, mais d’un mécanisme collectif de renforcement de la crédibilité des sources d’information ( désormais des dizaines de millions). Facebook de ce point de vue n’invente rien, le pagerank jouait déjà ce rôle, des sites de signets collectifs (social bookmarks) comme delicious, diggs et autres technorati ont engagé le procédé, twitter (et son bouton qui fleurit depuis quelques mois) l’a systématisé.
    Ce qui change c’est la taille, 400 millions de fourmis (…et moi et moi et moi) ça change la donne! Mais c’est aussi l’abandon d’un effort général de classification : le score des I like se distribue entre les pages de chacun, se fractionne, s’ajuste, se personnalise, sans qu’aucun effort ne soit fait sauf de lier un bouton perdu dans l’océan des pages, un cookie qui traine, et cette page de news qu’on consulte désormais chaque matin.
    L’enjeu pour les marques devient considérable, faute d’être aimées elles disparaitront des pages d’accueil, n’ayant d’autre choix pour s’y retrouver d’en payer le droit à la plateforme : le bouton va enflammer le prix du CPM! L’alternative : produire assez de contenu, un contenu si saisissant qu’à force de clics elles se maintiendront sur l’écran défilant de nos nouvelles.