Meilleurs voeux à nos amis et nos robots.

C’est l’usage, un plaisir mais aussi un moment inquiet : regarder en arrière ce qui a été fait et qui ne l’a pas été et voir devant ce qui devra être fait et ce qui n’arrivera pas. Mais balayons les inquiétudes, et regardons en souriant à l’avenir.
Marvin (PA)
Drôle d’avenir que celui que nous dessinent les technologies de l’information, Facebook s’empare de la première place au US, la reconnaissance faciale s’invite dans nos applications, les smartphones se greffent à nos corps mobiles et les robots non seulement investissent peu à peu nos maison mais dialoguent aussi sur nos écrans. On vient d’en évaluer quelques-uns récemment, et dans ces dernières heures de l’année une bonne nouvelle surgit des données : c’est l’humanité des artefacts qui nous incitent à les utiliser au fond.
En analysant finement les grilles de notation du jury, le modèle suivant semble avoir structuré le jugement *. Il fait apparaitre que l’intention d’usage des agents virtuels est déterminé d’une part par leur utilité – ce qui est au fond trivial même si cela correspond bien au modèle robuste du TAM, et par leur jouabilité : autrement dit par le plaisir immédiat que l’on tire de la conversation avec l’agent. L’utilité est elle-même fonction de la facilité d’utilisation et du sentiment d’efficacité du robot, là encore rien d’étonnant, sauf s’il l’on considère que cette efficacité supposée résultent du sentiment que le robot est aimable, amusant, chaleureux, sympathique, bref humain. Cette humanité semble aussi déterminante quant à la jouabilité et la beauté. 
Ces résultats sont provisoires naturellement, juste une esquisse d’un work in progress, ne sont pas incohérents avec ce que l’on sait déjà dans le domaine. Ils vont dans le sens d’une idée générale essentielle : nos machines ne sont pas admises dans la société par la seule force de leur efficacité mais par ce que nous leur prêtons une humanité faite de sollicitude et d’attention, d’affection, de sympathie et d’empathie. C’est au fond une bonne nouvelle.
Alors souhaitons pour cette année nouvelle, à l’heure où les technologies de l’information – mobiles- vont se répandre dans le moindre interstice de nos vies quotidiennes,  que nous soyons capables de donner aux robots les moyens de s’incarner, et de témoigner d’une sorte de théorie de l’esprit. Souhaitons qu’ils nous accordent toute la sympathie et la chaleur que nous attendons de nos amis.
* Sans donner trop de détail les données sont constituées des 92 évaluations de 21 agents virtuels formulées par les membres du Jury. Elles sont analysées par une séries d’analyse factorielles, et synthétisées au travers d’un modèle SmartPLS.

Meth. Isomorphisme institutionnel – les tests

http://www.flickr.com/photos/danzen/4033724612/
La thèse de l‘isomorphisme institutionnel peut être testée. L’idée centrale est qu’un niveau de variance faible doit être enregistrés dans les populations soumises à une forte pression isomorphique : mimétisme, régulation ou compétition.
Différentes méthodes sont employées.
  • Galaskiewicz, J. et S. Wasserman (1989), Mimetic processes within an interorganizational field: An empirical test. Administrative Science Quarterly, 34:4, 454-479.
  • Trevor Slack, Bob Hinings (1994)Institutional pressures and isomorphic change: an empirical test – includes appendix,Organization Studies Mid-Winter,
  • Richard M. CLERKIN INSTITUTIONAL ISOMORPHISM AMONG INDIANA NONPROFITS: MEASURING HOMOGENIZATION AND FORMALIZATION

Miss Client 2011 – évaluer la beauté des robots.

L’inventeur du concours Miss Client, Thierry Spencer,  propose à nos étudiants du Master Marketing Opérationnel International de constituer le Jury qui va sacrer l’agent virtuel de l’année à venir. Joli cadeau pour ces futurs experts du marketing digital, mais tâche rude que d’expertiser ces jolis robots, dont une bonne partie ont été conçus et entrainés par la société Virtuoz.

Une bien belle idée aussi qui va au-delà de l’ironie. Quel paradoxe que de célébrer ce qui pourrait être l’anti-thèse de la relation-client, cette idée vieille de 30 ans dont on a défini la qualité par les critères de satisfaction, de confiance, d’engagement, de justice, d’attachement quand ce n’est d’amour…Autant de qualités qu’on prête aux seuls humains. Mais le monde est ainsi fait que les automates, même dotés d’intelligence peuvent travailler 24h sur 24h et 7 jours sur 7 en répondant simultanément à une flopée de consommateurs anxieux et souvent perdus dans le labyrinthe des sites web, en ne réclamant aucun salaire que le prix de leur conception, l’énergie des calculateurs et la juste rémunération de leur concepteur. La relation-client moins qu’une stratégie est désormais une industrie.
Ne nous lamentons pas sur ce paradoxe que la gestion du client soit désormais une gestion du contact, et que résoudre à l’instant les difficultés du consommateur passe avant l’établissement d’un climat favorable et durable de résolution des problèmes. C’est une autre question à laquelle nous nous intéresserons dans un autre billet, contenterons de rappeler le mot de Thierry Spencer : à l’heure du Self-Care le client est bien seul.
L’enjeu pour notre jeune Jury est de départager 21 candidates et candidats (3 avatars masculins pour 18 féminin et aucun être sexuellement indéterminé – le post humain n’a pas encore fait le deuil du genre) en introduisant dans l’élection des éléments objectifs pour pondérer les effets de popularité de la marque dont les postulants portent la couleur.
Il s’agit donc de déterminer les critères clés. De ce point de vue, près de 20 ans de recherche en la matière fournissent des éléments précieux. C’est à Davis que l’on doit ce modèle que des centaines de chercheurs ont testé à travers le monde sur des dizaines d’artefacts : le fameux Technological Acceptance Model (TAM) dont la simplicité et la robustesse lui valent son succès. On en retrouvera les principales versions développées sur le site de son principal co-auteur : V Venkatresh. L’utilité et la performance que l’usager perçoit ainsi que la facilité à utiliser le système sont les deux éléments clé de l’intention d’en prolonger l’usage et de son usage effectif.
Les travaux empiriques ont cependant dans une large mesure souligné l’importance d’une troisième variable dont l’intérêt se manifeste quand les usagers sont encore novices : il s’agit de la jouabilité perçue. Non seulement le système doit réaliser la performance qu’on en attend de lui sans que le coût cognitif de son utilisation soit élevé, mais en plus il doit procurer une gratification immédiate, le plaisir tiré de son usage. Il peut être amusant de dialoguer avec un robot, et les observateurs savent bien que les sujets n’hésitent pas à le tester par des questions pièges et commentaires plus ou moins salace. Les robots sont aussi l’objet de notre ironie.
Un quatrième critère au regard de cette abondante littérature s’impose dans le cas des agents virtuels. Leur humanité semble être déterminante. Elle est définie dans les travaux des chercheurs par une notion devenue essentielle dans les interactions Humains/machines : la présence sociale. Ce sentiment particulier qui nous arrache à la solitude de nos interactions.
Le cinquième critère curieusement est délaissé par les spécialistes de marketing et pourtant au cœur de cette discipline souvent incomprise qu’est le design. L’objet fonctionnel doit être beau, le bel objet est aussi fonctionnel. L’esthétique, la plastique est aussi le propre des miss et des misters. Nous ne l’oublierons pas.
C’est sur cette base, scientifique fondée, que nos étudiants vont travailler et concevoir le protocole qui va guider leurs délibérations. En attendant, secret jusqu’au 15 décembre.

NB1 : Pour participer à l’évaluation : la grille est ici ( mais vos réponses ne comptent pas dans les résultats, ils seront cependant communiqués au jury pour éclairer leur décision après qu’eux mêmes aient évalués les 21 candidats). 


NB2 : une bibliographie scientifique sur les agents virtuel de recommandation est disponible ici


NB3 : celle note est aussi disponible sur le site du Master Marketing Opérationnel International.

Chronique 30 : Paper li – Au fil du Feed

Paper.li débarque en France, et semble largement se diffuser si j’en crois ma time-line. Paper.li est une simplicité déconcertante. C’est un journal, une page et une adresse composée comme la Une de nos quotidien, mais nourrie par l’es informations indexées le jour précédent par la horde de ceux qu’on suit sur twitter. Pour créer ce journal, il suffit de donner son login. Quelques minutes d’analyse et la page est publiée. Efficace et beau. A ce jour la version est minimale, on ne peut paramétrer les comptes. Choisir un modèle d’édition, donner des priorité. L’engin fonctionne seul. Il envoie chaque jour l’édition du jour.

Quel engin dérrière décode les twits, séparant les hashatag, réponses, RT, et ramène à la surface les contenus des adresses raccourcies, et les distribue entre des catégories, leurs alloue une place et compose la page? Nous sommes curieux de le savoir, plus encore d’une version qui pourra permettre d’agir sur ce paramétrages, donnant plus d’importance à certaines sources, favorisant certains mots clés.

Cette couche superposée sur la couche des conversation de twiter remplit un double rôle de filtre et de mise en valeur. Le fil twitter que l’on ne peut raisonnablement suivre s’il l’on a plus de 200 à 500 suivants, pour nourrir convenablement notre appétit d’information doit être retraité. Filtrer d’une part pour éliminer les scories, brouillons, redondance, mais aussi classer hierarchiser et marquer ces différence par une capacité d’attraction de l’attention plus forte. C’est exactement ce que fait paper.li et que d’autres services font vraisemblablement.

On comprend du même coup le rôle de twitter, celui de nourrir le fil de nos information, non seulement par l’alimentation – ce qui est deja bien fait quand notre sélection de sources est avisée, mais aussi la digestion. C’est le rôle d’applications et de services comme paper.li. Les applications sont évidentes : la veille, qui peut ainsi être mieux distribuée, le compagnon d’un blog, les revues de presse.

Sans doute le prototype d’une évolution des plateforme qui associe crowdsourcing, personnalisation, filtrage auto-contrôlé et collaboratif, mashup ( car c’en est un), visualisation et design.C’est un produit d’une start-ip suisse, smallrivers.com  localisée au sur le campus du Swiss Institute of Technology EPFL. Une idée européenne.

On imagine bientôt comment les flux et les médias en temps réel vont produire de nouveau monastère, de nouveau musées, de nouveaux cimetières, de nouveaux édifices dont le rôle dans la ville est d’arrêter le temps et de permettre aux vivant de retrouver un passé, fussent-il celui de la journée qui vient de passer.

A lire aussi 

Choniques 30 :Un métier

Prof. s’agit-il de faire cours. Non. Juste le temps de dire l’essentiel de ce qu’on a appris. Mais souvent la connaissance commune refuse l’étrange de ce que l’on a appris. La science n’avance pas au rythme de ses réfutation mais à celui des décès de ses ombres tutélaires. Que savons nous d’un monde qui ne s’est pas encore installé?

Prof au moins montrer à nos élèves pétris d’évidences, que rien n’est acquis, et qu’il faut garder un regard bleu sur le monde qui change. Au bout du chemin la conviction de maitriser un métier, un compréhension, des certitudes. Nos gamins nous les formons pour répondre à la certitude de l’instant.

Quel instant? celui qui change sans qu’on en connaisse les conséquences? Celui qui va former d’autres murs que l’on connait. Le mystère de l’ducation reste dans cette balance entre ce que l’on doit croire même si c’est faux, et ce qu’il faut savoir car dans l’interdit cela reste le vrai.

CRM09 – Veille et Intelligence marketing

Ce chapitre aurait pu s’intituler plus classiquement ” Etudes et recherche en Marketing”, mais l’environnement des études a profondément changé avec l’avènement des bases de données clients et les données de l’internet.

Ces changements concernent peu les objets d’études : l’analyse des besoins et comportements des consommateurs, le suivi de la performance des marques, les études d’images et de satisfaction, l’analyse concurrentielle, l’analyse des effets du marketing-mix restent toujours des objets pertinents.

C’est la manière de les étudier qui change. Les données plus volumineuses et parfois exhaustives, une information obtenue en temps quasiment réel, une finesse d’observation géographique et catégorielle jamais atteinte sont les trois éléments fondamentaux qui restructurent le champs.

L’aspect quantitatif ne clôture pas l’espace du changement. Sans doute grâce aux évolutions profondes des sciences sociales, c’est aussi l’aspect épistémologique qui est affecté. L’objectivité a été remise profondément en cause dans les études, et une part grandissante de ces dernières se confronte à la question de l’interculturalité et de l’inter subjectivité. On étudie désormais moins le consommateur qu’on ne cherche à converser. 

On se reportera au cours dispensés aux étudiants du master MOI.

références

Ouvrages

Il y en a tant de nécessaires que la place manque. Cette sélection a au moins le mérite de couvrir subjectivement le champs. 

  • Giannelloni /Vernette (2002) Etudes de marché Vuibert
  • Yves Evrard, Bernard Pras, Elyette Roux (2003) Market : Études et recherches en marketing Dunod
  • Dominique Blanchard – Les Panels : De la guerre des panels à la révolution du scanning – Dunod
  • Richard Ladwein : Les etudes marketing – Economica-poche 05/1996
  • Berend Wierenga and Gerrit van Bruggen, (2000) Marketing Management Support Systems : Principles, Tools, and Implementation, Kluwer Academic Publishers, London, 2000.
  • Bruner II, Gordon C., Karen James, and Paul J. Hensel (2005), Marketing Scales Handbook : A Compilation of Multi-Item Measures V.IV, Chicago : AMA.
Revues

Ce domaine est ouvert, un chapitre ni un livre ne suffira, c’est en suivant l’actualité des revues que l’on peut approfondir les choses.

Associations et organisations

Les études marketing forment une industries à part entière. On ira regarder avec bonheur ce que disent leurs associations et syndicats.  Et il faudra suivre aussi le travail des leaders.

Crédit photo

    Chronique 29 : Eloge de la dissémination !

    Lisant une des chronique de mon collègue et ami Jean-Philippe Denis à propos des nouvelles pratiques des étudiants, notamment celle de la régénération des vieux poly à la sauce Facebook, je ne peux qu’avoir en tête qu’une table ronde à laquelle j’ai participé ce Jeudi 28 octobre de la  journée de doctopolis – (Journée débat sur le recrutement via les réseaux sociaux).

    J’y ai heurté quelques collègues en parlant d'”universités poussièreuses” encore à l’age 0.0 en matière de publications. Je n’évoquais pas ce monde obscur mais nécessaire des revues scientifiques qui sont lues par les seuls spécialistes de la question ( et encore!), mais la production quotidienne qui prend la forme de mémoires de master et de thèses doctorats.
    L’idée générale que je défendais, est que le travail de recherche mérite une diffusion précoce et générale, et que les doctorants ont tout intérêt à bloguer et à partager le savoir qu’ils construisent, au moins dans la perspective de bâtir les réseaux de leurs futurs emplois ( et oui! la baisse des recrutements dans de nombreuses disciplines conduit les docteur à envisager- quel horrible mot – une professionnalisation en-dehors du monde de la recherche et de l’enseignement). La vertu des réseaux sociaux, et de cette auto-publication de constitue les blog, dans leur combinaison permettent de toucher avec régularité des destinataires potentiels très rare. S’il est une chance sur 10 000 de rencontrer celui ou celle qui est intéressé par des travaux pointu, le miracle des réseaux sociaux peut transformer l’improbable en régularité, et résoudre ainsi le problème de marché avec friction dont la modélisation vient d’être récompensé par un prix nobel.
    Mais combien de thèses et de mémoires restent enfouis dans les rayonnages et les tiroirs? Que font les universités pour les diffuser? A Paris Ouest rien sinon décerner 3 prix de thèses, Paris IV débute timidement. Il reste à faire l’inventaire des initiative, je crains qu’il ne soit maigre.
    Et pourtant!Je me suis amusé la semaine dernière à diffuser très fraichement (dans les deux heures de la soutenance) quelques un des bons mémoires de master qui ont été soutenus ce jour là. Avec le soutien d’un ou deux petit tweets et de quelques liens FB, 2000 visites ont été obtenues dans le WE, dont 500 pour le mémoire qui a eu le plus de succès. Idem pour les thèses ( la dernière que j’ai fait soutenir enregistre 273 vues…).
    On pourrait imaginer généraliser, rien de plus simple….Il y a même dans les formulaires de soutenance, une croix qu’on coche sans savoir bien à quoi elle correspond : l’autorisation de publication en l’état. Cette croix pourrait être assortie d’une signature du doctorant acceptant la diffusion sous licence Creative commons ( ce bel objet juridique qui protège le partage), et faire que dans les heures qui suivent la soutenance, avec quelques tweets en renfort, ces trois ou quatre ans de travail puisse aller directement irriguer les canaux de la connaissance au lieu de s’assécher on ne sait où.
    Oui à l’université ouverte, celle où sa principale activité, la production de connaissance, sous la forme de mémoires et de thèses, soit diffusée à mesure qu’on la produit. Que nos étudiants suppléent à nos insuffisances est à la fois un bonheur, et une inquiètude. Dans tout les cas, je reste persuadé que ce que nous faisons à l’échelle artisanale est une nécessité vitale, en attendant que nos institutions enfin vient dans les réseaux et les blogs autre chose que le bricolage des étudiants.
    Cependant le tableau n’est pas si noir, ce travail commence a être fait pour les revues savantes : le  CAIRN ( en dépit de son accès limité), mais mieux encore le Cléo se sont attelés à la tâche. Reste à l’engager pour des productions plus modestes : nos cours, les mémoires et les thèses! Au fond un bien vieux projet, celui de Larousse et de sa semeuse : disséminer.

    Mort aux clics !

    Cela devrait être l’évidence, et pourtant l’industrie du e-marketing fonctionne toujours au clic. 
    Ses taux sont pourtant ridiculement faible : de 0,06 à 0,15% selon le secteur (au US), sans compter que depuis deux ans le nombre de clics s’est réduit de moitié (de 32% à 16% des internautes qui ont cliqué sur au moins une bannière au cours du mois) . 
     
    Comme le rappelle Gian Fulgoni dans une présentation donnée à l’AMA, le clic ne signifie rien. Ce qui compte c’est la capacité du clic à modifier les croyances, les sentiments et ce que font les consommateurs, ce qu’ils achètent. 
    Un de ses arguments, est que les clics ne reflètent pas l’impact cumulé de l’exposition publicitaire, ni ses effets sur la marque, ni même les comportement d’achat. L’efficacité de la campagne doit être évaluée dans la durée et sur les comportements accumulés. Et de ce point de vue, dans la durée, c’est à la fois la fréquence de contacts (une dizaine d’exposition) et la qualité de la création qui génère le lift : cet accroissement des ventes généré par l’ensemble de la campagne. Et de ce point de vue il semble que l’internet fasse jeu au moins égal avec la TV. Pour en savoir plus on ira lire sa communication dans  Journal of Advertising Research et sa présentation ci dessous.
    Dans ce travail qui s’appuie sur la puissance des systèmes de recueil de donnée, et la capacité à associer les données de clickstream, aux données de panels (certains résultats viennent de collaboration avec Behaviorscan) on revient à des questions essentielles posées autrefois aux beaux jours de la publicité : l’audience obtenue n’est pas la bonne mesure de l’efficacité. Le véritable problème c’est la mesure de l’élasticité. 
     
    De manière plus fine, c’est toute la problématique de la pression commerciale qui est posée. Combien d’expositions sont efficaces – Vaut-il mieux une pression forte sur un laps de temps court ou une pression modeste étalée dans le temps? Quel est le poids de la création dans l’efficacité ? Comment la qualité de la création se combine au média planning?
    On devine dans cette réflexion que bientôt les modèles publicitaires vont changer. Le CPM, le le CPC et même le CPA ont assez peu d’avenir. Dans un univers où pour obtenir 1 clic il faut générer 1000 impressions, bientôt les annonceurs vont exiger autre chose de leurs publicitaires. Se moquant des taux de transformation, et de toute les exotismes de la mesure, ils vont demander une chose simple, combien de ventes supplémentaires apportent un euro d’investissement. C’est la notion de lift, qu’on pourrait traduire en français, par une certaine élévation, mais en économie par l’élasticité marginale.
    Dans cet esprit les taux de transformation et les autres mesures de ROI n’ont aucun intérêt. La question est d’identifier les ventes additionnelles qui résultent d’une dépense additionnelle. Celles-ci proviennent non seulement des clics, mais aussi du cumul des expositions et de ses conséquences. Sans aucun clic une campagne peut être efficace ne serait-ce que par ce vieil « mere effect », cet effet de familiarité qui facilite le choix.
    L’omniprésence du net ( moteur de recherche, web, réseaux sociaux, web mobile) et sa très grande diffusion dans de nombreux pays, renforce l’importance de cet effet. Le véritable problème aujourd’hui n’est plus de savoir si les internautes réagissent aux messages, les taux de clics sont condamnés à se réduire, mais si à travers leur accumulation, il réagissent positivement quand les biens leur sont proposés, quand il sont sur les points de vente, off ou on.
    Le débat aujourd’hui est de connaître le degré optimum d’exposition. Suffit-il de deux ou trois? D’une dizaine? Existe-t-il au-delà d’une certaine fréquence des effets de rejet? Le message créatif permet-il de réduire ce nombre optimal d’exposition ou au contraire de l’accroître? La combinaison des medias améliore-t-elle l’efficacité ?
    Qu’il s’agisse de bannières, de liens sponsorisés ou de mails, la question est la même.