Colloque – Technologie, privacy et relation client


Ce colloque organisé par, et pour les étudiants du Master Marketing Opérationnel International, mais ouvert à tous! Il a pour but d’explorer une question essentielle posée par la digitalisation du marketing.

Avec la massification de la communication digitale un nouvel enjeu est posé aux firmes. Si elles ont accès à un nombre et une qualité de données croissante qui leur permettent de mettre en œuvre des stratégies fines de ciblage et de personnalisation, les consommateurs perçoivent avec plus d’acuité l’intrusion potentielle et effective des marques. Ils y résistent en multipliant les protections et les protestations. L’objet du colloque est d’analyser ces résistances, mais aussi d’identifier les stratégies pertinentes des marques qui permettent de bénéficier de l’intelligence des données dans le respect de leur client.

Ce colloque est aussi à l’occasion des 40 ans de Paris Ouest et des 10 ans du Master M.O.I. mais aussi de rendre un hommage à la pensée de Paul Ricoeur, fût-il celui de ceux dont la science est celle du commerce.

Le programme complet se trouve ici. Il se passe le 1er avril dans la salle du conseil de l’université Paris Ouest ( bat B), l’entrée est libre mais le nombre de places est limité, il faut donc s’inscrire par exemple avec Linked In ou Facebook, et ce sera un grand plaisir que d’accueillir ” en vrai” les lecteurs de ce blog!

Et pour ceux qui ne peuvent y assister, une seconde chance est donnée : il sera diffusé en WebTV à partir de ce lien. (Pour participer au chat en direct sur twitter le hashtag à insérer est #colloqueTPRC )

ATM 18 février 2010 : When brands get branded

For this session, we will welcome Johannes Vogel who is working for the Institute of Marketing ( directed by Prof. Huber) at the Johannes Gutenberg-University Mainz, Germany.

In the workshop he will provide an introduction to the research field “Brand Misconduct” and present a study we conducted to identify the effects of Brand Misconduct using a causal analysis.

Consumers establish relationships with brands and - similar to human relationships - transgressions may occur in such a relationship. Brand misconduct describes the actions of a brand owner that seriously disappoint the consumer’s brand expectations, for example the alleged use of child labor in soccer ball factories contracted by adidas, Nike and Puma. This can be caused by the violation of ethical norms or product and service-related defects, especially in terms of safety aspects. It results in an enormous public impact and, in most cases, a negative consumer response to the brand.

This worked will be published in ( they are available on request):

  • Brand Misconduct: Consequences on Consumer-Brand Relationships, in: Journal of Business Research, forthcoming 2010 (with Prof. Dr. Huber, Dr. Vollhardt and Dipl.-Kffr.Matthes)
  • When Brands get Branded, in: Journal of Marketing Theory Quarterly, Vol. 9 (2009), No. 1(with Prof. Dr. Huber and Dipl.-Kfm. Meyer)

Johannes Vogel is coordinator of the German-French-Studies, Johannes Gutenberg-University Mainz and University Paris Ouest. I teached at the universities in Darmstadt, in Warsaw, Poland and in Dalian, China and he worked as a consultant for two years. he as studied Business at the universities in Mainz and in Clermont-Ferrand.

ATM 14 Oct 09 : les forums et la production d’identité


Lors de la séance du 14 oct 09 (Université Paris Ouest bat G Salle E07 16h30), nous aurons le plaisir d’accueillir Alexandre Schwob, Doctorant à HEC et Kristine De Valck, Professeur à HEC, pour discuter de leurs travaux et plus spécifiquement de la question suivante :

– comment l’utilisation des forums de discussion produit elle des identités ?

En voici une courte synthèse préparée par nos invités :

A l’heure où Internet recouvre des formes de sociabilité très variées (chats, blogs, forums de discussion, sites de réseaux sociaux…) et où ce média constitue le quotidien de la plupart d’entre nous, une question importante est bien de savoir dans quelle mesure et comment la toile et ses applications structurent nos identités. Impulsées par la compréhension des réseaux sociaux ou encore par l’e-marketing, de nombreuses recherches académiques se développent aujourd’hui, et ont mis en lumière des phénomènes touchant à l’identité du consommateur, qu’il s’agisse des nombreuses présentations de soi rendues possibles par ces technologies (Gilly et Schau, 2003) ou encore plus récemment des préoccupations autour du respect de la vie privée. Toutefois, la plupart de ces recherches restent très orientées par une vision managériale de la consommation, cette dernière étant étudiée sous le prisme de la décision d’un consommateur considéré comme acquis à l’entreprise. L’autonomie grandissante du consommateur sur Internet et ses conséquences, notamment sur le terrain des communautés virtuelles, semble pouvoir justifier d’une autre approche académique, plus centrée sur les représentations du consommateur, et permettant de mieux comprendre la manière dont ce dernier appréhende ces espaces sociaux.

Le courant de recherche récent qu’est la théorie de la culture de la consommation fondé par Arnould et Thompson (2005) adopte une perspective de la consommation jusqu’ici peu appliquée à l’usage d’Internet. Ayant à cœur de souligner les contours et les significations sociales de la consommation, ce courant entend notamment comprendre dans quelle mesure le consommateur est autonome dans la société qui est la nôtre, et comment il réalise son identité par son immersion dans la culture matérielle. Inspirés par cette approche ainsi que par celui de la structuration permise par les systèmes d’information, nous proposons ici une recherche sur la socialité des forums de discussion des communautés virtuelles de consommation, dont le but est de mettre en lumière les manières dont l’utilisation à long terme des forums concourt à la réalisation d’identités et de pratiques sociales. Cette recherche en cours de réalisation a permis d’examiner les récits de vie de 9 consommateurs passionnés de jeux vidéo, rassemblés par la communauté jeuxvideo.com, 2ème communauté virtuelle de consommation francophone de par le nombre de messages échangés. En se focalisant sur les capacités d’agence des consommateurs dans les forums de discussion de cette communauté, notre recherche révèle des aspects importants de la socialité émanant de ces objets virtuels. La vision constitutive de la consommation constitue en outre une manière de saisir de nouvelles modalités de la socialité du rapport à l’objet de consommation en général. Notre recherche montre ainsi comment à différents niveaux, l’expérience du forum génère une activité d’appréciation et d’appropriation à caractère très largement discrétionnaire, ce qui permet de mettre en évidence quelques grandes logiques de consommation, et occasionne des « identités sociales localisées ». Nos résultats indiquent que ces identités sont particulièrement éphémères, fragiles, et plus ou moins saillantes, étant soumises à la fois à l’influence de différentes pratiques, et d’une approche dominante de « socialisations consommées ».

_________

voir aussi

Identité numérique : la question de l’hétéronymie

Personnaliser sans identifier

crédit photo : dean terry

ATM 15 sept 2009 : du mash up dans la distribution.


« Mashup », mot de la semaine pour le Nouvel Observateur du 01 octobre 2009 ! Décrit comme « l’art de mixer les sons et les images », l’hebdomadaire cite en exemple le mashup Barack/West qui cartonne sur http://www.youtube.com/watch?v=yjTkPpUrYTk. Cette vidéo est un habile mixage d’une intervention de Barack Obama devant le congrès interrompue par le rappeur Kanye West lançant un décalé « la meilleure c’est Beyoncé ». Pourtant, les mashups ne sont pas qu’un outil de show-biz ou de Buzz. Ils sont surtout identifiés comme une des dix technologies stratégiques des années à venir par le Gartner.

Nous sommes tous des fabricants potentiels de mashups

Les mashups sont une des rares technologies à la portée de tous. Les plus connus des mashups sont les widgets, de petits programmes que l’on peut intégrer au bureau de notre PC pour avoir la météo ou l’état du trafic en direct. En fait, les mashups sont des applications composites connues pour leurs développements en géomarketing. Le mashup le plus connu est celui de Google Earth qui mixe les images satellite, les cartes, les informations géographiques et permet une personnalisation par l’internaute de ce service : enregistrement des lieux visités, partage avec d’autres personnes… Son utilisation va aujourd’hui plus loin que la stricte localisation d’un réseau de distribution. Une gamme étendue de e-services se construit autour de la technologie mashup. Le mashup intègre différents composants (services Web, sources de données, parties de pages Internet). Il est surtout composé comme un lego de petits éléments qui peuvent s’imbriquer les uns avec les autres : les API. Les API (Application Program Interface) qui sont généralement au cœur de la construction du mashup sont des interfaces permettant d’appeler une application à partir d’une autre (hybridation). La combinaison de plusieurs API peut donner une infinité de possibilités. Le mashup utilisé par Facebook combine Flickr (API de photo) et Twitter (API de réseau social). Il permet de partager photos et vidéos avec son réseau. Résumons-nous : tout internaute lambda peut fabriquer un mashup. Il lui suffit de savoir pour quelle utilisation il veut créer un mashup, quels API il souhaite sélectionner et suivre le tutorial mis en ligne par le site Programmableweb (http://www.programmableweb.com/howto ) qui répertorie l’ensemble des mashups existants (4353 répertoriés aujourd’hui, vraisemblablement deux fois plus).

Parmi les mashups les plus tendances, on peut citer les mashups géodémographiques qui combinent des informations fournies par Google Earth et des mégabases de données permettant de cibler des zones en fonction des profils ethniques, des revenus, de l’âge…Autre tendance, les mashups écologiques qui vous indiquent les zones où on peut vivre sans voiture pour se faire soigner ou acheter son pain

(file:///C:/Users/Christophe/AppData/Local/Temp/www.walkscore.com/%29.

Les mashups : du géomarketing au commerce en ligne

Les sociétés de vente en ligne les plus connues ont fait une utilisation très en amont de la technologie mashup. Amazon ou eBay ont conçu leur suivi de commande autour d’un mashup permettant de mixer les informations du transporteur et celles de l’entreprise. L’API de eBay intègre des fonctionnalités telles que l’analyse et le suivi des ventes, la création de catalogues. L’API de FedEx permet à un commerçant de présenter sur son propre site Web l’état d’avancement d’une livraison. Le mashup mis en place entre M6 Boutique et Mediatis donne une information sécurisée sur la santé financière du client. Pour le consommateur, les implications de ce nouvel outil sont multiples : géolocalisation, recommandation communautaire, personnalisation de la recherche. Ainsi, la localisation offre des économies de coûts non négligeables pour les internautes. Baymalin (http://www.baymalin.com/) (mashup regroupant les applications de Googlemaps et eBay) permet aux acheteurs de réserver les produits les plus proches de leurs domiciles ce qui diminue les frais d’expédition.

Métamoteurs versus Moteurs spécialisés : bataille à coup de mashups

Quant à la personnalisation de la recherche, elle est au cœur d’un marché, celui du search (ou SEM pour search engine marketing) qui représentera selon les prévisions 11 milliards de dollars en 2010. Dans ce flot d’argent, 22% est consacré à la recherche naturelle d’où l’importance et la profusion des nouveaux moteurs de recherche ou des plateformes de regroupement de sites spécialisés.

D’un côté l’émergence de métamoteurs (alliance des grands moteurs mais également des réseaux sociaux (Facebook, Twitter, Friendfeed…) ou des sites de photos et vidéos (Flickr, Youtube) qui donnent naissance à des produits comme Searchmerge (http://twitteradar.com/searchmerge-le-mo…%29) des moteurs mashups fondés sur l’instantanéité des tweets. De l’autre des moteurs mashups ultraspécialisés comme http://www.waka.ca/. Waka.ca permet de chercher d’un seul endroit des maisons à vendre annoncées sur plus de 200 sites immobiliers différents au Québec et au Canada avec géolocalisation, photos, prix soldes…. Ainsi, la recherche du meilleur produit ou service par le consommateur est donc profondément modifiée par l’utilisation des mashups et ce sur deux critères : les filtres de recherche, la mise à jour des requêtes via les flux RSS. Certains mashups sont conçus pour contourner les classements des moteurs de recherche ou pour les agréger.

Une redécouverte de la distribution locale ? Pas sûr

Les mashups accélèrent la contribution en y adjoignant un aspect évaluatif permanent. Le site Dismoioù (www.dismoiou.com/) peut se définir comme un mashup local. Chaque contributeur apporte une information permettant l’évaluation d’un point de vente : grands magasins, petits commerces, cafés, restaurants… Le site couple la contribution à la localisation de la communauté. Dès l’enregistrement, l’internaute a la possibilité de visualiser les plus proches adhérents de son lieu de résidence et de les intégrer à sa liste de « fans ». Les commentaires sont notés et les meilleurs contributeurs cités sur la page d’accueil. L’aspect communautaire est mis en avant et se construit sur l’affinité. Chaque affilié dispose d’une fiche personnalisée comprenant sa photo, son âge, ses hobbies et peut communiquer via Twitter (twitter.com/Dismoiou) ses impressions en direct. A travers des sites comme Dismoioù, les mashups renforcent en apparence le poids de la distribution locale dans le commerce en ligne. Néanmoins, certains mashups comme les widgets alertent immédiatement l’internaute sur les promotions ou bonnes affaires des grands distributeurs. La possibilité d’avoir des widgets dédiés par magasins (Fnac, La Redoute…) offre aux acteurs importants du e-commerce de nouvelles voies d’optimisation de leur politique promotionnelle ainsi qu’une proximité renforcée avec le consommateur.

La guerre des mashups a commencé : le business mashup survivra-t-il ?

Le marché des mashups est partagé entre les grands de l’Internet (Yahoo pipes) orientés grand public, les grands de l’informatique (IBM Mashup Starter Kit) orientés applications d’entreprises, Web services, bases de données, et de nouveaux acteurs comme Kapow (Kapow Mashup Server). Les sites de commerce en ligne sont dépassés en terme d’offres de services fondées sur la technologie mashup par ces nouveaux entrants. Différentes stratégies se dessinent sur le marché. La stratégie de prescription est mise en place par les éditeurs d’API pour répandre et diffuser librement leur contenu. Néanmoins, il est probable que l’on assiste à un glissement stratégique poussant des éditeurs comme Amazon ou eBay à protéger leur technologie mashup, celle-ci étant exploitée par de nouveaux entrants. La stratégie de coercition est appliquée par des acteurs comme l’IGN, qui ne souhaitent pas voir leur capital technologique détourné. La stratégie de séduction est déployée par des professionnels du marché des mashups qui tentent d’amener les entreprises de e-commerce à se servir de ce type de service. Nous citerons Critéo (file:///C:/Users/Christophe/AppData/Local/Temp/www.criteo.com%29 qui développe des widgets personnalisés pour les blogrolls (blogrolls automatiques fondées sur la proximité de contenu entre deux blogs ou deux sites) permettant de créer de véritables réseaux d’affiliation pouvant être commercialisés. Quant aux entreprises, ces dernières, du fait de l’insuffisance de sécurisation de la technologie mashup, suivent, pour l’instant, dans leur grande majorité une stratégie de cantonnement.

Alors, les mashups symboles de l’esprit Web 2.0 fondé sur l’open-source et l’UGC ou technologie destinée à être verrouillée et récupérée ?

Par Maria Mercanti-Guérin
Maître de conférences
Université d’Evry-Val-d’Essonne

voir aussi : Mashups! Les données dans les nuages, une pluie de portails

credit photo

News : dates de rentrée


Plusieurs rendez-vous ce mois-ci :

– Réunion du CEROS : 15 septembre à 12h30 et réunion des doctorants à 16h30 autour des questions de méthodes qualitatives et d’analyse des matériaux textuels.

– Réunion de rentrée de Tech du marketing le 23 septembre à 14h30 (salle 614) avec Maria Mercanti-Guérin – Maître de conférences – Université d’Evry Val d’Essonne : Mashup et marketing…et Edmond Kouadio – Doctorant – Varibase et Paris Ouest : Politique d’acquisition et customer equity

– Soutenance de Lotfi Gammoudi le 24 septembre 9h30 – Salle René Rémond (Bat B) Soutenance de Thèse de Lotfi Gammoudi “Justice, défaillance et réclamation : Un modèle dans le domaine des services aux Petites et Moyennes Entreprises”
Jury :
M. Christophe BENAVENT, Directeur de recherche,
M. Jean-François LEMOINE, Université Paris 1 Panthéon-Sorbonne, Rapporteur,
M. Paul-Valentin NGOBO, , Université d’Orléans, Rapporteur,
M. Eric PEZET, Université de Paris Ouest.
Mme Dominique ROUX, Université de Paris XII.

Pour être informé des prochaines réunions, il suffit de s’inscrire au groupe Linked In “Technologies du Marketing” où les discussions peuvent être prolongées.

Workshop 17 Avril 2008 – Software Retailing : l’art du réseau

Thierry Cadix de l’agence Singapour est venu le Jeudi 17 nous présenter les méthodes qu’il utilise dans le cadre de son activité de conseil. La présentation a été passionnante, et nous a permis de mettre en évidence un problème générique de distribution, celui de produits informationnels : software, applicatifs, services. Dans cette industrie trois traits caractéristiques doivent être mentionnés, ils pèsent sur la politique de commercialisation et de distribution.

Le premier est l’énorme hétérogénéité du marché, l’hétérogénéité des clients : un faible nombre de comptes clés, quelques centaines, un nombre modéré de clients middle-market (quelques milliers) et une myriade de petits comptes (des centaines de milliers).

Le second est l’incapacité d’une firme, d’une marque, à offrir la totalité des services nécessaires pour la mise en œuvre des solutions. Elle a besoin de partenaires pour spécifier, programmer, développer, former, maintenir la solution. Sans alliances horizontales, il est difficile de travailler. De plus ces partenaires diffèrent largement selon le type de client qui est servi, impliquant des alliances verticales.

Le troisième est la nature des produits qui se prêtent à des approches versionnées au sens de Varian et favorise la déclinaison d’une solution de base, à des prix qui diffèrent de plusieurs ordres de grandeurs. Ainsi en matière de solutions CRM, un Siebel peut vendre une solution intégrée à plusieurs dizaines de millions d’euros aux premiers, et offrir un service à la demande pour quelques centaines.

Ces éléments étant posés, on voit assez bien le type de problème qui est posé dans l’élaboration des politiques de distribution. Sans tous les énumérer deux d’entre eux peuvent être évoqués.

Le premier est celui de la cannibalisation. Des solutions différentes étant offertes à des types de clients différents par des partenaires distincts, le client peut-être amené à hésiter entre deux versions d’une même solution de base. Comment maintenir les frontières de la segmentation en termes de taille et donc gérer les conflits entre des coalitions différentes. Si le principe du versioning se comprend aisément, sa mise en œuvre se confronte aux problèmes classiques des conflits et des contrôles des canaux. Ce qui est moins classique est que les canaux ne se définissent pas seulement verticalement, mais se constituent comme des réseaux d’acteurs. Il ne s’agit pas seulement d’une écologie des populations, mais d’une écologie de communautés pour reprendre l’intitulé d’un article d’ Asley.

Le second est celui de l’organisation des firmes. Si à l’évidence ce secteur bénéficierait très largement d’une approche orientée client et d’une organisation idoine (division par groupes de clients ou par solutions), son caractère technologique prononcé impose des formes d’organisation par produits. Les questions de coordination interne deviennent tout aussi importantes que celle de coordination externe, et conduisent à penser la mise en œuvre des alliances non seulement comme la constitution de réseaux entre les partenaires mais aussi à travers l’organisation. L’étude des solutions adoptées par les firmes constituent de ce point de vue un sujet de recherche de première importance.

D’autres questions pourraient être évoquées, celle du type d’approche commerciale (produit vs solutions), celle de la gestion de la baisse de la productivité commerciale, celle des politiques d’exclusivité dans le choix des partenaires. Nous les traiterons ultérieurement, le point principal à souligner restant que dans ce secteur particulier, la particularité de la politique de distribution réside dans une approche planifiée de la constitution de réseaux de partenaires qui exploitent des canaux différents. C’est sur ce point que Thierry Cadix nous a présenté des méthodes pratiques essentiellement fondées sur une triple segmentation : des clients, des partenaires et des solutions.

Workshop 13 mars 08: Modéliser les données single source – autour de Behaviorscan

Il fût une grande époque du marketing et des marchés test, nous souvenons nous des Assessor et autres Perceptor qui fondaient d’une certaine manière les bases du Marketing Science, dont les travaux abondants se trouvent dans la revue éponyme et font les délices de Journal of Marketing Research. Ce fut les années 70. A l’heure des hippies, le marketing science naissait.

Ce rêve ou ce fantasme, a été pour les chercheurs en marketing, de rassembler toutes les sources de données imaginables, pour mesurer et évaluer une fonction fondamentale du marketing mix.

Cette fonction est relative à la part de marché de la marque i (MSi) qui est fonction de l’effort Ai qu’elle fournit au regard de l’effort fourni par l’ensemble de ses concurrents. Cet effort étant lui-même fonction des différents efforts fournis en termes de qualité de produit, de communication, de promotion, de marketing direct, de prix et de toutes les autres variables d’action Xit, et de leur efficacité relative beta. Ce modèle de base pouvant être complété par les fonctions de réaction, chaque action de l’un entraînant des réactions des autres(Xj, t-k). Il est peu de dire qu’une immense littérature s’est développée autour de cette équation fondamentale, et que celle-ci sans réduire toutes les facettes des problèmes à modéliser en est la matrice fondamentale.

Une des plus grandes opportunités offerte par ce mouvement a été l’apparition dans l’industrie des biens de grande consommation du développement du scanning. Avec les lecteurs de code barre le marketing research a connu une nouvelle époque.

Dans ce contexte, une des sources de données les plus intéressantes de ce point de vue sont les marchés tests « single source » qu’on construit des groupes tels que GfK avec sa filiale MarketingScan qui entretient BehaviorScan, IRI ou Nielsen dans les années 80. Il s’agit d’un double dispositif, à savoir d’un panel de consommateurs combiné avec un outil de mesure de l’audience média qui permet de regrouper des données d’achats et des facteurs d’influence marketing (exposition à tous types de medias, promotions des points de ventes, marketing direct), et d’un panel distributeurs. Le grand intérêt est de permettre théoriquement de mesurer directement les effets et l’efficacité d’actions marketing ou publicitaires sur les comportements d’achat (comportement d’achat individuel, comme les taux de premier achat et achat répété, le switching ainsi que la duplication d’achat, puis le CA, et les part de marchés).
L’intérêt de ce dispositif a été et est bien évidemment inestimable à la fois pour les chefs de produits, responsable marketing ou chargés d’études pour s’assurer du véritable retour sur investissement des campagnes publicitaires, comme pour les universitaires et chercheurs pour comprendre les phénomènes de marché. Ils ne promettaient pas moins qu’un changement révolutionnaire en termes de méthodologie de mesure d’efficacité d’actions marketing. Cependant, ils ont contribué également à des débats les plus controversés entre universitaires et le lobby des publicitaires. On se souviendra des fameuses publications de Leonard Lodish (1995a[1] et 1995b[2]) dans Marketing Science et dans Marketing Science (How TV Advertising Works: A Meta Analysis of 389 Real-World Split-Cable TV Advertising Experiments.”), sur l’efficacité publicitaire sur le court et long terme réalisés à partir des données single source BehaviorScan. Lui et son équipe ont été les premiers à utiliser à grande échelle les données single source et de remettre en question des préjugés établis par le lobby des publicitaires. Il contribuera notamment à répondre à la fameuse question “I know that only half of my advertising works; I just don’t know which half”.
Malheureusement, l’avenir prometteur de ce type de dispositif a été freiné par une polémique sur la façon dont ces données devraient être employées. Les promoteurs, surtout des universitaires, préconisaient l’utilisation de ces données comportementale pour l’optimisation des campagnes TV, les adversaires, des publicitaires et annonceurs, étaient pour une approche classique de segmentation par l’emploi de données démographiques. L’industrie n’était visiblement pas encore prête à un changement de mesure d’efficacité média au delà d’une quantification de la valeur de leurs produits en termes de variables démographiques.
Et les défenseurs des données de single-source pouvaient seulement voir la valeur intrinsèque des données comme contraste à ce qui pourrait être renseigné sur des assistances de TV par l’analyse seuls des profils démographiques. L’industrie de publicité a finalement voté contre les données single-source à cette époque, préférant la description à l’explication causale. Sans doute ont-il voulu protéger leur business. Cependant, la bouteille a été ouverte et les mauvais esprits s’en sont échappés. Le phénomène panel single source ne pouvait plus être arrêté.

La prolifération de ce type de données est évidente aujourd’hui, débordant les seuls aspects de la publicité : marketing direct, promotion, cartes de fidélité, megabases, une multitude de sources fait sourdre des torrents de données, qui se fondent en un fleuve d’information.

Les annonceurs ainsi que les distributeurs les emploient pour trouver des réponses à toutes les facettes de la planification marketing (i.e. optimisation budget publicitaire, lancement de nouveaux produits, campagne marketing direct, catégorie management). Nous ne parlons pas seulement des universitaires américain, mais de plus en plus européens qui se sont appropriés ces terrains d’études phénoménales pour donner des réponses à des problématiques de recherche en marketing.

Une des entreprises les plus actives dans le domaine est GfK, avec sa filiale MarketingScan qui entretient le panel « single source » BehaviorScan avec un panel de consommateurs (9000 foyers) qui permet de regrouper des données d’achats et des facteurs d’influence marketing (exposition à tous types de medias, promotions des points de ventes, marketing direct) et un panel distributeurs (24 grandes surfaces) à Angers et au Mans. Le marché test BehaviorScan est une méthodologie d’étude, utilisée en Europe aujourd’hui par les plus grands annonceurs de la grande consommation (Coca Cola, Danone, Ferrero, General Mills, Kellogg’s, Kraft Foods, L’Oréal, Nestlé France, Orangina – Schweppes, Procter & Gamble, Unilever, Yoplait pour ne citer que quelques uns) dans trois pays : Etats-Unis, Allemagne et France.
Plus de 700 études, apportant des réponses précises à des problématiques aussi diverses que le lancement d’un nouveau produit, la modification d’un élément du mix marketing d’une marque existante, le test d’une nouvelle stratégie média ou la mesure de l’efficacité d’une opération de marketing direct, témoignent du énorme succès des panels single source.
Des questions telles que :
– une distribution de prospectus permet-elle de recruter de nouveaux clients ?
– quel est l’impact d’une tête de gondole sur le niveau de consommation ?
– un produit gratuit contribue-t-il e à la fidélisation à la marque ?
– une animation en magasin génère-t-elle une anticipation d’achat ou une augmentation durable de la consommation ?
– quel est le potentiel d’un nouveau produit ?
– quelle est l’éventuelle cannibalisation par rapport aux produits existants ?
– quel est l’apport du nouveau produit à la catégorie ?
– quel monitoring de lancement ?

y trouvent une réponse quantifiable.

Cependant, aujourd’hui de nouveaux enjeux d’études de marché se dessinent. La grande vague marketing orienté client avec des programmes de fidélisation distributeurs crée des nouvelles sources de données « micromarketing » à un niveau magasin.

A cela s’ajoute que la communication se fait plus diffuse serpentant dans les méandres du fleuve internet. Moins que la part de marché la valeur client devient de plus en plus l’indicateur de mesure dominant. Et les marchés tests « single source » qui étaient un « laboratoire isolé » devient aujourd’hui une sources de données parmi d’autres.

Quelles sont alors les perspectives pour l’avenir ?

Une évolution méthodologique sera certainement la fusion entre les dispositifs de panel avec les bases de données des magasins et les informations des annonceurs, permettant de compléter les informations panel décrites plus hautes par celles des programmes de fidélisation et des actions marketing. Un projet va dans ce sens aux Etats-Unis, où des entreprises intersectorielles (Kraft Foods, IBM, Information Resources Inc. (IRI), PricewaterhouseCoopers, ACNielsen, quelques distributeurs et Catalina Marketing) se sont regroupées dans un programme pilote, s’appelant Shopper*Direct, qui relie les données d’achat scannérisées du panel consommateurs HomeScan (55.000 foyers américains) à celles provenant des points de ventes des distributeurs.
Une autre projet similaire est la collaboration entre d’un côté le panelist Nielsen, l’entreprise de conseil média Arbitron Inc., et de l’autre côté des annonceurs comme Procter & Gamble, Unilever, Kraft, Johnson & Johnson, SC Johnson, Wal-Mart et Pepsi-Cola. Cependant, ce dernier projet a été récemment abandonné pour des raisons de coûts (investissement jusqu’à présent : plus de 30 millions de $ !!).

L’évolution technique s’inscrit sans doute dans le développement des système d’identification, au code-barre dont le rôle a été essentiel, risque de succéder le RFID dont on peut penser qu’il va systématiser cette culture de la mesure, de la modélisation, et du contrôle de la performance marketing.

Quant à l’évolution du marketing research, il est fort à penser que plus que la part de marché, compte-tenu des changement de stratégies marketing, c’est à dire l’évolution vers un marketing orienté client, ce sont des indicateurs tels que la Life-time value qui risque d’être au centre de l’effort de modélisation. Ce sera l’objet de la scéance du workshop TiM du 13 mars 2008.

Lars Meyer-Waaden, Université Toulouse III.


Références Bibliographiques
[1] Lodish, L.M., Abraham, M, Kalmenson S, Livelsberger J. et al. (1995), “How T.V. advertising works: A meta-analysis of 389 real world split cable TV Experiments ”, Journal of Marketing Research, 32, 2.125-39.
[2] Lodish, L.M., Abraham, M, Livelsberger J., Lubetkin B et al. (1995), “A summary of fifty-five in-market experimental estimates of the long-term effect of TV advertising”, Marketing Science, 14, 3, 2. G133-141.

Question de Viralité…Un Hommage à Bass


Ce qui est détestable dans le marketing est sans doute son usage intempestif du nominalisme. A chaque phénomène apparemment nouveau, il semble être nécessaire d’attribuer un nom. L’exercice est simple mais ne crée pas de concept, juste une forêt touffue de signes creux. Ainsi le Buzz Marketing et le marketing viral. Et nombre de blog sont prêt à relayer ces idées : Buzz-marketing, Marketing interactif , Culture-buzz. Cette fièvre n’est pas prête de s’éteindre, les agents contaminant ne manquant pas!

Les mots ne remplacent pas les concepts, alors profitons en pour rappeler que les véritables concepts ont été proposés il y a bien longtemps par Frank Bass, dans un des articles les plus cités du marketing, lequel se proposait de modéliser l’épidémiologie des nouveaux produits, en s’appuyant sur cette bonne vieille théorie de la communication à deux étages de Katz et Lazarfeld.

Si depuis une immense littérature s’est constituée sur ce sujet, modéliser le bouche à oreille, l’adoption de l’innovation, les phénomènes de diffusion, sans aucun doute elle trouve dans le terrain de l’Internet matière à renouveler sa réflexion et ses modèles. Un outil tel que Net Promoter s’inscrit parfaitement dans cette direction.

C’est à cet exercice que Christine Balagué nous convie le 26 févier 2008 au sein des ateliers TiM. Autour de son travail récent, il s’agira alors de revenir à de bien vieilles idées pour rafraîchir de nouveaux sujets!