Master Management de l’Innovation GDO/MOPP – Méthodes quantitatives pour la recherche en gestion

L’objectif du cours est de donner une culture quantitative élargie aux étudiants, leur laissant le soin d’approfondir les méthodes qui pourraient être utilisées dans le cadre de leurs projets de recherche. Il est aussi de le donner le sens critique nécessaire pour évaluer les protocoles employés dans la littérature courante de gestion. Il est dispensés aux étudiants du Master management de l’Innovation parcours MOPP et GDO.
Le cours s’organise en 2 éléments :

1) Rappels élémentaires de statistique et d’analyse multivariée (tests, régression, ACP et classification) : 3 séances . L’environnement le langage r avec le package Rcmdr et  rstudio qui sont à installer au préalable. On trouvera un manuel d’initiation ici  et pour la culture générale on encourage à suivre r-blogger.

On travaillera sur un cas issu du Mémoire de Master Marketing de Pauline Vautrot. Il porte sur l’effet des preuves de transparence sur l’évaluation d’un moteur de recommandation. Les éléments se trouve sur le dossier google drive.

  1. Analyse univariée avec r
  2. Analyse bivariées : Test du khi², analyse de variance, corrélations, …
  3. Analyse factorielle
  4. Classification automatique
  5. Régressions

2) Un atelier des méthodes – présentation de protocoles méthodologiques dont les synthèses sont présentées par les étudiants sur la base d’articles significatifs dont voici un florilège. ( en Janvier 1 journée pleine)

Evaluation : au choix : une étude statistique menée avec r, ou l’exposé synthétique d’une méthode (en 4 pages). C’est un travail individuel. Inscription ici

Quelques idées de sujet :

  • Analyse conjointe et modèle de choix ()
  • Modèle de croissance ( SEM)
  • Méthode de la différence des différences (causalité)
  • Modèle de régression avec variable instrumentale ( causalité)
  • Modèles VAR ( économétrie, causalité) : avec une belle application pour l’analyse des effets croisés des médias sur les ventes.
  • Modèle linéaire hiérarchique et analyse multi-niveaux ( économétrie)
  • Mesure des attitudes implicites (Échelle), en se concentrant sur les travaux du Project Implicit
  • Machine learning et catégorisation de document en explorant les solutions proposées par MonkeyLearn pour la catégorisation.
  • Analyse des rendements anormaux (finance) ou event Analysis. Une application à l’effet des surprises ( positives ou négatives) est un très bon point de départ.
  • Régression avec auto-corrélation spatiale ( économétrie). Pour une introduction cette application en marketing en donne une très bonne idée.
  • Modélisation multi-agent appliquée au sciences sociales en passant par l’étude des modèles standard de Netlogo.
  • Analyse des réseaux sociaux ( Réseaux)
  • Data visualisation : de la grammaire des graphes à l’inventaire des solutions créatives en passant par l’ergonomie ou la psychologie.
  • Tests d’équivalence structurelle et comparaison inter-culturelle
  • ….

Les séances ont lieu les mardi de 18h00 à 20h30 à l’Ecole des Mines de Paris (Luxembourg) – Pour poursuivre voir aussi l’Atelier Doctoral.

 

Plateformes : collectionner les papillons

NabokovCollaboratif, coopérativisme, collectif, on-demand, économie du partage, gig economy,  les termes se succèdent reflétant les idéaux utopiques, les rigueurs idéologiques, sans qu’on y voit plus clair dans un mouvement qui se singularise à la fois par le nombre, la diversité et la valeur (boursière).

Pour notre part, nous en restons à cette notion de plateforme qui souligne le trait principal de ces nouvelles organisations : elles coordonne de nombreuses micro-activités. On pourrait y ajouter au moins deux autres éléments : d’abord l’engagement dans le processus de production des biens ou des services de non-professionnels (crowsourcing) et d’une part de l’activité économique domestique rendue possible par la force de la coordination, ensuite l’importance de l’interaction entre des populations différentes qui représentent autant de versants de marchés distincts et nécessite des méthodes d’appariement que le mécanisme des prix n’assurent pas entièrement. On y ajoutera le rôle pivot des algorithmes ( plus que des données) qui orientent, disciplinent, motivent les acteurs au risque de déployer une politique propre.

Mais de tout cela, on en rediscutera quand le bouquin sera prêt à sortir (il est en cours de relecture). En attendant, la réflexion n’est pas close et il reste un chantier à finir, celui de construire, en naturaliste, une typologie qui rendent compte à la fois de l’unité de forme et de l’étendue des domaines exploité. Un travail d’entomologiste, recueillir les spécimens, les répertorier, les classer, les catégoriser. C’est au fond un travail de recherche qui n’est pas souvent entrepris, simplement car on présuppose en sciences de gestion une sorte de modèle unique de l’organisation, même si périodiquement de telles typologies apparaissent ( Pensons à celles de Mintzberg, ou celle de Miles et Snow). En voici l’embryon, une petite collection de papillons chassés sur la toile, bien incomplète, peu détaillée encore, un mémento qui aura servi dans la rédaction de l’ouvrage à confronter l’analyse au fait.

Les commentaires et suggestions sont bienvenues, pour préciser un détail ou discuter un point plus général, signaler les plateformes oubliées, ou critiquer une catégorie. En complément de la collection, le filet à papillon se trouve sur la page FB plateformes, ( à liker et partager sans modération) les news au fil de l’eau de la vie des plateformes et des réflexions qu’elles suscitent.

Crédit Photo : difficile de ne pas penser à Vladimir Nabokov….

Les bonheurs de la bibliographie – à propos de satisfaction.

because satisfaction

Travaillant depuis quelques mois sur un « état de l’art de la mesure de la satisfaction client » à la demande de la Division Recherche et Développement d’ EDF (concepts, méthodes et bons usages dans le pilotage de la performance, j’ai commencé comme tout bon chercheur par un inventaire bibliographique.
Et dans ce domaine les références ne manquent pas, sans doute plus de 2000 dans les revues à comité de lecture et pour ce qui nous concerne une jolie pile de 500 références allant de 1944 à ces derniers jours. On aurait pu croire que la satisfaction était un sujet en fin de course, mais le nombre des publications ne faiblit pas, 2011 aura été l’année la plus prolixe, 2012 n’est pas en reste.
Lire, noter, annoter, comparer, classer, catégoriser est le lot quotidien des chercheurs. Sur un tel sujet la tâche pourrait sembler facile car le domaine est balisé . En fait pas tant que cela, les concepts sont relativement clairs mais on s’aperçoit rapidement qu’en termes de méthodes de mesure les travaux sont finalement rares. Plus précisément si l’on teste de manière standardisées la qualité des échelles de mesure (avec ses bons vieux alphas de Cronbach et autres rho de Jöreskog), si en jouant des modèles Lisrels on teste convenablement des modèles explicatifs, quasiment aucune mention n’est produite quand à la qualité des indicateurs. L’indicateur est ici cet agrégat ( un score moyen de satisfaction), utilisé pour établir la performance de telle ou telle unités, points de vente, zone géographique ou segment de clientèle. La construction de ces indicateurs est un des oublis de la littérature.
Mais notre sujet n’est pas là, il est dans certaines absences. Deux d’entre elle sont assez remarquables.
D’abord le NPS de Reichheld dont on lira sa réponse,  présenté souvent comme un substitut de l’indicateur de satisfaction, mais dont le nombre de références académiques sur lequel il s’appuie est fort limité et pas forcément à son avantage dans l’explication de la croissance de l’entreprise (Morgan et Rego, 200-: lire le tableau page 437). L’autre, est la référence au modèle de Kano, populaire en bien d’endroits, mais dont l’auteur Noriaki Kano, connu avec un libre lancé en 1989 mais dont un seul article apparait en 1992 dans California Management Journal. Bien sur ses idées se retrouvent dans d’autres papiers qui s’intéressent à l’effet non-linaire des attributs susceptibles de contribuer à la qualité,comme dans le travail de Sylvie Llosa. Dans le cas de Kano sans doute son double enracinement japonais, et industriel permet de comprendre son absence dans le champ du marketing. Dans le cas de Reichheld, les choses sont plus étonnantes, dans la mesure où les compétiteurs ( l’ACSI ou Servqual) sont particulièrement bien représentés dans la littérature.
On pourrait se désoler que le monde académique croise peu celui des consultants, que les ingénieurs partagent peu avec les commerciaux, que le brassage des idées ne soit pas pleinement assuré par les systèmes de publications. On peut se rassurer en pensant au contraire, et c’est le projet auquel nous travaillons, que c’est dans l’interaction que les outils peuvent être mieux évalués, mieux construits, et permettre l’émergence de nouvelles idées .
Nous en resterons à un simple niveau méthodologique. Même si la littérature académique ne couvre pas toujours la totalité des idées en circulation, elle permet cependant d’établir ce qui est établi et de remettre en question ce qui ne l’est pas véritablement. Le modèle de Kano reste une idée forte, le NPS mérite un examen plus sérieux de ses fondements scientifiques.
Bien au-delà on s’aperçoit qu’un champ qu’on pensait bien couvert, recèle encore des espaces vierges : Pour la satisfaction, il y a sans doute le problème de la comparabilité des indicateurs, ne serait-ce que pour se comparer aux concurrents, ou de comparer des unités commerciales entre elles, ou mieux encore d’analyser les conditions de progrès (Une des lacunes de la littérature est aussi dans l’analyse de la dynamique de la satisfaction). Il y a aussi plus largement un point de vue plus large, que ce principe de satisfaction des attentes, qui fait de la définition des attentes, une convention (et c’est assez surprenant car l’économie agro-alimentaire a un temps largement mobilisé ces thèses – on pensera à P-Y Gomez). Le champs reste ouvert.

Trop de technologie dans les études ?

L’air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s’est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu’il faille leur redonner de l’esprit par plus de théorie et plus d’esprit.
Du point de vue des sources, l’apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d’interaction. Depuis le milieu des années 2000, c’est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L’accessibilité de ces nouvelles sources d’information, l’immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d’opinion nés avec Gallup, et les approches qualitatives traditionnelles qu’un Dichter a introduite dans les années 60. Ainsi les millions d’avis de consommateurs, en dépit de leur nombre ne reflètent en rien l’avis de la population pour autant qu’ils fassent l’objet d’un biais de sélection important – ce qui est le cas général, et l’observation exhaustive des séquences d’achat d’une clientèle n’est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.
Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L’enquête d’opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n’a sans doute pas pris toute l’importance qu’il devrait avoir dans l’analyse, il est pourtant essentiel dans la mesure où en dehors de l’expérimentation c’est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu’elle concerne le temps ou l’espace a une conséquence importante : les résultats d’étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d’organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l’entreprise, c’est en connaissant les motivations de ceux qui recommandent que l’on peut les mettre en perspective. Il s’agit donc d’articuler les sources, de les intégrer dans des modèles pour rendre toute l’intelligibilité des modèles. Il ne s’agit pas d’éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.
Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d’analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d’en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l’avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l’anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l’observation est facilitée par des capteurs en tout genre – pensons aux progrès de l’occulométrie.
Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d’étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu’on tire avantage et des données et des méthodes. C’est un problème que certains tentent d’éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s’intéresser à la complexité des phénomènes qui les animent.
Le corollaire est la nécessité d’avoir des modèles théorique bien compris des réalités que l’on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d’abord, de la méthode ensuite, et des données enfin. C’est sans doute le message le plus difficile à faire passer, l’induction est plus populaire que la déduction et l’on est souvent tenté d’analyser d’emblée l’apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n’en donner qu’un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.
A l’idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d’analyse qu’une discipline plus grande qui devrait s’exercer dans trois directions:
  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l’on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d’accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l’effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l’organisation et la structuration des sources et des méthodes d’analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L’efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu’elles produisent. L’étude en soi n’est pas une connaissance, c’est son appropriation par chacun des membres de l’organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d’étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s’inspirer largement des processus de veille et d’intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d’accumulation des études. Pour autant qu’elles aient été structurées, qu’elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l’objet de généralisations empiriques.
Bref l’enjeu principal est celui de l’intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.
Note : quelques réflexions pour alimenter la conférence : des études à l’intelligence marketing – SEMO

Master MOI2 – Veille en intelligence marketing

L’objet de ce cours est d’étudier les méthodes modernes d’étude de marché, de recherche marketing, de veille concurrentielle, d’intelligence marketing. Autant de termes qui se sont multipliés ces dernières années pour évoquer la nécessité pour les marques de surveiller leur environnement, d’en analyser les variations, de diffuser cette connaissance dans l’entreprise pour adapter les produits et les modes de communication.

Evaluation

  • Une participation individuelle à un projet d’étude ( 2011 : une typologie des cartes de fidélité) associé à l’évenement journée de la fidélité. ( avec testntrust et INIT conseil). Le questionnaire est ici .
  • Une synthèse d’un outils ou problème de méthode d’étude après un exposés –  en groupe de 4 étudiants. Pour 2010-2011 en voici quelque propositions. 

 Formation initiale

  • NetPromoter Score :Andreia Auggusto Pinto,Renata Lopes,Elodie Debresse,Ngoc Le Anh
  • la mesure du  sentiment.
  • Klout ou comment mesurer l’influence ( à travers twitter) Nicolas O’driscoll , Rovie Rodil, Zoe Salaun, Marie Trocme
  • Analyse conjointe : Sonia Erussard, Armelle Nguyen
  • Comscore : la mesure de l’efficacité du e-marketing

Formation en alternance

Références

Pour les sources on renvoie au chapitre Veille et intelligence marketing du cours de CRM, mais aussi le catalogue des méthodes.

crédit photo

Thèses dirigées et soutenues

Thèses soutenues

  • Marie Helène Abbo (PhD) – Delhi University , 27 novembre 2010,  » Cause-cobranding – a social fit explanation ». 
  • Herbert Casteran – Toulouse, 15 septembre 2010 – Effet à long terme de la promotion  (avec Lars Meyer-Waarden)
  • Gwenaelle Oruezabala – Paris Ouest, 9 décembre 2009 – la relation fournisseur à l’épreuve de la globalisation des achats.
  • Lofti Gammoudi – Paris Ouest, septembre 2009 – Justice, défaillance et réclamation :Un modèle dans le domaine des services aux Petites et Moyennes Entreprises
  • Audrey Bonnemaizon, UPPA, 5décembre 2008 – « La mise en oeuvre de l’orientation client :- rôles attribués au client et Instrumentation de gestion, le cas d’EDF (2004-2007) » -Maître de Conférences Université de Paris-Est.
  • Zoubir Zarouck – Paris Ouest, 12 juin 2008 – Injustice, compensation et et qualité de la relation – le cas du surbooking
  • Fernando Fereira – Paris Ouest, Février 2007 – stratégie de recherche d’information sur le web – une approche naturaliste Paris- Professeur Universidade do Madeira.
  • Mohammed Benssedik (Oujda 2006) – Maître de conférence , Université d’Oujda
  • Delphine Baillergeau, Maitre de Conférences, Université d’Amiens (UPPA 2006)
  • Firmanzah, UPPA, Dean of Business and economics faculty, Universitas of Indonesia
  • Anne-Hélène Simonin,  l’engagement au coeur de la relation coopérative, (UPPA, mai 2004)
  • Sam Dvezer, Aspect internationaux du marketing Btob ( HDR, UPPA, juin 2004)
  • Jean Frisou, Fidélité et confiance (UPPA, 2003)
  • Jean-Philippe Galan, (avec Eric Vernette, Toulouse 2003), Maître de conférence à l’Université du Capitole.
  • Lars Meyer Waarden (Pau, décembre 2002) Professeur à l’Université de Strasbourg.

Dernières communications

Dernières communications ( congrès et conférences)

  • Lars-Meyer Waarden (2010) – Vector Autoregressive (var) Persistence Modeling To Test The Long Term Effects Of Loyalty Programs,  Emac Copenhagen 2010.
  • C. benavent et Meyer-Waarden (2009) «Vector autoregressive (VAR) persistence modeling to test the long term
    effects of loyalty programs», Congrès AFM, Londres, 2009 .
  • C. Benavent, H.Castéran (2008) «Application of latent class models to purchases in the retailing sector and comparison with the Pareto/NBD formulation», Conférence Nouvelles Tendances en Marketing, ESCP, Venise, Janvier 2008 (in coll.).
  • Colmenero-Ferreira, Fernando; Benavent, Christophe (2008) “Factor de Emoção e
    Atenção na Procura de Informação na Web: Um Enfoque Naturalista”. Em Resumo dos
    trabalhos do 32º EnANPAD 2008. 6-10 Setembro. Rio de Janeiro, Brasil, pp. 479.
    2008 
  • Benavent, Christophe; Colmenero-Ferreira, Fernando; Riccio, Edson Luiz (2008)
    Strategies of research on the web: a nethnographic approach. In Proceedings of 5th
    CONTECSI – International Conference on Information Systems and Technology
    Management. São Paulo: TECSI FEA USP, 2008. v. 1. p. 246.
    2008 
  • Colmenero-Ferreira, Fernando; Benavent, Christophe (2008) “Une typologie des stratégies
    de recherche d’information sur le web”. Em Proceedings of the 7th International Congress
    Marketing Trends. 17-19 Janeiro. Università Ca’ Foscari, Veneza.
     
  • 2007 Colmenero-Ferreira, Fernando; Benavent, Christophe (2007) “A typology of information
    search strategies on the Web”. Em Proceedings of the 4th CONTECSI (International
    Conference on Information Systems and Technology Management), São Paulo, Brasil, 30
    Maio a 1 Junho, CD-Rom.
     
  • 2006 Colmenero-Ferreira, Fernando; Benavent, Christophe (2006) “Strategies of Research on
    the Web: A Netnographic Approach”. Em Actes de la 5ème Journée Nantaise de
    Recherché sur le E-marketing. 15 Setembro 2006. Faculté de Sciences Economiques et
    de Gestion de l’Université de Nantes, Nantes.
  • Casteran, Meyer-Waarden, C. Benavent (2007) «Incorporating covariates into thePareto/NBD model: An Empirical Comparison of Alternative Lifetime Value models», Third German-French-Austrian Conference on Quantitative Marketing, ESSEC, 2007
  • Meyer-Waarden L., C. Benavent, H.Castéran (2007) «L’impact différencié des gratifications des programmes de fidélisation sur le comportement d’achat en fonction des orientations d’achat», Congrès AFM, Aix-les-Bains, 2007 (in coll. with C. Benavent, H.Castéran).
     
  • Meyer-Waarden, Casteran, Benavent «Une évaluation empirique des modèles NBD pour le calcul de la Valeur Actualisée Client dans le domaine de la grande distribution», Congrès AFM, Aix-les-Bains, 2007
  • Meyer-Waarden Lars begin_of_the_skype_highlighting     end_of_the_skype_highlighting et Christophe Benavent 2005″ efficacité des programmes de fidélisation » AFM 2005.
  • Benavent, De la Villarmois, Firmanzah (2005), « Apprentissage et contrôle organisationnel : l’analyse au niveau des filiales indonésiennes d’entreprises françaises », Colloque MINT.
  • Baillergeau Delphine begin_of_the_skype_highlighting     end_of_the_skype_highlighting, Bénavent Christophe (2005), La lettre de réclamation : une expérience de justice, proposition de communication aux 10èmes Journées de Recherche en Marketing de Bourgognes, Dijon, 9&10 novembre.
  • Benavent C. (2004), « CRM contrôle et apprentissage organisationnel, Séminaire CONDOR, Paris 10 juin 2004.
  • Cueille, S, et Benavent, C (2003)  » Stratégies génériques : test de trois modèles descriptifs et perspectives théoriques », Congrès de l’AIMS, tunis. (version de travail)
  • Benavent C et Lars Meyer (2002)  » Loyalty programs : strategy and pratices » Congrès « Nouvelles Tendances du Marketing » Paris-Venise – ESCP 26-27 Janvier .
  • Benavent C et Lars Meyer (2002)  » Loyalty programs : strategy, pratices and success factors  » Journée Fidélisation  » Après les points ? » AFM/AACC – ESCP 17 Janvier .
  • Benavent C (2002) « CRM : Au-delà du matériel, la nécessité de l’intelligence » dans le CRM a-t-il un avenir ? D-Interactive 17 janvier, paris
  • Aurier, Benavent, Ngoala (2001) « Discriminant and Predictive validy of the brand relationship components-A chain model tested with a test-retest approach » (e)CRM Workshop – karsruhe.[slides][paper (rough translation)]
  • Meyer-Waarden, L et Benavent, C (2001),  » Loyalty Programs : Strategies et Practices », papier proposé pour le Education & Research Day, FEDMA, Madrid 14 septembre.[slides]
  • C. Benavent (2001) « New Marketing and the sources of the competitive advantage -How customer-centric orientation and IT remodel the basis of competition. » Conférence à USU – Medan et Atma Jaya -Jakarta, Juin.[Slides PDF 2,8Me]
  • Meyer-Waarden, L et Benavent, C (2001),  » Programmes de Fidélisation : Stratégies et Pratiques », papier accepté pour le congrès de l’AFM, Deauville.version de travail
  • Aurier P., Benavent, C. et Ngoala (2001) » Validité discriminante et prédictive des composantes de la relation à la marque  » communication acceptée au congrès de l’AFM 2001, Deauville.
  • Crié, D, Benavent, C (2001)  » Les produits Fidélisants dans la relation client-Fournisseurs » papier accepté pour le Congrès de l’AFM, Deauville, mai 2001
  • Benavent C. (2000), Marketing stratégique et NTICs : les enjeux de la compétition – Colloque Evolution du marketing dans les pays arabes – impact des NTICS- Beyrouth, 2-3 Novembre 2000 (transparents)
  • Benavent C (2000), PME et NTic – Table ronde congrès de l’AIRPME, Lille, septembre (Transparents)
  • C Benavent, C. Crié D et Meyer-Waarden (2000) ; « Loyalty programs efficiency : a quantitative case study in the field of retailing » St Malo, Juillet 2000.
  • Benavent et Yami (2000)  » Rivalités et groupes stratégiques : une revue de littérature et un cadre stratégique », Congrès de l’AIMS Montpellier Mai.
  • C.Benavent (1999), « Mesure de l’efficacité des forces de vente – un modèle de panel », Séminaire Franco-Allemand de Montpellier septembre.
  • Benavent et Crié (1998) « Dynamique et valeurs de clientèles », Congrès des IAEs, Nantes
  • Benavent C. (1998) » détections des clients douteux », Global Database Marketing- 25 septembre 1998, IBM,Heathrow.
  • C.Benavent (1997), « Modèles de panel en marketing », présentation séminaire EREM, décembre. (présentation Power-Point-ZIP)
  • Sempé, L. et C. Benavent (1997),  » Modèles confirmatoire de mesure et analyse multi-niveau », présentation club SPSS, Paris Octobre 1997.
  • Benavent C. (1998) » Managing Data Analysis for High-tech Customer Portfolios » Global Database Marketing- mai 1998, IBM,Heathrow
  • Benavent C. (1997), « Organizationnal Learning and Databased Marketing : the case of Banking », Communication to the First Educationnal Seminar, EDMA Forum, April 1997.
  • Benavent C. (1996),  » Aspects Ethique et hédoniste de la satisfaction envers les services public « , communication Colloque Le Maire Entrepreneur, Biarritz, sept 1996.
  • Benavent C. (1996), « Moderator effects of promotion on price elasticities », Communication French/German Seminar, Posdam sept 1996
  • Benavent, C. (1994) « Evolution des gammes : quelques problèmes », Communication au Séminaire Jeunes Chercheurs, Méribel-Chambery, Février 1994.
  • Benavent,C., Van Heems R. et Salerno, F. (1993), « Facteurs de réussite et d’échec des nouveaux produits européens » Communication au XXème Séminaire International de Recherche en Marketing, 1-4 Juin, La Londe les Maures.
Cahiers de recherche
  • Une présentation du marketing de l’expérience à l’EREM le 29 novembre (Lille) Autour du DM (Extension du Domaine de l’Expérience)
  • Vandaele, M., Farissi, D. et Benavent, C. (1994), « Une typologie des marques sur la base des élasticités des variables du mix », novembre, .
  • Benavent C. et Salerno F.(1993) « Intérêts et Application de la segmentation concurrentielle », Cahiers de la Recherche de l’IAE de Lille, 93/11.
  • Benavent C. (1993) : « Implantation d’une méthodologie d’étude de zone de chalandise et application d’un modèle de Huff  » Cahiers de la recherche de l’IAE n°10/93.
  • Salerno F. et Benavent C. (1991) : « Une approche cognitive des facteurs de réussite des nouveaux produits « , Congrès de l’AFM, la Baule, Avril 91.
Thèse
Rapports de recherche
  • Salerno, Benavent (1999),  » Impact des Ntics sur la distribution bancaire- perspectives à 5 ans », CENCEP, Paris.
  • Benavent, C. et Ladwein, R (1993), « Segmentation et Catégorie Cognitive dans l’étude des marchés complexes : le cas du marché musical », Rapport au Ministère de la Culture et de la Communication.[pdf 10,81M]
  • Salerno F. et Benavent C. (1991) « Facteurs de réussite des nouveaux produits européens[6.80Mo] », Rapport au Ministère de la Recherche et de la Technologie.

Méthodes : Analyse de survie

Le principe général

Les méthodes d’analyses de survie s’intéressent à probabiliser la survenue d’un événement au bout d’une certaine durée. Quelle sont les chances de survie d’une entreprise, quelle est celle d’un client, quelles sont les chances qu’un employé quite l’entreprise au bout d’un certain temps, tel est un très faible échantillon des questions auxquelles peut répondre l’analyse de survie.
Les modèles paramètriques
  • Modèle fréquentiel
  • Weibull et les autres formulations
Le modèle de cox

    Applications en Gestion
    • mortalité et natalité des populations organisationnelles
    • Durée de vie des clients en marketing
    • défaillance d’un processus en gestion de la qualité. Les développements
    • Finance
    • GRH
    • etudes PMEs Italiennes

    Crédit Photo

      Qu’est-ce que la méthode?

      Parler de méthode, c’est parler d’une ambiguïté. La méthode se présente sous un double visage : un ensemble de règles qui contraignent la pensée sans en affecter la substance, des techniques qui permettent de confronter la théorie au champ empirique. Une manière de penser, un lien de la pensée au réel.

      Du premier point de vue, donnons l’exemple de la dialectique. Cette manière de penser qui confronte à une proposition intiale une proposition contradictoire, et fait de la confrontation des deux thèses l’instrument pour concevoir un dépassement, une synthèse qui unifie le discordant et l’opposé. Peu importe le contenu des thèses, il importe que leur contestation mutuelle impose la construction d’une perspective synthétique. De ce même point de vue, on considéra l’individualisme méthodologique qui impose un schema de raisonnement considérant l’action individuelle d’abord, puis son agrégation, pour comprendre les mouvements sociaux. Dans chaque cas l’aspect méthodique revient à s’appuyer sur un motif premier et une structuration du problème. l’aboutissement d’un côté, l’effet pervers de l’autre.
      Du second point de vue on pensera à l’économétrie, à la psychométrie, à l’ensemble de techniques qui permettent d’associer l’observé à des structures logiques, soit dans le sens de la déduction (ce qui revient le plus souvent à comparer un modèle théorique à la réalité) ou dans celui de l’induction qui fait de la techniques le moyen de filtrer l’image de la réalité (induction). Dans les deux cas il s’agit d’établir un rapport de vérité entre le domaine du réel et celui de la pensée.
      Ces deux grandes acceptions de la méthodes ne sont finalement pas opposées. Elles se complètent et apparaissent finalement comme deux versants d’un même objet. La pensée. Elle conditionne la cohérence interne et externe. La méthode serait l’ordre de la pensée. Ce qui assure dans la forme, mais non dans la substance, la véracité d’une idée.
      La méthode est ce qui relie l’imaginaire à la réalité. L’imaginaire en ce que la théorie est le fruit de spéculations, même si elles sont contraintes par des propositions antérieures, une structure logique, et des paradigmes. En ce sens la méthode est un fruit de l’imaginaire, de notre capacité à former des éléments abstraits, des catégories qui nous permettent de penser le monde. La réalité non en tant que chose que l’on pourrait contempler dans la plénitude ontologique du vrai, mais en tant que chose qu’on ne capte que par le regard. Si la réalité est, elle échappe à l’observation et ne vit qu’au travers du phénomène.

      Nous n’épuisons pas l’idée de méthode en affirmant qu’elle est ce qui assure aux idées un ordre interne et une correspondance externe. Dans l’idée de méthode il y a la discipline de la procédure. La bonne procédure est celle qui produit les mêmes résultats, sans les mêmes conditions. La procédure de pensée, permet de penser, que chacun, pourvu des mêmes catégories, puissent converger vers le même concept. La procédure est la garantie que l’on puisse transmettre une manière de penser à d’autres, sans qu’ils aient à examiner les tréfonds de notre âme. Par la procédure, la méthode objectivise ce qui pourrait être soupçonné de subjectivisme.
      La méthode peut mieux être comprise comme un ensemble cohérent de trois éléments :
      • 1) un mode de pensée, une théorie
      • 2) un mode de recueil de l’information
      • 3) une loi de correspondance
      Quelques exemples :
      • analyse conjointe : cette méthode se fonde sur une théorie de l’addidivité des utilités ou dumoins de leur décompositions, la valeur d’une option est la some de la valeur de chacune de ses caractéristiques. En les identifiants et en déterminant leurs niveaux pertinents on peu générer des plans d’expérience qui isole les effets des caractéristiques de l’option et en employant des méthodes de regression sur les préférences appropriées, il devient possible de calculer l’utilité relative de chacune des caractéristiques et donc la valeur totale de chaque option possible. Cette méthode presente l’avantage de n’avoir à recueillir que la préférences pour l’une ou l’autre des options, de rendre compte des préférences indivudelles et de leur dispersion.
      • analyse des rendements anormaux : son fondement est la théorie de l’efficience des marchés qui lui permet de s’expimer sous la forme très simple de Rit=beta*Rmt+e, et de supposer que chaque information nouvelle est prise en compte immediatement par le marché. En s’appuyant sur la base de séries chronologiques (des cours boursiers) et des indices significatifs (CAC), il est possible par un modèle de regression, d’estimer les paramètre dans une période de référence et de les simuler pour les périodes succédant à l’événement. En comparant le cours observé après l’évenement et le rendement anticipé sur la base de l’histoire avant l’événement, il est possible de détecter, moyennant les test appropriés, un rendement anormal et significatif qui correspond à l’ccroissement de valeur occasionné par l’événement. Celui si peut être l’annonce d’un lancement de produit, une acquisition, un changement de règle comptable.
      Le méthodologue exerce ainsi un art particulier interprétation des théories, de connaissance des systèmes de représentation du réel, et d’identification de structures logiques qui permettent la mise en correspondance de la théorie et de la réalité telle qu’elle peut être représentée.