Les 7 familles des programmes de fidélité

Sept familles
Où vont les programmes de fidélisation ? Nous avons indiqué quelques enjeux ici
Mais avant de s’intéresser à leur devenir, il est utile d’en faire un état des lieux. Cela a été l’objet d’un des projets de la Journéede la Fidélité qui a associé les étudiants du Master MarketingOpérationnel International. Nos étudiants ont analysé 134 programmes, les décrivant en termes de système de gratifications, autrement dit  de modalités de gain (Earn) et de bénéfices (Earn) avec l’aide de Nathalie Beaucé. 
Une de nos étudiantes Armelle Nguyen s’est chargée d’une analyse plus approfondie dans le cadre de son mémoire de Master en en développant une typologie.Le résultat obtenu est que 7 grandes familles de programmes peuvent être distinguées.
  • Les programmes standards à chèque de réduction. Etam en est un exemple typique, il permet d’échanger les points acquis contre un bon de réduction.
  • Des programmes à points qui diffèrent des premiers par l’obtention de remises immédiate. Celui de France-loisir en est un bon spécimen.
  • Les programmes de cash-back utilisent la même mécanique d’accumulation, mais permettent d’obtenir des remises proportionnelles après l’atteinte d’un certain seuil. Le programme de Virgin en est un exemple-type.
  • Apparaissent ensuite des programmes qui permettent de bénéficier d’un crédit. Celui d’Ikea en est emblématique tout comme la carte Pass de carrefour.
  • Les programmes de cadeaux ajoutent la possibilité de choisir dans un catalogue une gamme élargie de services, de produits où d’autres avantage. S’miles appartient clairement à cette catégorie.
  • Une autre famille se distingue par les exclusivité auxquelles ils permettent de prétendre. La carte de Séphora en est un exemple remarquable.
  • Une dernière famille distribue en plus des privilèges, le modèle nespresso en est un des plus aboutis.
Les diagramme suivants donne avec plus de précision le profil de chaque de ces familles en termes de Earn et de Burn. Nous laissons au lecteur le soin de les examiner avec la plus grande attention .
Modalité de Earn ( manière de gagner des gratifications)
Modalité de Burn ( manière d’obtenir des gratifications)
Pour simplifier l’analyse et la description, les programmes peuvent être décris en termes plus simples, juste deux critères : leur degré de fongibilité – autrement dit le fait que les avantages se traduisent par un avantage aisément convertible, et leur degré de tangibilité – autrement dit le caractère matériel ou serviciel des avantages.
Fongibilité et Tangibilité des programmes de Fidélisation
 On en conclura qu’en dépit de leur différences, nos 7 familles au fond ne se distribue que sur une dimension qui va de la ristourne à la distinction. La logique des gratification en reste de manière dominante à de simples remises différées, cette vieille technique de l’escompte. Une minorité joue la carte relationnelle en faisant de appartenance au programme un club véritable  qui donne droit à un traitement privilégié. La débauche des techniques se serait-elle arrêtée devant le mur de la reconnaissance?

Le pari au cœur des modèles statistiques – le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.
Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L’utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d’hypothèse avec la notion d’intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d’intention de vote d’une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l’intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s’inscrivent dans le cadre d’une approche dite fréquentiste de l’inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l’inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d’hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d’avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l’ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L’inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L’inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L’inférence non paramétrique, comme son nom l’indique ne suppose pas l’existence d’un paramètre d’intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l’exemple type.
    L’inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d’en induire la probabilité qu’elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l’écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l’utilisation de l’inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c’est un cadre bayésien qui s’impose dans la littérature technique.
    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu’un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d’une régularité.
    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d’expert ou encore des anciennes données. Durant l’analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.
    Ainsi sachant qu’une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu’un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d’actualiser le calcul. ( la formule est sur le t-shirt).
    D’après Robert (2006), L’analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.
    L’approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l’inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d’effectuer des tests d’hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc…), mais un grand travail reste à faire dans se sens.
    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s’est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l’estimation. Le raisonnement bayésien désormais s’étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d’estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n’est qu’une invitation, voici un exemple où l’inférence bayésienne donne des capacités d’apprentissage aux robots.

    Et quelques livres:

    Espaces mobiles – un projet d’étude du Master MOI


    En dépit d’un taux de pénétration encore faible, les smartphones risquent de devenir un espace privilégié de la publicité, ne serait-ce que par leur caractère de couteau suisse de l’information.

    Quelles formes de publicité y seront les plus efficaces ? MMS ou SMS? RobCall? Bannière Web? Pop-up applicatifs? Pour répondre à la question, un impératif : mieux comprendre l’usage de ces condensés de technologie, analyser leur appropriation.

    Un groupe d’étudiant du Master MOI Classique s’engage dans cette étude : Grolleau Adeline, Oumachiche Athéna, Bensimon Ylan, Sougrat Mustafa, Amdouni Rami. Rendez-vous dans quelques mois pour des premiers résultats.

    Rentabilité des programmes de fidélisation


    Invité à intervenir dans le cadre d’un des Atelier de l’ANVIE consacré au “renouveau de la fidélisation“, nous avons eu l’occasion de développer au travers d’études de cas une idée simple à propos de la question de la rentabilité des programmes de fidélisation.

    Celle-ci n’est pas naturelle, évidente, et les formules à l’emporte-pièce telle ce “fidéliser un client coûte 5 fois moins cher que d’en acquérir un autre” est tout simplement faux. Chaque cas est spécifique, chaque politique est unique, et la question de la rentabilité des programmes, comme n’importe quel programme marketing est liée à la capacité et aux méthodes de mesure.

    Nous avons rappelé cette idée simple que la rentabilité résulte d’une identité comptable : la différence des coûts et des gains. Mesurer cette rentabilité, et l’optimiser nécessite un calcul économique qui parfois est complexe mais s’appuie sur un principe fondamental et élémentaire : les gains résultent de la réponse à l’effort fourni, et les coûts lui sont proportionnels. Dans la mesure où l’on sait calculer la fonction de réponse, et que l’on connaît la fonction de coût, on peut déterminer le niveau d’action optimum.

    Ce qui se complique, dans le cas des programmes de fidélisation, est que ce calcul ne peut se résoudre au niveau des campagnes individuelles, et qu’il faut être en mesure de l’établir au niveau de programmes qui se déploient dans la durée, et constituent la valeur de clientèle. Nous avons montrés ainsi que l’évidence n’est jamais donnée. Par exemple que très souvent c’est la qualité du recrutement qui détermine la fidélité et par conséquent la rentabilité. Très souvent ce qui est juste au niveau de l’individu, trouve une réalisation peu intuitive quand on considère un portefeuille de client avec ses différentes cohortes. Mais fondamentalement toute la difficulté réside en ce que tous les clients ne répondent pas de la même manière à l’effort, et qu’il est donc nécessaire si l’on souhaite modéliser cette réponse de manière satisfaisante, de la mesurer pour différents segments. On s’aperçoit ainsi que la rentabilité tient moins à la réponse des plus hauts contributeurs, mais souvent des clients de valeurs intermédiaires, plus réactifs à l’effort que les autres. La rentabilité des programmes de fidélisation est alors liée étroitement à la capacité de cibler les clients les plus sensibles à l’effort marketing. Cette évidence est souvent oubliée.
    Sans détailler les différentes méthodes que nous avons présentées, soulignons que la recherche en marketing a développé de nombreux outils ces dernières années pour modéliser la réponse, non seulement aux opérations, mais à l’ensemble des programmes marketing. Les modèles de valeur de clientèle en font partie (Voir projets de recherche) ainsi que des outils développés par les économètres au premier plan desquels nous pouvons citer les modèles VAR et les fonctions d’impulsion dont l’avantage fondamental est de saisir à travers des jeux de données simples, les effets additionnels, indirects et cumulatifs des opérations.

    Au fond la rentabilité ne tient qu’à un fil, et à son élasticité!

    Thèses : Zoubir Zarrouk – Injustice, compensation et relation : le cas du surbooking

    Cette thèse, soutenue le 12 juin 2008 a pour objet de comprendre le sentiment l’injustice généré par les pratiques volontaires de surbooking dans les compagnies aériennes et de mesurer à quel degré l’évaluation de l’effort de récupération (recovery) engagé par la compagnie pouvait agir sur la qualité de la relation. Le Jury était présidé par Eric Vernette, les rapporteurs étaient Sylvie Llosa et Paul Ngobo, et Jacques Jaussaud. La thèse dirigée par Christophe Benavent. Elle s’est soutenue à l’université de Pau et des Pays de l’Adour.

    Si pour l’entreprise le surbooking est considéré comme une technique d’optimisation permettant de compenser l’effet des annulations tardives et des No Shows, le consommateur perçoit les conséquences du surbooking comme une défaillance volontaires de service, un défaut d’exécution du contrat et une violation des normes de la relation.

    Le fondement théorique se situe dans le cadre de la théorie des contrats incomplets, du contrat relationnel, la théorie de l’échange social, et principalement la théorie de la justice et la théorie de l’attribution. Il considère la relation comme un système de droits implicites.

    Un modèle de type SEM a été construit et a permis de tester au moyen d’un plan expérimental de type 3*2*2, l’effet de la justice perçue sur la satisfaction vis-à-vis de la récupération et la qualité de la relation. Environs 500 questionnaires ont été récoltés sur des passagers internationaux en phase de transit ou en attente d’embarquement dans la zone sous douance d’un grand Aéroport.

    Les résultats des analyses obtenus par l’analyse multivariée de la variance et par la méthode d’équations structurelles sont concluants et montrent qu’il est possible pour une compagnie aérienne de garantir un niveau de satisfaction capable de renforcer la qualité de la relation en se basant de manière simultanée et équilibrée sur les trois dimensions de la justice : distributive, procédurale et interactionnelle.

    La discussion de la thèse a cependant mis en valeur le fait que la manière dont le problème est traité ( la procédure) et le respect de la dignité du client, pesaient bien plus que le montant de la compensation (justice distributive), justifiant la question d’un des rapporteurs, Sylvie Llosa, qui propose d’intégrer dans le contrat le risque de surbooking : en acceptant un prix plus élevé, on peut garantir l’embarquement. L’autre idée pratique essentielle est celle de la participation du client au processus. Elle garantit le respect de cette dimension procédurale de la justice qui semble être si importante.

    Une version de travail de la thèse (Une version définitive sera publiée prochainement – Cette version est un manuscrit intermédiaire)


    Projet évaluation des coûts et marketing client



    L’évolution des méthodes de gestion contemporaines est largement influencée par le développement des technologies de l’information qui aiguisent la nécessité de mesurer, de contrôler, de maîtriser les opérations. Si l’objet du marketing est fondamentalement de développer un pouvoir de marché, de forer les canaux qui mènent au marché, d’ajuster les conditions tarifaires, d’informer justement et complètement, de s’adapter à la demande, il est source de coûts et d’investissements dont le rendement mérite une analyse rigoureuse. Ainsi le marketing propose-t-il au comptable, au contrôleur de gestion des défis intéressants : comment mesurer la valeur d’une marque, celle d’une clientèle, comment allouer des ressources entre des stratégies, des canaux, des produits… créant d’une certaine manière un nouvel horizon de recherche.

    Les technologies mais aussi les évolutions des techniques comptables ouvrent aujourd’hui la voie d’analyses de performance financière fines. Les contributions du courant « strategic cost management », liant comptabilité de gestion et création de valeur, doivent aussi être prises en considération. Les travaux s’inscrivant dans ce courant tentent d’opérationnaliser la relation coût/valeur-satisfaction client.

    Ces réflexions menées de manière relativement indépendante dans les champs du marketing et de la comptabilité de gestion illustrent l’intérêt des problématiques situées à l’intersection de l’orientation client et de la « customer accounting ». Des réplications et des approfondissements sont indispensables.

    Les questions sont multiples :

    • quelles sont les pratiques des entreprises ?
    • comment les informations relatives aux coûts sont-elles utilisées ? Comment sont-elles intégrées aux typologies de clients ? Quel est leur impact sur l’allocation des ressources ?
    • la marge par opération ou par client constituent-elle une approximation satisfaisante du résultat, voire de la rentabilité ?

    Pour mener à bien ce projet, nous recherchons :

    • des entreprises ayant déjà une expérience dans l’évaluation des résultats/marges par client ou segments de clients pour dresser un état des pratiques (modalités d’évaluation, utilisation de l’information…) ;
    • des entreprises développant des projets dans ce même domaine, pour comprendre le déroulement de tels projets, leurs objectifs, les ressources engagées, les difficultés rencontrées, les choix technologiques, les modélisations retenues et les informations obtenues ;
    • des étudiants de master recherche qui seraient intéressés par la réalisation d’un mémoire consacré à ces problématiques avant d’envisager un travail doctoral (sous la forme d’une convention CIFRE éventuellement).

    Ces réflexions feront l’objet d’une journée de travail (workshop) visant à stimuler les échanges autour des expériences des praticiens et des résultats académiques. Nous ne manquerons de vous tenir informés dans ces pages des évolutions du projet.

    Ce projet est développé à L’université Paris X au sein du CEROS, par Christophe Benavent, et à L’IAE de Lille au sein du LEM, par Olivier de la Villarmois, et Yves Levant

    Audrey Bonnemaizon – Mise en œuvre de l’orientation-marché : le cas d’EDF

    La thèse d’Audrey Bonnemaizon vise à étudier sur la base d’une étude de cas approfondie, celle d’EDF, l’orientation-marché émergeant dans l’entreprise à mesure de la dérégulation du marché, la fonction commercial évoluant d’une logique d’usager vers une logique de client.
    Un modèle dominant de la gestion de la relation client est aujourd’hui le modèle technologique, où la relation est médiatisée par les technologies de l’information. Cependant l’intelligence marketing sur laquelle s’appuie le développement de la relation client s’inscrit dans le sillon tracé par un concept classique, celui de l’orientation marché, dont de nombreux chercheurs ont montré qu’elle conduisait à de meilleures performances organisationnelles.
    Dès 1930, Converse met en exergue l’idée que le vendeur doit partir des désirs du consommateur pour déterminer les caractéristiques et on se souviendra de Levitt (1960) qui relève la « myopie » des dirigeants et souligne ainsi que seuls les besoins des consommateurs et non les produits imaginés et conçus par les marketers pour les clients sont le point de départ de l’élaboration d’une proposition de valeur. Mais il faudra attendre le début des années 90 pour que les chercheurs s’interrogent sur sa mise en œuvre et son déploiement effectif. Ils mettent en avant la nécessité de diffuser au sein de l’entreprise une philosophie où la satisfaction du consommateur est centrale, le marketing est une fonction transverse à toutes les fonctions de l’entreprise et l’objectif premier est l’établissement de relations à long terme avec les partenaires commerciaux et les clients, exigeant une évolution de la culture d’entreprise en faveur de plus d’attention portée au client ainsi que de nouveaux comportements organisationnels de gestion de l’information. Kohli et Jaworski (1990) notent quinze ans après le peu d’efforts théoriques et empiriques réalisés pour en comprendre le déploiement au sein des organisations modernes. Avec Narver et Slater (1990), ils réactivent ces réflexions en initiant un véritable courant de recherche, l’orientation marché, qui reste une source fertile de questionnements comme en témoignent des publications récentes (eg. Kirca et alii., 2005; Ellis, 2006 ; Gotteland et alii. 2007).
    Si la littérature marketing souligne largement le lien entre l’orientation marché et la performance organisationnelle, elle est cependant relativement silencieuse sur les mécanismes qui gouvernent une telle orientation. Plus précisément, ces travaux n’abordent pas la manière spécifique dont les acteurs, qui l’organisent et la mettent en œuvre, actualisent l’orientation marché selon leur contexte commercial. La thématique de sa mise en œuvre, qui constitue notre objet de recherche, soulève ainsi trois questions de recherche : quelles formes, quels modes d’orientation marché conduisent à la performance ? Quels sont les mécanismes à l’oeuvre dans ces modes d’orientation marché? Quels facteurs conduisent à adopter l’une ou l’autre de ces formes?
    La dimension culturelle de l’orientation-marché ne se lit pas uniquement dans les conduites, les comportements organisationnels. Une définition forte de la culture, suggère qu’elle est associée à un certain nombre normes positives ou négatives, à des représentations prescriptives du client qui structurent le regard des acteurs. Cette conception dynamique de la culture, comme ensemble de représentations prescriptives attachées à des manières de voir, de penser et d’agir, se rapproche de la modélisation de l’apprentissage chez Weick. Nous proposons un prolongement de l’approche culturelle de l’orientation marché : elle est un processus d’enactement s’appuyant sur des représentations projetées sur le client. Les acteurs s’attachent moins à la découverte de vérités immanentes, qu’à l’atteinte d’une cohérence interne de production d’un sens commun donné au marché. Comment ces représentations se structurent-elles ?
    Dans la mesure où au sein des firmes le rapport de l’entreprise à son marché est conçu comme une relation sociale, la manière dont les évènements sont représentés, se traduit et s’organise comme un rapport de rôles. En considérant la relation client, au cœur de l’intelligence marketing, comme un rapport de rôles, ces représentations sont avant tout un système de droits, de devoirs, voire d’interdits attribués au client qui définissent en miroir l’action que se donne la firme.
    En dissociant l’information de la connaissance, il est possible d’envisager aussi le déploiement de l’orientation marché comme un processus d’apprentissage organisationnel. En effet, contrairement à ce que laisse sous-entendre la littérature sur l’orientation marché, information de marché et connaissance de marché ne sont pas substituables. L’analyse du déploiement de l’orientation marché et de sa dynamique souffre du manque de reconnaissance du rôle des représentations des acteurs qui les conduisent à filtrer, hiérarchiser, l’information de marché et à reconsidérer les vecteurs de leurs actions. Dans cette logique, l’orientation marché se conçoit aussi comme un ajustement au marché s’appuyant sur des technologies d’apprentissage. Ces dernières forment des réseaux d’instruments, d’outils, d’objets, de méthodes, de techniques, que les acteurs s’approprient : la lecture qu’ils en font induit la façon d’apprécier le client et de s’y adapter.
    Ainsi la thèse qui est défendue est que la réussite de la mise en œuvre de l’orientation marché résulte de l’adéquation entre une culture client considérée comme système interprétatif et la pertinence des techniques destinées à renforcer cette capacité de lecture du marché.
    Le déploiement d’une recherche exclusivement qualitative se justifie dans le cadre de l’analyse d’un processus phénomène dynamique qu’est la mise en œuvre de l’orientation marché. C’est pourquoi, en immersion dans l’entreprise eDF, au sein du département ICAME division Recherche et Développement pendant 3 ans, nous avons opté pour une étude de cas unique et longitudinale (Yin, 2003): EDF nous est apparue comme une entreprise particulièrement intéressante tant dans sa nature que dans le caractère « extrême » d’adaptation au marché et de ce fait comme un laboratoire pertinent d’analyse de l’introduction et des modalités d’orientation marché. Entretiens dialogiques avec acteurs de niveaux hiérarchiques contrastés, de métiers et de fonctions diverses, documents internes, données collectées en tant que « participant-observateur », « observateur- participant » ou « passif », données collectées au cours de discussions informelles recensées dans un journal de bord ont été analysées puis confrontées pour tenter d’appréhender les caractéristiques d’une orientation marché en construction.

    Audrey Bonnemaizon est Doctorante à l’Université de Pau et des Pays de l’Adour, sous la direction de Christophe Benavent Professeur à Paris X –CEROS. Elle est actuellement ATER IUT de Saint-Denis –Université Paris 13. Elle est l’auteur de plusieurs communications et publications.

    • A.Bonnemaizon (2005), La compréhension de l’organisation orientée client : une approche par les représentations sociales, 2ème tutorat collectif en Marketing du réseau ALM, Toulouse, 22 juin.
    • A.Bonnemaizon (2006), La construction du client, une analyse en termes de rôles, 15 ème Colloque International de la Revue « POLITIQUES ET MANAGEMENT PUBLIC », L’action publique au risque du client ? « Client-centrisme » et citoyenneté, Lille, 16 et 17 mars.
    • A.Bonnemaizon, B. Cova, M.-C. Louyot (2006), Représentations européennes du marketing relationnel à l’horizon 2015 : Une analyse Delphi, 5th International Congress on Marketing Trends, Venice, 20 and 21 January.
    • A.Bonnemaizon, B. Cova, M.-C. Louyot (2006), Relationship Marketing in 2015: a Delphi approach, 35th EMAC Conference, Athens, 22-26 May.
    • O.Curbatov, P. Pavlidis, A. Bonnemaizon (2006), Innover avec le Knowledge Marketing : 10ème tendance conceptuelle en mouvement, 11ème Journées de Recherche en Marketing de Bourgogne, 9-10 novembre, Dijon.
    • A.Bonnemaizon, B. Cova, M.-C. Louyot (2007), Relationship Marketing in 2015: a Delphi approach, European Management Journal, vol. 25, n°1, February.
    • A.Bonnemaizon, O.Curbatov, M.-C. Louyot (2007), Knowledge Marketing: a new trend in a flexible world, 36th EMAC Conference, Reykjavik, 22-26 May.
    • B. Cova et M.C-Louyot –Gallicher (2006), Innover en marketing : 15 tendances en mouvement, Lavoisier, Paris.Contribution à l’ouvrage (chapitre 1):