SoundCloud : une interface pour les nuages

Burning man

Un petit dernier depuis des mois trace dans la capillarité son chemin. Il s’agit de SoundCloud qui vient de la scène Allemande et lancé en juillet 2007. L’interface ne diffère pas que par son esthétique minimaliste mais aussi par des fonctions spécifiques  : l’exportation du lecteur et la possibilité de charger ses créations. C’est une platfeforme de partage pour les musiciens avant tout et on la devine favorisant les créations plutôt que la gestion des discothèques.

Voilà qui attire notre attention sur une propriété de ces plateformes : elles peuvent se définir sur la base de la distribution des rôles dans la population : les contributeurs versus les consommateurs. Certaines sont asymétriques, d’autres le sont moins.Certaines favorisent les listes de contact , d’autres moins. Autre détail la visualisation du morceau sous la forme d’une banque de fréquence, une manière physique d’appréhender la musique en donnant une idée de sa structure. La platerforme est centrée sur les pièces plutot que sur les artistes, ce qui d’ailleurs coincide avec l’ethos de l’electro qui forme le fond de son catalogue : les musiciens adopte des pseudonymes qu’ils varient selon les projets. Cette même bande, qui signe le service, comporte un ourlé : le fil des commentaires. Le titre devient un objet d’information à part entière.

Chico Buarque – Construção (J4ck Sh4rk Remix) by J4ck Sh4rk

Deezer et Spotify s’imposent parmi les premières plateformes musicales, même si SoundCloud aurait dépassé les 4 millions d’auditeurs. Mais le modèle économique n’est pas encore encore établi, et il n’est pas assez diffusé pour redresser un marché déclinant depuis le CD.
Nos plateforme classique ont pour contributeurs le très petit nombre de maisons de disque et leur catalogue exhaustif. Même s’il on annonce des millions de morceaux, ils sont réalisés par une faible fraction de musiciens : quelques dizaines de milliers. L’accès à ce catalogue est défini par un sysytème de douane. Les plateforme espère y fidéliser quelques centaines de milliers d’utilisateurs. Deezer rassemble 500 000 membres payants, reversant 20 millions de droits dans un marché de l’ordre de 500 millions d’euros – le CD existant encore. Spotify ce n’est que 25000 clients en premium, mais un million en europe. Ces chiffres sont à comparer à certaine idée de potentiel. En supposant que 10% des internautes soient destinés à souscrire à un tel service dans l’ordre de prix de 80 euros par an. C’est un potentiel de 5 millions soit 400 million annuel l’ordre de grandeur du CD. Mais le chemin est encore long même si des tendances se dessinent. Pour pénêtrer le marché, l’enjeu des alliances avec les opérateurs sera déterminante :, c’est la voie de la masse car c’est par le mobile qu’on écoute une grande partie de la musique. Qui relie -t-on?  les utilisateurs aux morceaux avec les playlists et les outils de recherche, les outils de découverte telles les similarité d’artistes ? Relie-t-on les utilisateurs entre eux en usant de la panoplie des outils sociaux ? SoundMusic ressemble plus à Flickr qu’à une plateforme de diffusion.

Il y a bien d’autres plateforme. Nous avons négliger ici l’ancien Myspace qui s’est retrouvé dans une fonction de promotion des artistes ; radioblog a décrié en adoptant ce principe de podcast. Mais aussi Last.Fm qui est passé payant rapidement et maintient à un prix de 3euros mais surtout se distingue par son formidable moteur de recommandation : la qualité de l’écoute musicale dépend d’un mix savants entre ce qu’on connait et que l’on veut réécouter, et des titres nouveaux, étonnants, qui nous apportent de nouvelles expériences musicales. Ce balancement entre discothèque et découverte est essentiel dans l’interface qu’elle se fasse sur l’analyse de nos gouts, de nos écoutes, de celles de nos amis, de la similarité des artistes et de leur musique.
La question de la qualité sonore se pose moyennement, même si elle risque de poser à mesure de la diffusion et de l’utilisation de ces services. Pour l’usager c’est le classement de ses titre, la programmation de play-list, rarement l’annotation, la documentation est essentielle avec les biographies et le référencement, les commentaires et les notes.
les plateforme de distribution dont seul celle d’Apple a réussi en s’appuyant sur une architecture fermée de terminaux et de plateforme. Zune de Microsoft, et Quriosity Music Unlimited de sony marchent dans ses pas. On est obligé de mentionner amazon.fr. Mais ces plateformes laissent une place limitée à la socialisation, peu de place au partage. N’oublions pas la défunte période du P2P inaugurée par Napster en juin 1999 ?
Les autres services ne manquent pas : Beezik, Dizzler, Free napster, ILike, Imeem, Jamendo, Jango , Jiwa, Lala, Music me, Musikmesh, Musicovery, Odeo, Pandora, Playlist, Spool FM, Worme et We are hunted, We7, Grooveshark.
Lesquels vont survivre ? Ceux qui ont pris rapidement une emprise de marché assez grande pour faire payer 5% de leur audience ? Ceux qui offrent du contenu et des interfaces adaptées à leurs cibles ? Ceux qui préservent une capacité sociale élevée ?  Il y a matière pour une belle étude de Business model, il y a matière pour mieux comprendre l’importance du design des interfaces.

La superposition des réseaux

The Elegance of Multiples from Kai on Vimeo.

Il faut écouter les résistants, moins ceux qui refusent radicalement les systèmes de réseaux sociaux, que ceux qui s’y prêtent avec réserves. Une de leur remarque clé est le refus de mêler des mêmes cercles : parents et amis, travail et vie privée, association ou autres.

Les réseaux sociaux ont pour particularité de favoriser la transitivité. Les amis de mes amis doivent devenir facilement les miens, pour que les réseaux deviennent attractifs, mais son efficacité se heurte quand la transitivité n’est pas souhaitée, et qu’au contraire l’internaute souhaite séparer certains de ses réseaux, les isoler de l’influence des autres. Faciliter la croissance du nombre de relations dans un réseau est souhaitable, mais dans des limites définies.

Une seule solution pour résoudre ce problème : passer par plusieurs plateformes. Il y a donc de la place pour plusieurs types de réseaux social. L’usage conjoint d’une plateforme de relations amoureuses, d’une plateforme professionnelle, d’une plateforme de jeux, et d’un réseau plus personnel est plus que concevable. Voilà qui empêchera l’univer des réseaux d’être dominé par un seul en vertu de cette exclusion qu’entraînent les externalités de réseaux. Dans ce cas précis elle sont limitées, et l’on peut prédire que leur partage se fera en termes de fonctions. La famille, les amis, les alliés. Des associés, des compagnons. A plusieurs niveaux.

Mais du point de vue de l’internaute ce n’est pas suffisant, car il est très probable que le hasard mène d’un réseau à l’autre des personnes que l’on aurait voulu circonscrire à un seul cercle. Dresser des murs ne suffit pas, il faut aussi présenter un visage différent, éventuellement masquer le nom.

L’hétéronymie est une nécessité de l’ère digitale. Une exigence politique, nous n’existerons comme sujet que si notre sujet est multiple, et que s’il est menacé ici, il peut se réfugier là. Navigant dans les réseaux sociaux, comme s’il s’empilait sans se mélanger , l’internaute passe d’une identité à l’autre, échangeant aux frontières les éléments de son identification. Parfois masquée, d’autre fois simplement maquillée, chaque plateforme lui propose un théâtre différent dans lequel il joue un rôle distinct.

Il lui faut séparer. La nature des réseaux dépend de la qualité de l’intimité.

ATM 14 Oct 09 : les forums et la production d’identité


Lors de la séance du 14 oct 09 (Université Paris Ouest bat G Salle E07 16h30), nous aurons le plaisir d’accueillir Alexandre Schwob, Doctorant à HEC et Kristine De Valck, Professeur à HEC, pour discuter de leurs travaux et plus spécifiquement de la question suivante :

– comment l’utilisation des forums de discussion produit elle des identités ?

En voici une courte synthèse préparée par nos invités :

A l’heure où Internet recouvre des formes de sociabilité très variées (chats, blogs, forums de discussion, sites de réseaux sociaux…) et où ce média constitue le quotidien de la plupart d’entre nous, une question importante est bien de savoir dans quelle mesure et comment la toile et ses applications structurent nos identités. Impulsées par la compréhension des réseaux sociaux ou encore par l’e-marketing, de nombreuses recherches académiques se développent aujourd’hui, et ont mis en lumière des phénomènes touchant à l’identité du consommateur, qu’il s’agisse des nombreuses présentations de soi rendues possibles par ces technologies (Gilly et Schau, 2003) ou encore plus récemment des préoccupations autour du respect de la vie privée. Toutefois, la plupart de ces recherches restent très orientées par une vision managériale de la consommation, cette dernière étant étudiée sous le prisme de la décision d’un consommateur considéré comme acquis à l’entreprise. L’autonomie grandissante du consommateur sur Internet et ses conséquences, notamment sur le terrain des communautés virtuelles, semble pouvoir justifier d’une autre approche académique, plus centrée sur les représentations du consommateur, et permettant de mieux comprendre la manière dont ce dernier appréhende ces espaces sociaux.

Le courant de recherche récent qu’est la théorie de la culture de la consommation fondé par Arnould et Thompson (2005) adopte une perspective de la consommation jusqu’ici peu appliquée à l’usage d’Internet. Ayant à cœur de souligner les contours et les significations sociales de la consommation, ce courant entend notamment comprendre dans quelle mesure le consommateur est autonome dans la société qui est la nôtre, et comment il réalise son identité par son immersion dans la culture matérielle. Inspirés par cette approche ainsi que par celui de la structuration permise par les systèmes d’information, nous proposons ici une recherche sur la socialité des forums de discussion des communautés virtuelles de consommation, dont le but est de mettre en lumière les manières dont l’utilisation à long terme des forums concourt à la réalisation d’identités et de pratiques sociales. Cette recherche en cours de réalisation a permis d’examiner les récits de vie de 9 consommateurs passionnés de jeux vidéo, rassemblés par la communauté jeuxvideo.com, 2ème communauté virtuelle de consommation francophone de par le nombre de messages échangés. En se focalisant sur les capacités d’agence des consommateurs dans les forums de discussion de cette communauté, notre recherche révèle des aspects importants de la socialité émanant de ces objets virtuels. La vision constitutive de la consommation constitue en outre une manière de saisir de nouvelles modalités de la socialité du rapport à l’objet de consommation en général. Notre recherche montre ainsi comment à différents niveaux, l’expérience du forum génère une activité d’appréciation et d’appropriation à caractère très largement discrétionnaire, ce qui permet de mettre en évidence quelques grandes logiques de consommation, et occasionne des « identités sociales localisées ». Nos résultats indiquent que ces identités sont particulièrement éphémères, fragiles, et plus ou moins saillantes, étant soumises à la fois à l’influence de différentes pratiques, et d’une approche dominante de « socialisations consommées ».

_________

voir aussi

Identité numérique : la question de l’hétéronymie

Personnaliser sans identifier

crédit photo : dean terry

le net hors du temps?

L’internet avec le temps découvre le temps. L’innovation apportée par le microblogging, et plus généralement par les techniques de fil d’information, que ce soit le RSS ou les feeds de facebook, est de ralentir le flux des messages instantanés pour donner le sentiment d’une information en temps réel. C’est d’ailleurs l’expression désormais consacrée : celle du real time search. On peut d’ailleurs se poser la question de ce qu’il a de réel ? Il serait plus correct de parler d’un temps actuel, à moins de ne considérer que les seules choses réelles sont celles du présent.

C’est un temps qui est analogue à celui des dépêches d’agence de presse, et si la technique change, c’est ce même esprit qui anime les nouveaux téléscripteurs. L’espace de cette information est celui d’un relatif immédiat, une couche de quelques heures de messages émis, répercutés, retransmis, redondant dont l’épaisseur reflète en partie l’intérêt.

Immédiateté mais non instantanéité. L’instant appartient à ce qui aussitôt émis se dissout dans l’oubli. C’est la vertu des messageries, dont on ne conserve que rarement les archives. Le temps des fils d’information est aussi celui d’un archivage dont la période est courte mais significative.

Ce temps est bien différent de cette permanence des premiers sites web dont la conception se tenait dans l’idée d’une intemporalité. Même si à mesure du temps qui passe, ils sont améliorés, ces améliorations le sont pour un toujours, et tiennent le passé pour une sorte d’imperfection qu’il faut gommer. L’intemporel est ce qui échappe au temps.

Les blogs ont introduit cette idée de durée, à un rythme assez lent, celui des jours, des semaines et des mois. Ils sont au fil d’information ce que la presse est à la dépêche avec cet avantage cumulatif dont la presse internet n’a pas pris l’avantage. La véritable valeur ajoutée de la presse réside dans ses archives et le potentiel qu’elle a d’introduire dans l’espace du net les premiers éléments d’une histoire véritable.

Voilà qui laisserait à penser que l’internet n’innove pas tant que cela, au moins dans le rapport au temps que nous pouvons concevoir. Le flux des innovations semble juste rattraper l’état des institutions traditionnelles de la connaissance. Ce qui laisse d’ailleurs entrevoir des perspectives pour de nouveaux modèles de médias, et l’idée de quelques lieux de mémoire.

Le passé est sans doute la zone occultée. L’admiration qu’on porte à Google et à son indexation s’atténue quand on réalise que la recherche laisse peu d’importance à la datation. Si l’indexation est puissante, l’archivage est mauvais. Même dans les fonctions avancées de recherche, la gestion du temps est limitée. Notons, au passage, que cette propension à l’atemporalité, à ce mépris du temps, se retrouve aussi chez Amazon, qui contre toute les habitudes bibliographiques confine les dates d’éditions des ouvrages dans des coins d’ombres.

Cette propension à l’atemporalité est un fait d’autant plus curieux, qu’il est peu de monde aussi pénétré par la mesure du temps. L’informatique, l’électronique, date, horodate, avec une précision inouïe le moindre de ses documents. Les bons outils sont d’ailleurs ceux qui gèrent la genèse de la production. C’est ce qui est au cœur du processus d’édition des pages de wikipédia, qui permet de repérer chaque version. Mais cette précision géométrique a peu à faire avec l’histoire, mais beaucoup plus avec l’organisation et la séquentialité des décisions. Si pour chaque page un onglet historique est disponible, la date d’édition n’est pas fournie sur la page consultée. Mais cela reste un des cas uniques qui permet au lecteur d’apprécier les conditions de genèse d’un document.

Si aujourd’hui toute l’attention est portée vers ce prolongement extraordinaire du modèle initial de l’internet, une extension de l’intertextualité à la socialité, autrement dit cette extension du principe de lier les textes les uns aux autres et de tisser entre eux un réseau de signification, à celui de lier leurs auteurs, leurs agents, il reste encore à introduire un ordre particulier, celui du temps, celui d’une histoire. Il s’agit moins de chronologie, même si elle est nécessaire, que d’archivage. Il s’agit moins d’observer des tendances que de marquer des évolutions. Il s’agit moins de calendrier, que de mémoire.

Et qui pour qui douterait de cette observation, proposons un exercice simple : comment avec les outils de recherche et d’agrégation dont nous disposons, faire l’état de l’évolution d’un événement aussi facilement qu’on rassemble de l’information sur l’état actuel de cette information. Cette fonction existe depuis peu dans Google actualité, mais il faut la chercher dans la recherche avancée. En voici un exemple pour le cas de la grippe A sur le mot clé H1N1.

Fooding or Feeding ? La guerre de l’espace publicitaire


Facebook rachète donc Friendfeed, Publicis vient de reprendre Razorfish au prix de céder 3% de son capital à Microsoft, et peu avant Microsoft s’allie avec Yahoo. Voilà un été actif sur le front de la publicité sur internet qui indique peut-être la nouvelle ligne de front : les publicitaires contre les technologues, ceux qui savent faire valoir les espaces contre ceux qui les créent. L’appétit est grand, reste à savoir ce qui compte : la capacité de nourrir ou la qualité de l’aliment.

Sans aucun doute Google a pris une bonne longueur d’avance, en démontrant, provisoirement, que l’avantage vient à ceux qui créent l’espace publicitaire – le génie de Google est d’avoir su par-dessus les médias déployer la toile qui y donne accès. Mais d’autres, avec d’autres modèles, ont prouvé que l’on pouvait créer d’autres espaces. Facebook en est l’exemple le plus convaincant même si la rentabilisation n’est pas encore au rendez-vous.

Un coup d’œil aux résultats d’audience est de ce point de vue instructif, même si d’un organisme à l’autre ( Nielsen, OJD, médiamétrie..) les mesures sont difficilement comparables ( visiteurs uniques, visites, pages vues…Il faudra revenir sur ce problème de la mesure) et les bases d’études dissemblables, parfois les sites, souvent les groupes. S’y côtoient les différentes générations de producteurs d’espace publicitaires.

Les grands portails d’abord, qu’ils soient fournisseurs d’accès comme Free ou Orange en France ou e-commerçants tel que e-bay, il faudrait d’ailleurs y donner une place distincte aux plateformes de services. Leur avantage est que touchant des marchés de masses, ils produisent par leur contenu une audience plus ou moins captives.

Des médias traditionnels, seul TF1 est présent dans les 10 premiers de Nielsen, encore que s’y fédèrent plusieurs services distincts. La presse est derrière, et pourtant ce fût aussi son métier que de fabriquer de l’audience.

Microsoft maintient sa position sans doute grâce à MSN, les messageries instantanées représentant un espace tout à fait particulier, celui d’une grande intimité.

Les espaces du 2.0 qui travaillent les communautés que ce soit un Dailymotion, ou des fédérateurs de blogs tels que WordPress ou Skyrock, se sont taillés une belle part en faisant peser la production de l’espace sur les utilisateurs ( la vertu du modèle UGC) et multipliant les occasions de voir.

Enfin aujourd’hui les réseaux sociaux, Facebook s’installant en France à la 5ème position, prennent une part considérable de cette audience, leur force réside dans la répétition des consultations, vive l’addiction!

L’audience rappelons-le se fait au travers de trois paramètres : la capacité à pénétrer une large population (c’est le reach), celle de faire revenir fréquemment (le nombre de visites) et de maintenir longtemps l’internaute dans la session (le nombre de pages et la durée par page). Et toute la question des médias est de savoir comment atteindre ces trois objectifs. Manifestement les professionnels de l’information, qu’ils soient producteur de divertissement ou d’information ont perdu la main. Les grands vainqueurs sont ceux qui se sont installés dans les actes élémentaires de l’internaute : chercher et communiquer avec ses proches. Ces deux activités sont génériques et se reproduisent plusieurs fois, des dizaines de fois par jour, elles exposent à des dizaines de pages. Ne nous étonnons pas des résultats en termes de marché publicitaire.

Mais ce n’est pas tout, si on cherche de l’information, n’importe quelle information, y compris celles que l’on connait déjà (dans le top des mots-clés de Google arrivent les services qu’utilisent déjà les internautes : le moteur sert plus de bookmark que d’outil de recherche!), on la communique aussi. Le plaisir de trouver s’accompagne de celui de partager, c’est sans doute la leçon des médias sociaux.

A ce titre la nouvelle génération d’espace qui n’est pas encore présente au premier rangs des classement mais qui arrive à grande vitesse a toutes les chance de remporter le pompon. C’est celle de twitter, celle de friendfeed aussi, et c’est ce qui nous fait penser, que cette dernière acquisition est plus significative que celle opérée par Publicis.

Dans le nouveau paysage de l’internet, l’information en soi n’est pas ce bien rare de la période de l’ORTF, elle ne vaut plus rien, et ne capte plus personne, ou très rarement. En revanche, elle coûte cher à celui qui la recherche, encore plus cher à celui qui veut la diffuser. Le filtrage compte désormais plus que le contenu, et ce filtrage passe par ces outils multiples, dont le fait social est un moyen, mais l’effet principal est d’amener à chacun sa ration d’information quotidienne.

Le feed compte plus que le food, la pizza vaut moins que le livreur. Que l’information soit fournie par les agrégateurs RSS , les walls de facebook, ou la page de twitter, ces filtreurs ont toutes les chances d’être les écrans les plus consultés. Pendant longtemps la capacité à créer de l’audience a été liée à la capacité de produire l’information, la qualité de la nourriture était essentielle, aujourd’hui elle est définitivement associée à la capacité non pas de l’acheminer mais le la filtrer pour le compte de celui qui va la digérer.

Retour à la roue – de la VPC au e-commerce

La vente par correspondance, mieux dénommée aujourd’hui comme Vente à Distance, VAD, semble vivre des jours difficiles que décrit, avec talent, Cyril Bedel dans un article des Echos : « Les années noires de la VPC ».

En complément de cette analyse, avançons une bien vieille hypothèse, celle de la Roue du Commerce, formulée par Malcolm P. McNair en 1931, et que Stanley Hollander* résume de la manière suivante en 1961 : les nouveaux formats de distribution entrent sur les marchés généralement comme des formules à faible statut, faibles marges et faibles coûts opérationnels, qui graduellement acquièrent des procédures plus élaborées, accroissant leurs investissements et leurs coûts opérationnels. Ils deviennent à maturité des entreprises à coûts et prix élevés, vulnérables à de nouveaux formats, qui à leur tour évolueront de la même manière. Parmi les explications du phénomène, deux d’entres d’elles méritent une attention : la première est une forme de myopie des dirigeants qui, attirés par des opportunités de marges supérieures, ont tendance à surinvestir dans la modernisation du service et le marketing ; la seconde résulte de l’imperfection de la concurrence qui conduit à des surcapacités dans le secteur.

Une telle théorie permet de comprendre comment et pourquoi les VPCistes ne se sont pas transformés en véritable e-commerçants, qui se sont engouffrés dans les segments à bas prix, les confinant dans ce qu’on appelle le big middle, dont Journal of Retailing a fait un numéro special en 2005.

De ce point de vue, les années noires risquent de l’être plus encore! Et l’issue risque d’aller encore plus loin dans la recherche des segments à haute marge, en réduisant la voilure, et se sauvant dans les niches du haut de gamme. N’est-ce pas l’histoire des Galeries Lafayette ?

Mais la roue du commerce est un concept critiqué, des exceptions sont observables. Hollander lui-même en donne quelques exemples. Pour échapper à cette malédiction, il est nécessaire de revenir aux causes : comment les innovations technologiques sont intégrées dans la stratégie ? Dans la mesure où elles servent une amélioration continue du service qui permet de justifier des marges plus élevées, les mêmes causes conduiront aux mêmes effets. Par contre si l’innovation est pensée comme un moyen de réduire les coûts opérationnels, de maintenir la structure des marges et le volume, et surtout de dissuader les innovateurs d’occuper la niche des bas prix, un sursis est possible.

Mais cela se heurte à de grandes difficultés, l’une d’elles mérite d’être évoquée : l’Internet porte une contradiction : s’il est prometteur dans sa capacité à réduire les coûts opérationnels, son usage est le fait des clients les plus aisés, les plus éduqués et les mieux équipés. On comprend le dilemme. Un ouvrage encore récent de Camal Gallouj aborde ces questions qui restent ouvertes. Le cas de la VPC apparait ainsi comme un laboratoire particulièrement intéressant pour répondre à la question de savoir si les technologies du net transforment les firmes existantes où ouvrent des boulevards à de nouvelles formes.
.

*Hollander, Stanley C. (1996), « The wheel of Retailing – What makes Skilled Manager Succumb to the ‘Proper Mature and decay’ pattern?» Summer, Vol 5 n°2 ( reprint de Journal of marketing July1961)

Chercher c’est être recommandé


J’achève la lecture d’une thèse portant sur l’accès aux objets dans les sites marchands* et me remémore celle aussi récente de Fernando Fereira. La co occurence de ces deux travaux, bien différents dans leurs objets et leur méthodes, appelle à une réflexion sur les priorités de recherche.

Si ces deux travaux s’inscrivent dans un champ bien connu du marketing et du comportement du consommateur, celui de la recherche d’information, les contextes qu’ils abordent posent véritablement de nouveaux problèmes.

Depuis les travaux de Bettman, pour ne prendre qu’un repère, l’environnement du consommateur a bien changé, quand autrefois le problème était d’utiliser une information rare et coûteuse, il s’agit pour lui aujourd’hui de traiter la surabondance et la faible valeur de l’information.

Un problème crucial est donc aujourd’hui moins de comprendre comment l’information s’intègre dans la décision, que de décrire, d’analyser les stratégies dont le consommateur dispose pour choisir et structurer dans le flot qui l’abreuve, les éléments d’une décision. Il s’agit aussi de comprendre comment ces stratégies s’accordent aux tâches qu’il exécute et aux buts qu’il se donne.

L’art de naviguer, celui de trouver un chemin, celui de se retrouver est ainsi l’objet essentiel des futures recherches. Comme le marin a sa boussole et le compas, le consommateur aussi dispose d’outils, des instruments multiples dont le trait commun est de lui recommander une direction à prendre plus que de le faire parvenir au but qu’il s’est donné et qu’il reformule le plus souvent au cours de son chemin.

La recommandation, d’autres préfèrent parler de prescription, est au coeur de l’activité de recherche. Se faire bien recommander est le souci de celui qui recherche.

* Ben Mimoun (2007) , dir : R. Ladwein
**F Fereira (2007), dir: C. Benavent