Ingénieries de la sérendipité.

AU COMMENCEMENT …

Cela ressemble à de la sérendipité, ça à la goût de la sérendipité … mais ce n’est pas nécessairement de la sérendipité. Historiquement, c’est Google qui fut le premier moteur de recherche à instrumentaliser un processus de fortuité, via le bouton « Feeling Lucky » (lequel n’a d’ailleurs rien à voir avec une quelconque sérendipité littérale, puisque ledit bouton se contente de vous amener sur le premier résultat renvoyé par le moteur de recherche). Comme nous l’expliquions en détail dans ce remarquable article co-écrit avec mes excellents collègues (:-), ce bouton est avant tout un argument marketing et un élément fondateur de la sémiotique Googléenne.

1998 : Sérendipité année zéro. Bref, depuis Google, et avec l’arrivée du web contributif, la sérendipité est aujourd’hui partout réellement présente et systématiquement agissante. Mais cette capacité à trouver de nouveaux amis en ligne, ces liens passionnants qui semblent surgir aléatoirement au détour d’un raccourcisseur d’URL sur Twitter sont-ils réellement de la sérendipité en action ? Voici quelques-unes des questions auxquelles ce billet va tenter d’apporter des réponses (ah ben tiens, je crois que c’est la 1ère fois que je fais une vraie introduction dans un billet 🙂

Basiquement, la sérendipité désigne la capacité à trouver des informations qui n’étaient pas celles que l’on recherchait initialement mais qui vont cependant s’avérer utile pour résoudre le problème ou la question à l’origine de notre recherche, ou d’une recherche/d’un problème antérieur.

Sérendipité et SIC. Avant que je ne me ré-attaque au problème avec mes gentils camarades, c’est le vénérable Jacques Perriault qui avait (ré)introduit la notion de sérendipité dans le corpus des SIC (sciences de l’information et de la communication … enfin, plus souvent de la communication que de l’information, mais ceci est un autre débat …). Jacques Perriault donc, au tout début des années 2000, avec ce texte in fine ô combien programmatique : « Effet diligence, effet serendip et autres défis pour les sciences de l’information« . Dans notre approche (celle de mes petits camarades et de moi-même), la sérendipité est un concept moteur pour penser à la fois les stratégies (machiniques) à l’oeuvre derrière l’infinité de l’arbre des possibles navigations du Web (comportements), ainsi que les stratégies mémorielles à court et moyen terme présidant à nos activités de recherche et d’accès à l’information (aspect cognitif). Soit la très sainte trinité suivante : machine – cognition – comportements (usages) qui conditionne tout un tas de choses, dont la sériation des différents phénomènes de sérendipité. Si la littérature francophone sur la sérendipité est relativement maigre, le concept est en revanche depuis longtemps très développé outre-atlantique, notamment, depuis la fin des années 60 dans les travaux d’Eugène Garfield, « père fondateur » de la bibliométrie qui développe le concept de « systematic serendipity » (notamment dans cet article « Systematic serendipity : Finding the Undiscovered Answers to Science Questions » .pdf).

Notons qu’il est à première vue assez paradoxal de retrouver l’essentiel de la littérature scientifique sur la sérendipité dans un champ disciplinaire – les études bibliométriques et scientométriques – qui a pour objectif de ramener dans la rationalité de modèles mathématiques tout ce qui pourrait de près ou de loin ressembler à de l’aléatoire et à du fortuit 🙂

Sérendipité illustrée. La sérendipité dispose donc aujourd’hui de ses colloques, de ses théoriciens et historiens, de sa très sérieuse revue scientifique éponyme, de ses projets de recherche éponymes reposant sur la valeur prédictive d’icelle, de sa courbe mathématique, ses pédagogues éclairés (allez dévorer l’article de Patrick Pecatte : « Heuristique et Sérendipité : un exemple en images.« ). Ou d’une sérendipité, l’autre.

Im-feeling-luckySerendip
Ayant déjà largement glosé sur la première de ces images (, , , mais aussi par là), la seconde image (découverte fortuitement ici grâce à la fréquentation – cette fois non-fortuite – de ce monsieur là)
m’a semblé parfaitement illustrer la manière dont les SIC se doivent
d’approcher la sérendipité. C’est à dire sans se priver d’un cadre
anthropologique global mais en se focalisant sur les « artefacts » de la
sérendipité.

CHAPITRE PREMIER / De la mécanique du rebond à la dynamique du surgissement : sérendipitéS.

Dans un ancien billet (Nov. 2005), je m’efforçais en ces termes de décrire l’évolution de nos modes de navigation :

  • « les développements du (web 2.0 + Social software + RSS) nous
    emmèneraient vers un « troisième âge » de la navigation : après le
    browsing et le searching voici venu le temps du « subscribing »**. On ne
    navigue plus, on ne recherche plus, on s’abonne, on « souscrit ». Notons
    d’ailleurs que l’étymologie de ce dernier vocable est intéressante :
    « souscrire », « sub-scribere », littéralement « écrire en dessous », à moins
    qu’il ne s’agisse d’écriture « sous autorité » : en agrégeant les
    discours écrits ou postés par d’autres, on est, de facto, placé « sous »
    une « autorité » qui n’est plus notre.
    Car comment faire autrement que de « souscrire » à ces contenus qui ne sont plus « inscrits » ?
    « 

**Je vous épargne le Wilfing ou naviguerrance ou plus prosaïquement cyberglandouille.

Corrélons maintenant la hiérarchie précédente (Browsing => Searching => Subscribing) à une autre typologie : 

  • Désintermédiation : au « browsing » (littéralement « feuilletage »), correspond une logique de type « Watching » : je regarde, surveille, inspecte et parfois découvre de l’information, des contenus avec comme seuls fils conducteurs ceux de mon propre intérêt (= « je suis à la recherche de quelques chose ») et des stratégies cognitives que je suis capable de mettre en place au cours de ladite navigation
  • Médiation : au « searching » (littéralement « recherche »), correspond une autre logique, en rupture complète avec la précédente, qui est celle du « matching », c’est à dire de l’adéquation entre un ou plusieurs termes (ceux de ma recherche) et une ou plusieurs pages de contenus. Il y a donc, dans ce cas, recours explicite à une médiation machinique (celle des moteurs « prescripteurs », l’algorithmie de ces derniers devenant le fil conducteur presqu’exclusif de mes pérégrinations sur le web)
  • Ré-intermédiation : enfin, au « subscribing », à cette souscription désormais si fréquente (grâce aux ingénieries spécifiques du web contributif, fils RSS notamment), correspond une dernière logique, là encore en rupture avec les précédentes, celle de ce que l’on pourrait qualifier de « floating » (littéralement « flottement »), une navigation flottante, c’est à dire non-orientée, ni par l’adéquation entre un besoin exprimé et des contenus y répondant (« searching »), ni par un parcours volontariste de recherche (« browsing »). Une navigation flottante s’appuyant sur les seuls remous de la houle des signalements effectués par d’autres, et avec comme seule cardinalité, comme seul « horizon » de navigation, le fait que j’aie (ou non) à un moment donné fait le choix d’agréger ces « autres » au sein de mon panoptique personnel**.

(** par « panoptique personnel » comprendre ici l’ensemble des outils fonctionnant comme autant de tableaux de bords quotidiens nous permettant de nous informer du monde comme il va : Twitter, Facebook et mon agrégateur RSS sont ainsi les 3 composantes de base de mon panoptique personnel)

La boucle (si fréquente dans les SIC) permettant de passer d’un dispositif désintermédié (= sans intermédiaires) à un dispositif réintermédié (= incluant de nouvelles médiations, de nouveaux médiateurs) permet de caractériser, au sein du processus même de sérendipité, un changement de nature important : la logique du rebond, propre aux deux premières étapes, s’efface pour laisser place à une dynamique du surgissement, dont l’efficacité – réelle – n’en demeure pas moins entièrement conditionnée à nos choix initiaux (réagencés en permanence) des contenus ou des personnes agrégées dans notre panoptique personnel.

Soit l’occasion de reposer l’éternelle question de la poule et de
l’oeuf :

  • la pertinence (objective dans un contexte donné) de nos
    navigations aléatoires est-elle la conséquence de nos choix
    (subjectifs) initiaux en termes de réseaux d’affiliation et de
    souscription ?
  • ou bien en est-elle la cause, c’est à dire bâtissons-nous
    nos réseaux d’affiliation et de souscription en fonction de la
    pertinence (subjective) des contenus pertinents (objectivables) que
    d’autres proposent à des communautés déjà constituées ?

Comme le disait
Fox Mulder, autre éminent chercheur en SIC, « la vérité est ailleurs« , et probablement entre les deux. Une chose reste certaine, toute réintermédiation – a fortiori ouverte et/ou participative –  entraîne nécessairement et mécaniquement une part d’aléatoire, de sérendipité, et – pour autant que l’on soit convaincu de l’apport de cette part d’aléatoire – on serait assez bien inspiré de cesser de craindre les profondes et hétérogènes réintermédiations qui se pointent à l’horizon de l’édition, de la presse (et la presse en ligne), de la chaîne du livre, etc … pour au contraire s’en réjouir et accélérer d’autant les désintermédiations en cours comme autant de préalables parfois un peu douloureux mais pourtant si nécessaires et si urgents …

La « sérendipité contrôlée » de Madame Popova : « ça c’est kloug, Mme Popova. Pas sérendipité. » Un récent article des blogs du NYTimes parle de « sérendipité contrôlée » pour désigner je cite, ces personnes qui « filtrent des liens intéressants à destination de centaines d’inconnus pour épancher leur soif de curiosité« , citant l’exemple de Madame Popova :

  • « Mrs. Popova uses a meticulously curated feed of Web sites and Twitter followers to find each day’s pot of gold. She said, “I scour it all, hence the serendipity. It’s essentially ‘metacuration’ — curating the backbone, but letting its tentacles move freely. That’s the best formula for content discovery, I find. » Ce qui donnerait à peu près ceci : « méticuleuse dans ses choix de fils RSS et d’amis sur Twitter – ce qui lui permet de découvrir chaque jour une nouvelle mine d’or. ‘J’épluche tout, dit-elle, d’où les heureux hasards. Il s’agit essentiellement d’un « méta-réseau » – organiser le coeur du
    réseau informatique, mais en laissant ses tentacules libres de tout
    mouvement. Je trouve que c’est le meilleur moyen de faire des trouvailles. » (Merci Suzanne et Audrey pour la traduction simultanée … si vous avez mieux, les commentaires sont ouverts …)

De fait, il n’y a ni contrôle, ni aléatoire dans le processus décrit dans ce billet du NYTimes. Juste des processus de filtrage en amont (les liens choisis par Mme Popova), et en aval (les Followers décidant de suivre le compte de Mme Popova). Si sérendipité il y a, il faut alors la chercher dans le pourcentage de chances qu’un individu X s’intéressant grosso modo aux mêmes thèmes que Mme Popova découvre son compte et s’y abonne. Mais cela est encore un autre processus … sur lequel nous reviendrons plus tard.

Ne pas confondre participatif et contributif. Notons simplement que si les outils changent, les modalités et typologies de la participation sur le web contributif ne varient guère : la distinction entre les suiveurs et les suivis sur Twitter, entre ceux qui signalent beaucoup dans différents domaines et ceux qui signalent un peu moins mais de manière plus qualifiée ou plus thématique renvoie à l’ancienne dichotomie entre Linkers et Publishers au début de l’essor de la blogosphère. La règle wikipédienne d’une immense majorité de commentateurs et d’un très petit nombre de rédacteurs, se décline également sur Twitter comme elle se déclinait encore hier sur la blogosphère. Bref, beaucoup les gens participent beaucoup (ils « suivent » sur Twitter, corrigent sur Wikipédia, agrègent ou commentent sur les blogs), mais peu de gens contribuent réellement (en produisant ou signalant des contenus originaux). Tout cela pour dire que la seule production et/ou diffusion de contenus à des communautés non-constituées ou très largement éparses et aléatoires, ne peut suffire à parler de sérendipité, a fortiori de sérendipité contrôlée … ou non-contrôlée.

La sérendipité chez les Jivaros : à propos des réducteurs d’URL. Le témoin emblématique de cette logique du surgissement est tout entier contenu dans l’affichage des URL réduites sur Twitter : à part quelques hashtags (mot-clés) eux-mêmes souvent délibéremment aléatoires, rien ne m’indique la nature réelle de la cible desdits liens dans une adresse du type : « http://bit.ly/Tdki5af ». Rien sinon le fait qu’ils émanent de l’un des prescripteurs que j’aurai choisi (et auquel j’aurai donc souscris), ou qu’ils bénéficient déjà d’une large boucle d’écho (= qu’ils sont déjà largement repris sous forme de RT – retweet – par d’autres contributeurs). Notons d’ailleurs de manière tout à fait empirique (rien de scientifique dans cette observation) que nombre d’utilisateurs de Twitter synchronisent leurs Tweets avec leur compte Facebook (et réciproquement) : une info pourra donc ainsi bénéficier d’une boucle d’écho internalisée (publiée ET reprise sur Twitter) ou externalisée (publiée sur Twitter et reprise sur Facebook par exemple).

Nouvelle(s) infobésité(s) ou échec du filtrage ? Telle est l’une des questions soulevées par Clay Shirky dans l’une de ses interventions (« Information overload versus filter failure » / Sept. 2008). S’inscrire à ces outils du web contributif implique, pour pouvoir profiter à plein de leur potentiel de « recommandation », de sérendipité, s’inscrire à ces outils disais-je, implique – sous peine de s’effondrer sous le poids d’une infobésité galopante – de gérer très précautionneusement le potentiel de surgissement des mêmes outils, à savoir :

  • isoler, en amont, les prescripteurs, les « ‘autorités », le « collège invisible » auxquels ou pourra accorder une confiance sinon aveugle, du moins sans grand risque de voir celle-ci déçue.
  • et/ou jouer sur les fonctionnalités de « liste » et autres dispositifs de filtrage interne dont ils disposent (mais cela est nettement moins efficace que le point précédent)
  • s’appuyer sur les filtres que d’autres ont déjà mis en place sur des thématiques ou des centres d’intérêt proches des miens (= suivre les personnes suivies par ceux qui je suis moi-même)
  • bref … réapprendre à faire avec Twitter et les réseaux sociaux ce que l’on avait mis quelques années à apprendre à faire avec les blogs.

L’infobésité n’a pas changé de nature ni d’amplitude, elle a simplement contaminé de nouveaux outils, emprunté de nouveaux vecteurs. Et la sérendipité avec elle.
Bien plus que le nombre de contributeurs ou de producteurs d’informations, bien plus ques gigantesques écarts d’échelle entre le nombre d’emetteurs et le nombre de récepteurs, c’est la nature pervasive du web social qui est le principal facteur de l’accroissement – réel – de la sérendipité et de son corollaire, l’accroissement – supposé ou ressenti – du phénomène d’infobésité. 

CHAPITRE SECOND / Quelles ingénieries pour la sérendipité ?

De fait, à observer et analyser un grand nombre de manifestations de la sérendipité dans les différents outils de recherche ou d’accès à l’information, la seule ingénierie manifeste est d’ordre relationnelle : soit en jouant sur le graphe – relationnel – d’un certain nombre d’éléments (les pages web par exemple) pour en faire remonter certains de manière plus ou moins aléatoire, soit – et c’est là le point le plus intéressant – en s’appuyant sur les recommandations ou signalements de notre réseau relationnel (ce qui est le principe même d’un site comme twitter). Ces ingénieries relationnelles peuvent alors se scinder en deux groupes :

  • ingénieries relationnelles machiniques.
  • ingénieries relationnelles humaines.

Remarque : Ingénieries que d’autres (Dominique Cardon en l’occurrence), interrogent d’un point de vue plus sociologique et identitaire.

Ces deux groupes peuvent eux-mêmes se resituer dans trois grands âges de la sérendipité sur le web.

Les trois âges de la sérendipité sur le web.

  1. L’âge de pierre. Celui des premières pages web. Des premiers liens hypertextes codés en HTML et pour lesquels bien souvent l’ancre de départ ne laissait en rien présager la nature de la page sur laquelle on allait arriver …
  2. L’âge de fer. Celui de l’arrivée des machines, moteurs de recherche en tête, qui se font le relai tantôt revendiqué tantôt accidentel de phénomènes de sérendipité dans le couple alliant nos requêtes et nos navigations.
  3. L’âge d’or. Celui des réseaux sociaux au sens large, c’est à dire de la possibilité offerte de faire du conseil de nos proches un calcul, une « computation » comme les autres.

Le côté obscur de la sérendipité : Ingénieries relationnelles machiniques.

Elles relèvent uniquement du truquage : Les 5 exemples suivants en sont l’illustration sinon la preuve.

  1. Marketing Ornemental : le bouton « feeling lucky » de Google. Qui permet en fait d’escamoter la page de résultats pour directement boucler sur le site apparaissant en tête de ladite page,
  2. Ingénierie relationnelle : le FriendFinder de Facebook. Il s’agit de l’application coeur de Facebook, qui fait remonter des « amis » possibles en fonction des connexions déjà existantes sur le mode « les amis de mes amis sont – potentiellement – mes amis ». Ce qui en a l’apparence mais qui ne relève définitivement pas de la sérendipité. Simple ingénierie relationnelle. Mais –
    et c’est là toute l’habileté du dispositif – un effet de surgissement
    qui prend le masque de l’inattendu, du fortuit pour mieux séduire et
    amener l’usager exactement là où il (facebook) le souhaite : c’est à
    dire à enrichir son réseau relationnel pour mieux pouvoir le monétiser
    en créant une dépendance à ce service de « mise en relation »
  3. Ciblage comportemental industriel : les recommandations d’Amazon. Les recommandations de sites marchands comme Amazon sont avant tout du marketing industriel (ne reposant en tout état de cause que sur le profil des achats ou des consultations précédentes et sur l’organisation par thématique et par genre du site, quand elle ne sont pas simplement bidonnées … pour plus de détails et d’explications, se reporter à cet excellent diaporama 😉 « Les industries de la recommandation sont-elles recommandables ?« )
  4. Sérendipité embarquée (embedded serendipity) ou le packaging inversé : technique spécifique aux sites de vidéos permettant d’encapsuler, à la fin de la vidéo visionnée, d’autres séquences vidéo supposément « en rapport » avec la vidéo initiale. Soit l’inverse du packaging puisque c’est cette fois après avoir utilisé (visionné) le produit que l’on vous suggère d’en acheter (visionner) d’autres. Là encore il s’agit d’une intervention machinique qui ne doit pas grand chose à l’aléatoire même si elle est encore, et de loin, la moins bien contrôlée par ceux qui la mettent en oeuvre … qui n’a jamais été surpris à la fin du visionnage d’une vidéo de voir s’afficher d’autres vidéos pas franchement « en rapport » avec la vidéo initiale ? Ce qui explique que les sites hôtes travaillent d’arrache-pied à mettre en place des mécanismes pour mieux « contrôler » cette sérendipité embarquée.
  5. l’anti-sérendipité ou la sérendipité suggérée : représentée par les fonctions du type « suggest » sur les moteurs de recherche. C’est à dire les suggestions en cours de frappe. Là encore, force est de constater que l’aléatoire n’a qu’une part très relative puisque les requêtes ainsi « suggérées » sont celles les plus saisies par les internautes. On est donc davantage dans l’affichage d’une dynamique de « mainstream » que dans la recherche d’un surgissement aléatoire authentique. On ne cherche pas à suggérer à l’usager des pistes nouvelles ou a priori déconnectées de sa recherche initiale, on lui suggère les pistes les plus explorées, les sentiers les plus rebattus.

Ce sont là les industries de la recommandation à leur apogée, maximisant leur capacité à capter l’attention dans un écosystème clôt. Sauf dans le cas particulier de Google (pour des raisons évidentes liées à la nature même du moteur de recherche), tous les effets de rebond résultant de cette sérendipité se font à l’intérieur du site vecteur de sérendipité.

A noter également : si l’on croule sous les articles à la gloire de la sérendipité à propos de tout et de n’importe quoi (« sérendipité et DRH », « marketing et sérendipité », « culture de la pomme de terre et sérendipité »), on peine en revanche à trouver quelques sons de voix discordants. D’où l’intérêt de cet article du NYTimes : « Serendipity : Lost in the Digital Deluge« , qui pointe le danger d’une uniformisation des pratiques (« We are discovering what everyone else is learning, and usually from people we have selected because they share our tastes.« ) au travers de la massification des accès et l’incapacité du numérique à rivaliser avec le monde réel sur le terrain de la sérendipité (prenant l’exemple du passant que l’on croise en train de lire un bouquin – et nous d’être surpris et attiré par ledit titre, association fortuite impossible si l’on croise quelqu’un en train de bouquiner sur un reader sony …). L’exemple me semble assez mal choisi mais, et les 5 ingénieries relationnelles machiniques décrites ci-dessus l’illustrent, il y a un risque réel d’affaiblissement de la fortuité derrière des pratiques et des ingénieries en fait de plus en plus normées et laissant le moins de place possible à l’aléatoire s’il n’est pas entièrement tourné vers le marketing et la publicité comportementale.

Heureusement il y a findus les ingénieries relationnelles humaines.

Le retour du Jedi : Ingénieries relationnelles humaines.

Si, pour les précédentes (ingénieries relationnelles machiniques), c’était l’intériorité qui primait (le système ne renvoyant qu’à lui-même ou à des sites tiers sous son contrôle), les secondes (ingénieries relationnelles humaines) peuvent d’abord se caractériser par leur extériorité. Leur principe même est de permettre de s’affranchir d’un espace de navigation dédié (tel site, tel réseau social) pour offrir au « taux de rebond » de la sérendipité une amplitude maximale.
L’étau du rebond. Plus précisément, là où le taux de rebond est – en terme de référencement, de marketing et de SEO – une métrique qu’il faut s’efforcer de contenir à la baisse, on pourrait définir la sérendipité instrumentalisée (c’est à dire mise en place à dessein) comme « l’ensemble des techniques permettant, pour un individu, un site ou un écosystème de marque/produit, de pousser au maximum leur taux de rebond ».

Pour donner leur plein rendement, les ingénieries relationnelles humaines de la sérendipité ont besoin d’exister, sinon dans une obscurité, du moins dans un relatif clair-obscur numérique. A ce titre, l’hétérarchie de Twitter, son système à contrainte (140 caractères ne permettant généralement pas de caractériser suffisamment une information ou un signalement), l’opacité totale (au sens d’indéchiffrabilité) de ses URL raccourcies, et sa réticence à injecter du sens (de la hiérarchie) dans les relations « suivis-suiveurs » (following / followers), en font l’outil paradigmatique d’une sérendipité « primitive ».

On résume un peu ?

D’abord, la sérendipité « réelle », telle que théorisée par Merton, trouve de moins en moins sa place dans le monde numérique. Twitter est, pour l’instant, la seule exception semblant confirmer cette règle. Ensuite, les ingénieries de la sérendipité sont en plein essor et tendent à structurer et à légitimer une « économie de la sérendipité » pour reprendre l’expression de Didier Durand. En d’autres termes …

  • (temps 1) la stochastique initiale du web a progressivement fait place nette a une hiérarchisation organique, mise en mémoire et en accès par les moteurs de recherche.
  • (temps 2) L’essor du web contributif a ensuite permis de dépasser et de transgresser littéralement cette hiérarchisation monolithique (et monopolistique) en y réinjectant de l’humain et du social, bref, de l’aléatoire. 
  • (temps 3) Par le biais de différentes fusions et/ou acquisitions (delicious pour Yahoo, Youtube pour Google, essor des entrepôts géants Amazon-like, etc …), certains des mécanismes aléatoires liés à l’humain sont devenus « calculables », programmables, donnant alors naissance aux industries de la recommandation (cf ci-dessus le côté obscur de la sérendipité), revêtant ainsi des atours séduisants de l’aléatoire et du surgissement ce qui demeure pourtant très trivialement l’exploitation systématique (mais pour autant ingénieuse) d’une gigantesque base de donnée relationnelle.

Le moteur social, c’est comme la voiture électrique : ce sont les constructeurs qui décident. Pas les consommateurs, ni les technologies. Car le moteur social, qui semblait pourtant si prometteur à l’été 2005, n’existe toujours pas en 2010, et ce malgré les récentes annonces (Juillet 2009) de Google en la matière. Pour autant, l’ensemble des moteurs de premier plan se sont, chacun à leur manière, « socialisés », en partie le biais des options de personnalisation, en partie grâce à l’interpénétration des différents outils de leurs écosystèmes, en partie grâce aux techniques de data-mining transférées dans l’immensité du web des données. Soit l’asservissement à une algorithmie de plus en plus englobante, de plus en plus « impliquante » du potentiel de fortuité des recommandations sociales telles qu’elles transparaissent dans les outils-supports de leurs médiations (ce qui n’est déjà pas si mal, je vous l’accorde).

« La sérendipité est comme une pertinence seconde. » Je laisse la conclusion de ce billet à André Gunthert, interviewé par Hubert Guillaud sur InternetActu :

  • « Sur Youtube, il y a toujours une réponse. La sérendipité est comme une
    pertinence seconde, qui vient se substituer à la réponse exacte.
    « 

J’ajoute simplement, en paraphrasant Mallarmé, que la question est peut-être aujourd’hui de savoir si « Un coup de sérendipité, jamais, n’abolira la pertinence. » Ou pas. J’ajoute aussi que si « la sérendipité est une pertinence seconde« , et que si elle « se substitue à la réponse exacte« , ce n’est pas seulement lié au fait qu’il y ait « toujours une réponse« , mais – à mon avis – au moins autant à l’importance que les ingénieries de l’aléatoire occupent aujourd’hui dans le développement de l’écosystème des outils de recherche et d’accès à l’information. J’ajoute enfin qu’il serait intéressant de mener une étude sur la pregnance cognitive de cet état de fait dans les comportements de requêtage et de navigation des usagers (pour voir dans quelle mesure ils « intègrent » ou « rejettent » cet habitus).

8 commentaires pour “Ingénieries de la sérendipité.

  1. En lisant tes categories de cyberglandouille, il m’est venu en tête une analogie liée aux différentes perspectives décrites par olivier auber
    j’ai essaye de representer ca ici http://fwd4.me/ECF

  2. perso, j’aurais tendance à penser que la sérendipité est une compétence supérieure de la recherche d’information en ce qu’elle permet de définir le contexte de la recherche à mener très largement en amont de la recherche elle-même (et même tend à la remplacer tout bonnement). il me semble que c’est alors plus une anticipation des besoins d’informations futurs non encore vraiment exprimés en tant que tel.
    un peu fouillis tout ça – en tout cas merci pour cet article

  3. Merci pour ce wordpress, j’ai beaucoup apprecier votre travail. Nous gérons une des plus actifs communautés du Web, où les utilisateurs se partagent leurs avis sur les fichiers et logiciels Windows. Notre banque de données recense les avis sur des millier de fichiers. Notre centre de recherche veille à la qualité de ces informations afin qu’elles soient d’un extrème interêt. Nous serons trés honorés de votre visite à: http://www.fichier.net et d’y laisser vos impressions. Merci

  4. Après un parcours rapide, je vais lire et creuser.
    A ceux qui s’étonneraient encore de voir la sérenpidité traitée en bibliométrie ou en mathématiques, je rappelle que
    Là où nos pères ne voyaient que désordre et aléatoire les recherches sur le Chaos menées par des chevaliers souvent solitaires ont déniché du cyclique et du fractal.
    Fantastique aventure de la pensée scientifique et surtout épopée humaine – LIRE : La théorie du chaos : James Gleick, chez Flammarion
    http://www.livrenpoche.com/livre/La-theorie-du-chaos/33281_538308.html
    http://forums.futura-sciences.com/lectures-scientifiques/11225-theorie-chaos.html
    David

  5. je découvre votre article, fortuitement, en réalisant une opération de veille pour un organisme d’accompagnement de l’innovation … et ne peux m’empêcher de le relier à une petite « controverse » sur la nature stratégique ou non de la veille (pour moi, toute veille se relie à la nature stratégique de la question posée …).
    Je pense que la recherche d’information obéit à un double cheminement intellectuel :
    – d’un coté, on suit certains chemins qui s’offrent à nous, contraint par la nature du problème stratégique initial, mais poussé par une curiosité provoquée « dans l’instant »
    – d’un autre coté, il me paraît nécessaire que cette recherche soit bornée par des frontières identifiées, dessinant le domaine d’investigation et gravitant autour de son coeur (point d’attraction du domaine).
    j’ai noté les références de votre article, et vais le relire plus attentivement.
    Frédéric Marin, le 10 mai 2010

  6. Le web. Un point c’est tout ?

    Avertissement au lecteur : billet dans lequel il sera notablement question du web, de son avenir, d’écluses, de navigateurs, de théorie des graphes, de fractales et dans lequel les termes de « graphologue » et de « graphomane » seront délibérement employés…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut