A l'origine de cet article il y a le déclencheur que fut ce bref échange Twitter avec le copain-collègue Marc Jahjah qui (se) demandait :
"Ça change quoi de penser [l'algorithme] comme partenaire à part entière ?"
Et à qui je répondais :
"l'algorithme comme être imaginal ? Un truc dans le genre ? Où plutôt un "Lost in the Rabbit Hole Problem" qui serai un lointain écho au "Lost In Hyperspace Problem" de Conklin. Ah tiens ça me donne une idée d'article 😉"
Lost in Hyperspace Problem.
Je vous en ai déjà assez souvent parlé sur ce carnet de recherche(s). Il est considéré comme "le" problème fondateur de l'étude des environnements hypertextuels, et formulé dès 1987 par J.Conklin dans l'article :
Conklin J., « Hypertext : An Introduction And Survey. », pp. 17-40, in IEEE Computer, vol. 20, n°9, Septembre 1987. En ligne : http://www.ics.uci.edu/~andre/informatics223s2007/conklin.pdf
Conklin faisait à l'époque du sentiment de désorientation ressenti par les internautes lors d'une navigation et/ou d'une tâche de recherche d'information, la conséquence d'une surcharge cognitive définie comme "l’effort additionnel et la concentration nécessaire pour maintenir plusieurs tâches ou plusieurs parcours [trails] en même temps." Il s'agissait, en 1987, de résoudre le problème "top-down" de la quantité d'information effectivement gérable par un utilisateur dans le cadre d'une tâche donnée, sans que l'utilisateur ne soit perdu ou désorienté au beau milieu de sa (ses) stratégie(s) de recherche. Une réponse fut apportée au bout de 10 ans par les industries de l'accès (Google naissait en 1998) avec ces nouveaux Gatekeepers que sont aujourd'hui moteurs de recherche et médias sociaux, principalement au travers de leurs algorithmes de recommandation ou de popularité et leurs systèmes de notifications, croisés avec leurs intérêts économiques et leur manière de modeler à la fois nos compétences attentionnelles et nos appétences informationnelles (et tout aussi efficacement nos appétences attentionnelles et nos compétences informationnelles).
Lost in the Rabbit Hole.
Le Rabbit Hole c'est au départ le choix d'Alice (au pays des merveilles) de suivre un lapin blanc super chelou dans son terrier, moment à partir duquel commencent réellement ses aventures extraordinaires. J'ai récemment découvert que Lewis Carroll était avant tout un logicien et que son oeuvre la plus connue (Alice au pays des merveilles) peut-être lue comme un moyen d'expérimenter la série de paradoxes logiques sur lesquels il passa l'essentiel de sa vie à travailler. Alice est aussi et peut-être avant tout une oeuvre et une interrogation sur la manière de représenter (et d'incarner) des paradoxes logiques ou logico-mathématiques tournant autour des notions d'inférence, de déduction ou d'implication, comme dans l'un des paradoxes que Lewis Carroll proposa lui-même, "le paradoxe de ce que la tortue dit à Achille".
Du côté du numérique et des algorithmes, l'effet du terrier de lapin (Rabbit Hole) a été démontré suite, notamment, aux travaux permis par les révélations de Guillaume Chaslot, ex-employé de Google qui fut viré pour avoir critiqué l'effet de polarisation de l'algorithme de Youtube alors qu'il travaillait lui-même sur l'algorithme de recommandation de la plateforme. Guillaume Chaslot est à l'origine de l'initiative Algotransparency.
L'effet Rabbit Hole c'est donc lorsque vous "tombez" via un lien ou un algorithme de recommandation sur un contenu qui vous entraîne dans un monde pouvant apparaître comme déconnecté de la réalité ou à tout le moins dans lequel certains faits, certains sujets, certains points de vue sont radicalement altérés. Et cette "altération" se produit en masquant l'existence de tout un tas d'autres faits, sujets ou points de vue, en n'en représentant qu'une partie la plus souvent extrême, en proposant des stimuli informationnels qui fabriquent de la "consonance cognitive", cet état ou "le sujet évite tout ce qui pourrait produire de la dissonance en s’exposant de façon sélective aux informations qui sont congruentes avec ses propres croyances".
A la différence de "bulles de filtre" qui demeurent toujours en prise avec des dispositifs et des formes éditoriales ou inter-individuelles de rappel au réel, les Rabbit Holes apparaissent comme des expériences de navigation profondes et aveugles et l'on pourrait presque les assimiler à des formes de "privations cognitives" de la même manière que l'on parle de "privation sensorielle" dans certaines expériences.
La plongée dans un Rabbit Hole peut en effet produire un effet de sidération qui nous fige dans l'incitation au défilement ininterrompu de propos, de discours et de contenus que l'on n'imaginait pas comme simplement "possibles".
(Source : https://collections.tepapa.govt.nz/object/235367)
Autour de Youtube par exemple, de nombreux travaux ont montré que les recommandations vous emmenaient vers des vidéos qui présentent des points de vue de plus en plus extrêmes ou radicaux par rapport à vos visionnages initiaux. Ainsi après une requête sur le mot clé vaccin, une fois visionnée une première vidéo même simplement "neutre" et informative, l'algorithme de recommandation va vous entraîner dans le "Rabbit Hole", fait de vidéos toujours plus antivax et complotistes. La raison c'est que cette stratégie permet à Google / Youtube de maintenir votre attention au sein de son écosystème de services, et donc d'engranger toujours davantage de recettes publicitaires et de données qualifiées sur nos comportements (ou nos errances) informationnelles.
Mais le Rabbit Hole ce sont aussi les chaînes quasi-infinies de commentaires sous des vidéos, chaînes dans lesquelles chacun va se trouver conforté dans ses propres croyances ou, à l'inverse, être amené à sur-réagir tant les fils de discussion heurtent ces mêmes croyances. Un court exemple qui pourra vous donner une idée via cette vidéo d'une manifestation d'anti-masques lors du 1er mai, même si la chaîne de commentaire est ici relativement courte il faut imaginer que ces Rabbit Holes peuvent parfois ramasser plusieurs dizaines de milliers ou des millions de commentaires. Idem pour certaines pages ou groupes Facebook (je vous avais raconté celle du groupe pro Raoult) qui sont eux-mêmes déjà des Rabbit Holes par leur positionnement délibérément marginal ou provocateur corrélé au volume d'interactions, commentaires et pages ou groupes satellites qu'ils agrègent et qui vous permettent ou vous amènent à vous enfoncer toujours davantage vers le fond du "terrier".
Facebook est lancé en 2004 et Google rachète Youtube en 2006. Les années 2010 / 2015 votre être marquées par l'essor exponentiel des plateformes sociales (tant "médias" que "réseaux") et par une massification constante et exponentielle des usages se concentrant sur très peu d'entre elles (dont Facebbok et Youtube). L'effet "Rabbit Hole" s'est trouvé sur le devant d'une petite partie de la scène médiatique grand public depuis en gros 2018, époque à laquelle Guillaume Chaslot mais aussi et surtout Tristan Harris commencent à bénéficier d'une importante visibilité médiatique et où, entre autres, Zeineb Tufekci signe un impeccable édito dans le New-York Times simplement titré : "Youtube, the great radicalizer".
Mais les travaux universitaires sur les algorithmes de recommandation sont bien plus anciens et nombre d'entre eux (notamment sur Youtube et notamment pour les contenus haineux apparentés à l'extrême droite) avaient déjà permis d'établir de manière non-ambigüe le rôle prépondérant de ces algorithmes dans des stratégies que l'on qualifiera de simple "bulle" ou de "conformité de croyance" si l'on veut les euphémiser ou "d'enfermement" si l'on veut au contraire en accentuer le trait. Mais dans les deux cas (simple "bulle" ou stratégie carcérale de captation de l'attention), tout le monde s'accorde à constater que nos passages dans différents terriers attentionnels occupent un temps de plus important de l'ensemble de nos stratégies de navigation et de présence en ligne.
Le lapin dans la chambre à air.
Voila comment il me semble possible de caractériser la transition et la parenté entre le "Lost in Hyperspace Problem" de Conklin en 1987 et le "Rabbit Hole Problem" des années 2015.
Pour le Lost in Hyperspace Problem, il s'agissait de comprendre et d'analyser les effets de "désorientation" liés à une surcharge cognitive mobilisée comme remède pour compenser le maintien d'une activité de recherche ou de consultation se déployant sur plusieurs plans simultanés.
Pour le Rabbit Hole Problem, il s'agit de comprendre et d'analyser les effets de polarisation liés à un abaissement du seuil de vigilance cognitive mobilisé comme poison pour compenser l'immersion dans des agglomérats informationnels homogènes et souvent convergents.
Pour le résumer en une formule : le problème était que nous étions (trop) facilement désorientés, le problème est aujourd'hui que nous sommes (trop) facilement (ré)orientés. Ou pour le dire encore autrement : nous sommes passés d'une indétermination topologique de nos navigations (ne pas savoir où nous étions, où nous allions, et comment nous y rendre) à un hyper-déterminisme situationnel de nos navigations (qui fait que nous ne nous posons même plus la question de savoir comment et pourquoi nous sommes arrivés là, et que nous ne savons pas nécessairement comment en sortir ou que nous n'en avons simplement plus envie parce que nous n'imaginons pas d'autres possibles).
[Anecdote personnelle] Il y a peu en discutant avec un collégien mien (en classe de 3ème) il m'expliquait pourquoi l'algorithme de TikTok était "intelligent" parce que "il savait ce qu'il aimait". Quand je lui rétorquais que cela l'empêchait peut-être de découvrir de nouveaux contenus ou que cela l'obligeait à regarder toujours la même chose, il répliqua à son tour qu'il (l'algorithme) lui proposait parfois des trucs nouveaux mais que s'il ne les regardait pas alors l'algorithme s'en souvenait et ne lui reproposait plus. Mais par contre si l'algorithme lui propose des vidéos sur des thèmes qu'il aime suivre, en général il les regarde et les ajoute à ses abonnements. Donc pour lui (et c'est tout à fait normal à cet âge et dans ce contexte), la question entre "variété" de contenus et "diversité" éditoriale n'est pas opérante. Regarder des vidéos de différents Youtubeurs ou Tiktokeurs parlant de bricolage ou de Gaming, c'est avoir le sentiment d'éprouver une diversité alors qu'il ne s'agit que d'une déclinaison d'autant de variétés. Et tant que cette variété et ces variations sont pensées et éprouvées comme autant de ritournelles de la diversité, le sentiment d'être enfermé n'est ni concevable ni même en un sens métabolisable. [/Anecdote personnelle]
Il ne s'agit aucunement de défendre une sorte de "c'était mieux avant" mais de pointer des invariants. Le premier invariant à rappeler dès que l'on aborde la question des algorithmes de recommandation, est que nous sommes et nous avons toujours été des êtres extrêmement prévisibles. Nous sommes, pour plein de raisons psychologiques, culturelles et sociales, pétris de routines et "d'habitus" comme disent les sociologues. Il n'est donc pas extrêmement difficile de prévoir nos comportements ou nos goûts, a fortiori quand on dispose d'un volume de données considérables permettant de les historiciser autant que de les caractériser finement. L'autre invariant est que nous portons en nous deux grandes catégories de limitations. Des limitations cognitives "quantitatives" : nous ne pouvons pas tout lire / voir / écouter tout le temps, nous sommes contraints de choisir (oui / non), de hiérarchiser (1,2,3) et de linéariser (1 puis 2 puis 3). Et des limitations cognitives "qualitatives" : nous n'avons pas envie de tout lire tout le temps ; nous avons des préférences dans nos routines ; nous n'aimons pas la dissonance cognitive, en tout cas pas trop ou pas trop souvent.
Si les effets de type "Rabbit Hole" ou les effets de polarisation "en général", posent aujourd'hui un problème si important à l'échelle des médias sociaux, c'est parce qu'ils introduisent une dissymétrie fondamentale entre nos limitations cognitives quantitatives et qualitatives. Ils leurrent ou biaisent les secondes en sur-représentant ce que nous aimons au sein de nos navigations, et ils lèvent la limite raisonnable des premières en provoquant artificiellement des sentiments de perte ou de manque dont la FOMO (Fear Of Missing Out) est le paradigme ultime. Le reste n'est affaire que d'organisation sociale (le fameux "temps d'écran" qui s'est installé comme métonymie pleine et entière du "temps de loisirs"), de disponibilité des terminaux d'accès (avec 6,4 écrans connectés en moyenne par foyer) et de design d'interface (Dark Patterns, Infinite Scrolling et autres astuces captologiques).
L'autre problème de ces "Rabbit Hole" c'est qu'ils ne sont presque jamais perçus comme des "trous" mais comme des "surfaces". Et que si l'on peut se sentir à l'étroit ou enfermé au fond d'un trou, on ne le peut pas si la perception topologique que nous en avons est celle d'une surface plane. D'où l'impression contre-intuitive de certains adeptes fréquents de ces Rabbit Holes de ne pas s'y sentir totalement enfermés et d'avoir même l'impression de pouvoir continuer à s'y informer "normalement". D'où vient cette perception contre intuitive ? Il y a longtemps que l'on sait que le premier principe du web et de l'hypertexte est un principe topologique. C'est notamment ce que décrivait Pierre Lévy dès 1991 avec les 6 principes de l'hypertexte :
"Dans les hypertextes, tout fonctionne à la proximité, au voisinage. Le cours des phénomènes y est affaire de topologie, de chemins. (…) Le réseau n’est pas dans l’espace, il est l’espace."
Or dans la science topologique, deux objets sont équivalents si l'on peut déformer l'un pour arriver à l'autre (sans aucune découpe et par simple étirement ou torsion). Ainsi un carré est topologiquement équivalent à un rond. Ce qui ne lasse pas de me fasciner depuis que je l'ai découvert au travers de la lecture de René Thom et de sa théorie des catastrophes 🙂
De la même manière, "une tasse à café est identique à une chambre à air, car toutes deux sont des surfaces avec un trou." (Stewart I., "Simples pavés : une méthode générale pour créer des pavages du plan.", pp.106-107, in Pour la science, n° 272, Juin 2000).
Nous sommes ainsi souvent tout au fond de la tasse mais par simple torsion (la recommandation algorithmique ou celle de nos amis) ou par simple étirement (l'appétence d'aller voir le lien d'après) nous naviguons avec l'impression de nous balader librement à la surface surplombante de la chambre à air. "Car toutes deux sont des surfaces avec un trou."
Et que pour nous faire basculer de l'une à l'autre il n'est besoin … que d'un étirement ou d'une torsion algorithmique.
L'algorithme avec un trou.
Marc se demandait :
"Ça change quoi de penser [l'algorithme] comme partenaire à part entière ?".
Je l'ignore. Mais je lui réponds :
"Ça ressemble à quoi un algorithme avec un trou ?"
Ou plus exactement, ça change quoi de penser "l'algorithme" ou en tout cas la dimension opératoire et applicative de la science algorithmique en termes topologiques ? Cela peut-il permettre d'en mieux comprendre l'itinérance et les itérations, et fournir quelques éléments d'explication à des situations de navigation aux perceptions souvent contre-intuitives ou à l'analyse des phénomènes de "bulle" et autres "Fake News" que l'on ne parvient sinon que très difficilement à replacer dans le bon repère et sur le bon plan ? J'espère que cet article aura permis de répondre en partie "oui" à tout cela.
A nous de voir ensuite comment il pourrait être possible et intéressant de classer topologiquement les algorithmes (de recommandation notamment) : ceux qui sont, par exemple, "des surfaces avec un trou". Et d'analyser les torsions ou étirements qu'ils peuvent subir et les conséquences sur nos pratiques informationnelles et sur nos mondes sociaux.
Et d'ailleurs qu'est-ce qu'un algorithme de surface ? Et qu'est-ce qu'un algorithme avec un trou ?
Mais ce sera l'objet … d'un autre article 🙂
[ … à suivre]