Si vous me lisez, vous le savez, voilà un sujet qui me tient particulièrement à coeur 🙂 La 1ère fois que je l'ai abordé dans mes activités de recherche, c'était dans un obscur colloque à Bucarest. Avec un collègue (Gabriel Gallezot) on bossait sur la notion de "Sérendipité" dans le cadre du processus de recherche d'information. C'était en 2003. Google n'avait alors que 5 ans et Facebook n'existait pas.
A l'époque donc, il nous semblait évident que les résultats de Google, si algorithmiquement "objectifs" qu'ils fussent, comportaient un certain nombre de biais du fait de la nature croisée du processus de recherche d'information (la "tâche" et le contexte de tâche que l'on se fixe) et de la hiérarchisation produite par le calcul algorithmique. Tout ça est expliqué dans ces 2 articles : "Chercher faux et trouver juste" (2003) et "Des machines pour chercher au hasard" (2004). En gros et pour vous éviter la (re)lecture, notre conclusion était la suivante :
"Quand nous consultons une page de résultat de Google ou de tout autre moteur utilisant un algorithme semblable, nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente. Derrière la liste de ces résultats se donnent à lire des principes de classification du savoir et d'autres encore plus implicites d'organisation des connaissances. C'est ce rapport particulier entre la (re-)quête d'un individu et la (re-)présentation d'une connaissance qui était présente dans les bibliothèques de la Haute-Egypte, pour en être évacuée avec l'arrivée des principes de classement alphabétiques.
Une nouvelle logique se donne à lire. Moins « subjective » que les principes classificatoires retenus par une élite minoritaire (clergé, etc.) elle n'en est pas moins sujette à caution. Les premières étaient douteuses mais lisibles, celles-ci le sont tout autant parce qu'illisibles, c'est-à-dire invisibles : l'affichage lisible d'une liste de résultats, est le résultat de l'itération de principes non plus seulement implicites (comme les plans de classement ou les langages documentaires utilisés dans les bibliothèques) mais invisibles et surtout dynamiques, le classement de la liste répondant à la requête étant susceptible d'évoluer en interaction avec le nombre et le type de requêtes ainsi qu'en interaction avec le renforcement (ou l'effacement) des liens pointant vers les pages présentées dans la page de résultat."
La suite, vous la connaissez. Facebook débarque en 2004, les écosystèmes se renforcent ainsi que leur audience, il lance le like et flingue la philosophie du lien hypertexte. En 2011 Eli Pariser fait paraître son livre sur sa théorie de la "Filter Bubble", on commence à parler d'enfermement algorithmique, puis les questions de responsabilité algorithmique émergent à l'occasion de différents faits divers globalement assez tragiques ; on forge le terme de "politique des algorithmes" (avec ce numéro incontournable de la revue Réseaux) tant les implications de cette responsabilité sont énormes et s'étendent à des champs très divers (dont le politique), on bataille ferme pour savoir qui de la poule ou de l'oeuf est responsable dudit enfermement, et en 2015, Robert Epstein démontre l'existence d'un "Search Engine Manipulation Effect" capable d'orienter le vote lors d'une élection.
12 ans de perdus ?
De notre "nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente" rédigé en 2003, jusqu'au "Search Engine Manipulation Effect" d'Epstein en 2015 c'est le même sujet et les mêmes enjeux qui sont sous nos yeux depuis plus de 12 ans.
Terrorisme, racisme, homophobie, mais aussi polémique récente autour des modifications de Facebook pour "atténuer" les articles défendant les thèses républicaines les plus dures de Donald Trump, de fait divers et fait de société, pas un mois, pas une semaine ne passe sans que ces questions d'éditorialisation algorithmiques ne se retrouvent sur le devant de la scène médiatique. Et sans que les hommes politiques et les responsables des plateformes ne se renvoient au visage la question d'une nécessaire neutralité à laquelle plus personne (à commencer par eux) ne croit.
Alors comme il faut bien avancer et proposer des solutions, nous avons été un certain nombre à mettre ces propositions sur la table. De mon côté j'ai dit souvent que notre salut algorithmique passerait par deux solutions complémentaires : la mise en place d'un index indépendant du web (l'idée n'est pas de moi mais de Dirk Leandowski) et la nécessité d'ouvrir et de rendre aussi transparente que possible la partie du code algorithmique qui relève de processus d'éditorialisation classiques. A côté de ce blog, en Février 2015, je publie sur Libération une tribune dans laquelle j'écris :
"Grâce à leurs CGU (et leurs algorithmes), Facebook, Twitter, Google ou Apple ont édicté un nouvel ordre documentaire du monde qu’ils sont seuls à maîtriser dans la plus complète opacité.
Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs «ouvrir» complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation.
Or après que les algorithmes se sont rendus maîtres de l’essentiel du «rendu public» de nos productions documentaires, les plateformes sont en train de reléguer dans d’obscures alcôves l’autre processus de rendu public démocratique : celui de la délibération sur ce qui a légitimité – ou non – à s’inscrire dans l’espace public. Il ne sera pas éternellement possible de s’abriter derrière le fait que ces plateformes ne sont précisément ni des espaces réellement publics ni des espaces entièrement privés. A l’ordre documentaire qu’elles ont institué, elles ajoutent lentement mais sûrement un «ordre moral réglementaire» sur lequel il nous sera très difficile de revenir si nous n’en débattons pas dès maintenant."
Depuis bien d'autres "affaires" ont éclaté, dont celle opposant Apple au FBI qui, s'il en était encore besoin, ont démontré l'urgence de traiter ces questions de rendu public et de délibération (cf mes 2 billets : "Un terroriste est un client Apple comme les autres" et "Pomme Pomme Pomme Suppr").
Hé bien un an plus tard, il semble que nous nous en approchions enfin …
Lutter contre l'enfermement algorithmique.
Avant les 2èmes assises contre la haine sur internet (voir mon intervention de l'année dernière) différentes associations de lutte contre le racisme et les discriminations ont fait du "testing" sur la politique modération des grandes plateformes, notamment pour évaluer leur réactivité. Et les résultats sont loin d'être à la hauteur de ce qui pourrait être attendu. Elles ont donc livré une série de propositions parmi laquelle celle-ci :
"que les grandes plates-formes « éditorialisent leurs contenus pour empêcher l’enfermement algorithmique des contenus haineux ». En clair, elles demandent que Facebook, Twitter et YouTube agissent manuellement sur leurs algorithmes de recommandation pour discriminer les articles ou vidéos haineuses …"
Côté agenda politique justement, cette proposition reprend mot pour mot celle qui figure dans le "plan d'action pour lutter contre la radicalisation et le terrorisme", présenté le 9 mai 2016 par le cabinet du 1er Ministre et dans lequel on peut lire ceci :
"Mesure 59 (*) : Lutter contre l’enfermement algorithmique.
Si les mécanismes de radicalisation chez les jeunes sont complexes, et divers, (…) Les algorithmes de recommandation de certains réseaux sociaux ou plateformes vidéo ont l’effet imprévu d’enfermer l’utilisateur dans des contenus systématiquement orientés dans le même sens.
La visualisation préalable d’un contenu vu ou aimé conduit mécaniquement à ce que la personne concernée s’en voit proposer 10 de nature similaire, puis 10 autres, jusqu’à ce que l’offre présentée à l’utilisateur soit parfois entièrement consacrée à ces contenus de haine. Ce phénomène d’enfermement algorithmique ne peut être combattu que par les acteurs économiques concernés, qui devront prendre en compte d’autres facteurs dans leurs mécanismes techniques de recommandation, comme par exemple les signalements et éventuels retraits passés de contenus similaires.
Le Gouvernement a entamé un dialogue stratégique et technique avec les principaux acteurs concernés afin de parvenir à circonscrire ce phénomène, et aboutir à une limitation de l’enfermement pour les contenus de haine, voire à la recommandation de contre-discours dans l’offre de contenus."
"Lutter contre l'enfermement" et clarifier les logiques d'éditorialisation sont 2 choses différentes.
1ère bonne nouvelle, le politique semble avoir lu le livre d'Eli Pariser sur la bulle de filtre. 2ème bonne nouvelle, le même politique a compris que la question de la recommandation est aussi de nature politique à l'échelle de plateformes drainant chaque jour plusieurs millions d'utilisateurs. 3ème bonne nouvelle (mais mal formulée), la prise en compte des deux bonnes nouvelles précédentes pour aboutir à cette notion "d'enfermement algorithmique".
Mais 3 bonnes nouvelles ne font pas pour autant une bonne résolution. Car la réalité est en fait plus complexe.
Indépendamment de l'existence (réelle) d'une bulle de filtre dont les logiques de causalité ou de corrélation peuvent être discutées, c'est profondément méconnaître les logiques de "recommandation" que de les présenter de la manière dont elles le sont ici (= "Si tu regardes des vidéos terroristes on te suggèrera plein d'autres vidéos terroristes"). Car ces logiques relèvent à la fois d'une part algorithmique (reposant sur l'analyse des profils et des contenus partagés, bref, sur de la personnalisation), mais également d'une part "humaine" (les modérateurs des grandes plateformes donc, qui règlent également le curseur de visibilité de certains contenus à la hausse ou à la baisse en fonction de l'actualité), et enfin une part d'aléatoire, de stochastique, précisément pour introduire du désordre, de l'imprévisibilité, une part de non-linéarité, afin précisément que ces logiques de recommandation ne finissent pas par tourner en boucle au bout de 5 ou 10 itérations.
Ce qui est vrai en revanche, et je l'avais expliqué et documenté dans cet article du Monde daté de 2010, c'est que :
"Le projet "politique" de ces plateformes est de bâtir des environnements en apparence semblables à des graphes invariants d'échelle mais dont la dimension, c'est-à-dire le spectre de ce qui est observable et/ou naviguable se réduit au fur et à mesure ou l'observateur se rapproche. Soit une forme paradoxale de panoptique et l'antithèse exacte d'un Web fractal.
Facebook, YouTube et tant d'autres sont, chacun à leur manière des projets de nature carcérale, c'est-à-dire qui valorisent et exploitent la complétude de l'entre-soi. Un projet de nature idéologique pour Facebook (faire en sorte que nous soyons tous "amis"), de nature culturelle pour YouTube (faire en sorte que nous aimions tous les mêmes vidéos "rigolotes"). Tous ont en commun de tendre vers l'abolition du fractal, c'est-à-dire d'une certaine forme d'inépuisable, de diversité."
Voilà pourquoi, se limiter à la description qui est faite de la recommandation et se contenter de l'appliquer à la question du terrorisme ou à celle, bien plus culturellement complexe, du racisme, ne peut et ne doit suffire.
Ce n'est pas comme cela qu'on lutte contre "l'enfermement algorithmique".
Point "Gros Malin".