Editorialisation algorithmique.

Si vous me lisez, vous le savez, voilà un sujet qui me tient particulièrement à coeur 🙂 La 1ère fois que je l'ai abordé dans mes activités de recherche, c'était dans un obscur colloque à Bucarest. Avec un collègue (Gabriel Gallezot) on bossait sur la notion de "Sérendipité" dans le cadre du processus de recherche d'information. C'était en 2003. Google n'avait alors que 5 ans et Facebook n'existait pas.

A l'époque donc, il nous semblait évident que les résultats de Google, si algorithmiquement "objectifs" qu'ils fussent, comportaient un certain nombre de biais du fait de la nature croisée du processus de recherche d'information (la "tâche" et le contexte de tâche que l'on se fixe) et de la hiérarchisation produite par le calcul algorithmique. Tout ça est expliqué dans ces 2 articles : "Chercher faux et trouver juste" (2003) et "Des machines pour chercher au hasard" (2004). En gros et pour vous éviter la (re)lecture, notre conclusion était la suivante :

"Quand nous consultons une page de résultat de Google ou de tout autre moteur utilisant un algorithme semblable, nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente. Derrière la liste de ces résultats se donnent à lire des principes de classification du savoir et d'autres encore plus implicites d'organisation des connaissances. C'est ce rapport particulier entre la (re-)quête d'un individu et la (re-)présentation d'une connaissance qui était présente dans les bibliothèques de la Haute-Egypte, pour en être évacuée avec l'arrivée des principes de classement alphabétiques.

Une nouvelle logique se donne à lire. Moins « subjective » que les principes classificatoires retenus par une élite minoritaire (clergé, etc.) elle n'en est pas moins sujette à caution. Les premières étaient douteuses mais lisibles, celles-ci le sont tout autant parce qu'illisibles, c'est-à-dire invisibles : l'affichage lisible d'une liste de résultats, est le résultat de l'itération de principes non plus seulement implicites (comme les plans de classement ou les langages documentaires utilisés dans les bibliothèques) mais invisibles et surtout dynamiques, le classement de la liste répondant à la requête étant susceptible d'évoluer en interaction avec le nombre et le type de requêtes ainsi qu'en interaction avec le renforcement (ou l'effacement) des liens pointant vers les pages présentées dans la page de résultat."

La suite, vous la connaissez. Facebook débarque en 2004, les écosystèmes se renforcent ainsi que leur audience, il lance le like et flingue la philosophie du lien hypertexte. En 2011 Eli Pariser fait paraître son livre sur sa théorie de la "Filter Bubble", on commence à parler d'enfermement algorithmique, puis les questions de responsabilité algorithmique émergent à l'occasion de différents faits divers globalement assez tragiques ; on forge le terme de "politique des algorithmes" (avec ce numéro incontournable de la revue Réseaux) tant les implications de cette responsabilité sont énormes et s'étendent à des champs très divers (dont le politique), on bataille ferme pour savoir qui de la poule ou de l'oeuf est responsable dudit enfermement, et en 2015, Robert Epstein démontre l'existence d'un "Search Engine Manipulation Effect" capable d'orienter le vote lors d'une élection.

12 ans de perdus ?

De notre "nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente" rédigé en 2003, jusqu'au "Search Engine Manipulation Effect" d'Epstein en 2015 c'est le même sujet et les mêmes enjeux qui sont sous nos yeux depuis plus de 12 ans.

Terrorisme, racisme, homophobie, mais aussi polémique récente autour des modifications de Facebook pour "atténuer" les articles défendant les thèses républicaines les plus dures de Donald Trump, de fait divers et fait de société, pas un mois, pas une semaine ne passe sans que ces questions d'éditorialisation algorithmiques ne se retrouvent sur le devant de la scène médiatique. Et sans que les hommes politiques et les responsables des plateformes ne se renvoient au visage la question d'une nécessaire neutralité à laquelle plus personne (à commencer par eux) ne croit.

Alors comme il faut bien avancer et proposer des solutions, nous avons été un certain nombre à mettre ces propositions sur la table. De mon côté j'ai dit souvent que notre salut algorithmique passerait par deux solutions complémentaires : la mise en place d'un index indépendant du web (l'idée n'est pas de moi mais de Dirk Leandowski) et la nécessité d'ouvrir et de rendre aussi transparente que possible la partie du code algorithmique qui relève de processus d'éditorialisation classiques. A côté de ce blog, en Février 2015, je publie sur Libération une tribune dans laquelle j'écris :

"Grâce à leurs CGU (et leurs algorithmes), Facebook, Twitter, Google ou Apple ont édicté un nouvel ordre documentaire du monde qu’ils sont seuls à maîtriser dans la plus complète opacité.

Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs «ouvrir» complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation.

Or après que les algorithmes se sont rendus maîtres de l’essentiel du «rendu public» de nos productions documentaires, les plateformes sont en train de reléguer dans d’obscures alcôves l’autre processus de rendu public démocratique : celui de la délibération sur ce qui a légitimité – ou non – à s’inscrire dans l’espace public. Il ne sera pas éternellement possible de s’abriter derrière le fait que ces plateformes ne sont précisément ni des espaces réellement publics ni des espaces entièrement privés. A l’ordre documentaire qu’elles ont institué, elles ajoutent lentement mais sûrement un «ordre moral réglementaire» sur lequel il nous sera très difficile de revenir si nous n’en débattons pas dès maintenant."

 Depuis bien d'autres "affaires" ont éclaté, dont celle opposant Apple au FBI qui, s'il en était encore besoin, ont démontré l'urgence de traiter ces questions de rendu public et de délibération (cf mes 2 billets : "Un terroriste est un client Apple comme les autres" et "Pomme Pomme Pomme Suppr").

Hé bien un an plus tard, il semble que nous nous en approchions enfin …

Lutter contre l'enfermement algorithmique.

Avant les 2èmes assises contre la haine sur internet (voir mon intervention de l'année dernière) différentes associations de lutte contre le racisme et les discriminations ont fait du "testing" sur la politique modération des grandes plateformes, notamment pour évaluer leur réactivité. Et les résultats sont loin d'être à la hauteur de ce qui pourrait être attendu. Elles ont donc livré une série de propositions parmi laquelle celle-ci :

"que les grandes plates-formes « éditorialisent leurs contenus pour empêcher l’enfermement algorithmique des contenus haineux ». En clair, elles demandent que Facebook, Twitter et YouTube agissent manuellement sur leurs algorithmes de recommandation pour discriminer les articles ou vidéos haineuses …"

Côté agenda politique justement, cette proposition reprend mot pour mot celle qui figure dans le "plan d'action pour lutter contre la radicalisation et le terrorisme", présenté le 9 mai 2016 par le cabinet du 1er Ministre et dans lequel on peut lire ceci :

"Mesure 59 (*) : Lutter contre l’enfermement algorithmique.

Si les mécanismes de radicalisation chez les jeunes sont complexes, et divers, (…) Les algorithmes de recommandation de certains réseaux sociaux ou plateformes vidéo ont l’effet imprévu d’enfermer l’utilisateur dans des contenus systématiquement orientés dans le même sens.

La visualisation préalable d’un contenu vu ou aimé conduit mécaniquement à ce que la personne concernée s’en voit proposer 10 de nature similaire, puis 10 autres, jusqu’à ce que l’offre présentée à l’utilisateur soit parfois entièrement consacrée à ces contenus de haine. Ce phénomène d’enfermement algorithmique ne peut être combattu que par les acteurs économiques concernés, qui devront prendre en compte d’autres facteurs dans leurs mécanismes techniques de recommandation, comme par exemple les signalements et éventuels retraits passés de contenus similaires.

Le Gouvernement a entamé un dialogue stratégique et technique avec les principaux acteurs concernés afin de parvenir à circonscrire ce phénomène, et aboutir à une limitation de l’enfermement pour les contenus de haine, voire à la recommandation de contre-discours dans l’offre de contenus."

"Lutter contre l'enfermement" et clarifier les logiques d'éditorialisation sont 2 choses différentes.

13133298_1268428676519042_1123127494950738470_nPawel Kuczynski

1ère bonne nouvelle, le politique semble avoir lu le livre d'Eli Pariser sur la bulle de filtre. 2ème bonne nouvelle, le même politique a compris que la question de la recommandation est aussi de nature politique à l'échelle de plateformes drainant chaque jour plusieurs millions d'utilisateurs. 3ème bonne nouvelle (mais mal formulée), la prise en compte des deux bonnes nouvelles précédentes pour aboutir à cette notion "d'enfermement algorithmique".

Mais 3 bonnes nouvelles ne font pas pour autant une bonne résolution. Car la réalité est en fait plus complexe.

Indépendamment de l'existence (réelle) d'une bulle de filtre dont les logiques de causalité ou de corrélation peuvent être discutées, c'est profondément méconnaître les logiques de "recommandation" que de les présenter de la manière dont elles le sont ici (= "Si tu regardes des vidéos terroristes on te suggèrera plein d'autres vidéos terroristes"). Car ces logiques relèvent à la fois d'une part algorithmique (reposant sur l'analyse des profils et des contenus partagés, bref, sur de la personnalisation), mais également d'une part "humaine" (les modérateurs des grandes plateformes donc, qui règlent également le curseur de visibilité de certains contenus à la hausse ou à la baisse en fonction de l'actualité), et enfin une part d'aléatoire, de stochastique, précisément pour introduire du désordre, de l'imprévisibilité, une part de non-linéarité, afin précisément que ces logiques de recommandation ne finissent pas par tourner en boucle au bout de 5 ou 10 itérations.

Ce qui est vrai en revanche, et je l'avais expliqué et documenté dans cet article du Monde daté de 2010, c'est que :

"Le projet "politique" de ces plateformes est de bâtir des environnements en apparence semblables à des graphes invariants d'échelle mais dont la dimension, c'est-à-dire le spectre de ce qui est observable et/ou naviguable se réduit au fur et à mesure ou l'observateur se rapproche. Soit une forme paradoxale de panoptique et l'antithèse exacte d'un Web fractal.

Facebook, YouTube et tant d'autres sont, chacun à leur manière des projets de nature carcérale, c'est-à-dire qui valorisent et exploitent la complétude de l'entre-soi. Un projet de nature idéologique pour Facebook (faire en sorte que nous soyons tous "amis"), de nature culturelle pour YouTube (faire en sorte que nous aimions tous les mêmes vidéos "rigolotes"). Tous ont en commun de tendre vers l'abolition du fractal, c'est-à-dire d'une certaine forme d'inépuisable, de diversité."

Voilà pourquoi, se limiter à la description qui est faite de la recommandation et se contenter de l'appliquer à la question du terrorisme ou à celle, bien plus culturellement complexe, du racisme, ne peut et ne doit suffire.

 
Alors qu'aux Etats-Unis une immense polémique est en train de naître suite aux accusations portées contre Facebook de modérer intentionnellement des contenus en lien avec des idées "trop" orientées "parti républicain tendance Tea Party en pire", difficile de croire que le "dialogue stratégique et technique avec les principaux acteurs concernés afin de parvenir à circonscrire ce phénomène" annoncé par le gouvernement servira à autre chose que de poser un emplâtre temporaire sur une jambe de bois vermoulu (donc à produire une énième sorte de "charte" ou à mettre en place mais de manière totalement non-significative des recommandations de "contre-discours").
 
Donc non, cela ne marchera pas.

Ce n'est pas comme cela qu'on lutte contre "l'enfermement algorithmique".

Pour – au moins – trois bonnes raisons.
 
Primo, parce que "les principales plateformes" (Google, Facebook et dans une moindre mesure Twitter) ne sont pas éternelles, et que même si elles s'avisaient de mettre en place, à la lettre, les instructions gouvernementales, les réseaux terroristes auraient jeu facile de ne plus s'en servir que comme porte d'entrée permettant de rebasculer leur "audience" et leurs "cibles" vers d'autres plateformes plus sécurisées (c'est d'ailleurs déjà le cas, si radicalisation en ligne il y a, elle passe davantage par des réseaux comme Telegram que par YouTube ou Facebook). De la même manière d'ailleurs, et sur des sujets heureusement plus réjouissants, que l'on observe une baisse générale des interactions sur Facebook et des effets générationnels de migration vers des plateformes alternatives (les "jeunes" en ayant marre d'être sur la même plateforme que leurs "vieux"). Bref cibler de cette manière les plateformes les plus visibles ou les plus fréquentées n'est ni adéquat ni suffisant. Pour prendre une analogie facile, c'est comme vouloir régler le problème du téléchargement illégal en fermant Megaupload. Ça ne marche pas comme ça.
 
Deuxio, parce qu'il existe, sur le web, un effet parfaitement documenté scientifiquement et sociologiquement que l'on appelle la "tyrannie des agissants" (cf notamment les travaux de Dominique Cardon). C'est à dire que ceux qui agissent et / ou portent un discours radical (qu'il s'agisse de terrorisme, de politique, d'écologie ou de tout autre chose) bénéficient et bénéficieront toujours de la plus forte exposition au sein de ces plateformes. Et que "ceux qui agissent" en matière de terrorisme sont – hélas – d'abord et avant tout les terroristes eux-mêmes.
 
Tertio, et c'est peut-être là la raison principale, parce que toute l'histoire et tout l'ADN de ces plateformes est de s'être construites et de véhiculer un discours, des valeurs et une idéologie qui visent précisément à remplacer les états (y compris dans leurs tâches et fonctions "régaliennes") en combinant une bonne grosse couche de libéralisme avec une non moins bonne grosse tartine de solutionnisme technologique. Donc elles n'écouteront pas les demandes des états (paradoxalement d'ailleurs, les demandes de modération auxquelles elles répondent le plus promptement et efficacement viennent d'états qui ne sont pas vraiment des parangons de démocratie … comme le démontra l'affaire de la censure des caricatures du prophète à la demande du gouvernement Turc).

Point "Gros Malin".

"Donc on fait quoi gros malin ?" me direz-vous.
 
Donc ce n'est pas pour autant qu'il ne faut rien faire, et oui, sur les logiques de modération propres à des contenus assez facilement repérables (terrorisme, racisme explicite), il est certainement possible d'améliorer les choses (tant sur le plan humain qu'algorithmique). Mais cela ne suffira pas (cf les trois raisons ci-dessus) et c'est surtout une erreur stratégique d'envisager de traiter le problème de "l'enfermement algorithmique sur les questions de terrorisme" alors que le vrai problème est celui de la transparence, de la clarification et de l'explicitation de la partie du code algorithmique relevant de processus classiques d'éditorialisation. Mais ça je l'ai déjà dit et écrit hein 🙂 Comme j'ai déjà dit et écrit que pour que cela ait une chance d'aboutir, il fallait, en même temps, s'efforcer de construire un index indépendant du web, et que c'était relativement facile et faisable à court terme.
 
A condition bien sûr qu'il y ait une impulsion politique. Pour l'instant inexistante, ledit politique préférant partir à la chasse aux likes du Jihad plutôt que de s'attaquer au problème de fond.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut