J'étais donc, hier, l'invité du séminaire sens public pour parler de questions d'éditorialisation algorithmique.
La vidéo intégrale de l'intervention est disponible sur la chaîne Youtube du séminaire (je cause entre la 6ème et la 41ème minute). Et mon diaporama est aussi dispo à l'adresse habituelle.
J'ai déjà pas mal écrit sur les questions d'éditorialisation donc les lecteurs réguliers de ce blog y retrouveront de vieilles lubies. Je profite de ce billet "retour" pour insister sur quelques notions "originales" de cette intervention.
D'abord l'idée qui résume en une seule phrase le contenu de mon intervention, à savoir que l'éditorialisation algorithmique est un méta-déterminisme technique, modelé par les régimes de vérité propres à chaque plateforme. J'avais déjà expliqué que pour sortir du débat souvent stérile sur la "bulle de filtre" je préférais parler d'un déterminisme algorithmique. Mais en termes d'éditorialisation, l'algorithme seul ne couvre pas l'ensemble du processus. Le résultat lisible et visible des processus d'éditorialisation dans les plateformes (c'est à dire ce que nous voyons au final sur nos murs ou nos fils twitter) se joue "sur", "au-dessus" et "autour" de l'algorithme, à un niveau "méta" donc, à partir :
- des valeurs (au sens informatique mais aussi "moral") que celui-ci contient,
- du déterminisme que produisent ses différentes itérations
- de notre manière d'interagir avec lui.
C'est une fausse info, c'est juste ?
L'autre point important c'est celui que j'évoque dans la diapo 28 en montrant qu'en quinze ans, la partie émergée des usages numériques, c'est à dire la manière dont nous interagissons avec les écosystèmes dominants, cette partie est passée d'une logique de sérendipité ("chercher faux pour trouver juste") à une logique opposée qui, quand on veut "juste chercher", nous amène très souvent (mais pas uniquement bien sûr) sur des fausses informations. Donc, du "chercher faux pour trouver juste" au "juste chercher mais trouver du faux".
Pas de social sans architecture sociale.
J'ai aussi essayé de montrer (y compris en usant d'un diabolique subterfuge iconique dont je suis assez fier) que de la même manière que l'architecture sociale en panoptique de Facebook produisait nécessairement de la surveillance et de la sous-veillance, son architecture éditoriale alliée à son régime de vérité ne pouvait que produire des Fake News, ou en tout cas qu'elle ne pouvait pas ne pas en produire (diapos 32 à 38).
Fatal Fake News.
Autre idée avancée dans cette présentation, c'est la manière dont les différents régimes de vérité de chaque plateforme (la popularité pour Google, la vérifiabilité pour Wikipédia et l'engagement pour Facebook) sont impactés par les effets de passage à l'échelle (diapo 40). En gros il y a une sorte de fatalité à la présence de Fake News sur Facebook ; fatalité propre au régime de vérité de la plateforme qui, à l'échelle du nombre d'utilisateurs touchés, des modes d'interaction proposés (likes incitatifs) et du déterminisme algorithmique qui offre une prime à l'engagement, ne peut que sur-représenter de fausses informations si on laisse le système tourner "naturellement".
Et que c'est précisément ce dont Mark Zuckerberg s'est rendu compte quand il annonce qu'il va désormais y avoir une "IA" chargée – notamment – de "nettoyer" les Fake News. Le résultat c'est donc un nouveau niveau de méta-contrôle (encore algorithmique) chargé de limiter les effets vicieux de l'algorithmie "de base" (l'Edgerank) lorsqu'elle est associée aux logiques de partage et d'interaction les plus triviales (= qui sont les moins coûteuses cognitivement).
Ou pour le dire autrement, les gens étant ce qu'ils sont et l'algorithme étant ce qu'il est, si on ne fait rien, Facebook va se transformer en Buzzfeed 1ère génération. Et ça ce n'est bon ni pour le business (publicitaire) ni pour les ambitions "politiques" que nourrit Zucerberg pour sa plateforme si ce n'est pas pour lui-même. Bref Facebook s'assume désormais en tant que média, et Mark Zuckerberg en patron "de presse" (diapos 30 et 31).
Retrouver ses repères.
La question clé (qui fut aussi ma conclusion) est de savoir comment être capable à la fois de lire, d'interpréter et de se situer dans des dispositifs complexes d'interactions énonciatives pour rester – autant que faire se peut – maîtres de nos propres régimes éditoriaux ; pour ne pas se faire "piéger" ou "entraîner" par des déterminismes algorithmiques aussi cognitivement commodes que politiquement dangereux. Et la réponse est peut-être dans la diapo utilisée par Zuckerberg lors de la conférence F8 :
Dans ce repère et sur ces deux axes (abscisses et ordonnées), c'est cette ligne rouge du déterminisme algorithmique qui va définir, par projection, des espaces sociaux éditorialisés, qui sont autant d'actes de production du réel.
Voilà. Et après on a pas mal discuté autour de tout ce que j'avais raconté. C'est un peu l'intérêt de ce genre de séminaire, parce que pour parler tout seul j'ai déjà mon blog 🙂 Et comme il n'y avait que des gens brillants autour de moi ils m'ont permis de formuler de nouvelles idées et ont amené leurs propres passionnantes pistes de réflexion.
Clair-obscur algorithmique.
Sur la question de l'opacité algorithmique par exemple, en discutant m'est apparu l'évidence selon laquelle il n'y avait en fait pas d'opacité algorithmique totale. Ou en tout cas que nous ne percevions pas cette opacité algorithmique comme totale mais plutôt comme une semi-opacité. Et que de là venait une partie du problème. Je m'explique.
Si nous avions l'impression que les algorithmes autour de nous étaient totalement "opaques" (celui de Google, de Facebook, de Twitter, d'Instagram, de Deezer, etc.) nous adopterions alors un comportement plus "méfiant". Car face à une technologie que nous ne contrôlons pas et que nous avons l'impression de ne pas maîtriser du tout nous adoptons naturellement, presque par réflexe, une posture de méfiance et de retrait. Le "problème" c'est que nous avons l'impression – pas totalement fausse par ailleurs – de savoir comment fonctionnent ces algorithmes. Dès leur entrée à la fac et même souvent dès le collège ou le lycée, les gens apprennent – et c'est tant mieux – les grands principes de l'algorithme de Google. Tout le monde sait plus ou moins que si tu veux être bien placé dans les résultats il faut avoir plein de sites qui mettent des liens vers toi. Et que plus tu auras de reprises sur les médias sociaux et plus tu auras de chances de gagner des places, etc. Idem pour les grands algorithmes de recommandation : nous avons intériorisé le fait que ce n'était finalement pas très difficile, au regard des montagnes de données collectées par les plateformes, de savoir que nous aimions bien la musique New Wave ou tel type de séries SF, et donc de nous en proposer en retour. Donc nous baissons un peu la garde, et notre "vigilance" n'est pas à son maximum puisque nous connaissons (ou avons l'impression de connaître) les grands principes algorithmiques qui gouvernent nos interactions en ligne.
Le problème n'est donc pas dans l'opacité réelle ou supposée de ces algorithmes, il est dans leur semi-opacité perçue. Le problème est que ces algorithmes nous sont en fait "semi-opaques", de la même manière que les espaces ouverts par les réseaux sociaux ne sont, comme l'a montré danah boyd, ni vraiment publics ni vraiment privés mais semi-publics ou semi-privés. Des algorithmes semi-opaques donc, qui entretiennent l'illusion que leur part d'opacité est moindre que leur part de transparence, alors que c'est naturellement tout l'inverse qui les caractérise.
Tous les crétois sont des menteurs et cette fausse nouvelle en est une vraie.
A propos des régimes de vérité on m'a naturellement interpellé sur le fait que dans la vie non-numérique, ces régimes de vérité existaient également. Le régime de vérité du journal l'Humanité n'est pas vraiment celui du journal Le Figaro. Sauf que ces régimes de vérité sont lisibles, visibles et à peu près transparents. Et qu'ils sont culturellement construits, et que l'on peut donc les discuter et les déconstruire si besoin. Ce qui n'est pas du tout le cas des régimes de vérité caractérisant les grandes plateformes. Au fond et pour le dire (très très très) caricaturalement, tout serait beaucoup plus simple et plus sain si Google s'affichait comme un moteur de recherche "de gauche" ou "démocrate" et Facebook comme une plateforme sociale "de droite" ou républicaine. Ou l'inverse bien sûr ;-).
On a aussi pas mal discuté sur la singularité de ces régimes de vérité. Non bien sûr ces régimes de vérité (popularité, engagement, vérifiabilité) ne sont pas exclusifs les uns des autres. Oui bien sûr chaque plateforme mobilise, parfois simultanément, ces différents régimes de vérité. Mais – en tout cas c'est mon point de vue – il existe un régime de vérité "dominant" au sens presque marxiste du terme, qui conditionne l'ensemble des interactions "éditoriales" de la plateforme. Pour Google ce dominant est la popularité, la vérifiabilité pour Wikipédia, et l'engagement pour Facebook.
Les mythes, ces Fake News.
Marc Jajah a aussi rappelé les travaux de Paul Veyne et de Marcel Detienne sur la question des "programmes de vérité" pour le premier (voir notamment ici ou surtout là) et des "maîtres de vérité" pour le second. En gros, ce que Paul Veyne a montré, c'est que le rapport aux mythes des grecs était assez flou et complexe : en gros toujours, ils y croyaient sans vraiment y croire. Un peu comme nous avec certaines Fake News : la croyance que nous leur accordons est davantage liée au fait qu'elles renforcent nos propres croyances ou nous offrent un alibi commode pour refuser de penser certains problèmes plutôt que directement lié au fait que nous les considérons comme "véridiques".
Et à la fin c'est l'index indépendant du web qui gagne.
Et puis bien sûr on s'est demandé comment reprendre la main, comment de défaire de cette gangue algorithmique qui si elle rend bien des services au quotidien, est également inféodée à des logiques publicitaires et marchandes qui posent d'autant plus de problèmes qu'elles interfèrent désormais avec des enjeux politiques et citoyens, et se mettent en place dans des secteurs régaliens. Et on a évoqué Mastodon comme alternative intéressante permettant effectivement de renouer avec ce que le web n'aurait jamais dû cesser d'être, c'est à dire un réseau décentralisé. Et j'en au profité pour en remettre une couche au niveau de l'index indépendant du web 😉
Bonus Track.
En rentrant dans le train j'ai découvert cet article de Kurt Gessler, journaliste au Chicago Tribune et intitulé :
"L'algorithme de Facebook ne fait plus apparaître qu'un tiers de nos articles. Et c'est de pire en pire."
Il y décrit très bien la manière dont l'éditorialisation algorithmique conditionne la visibilité des articles et ce indépendamment du nombre d'interactions ou de "fans" de la page. Pour un journal comme le Chicago Tribune, le fait que les 2/3 de ses articles soient ainsi "invisibilités" par des opérations algorithmiques est éminemment problématique, d'autant que lorsque je journaliste réussit à mesurer la portée organique (le "reach") des articles du Chicago Tribune sur les 15 derniers mois il s'aperçoit qu'une catégorie explose : celle des articles vus par un très petit nombre de personnes. Ce qui, pour un média, n'est pas vraiment bon signe.
Le journaliste explore plein de pistes et finit par suggérer que cette invisibilisation est peut-être lié au fait que le Chicago Tribune n'a pas adopté la solution "Instant Articles" proposée par Facebook et initialement réservée aux sites de presse. Bref, une punition incitative. Business As Usual.
Mais ce qui est très frappant, c'est la transposition de cet article à l'ensemble de nos publications sur le réseau, et pas uniquement pour des articles émis par des sites de presse dans Facebook. Car ce sont les mêmes règles de visibilité et d'invisibilité qui opèrent et sont à la manoeuvre. Les mêmes règles qui font que peut-être que plus des 2/3 de nos publications sont invisibles y compris pour nos "amis".
Même si l'on prend en compte le fait que Facebook ne peut pas toujours tout montrer au regard du volume d'informations qui circulent sur la plateforme, choisir de ne pas montrer est toujours signifiant. A fortiori lorsque rien ne nous dit les critères de visibilité qui s'appliquent, et a fortiori encore lorsque cette invisibilisation nous est à nous-même invisible, c'est à dire que nous ne voyons pas que nos articles ne sont pas vus.
Au pays du double aveugle algorithmique, les Fake News borgnes sont reines.