L’homme qui a vu des données. Nuit de la publication et brouillard de l’intentionnalité.

La régulation des plateformes numériques est un sujet dont chaque facette (politique, éditoriale, économique, sociale, algorithmique …) est épineux. Très épineux. L'une des facettes les plus épineuses est celle du traitement réservé aux discours dits "de haine", incluant ceux de désinformation (Fake News) quant ils ont trait à des communautés ou des groupes sociaux dont on discute de la légitimité ou de l'authenticité des persécutions qu'ils ont vécu ou des génocides qu'ils ont traversé et qui sont, pourtant, parfaitement documentés **.

==============
** même si comme vient de le démontrer le remarquable documentaire de France2 sur la (dé)colonisation, cela peut prendre énormément de temps et laisser la responsabilité des réseaux sociaux tout à fait en dehors de ce qui est d'abord un déni culturel et politique dont ils ne sont  – les réseaux sociaux – que le très lointain et circonstanciel reflet, bien après, les médias "classiques" et traditionnels, notamment télévisuels.  
=============

Les discours de haine donc. Et leur modération / suppression / censure. Humainement modérée ou "automatiquement" et algorithmiquement exécutée. Un sujet dont je vous ai déjà parlé plein de fois et sur lequel j'ai patiemment et j'espère pédagogiquement construit un point de vue scientifique et universitaire (notamment) détaillé dans cet article.

Les données de l'Holocauste.

Et puis le 12 Octobre 2020, soit très exactement 80 ans après le début de la Shoah qui vit l'extermination de près de 6 millions de femmes, d'hommes et d'enfants juifs, Mark Zuckerberg, patron d'une plateforme rassemblant 2,5 milliards d'individus et qui avait lui-même "redécouvert" son judaïsme et l'importance de la religion à l'occasion de l'élection à la présidentielle américaine de 2020 (où certaines informations sur sa propre candidature avaient circulé …), Mark Zuckerberg vient donc de publier une mise à jour de la politique de modération des discours de haine "pour bannir ceux qui nient l'existence de l'Holocauste." C'est court. Un paragraphe. Sept phrases.  

"Today we're updating our hate speech policy to ban Holocaust denial. We've long taken down posts that praise hate crimes or mass murder, including the Holocaust. But with rising anti-Semitism, we're expanding our policy to prohibit any content that denies or distorts the Holocaust as well. If people search for the Holocaust on Facebook, we’ll start directing you to authoritative sources to get accurate information. I've struggled with the tension between standing for free expression and the harm caused by minimizing or denying the horror of the Holocaust. My own thinking has evolved as I've seen data showing an increase in anti-Semitic violence, as have our wider policies on hate speech. Drawing the right lines between what is and isn't acceptable speech isn't straightforward, but with the current state of the world, I believe this is the right balance."

"Aujourd'hui, nous mettons à jour notre politique en matière de discours de haine afin d'interdire le déni de l'Holocauste.
Nous avons depuis longtemps supprimé les publications qui font l'éloge des crimes de haine ou des meurtres de masse, y compris l'Holocauste. Mais avec la montée de l'antisémitisme, nous étendons notre politique pour interdire tout contenu qui nie ou déforme également l'Holocauste. Si des personnes recherchent l'Holocauste sur Facebook, nous commencerons à vous diriger vers des sources faisant autorité pour obtenir des informations précises. J'ai lutté contre la tension entre la défense de la liberté d'expression et le préjudice causé par la minimisation ou la négation de l'horreur de l'Holocauste. Ma propre réflexion a évolué au fur et à mesure où j'ai vu des données montrant une augmentation de la violence antisémite, tout comme nos politiques plus générales sur le discours de haine. Il n'est pas facile de tracer les bonnes lignes entre ce qui est acceptable et ce qui ne l'est pas, mais dans l'état actuel du monde, je pense que c'est le bon équilibre."

C'est un constat et il est ahurissant. Le constat que 80 années et 6 millions de morts n'auront pas suffi. Pas suffi au patron d'une plateforme de 2,5 milliards d'utilisateurs pour entériner le fait que la négation ou la relativisation de l'Holocauste devait être bannie. 80 années et 6 millions de morts n'étaient pas suffisants. Ce qu'il manquait, c'étaient des "données". Et tel un David Vincent illuminé par une soucoupe volante ou un Paul Claudel frappé par la révélation du divin un soir de Noël 1886, ces données, enfin, Mark Zuckerberg les a vues. 

250Mark Zuckerberg is the new David Vincent.

Tout tient dans ces quelques lignes. Plus de quinze ans de débat sur la responsabilité éditoriale des plateformes. Tout tient dans ces quelques lignes. La solution et le problème. Zuckerberg n'a pas décidé de bannir les discours de négation ou de remise en question de l'Holocauste parce qu'ils étaient contraire à la morale ou démentis par la vérité de l'Histoire. Il l'a décidé. Seul. Parce qu'il avait vu, seul, "des données". Tout tient dans ces quelques lignes. Le problème Mark Zuckerberg. Le problème de 2,5 milliards d'utilisateurs. Et la solution Mark Zuckerberg. La solution d'un seul.

Quelles données ? Nul le le sait sauf Zuckerberg lui-même. Que disaient elles ces données ? Que les violences antisémites augmentaient. 

Alors que s'est-il vraiment passé pour que Zuckerberg se décide à bouger sur ce point clé que constitue l'articulation entre le strict respect de la liberté d'expression à l'américaine et l'acceptabilité sociale et commerciale de la plateforme qu'il gère ? Probablement au moins trois choses. D'abord un sentiment. Le sien. Un sentiment de judéité qu'il travaille, probablement en partie sincèrement, et probablement aussi pour forger sa stature de leader américain. Ensuite du lobbying. D'associations juives probablement. Qui depuis des années luttent avec constance pour bannir les discours anti-sémites de la plateforme. Et qui peut-être cette fois n'ont rien fait d'autre que de présenter les mêmes chiffres et les mêmes données, mais qui cette fois ont été entendues. Enfin un momentum. Celui de l'incommensurable bordel qu'institue l'attitude de Trump à l'approche des échéances électorales. Et la manière dont les discours de haine, de toutes les haines, flambent comme jamais sur la version américaine de la plateforme. Le bon moment pour Zuckerberg de marquer le coup en rappelant que face au "Stand Back and Stand By" adressé par Trump aux identitaires et suprémacistes, c'était lui le vrai patron de cette agora privée et que tout n'y était pas publiquement dicible. 

Mais ce choix de Zuckerberg est aussi et avant tout une épiphanie. Celle de ce qu'Antoinette Rouvroy nomme "gouvernementalité algorithmique" : "La gouvernementalité algorithmique est l’idée d’un gouvernement du monde social qui serait fondé sur le traitement algorithmique des données massives plutôt que sur la politique, le droit et les normes sociales." Quelle preuve plus éclatante – et alarmante – que celle là ?

Zuckerberg est à la responsabilité éditoriale ce que le chat de Schrödinger est à la mécanique quantique. Il est responsable et en même temps il ne l'est pas. Au nom du premier amendement et du modèle économique de sa plateforme il doit garantir que tout puisse être dit et il doit rassurer sur le fait que tout ne peut pas l’être, en tout cas publiquement. Et toute la mécanique quantique de cet équilibre tient dans ces 12 lettres. "Publiquement". 

"Publiquement" ? Facebook, de la surface de son "fil" ou de nos "murs" jusqu'au tréfonds de nos messageries, n'est jamais ni authentiquement public ni sincèrement privé. Depuis sa fondation et comme danah boyd le rappelait dès 2006, c'est la privauté (privacy) de cet espace semi-public qui pose problème. Structurellement, constitutivement, Facebook est un espace privé. Fonctionnellement et par destination il est investi en tant qu'espace public. Economiquement il est un espace publicitaire ; et discursivement il est un espace de publicitarisation, c'est à dire que le principe premier d'organisation et de hiérarchisation des discours est leur potentiel de viralité et de contagion : non pas la capacité de dire quelque chose ou l'intérêt de ce que l'on dit, mais seulement la capacité de faire parler de ce que l'on dit.

Au final, plus la bulle Facebook gonfle et plus celle de l'espace public authentique et sincère se dégonfle. Ce n'est pas un hasard si cette plateforme se demande en Octobre 2020 s'il faut bannir les comptes négationnistes. Pas un hasard non plus si à chaque attentat ou crime terroriste – et celui de Samuel Paty vient encore de nous le rappeler – la frénésie médiatique sombre dans la même pantomime ridicule où l'on s'écharpe sur le non problème de l'anonymat et sur la capacité de censure directe et discrétionnaire comme alpha et oméga d'un débat qui évite soigneusement de mettre en cause les fonctionnalités techniques des plateformes qui produisent des conditions d'énonciation dégradées et toxiques au même titre que les conditions de production chez Marx produisent et fabriquent et déterminent des conditions d'exploitation.

"Quand tout le monde vous ment en permanence, le résultat n'est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d'agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez." Hannah Arendt. 

Quand plus personne n'est capable de faire la distinction entre un espace public de discours et un espace privé de dialogue, le résultat c'est que plus personne ne peut authentifier le régime d'intentionnalité qui prévaut pour chaque énoncé selon la sphère (publique ou privée) de son énonciation première.  Et dans ce brouillard permanent de l'intentionnalité des discours et des énoncés, "vous pouvez faire ce que vous voulez". Mark Zuckerberg peut expliquer qu'il vient de comprendre 80 ans après la Shoah que le négationnisme avait des effets, et qu'il était en quelque sorte "performatif". La grande mosquée de Pantin peut expliquer que reprendre la vidéo de Brahim Chnina où il désigne Samuel Paty ne constitue en rien un indice performatif du message qu'elle-même cherchait à transmettre. Malgré les signalements, Twitter peut ne pas supprimer un compte qui diffuse des photomontages de décapitation et lui permettre de poster celle de son crime odieux. 

Nous évoluons chaque jour en ligne dans des espaces qui n'ont plus rien de public. Qui sont envahis pas la publicité et structurés par la publicitarisation. Des espaces "publicides", qui "tuent" littéralement la possibilité d'un espace public commun qui ne soit pas nécessairement traversé par des intérêts marchands ou par des artifices de polarisation. Soit la négation même d'un espace public qui soit un espace commun et qu'il nous faut réapprendre. Et réapprendre d'abord à nommer. Nous devons enseigner et défendre ce que « publier » veut dire. Pas simplement "poster", "partager", "retweeter" ou "liker". Enseigner la publication. Et nous devons contraindre les plateformes à nous empêcher d’avoir recours à des actes réflexes comme seule temporalité éditoriale possible. Nous devons nous souvenir que la démocratie est à ce prix : celui d’un "rendu public" mais négocié entre tous plutôt que décrété par un seul ou simplement scruté par chacun pour noter les débordements de l’autre.

Et que n’en déplaise à Mark Zuckerberg, tout cela n’est pas « donnée ».

 

 

[Si cet article vous a plu …]

Et que vous êtes tombé ici un peu par hasard sans connaître ni mon blog ni mes travaux, alors sachez que je viens d'écrire un [petit et pas trop cher] livre, Le monde selon Zuckerberg : portraits et préjudices, qui traite de questions numériques et de démocratie. Et que je profite donc de votre passage pour vous en recommander la lecture et l'achat.

 

 

2 commentaires pour “L’homme qui a vu des données. Nuit de la publication et brouillard de l’intentionnalité.

  1. « Ce n’est pas un hasard si cette plateforme se demande en Octobre 2021 s’il faut bannir les comptes négationnistes. »
    « tweny tweny » semble bien partie pour être une année de merde, comme dit l’autre, mais passer à la suivante directe..!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut