Les révélations et scandales autour de Facebook continuent d'être feuilletonnés et chaque jour on prend connaissance de nouveaux éléments qui démontrent toute la toxicité cynique de cette entreprise. Chaque jour on se demande aussi comment elle peut encore tenir devant de tels scandales. Et chaque jour on constate qu'elle tient encore. Profits records au milieu de la tempête : "Good job everyone !"
Chroniquant également ces révélations, Alexandre Piquard signait un papier dans Le Monde rappelant que, comme permettent de le prouver la fuite de documents internes à l'entreprise :
"dans des dizaines de langues et des pays à haut risque, les systèmes de modération du réseau social face aux discours de haine et aux manipulations ne sont pas suffisants."
En gros, Facebook se préoccupe essentiellement de ce qu'il se passe aux Etats-Unis et en Europe en termes de modération automatique et humaine des contenus violents ou haineux. Et laisse se multiplier les faux-comptes et les appels à la haine contre des minorités (ethniques, religieuses, sexuelles …) dans des pays (nombreux …) pour lesquels ils ne dispose pas de modérateurs capables de maîtriser les langues ou dialectes parlés et où, en termes de modération "automatique", Facebook explique manquer d'outils linguistiques de catégorisation automatique ("classifiers").
Extrait de l'article du Monde :
"Mais les documents internes montrent que ceux-ci sont également limités par les langues. Selon la note sur l’Afghanistan, seuls 2 % des contenus haineux modérés dans le pays sont ainsi repérés automatiquement, contre plus de 90 % en moyenne dans le monde entier. Le problème est que ces systèmes informatiques ont besoin de « classifiers », des catégories qui leur permettent de reconnaître un type de contenu problématique, par exemple sexuel ou haineux, mais qui nécessitent un entraînement à partir d’un grand volume de données dans la langue correspondante. « Cela prend du temps », constate un employé dans un document.
Dans un tableau dévolu aux pays les plus risqués, daté de juin 2020, il est ainsi précisé que des « classifiers » de désinformation manquent en Birmanie, au Pakistan, en Ethiopie, en Syrie ou au Yémen. Idem pour les contenus trompeurs ou dangereux sur le Covid-19, en pendjabi ou en oromo, ainsi que pour les discours de haine en oromo et en amharique. « Notre manque de classifiers en hindi et en bengali signifie que beaucoup de ces contenus ne sont pas signalés ou modérés », regrette un employé dans la note sur l’Inde, citant des propos « antimusulmans » sur des pages liées au groupe nationaliste hindou RSS."
Pour le dire encore différemment : il est désormais attesté que c'est dans les pays les plus violents et les plus à l'abandon politiquement que la modération de Facebook est soit tout à fait inexistante, soit tout à fait inefficace. Et c'est un choix de Facebook que de ne pas se concentrer et de ne pas mettre de moyens (humains ou techniques) sur ces pays où les usages de sa plateforme sont pourtant tout aussi massifs que sont massives les violences contre les minorités.
Facebook : Rivers Networks of Babylon.
Le mythe de la tour de Babel est probablement l'un des plus puissants facteur d'explication à la fois de l'ascension et de la (toujours possible) chute de Facebook. Le mythe original tel que résumé par Wikipédia est celui-ci :
"Peu après le Déluge, alors qu'ils parlent tous la même langue, les hommes atteignent une plaine dans le pays de Shinar et s'y installent. Là, ils entreprennent de bâtir une ville et une tour dont le sommet touche le ciel, pour se faire un nom. Alors Dieu brouille leur langue afin qu'ils ne se comprennent plus, et les disperse sur toute la surface de la Terre. La construction cesse. La ville est alors nommée Babel."
Et voici comme on pourrait le réécrire en dystopie pour coller au plus près de l'actualité des scandales Facebook :
"Peu après l'internet et le web, alors qu'ils parlent tous des langues différentes, les hommes atteignent une plaine médiatique dans le pays de l'Amérique et s'y installent. Là, ils entreprennent de bâtir un réseau social et un graphe dont chaque sommet est l'un d'entre eux, pour se faire un nom et y mettre un visage. Alors leurs langues se (dé)brouillent, et font qu'ils ne se comprennent plus, et ils se retrouvent une nouvelle fois dispersés sur toute la surface de la Terre. La construction cesse. Le réseau est alors nommé Facebook."
Reprenons.
Le mythe de la tour de Babel est probablement l'un des plus puissants facteur d'explication à la fois de l'ascension et de la (toujours possible) chute de Facebook. C'est dans sa manière de traiter la langue (et la diversité linguistique) que Facebook est en train de – peut-être – construire sa perte comme Google avait – de manière certaine – construit son succès.
Je vous explique.
Pour Google, tout se joue en effet autour de la notion de "capitalisme linguistique" et de la spéculation sur la langue, mécanisme décrit et explicité par Frédéric Kaplan dans son article "Quand les mots valent de l'or" dont je vous remets ici l'incipit et quelques courts extraits :
"Le succès de Google tient en deux algorithmes : l’un, qui permet de trouver des pages répondant à certains mots, l’a rendu populaire ; l’autre, qui affecte à ces mots une valeur marchande, l’a rendu riche. (…) Le marché linguistique ainsi créé par Google est déjà global et multilingue. A ce titre, la Bourse des mots qui lui est associée donne une indication relativement juste des grands mouvements sémantiques mondiaux. (…)
Tout ce qui peut être nommé peut donner lieu à une enchère. Google a réussi à étendre le domaine du capitalisme à la langue elle-même, à faire des mots une marchandise, à fonder un modèle commercial incroyablement profitable sur la spéculation linguistique. (…)
Les technologies du capitalisme linguistique poussent donc à la régularisation de la langue. Et plus nous ferons appel aux prothèses linguistiques, laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace."
Ainsi donc, Google propose en permanence une régularisation de la langue elle-même plutôt que de ce qu'elle tend à exprimer. Ce qui se régularise dans la spéculation linguistique de Google c'est le signifiant et non le signifié. Ce qui pose déjà d'immenses problèmes.
Si tout se joue pour Google autour de la spéculation (capitalisme linguistique), et de la régularisation du signifiant de la langue, pour Facebook c'est en quelque sorte l'inverse : tout se joue autour de la question de la modération linguistique, une modération dont l'objet n'est plus le signifiant mais le signifié.
La spéculation linguistique fut et demeure pour Google la garantie de son rendement, son carburant et son comburant premiers ; la modération linguistique sera peut-être pour Facebook la garantie de son effondrement.
Modérer ou spéculer : telle est la question.
Spéculer c'est la capacité de faire varier arbitrairement ; de changer la valeur marchande d'un bien, en l'occurence d'un mot pour le capitalisme linguistique.
Modérer c'est la capacité de rendre invariant un échange au regard d'un système de valeur(s) partagé(e)s. Je commence par définir ce qui est acceptable et ce qui ne l'est pas, et je m'attache à garantir cette acceptabilité comme cadre de l'échange. Modérer c'est faire entrer de l'inacceptable singulier dans de un acceptable collectif : on peut dire du mal d'une religion mais pas des gens qui la pratiquent. Et modérer c'est aussi faire sortir (exclure) d'un inacceptable collectif des opinions qui peuvent être singulièrement acceptables : on a le droit de penser que tous les prêtres sont des pédophiles mais pas de le dire dans un espace public (donc collectif) "modéré". En tout cas pas de le dire de manière performative et publicitarisée, c'est à dire de le "dire pour" déclencher ou bénéficier d'une rente attentionnelle publicitaire, ou pour, en le disant, déclencher et légitimer des mécanismes d'oppression réels ou symboliques du seul fait de l'audience accumulée (dimension performative et fenêtre d'Overton). Je parle naturellement ici de "modération" au sens des politiques et règles de modération telles qu'explicitement décrites dans les CGU des plateformes et telle qu'implicitement mises en oeuvre dans l'automaticité de leurs patrouilles algorithmiques.
Or, c'est précisément tout l'inverse qui se joue dans un grand nombre de médias ainsi que dans ce média social particulier qu'est Facebook : la modération ne fonctionne plus que comme alibi ou instance légitimante de la spéculation attentionnelle. Puisque l'on vous dit que c'est "modéré", c'est à dire qu'un cadre de modération est prévu et attendu, cela légitime la capacité de le transgresser comme dans ces procès où l'avocat énonce un argument ou un fait dont il sait que le juge le récusera mais dont il sait surtout qu'il suffit que le jury l'entende pour contribuer à fausser son jugement dans le sens qu'il espère pour son client. Cette forme de modération par l'outrance, est d'ailleurs un classique des dispositifs et des agencements informationnels notamment médiatiques : le clash sur les plateaux télé (de "Droit de réponse" de Michel Polac dans les années 80 au paradigme actuel s'étalent de Pascal Praud à Cyril Hanouna) ne fonctionne pas autrement.
Donc on dit que l'on modère la langue mais en fait on ne modère que le vocabulaire (parce qu'un algorithme ne comprend et ne comprendra jamais le second degré ou la dimension allusive ou métaphorique de la langue) : et puisque l'on ne modère (mal) que le vocabulaire, on autorise toutes les spéculations linguistiques, c'est à dire tout ce qui sort du champ du "discours modéré" et qui ne vaut que par la capacité à attiser, à polariser, à fracturer, à diviser … En d'autres termes, plus il y a de modération affichée, et moins il y a de discours modérés affichables.
Retour à Babylone.
Ce qui entrave Facebook aujourd'hui, et ce qu'il reconnaît d'ailleurs, c'est la langue, c'est la diversité linguistique. C'est le fait que lui comme d'autres (Google notamment) sont parfaitement capables de spéculer sur le vocabulaire (parce qu'il ne s'agit alors que d'une valeur abstraite, que d'un signifiant) mais qu'il n'est absolument pas capable de modérer correctement et efficacement la langue, a fortiori quand il s'agit d'une autre que la sienne.
Paradoxalement, l'archétype d'entreprise capitaliste que veut être Facebook est empêché par des entraves linguistiques qui sont pourtant et depuis longtemps partout ailleurs dans l'économie de marché globalisée, neutralisées et incorporées. Il n'y a plus, dans l'économie mondialisée, de "barrière de la langue". Tant parce que l'anglais y est devenu langue véhiculaire plus que vernaculaire, que parce la langue – l'anglais toujours le plus souvent – n'est dans ce cas que le vecteur de transactions spéculatives. Et que chaque fois qu'il est nécessaire de revenir à autre chose que de la spéculation, chaque fois qu'il faut non plus seulement calculer mais construire le cadre d'un échange modéré, alors chacun revient initialement à sa langue et à des procédés plus littéraux de traduction comme préalables à de futures transactions.
La 1ère violence de Google était celle de l'outrage marchand fait à la langue (spéculation). Et c'était déjà beaucoup. La 1ère violence de Facebook est celle de l'outrage fait aux locuteurs et locutrices de langues non-capitalistiques dans le modèle de la firme (modération), c'est à dire non rentables, ou qui ne le sont – rentables – que tant qu'elles sont peu ou pas modérées et qu'ainsi il est possible de continuer d'afficher, dans ces communautés linguistiques là, des publicités ciblant par exemple ostensiblement les femmes, ou les minorités sexuelles, ou les minorités ethniques, religieuses, etc.
Comme l'écrit (entre autres) le Financial Times, "Facebook has a huge language problem". Qui est aussi, et plus que tout autre, notre problème.
La langue est pour Facebook une externalité négative. La diversité linguistique est pour Facebook une externalité négative ("situation où un acteur est défavorisé par l’action de tiers sans qu’il en soit compensé"). Quand j'écris cela ce que je signifie c'est qu'à la différence de Google, pour qui elle est une matière première qu'il s'agit d'extraire et de raffiner pour la mettre sur un marché attentionnel où il organisera la spéculation (externalité positive donc), la langue est pour Facebook considérée et traitée comme une externalité négative : elle est non pas un atout mais un encombrement ; elle est non pas une fluidité dans l'échange mais une friction qu'il s'agit de résorber et de résoudre.
Cela peut a priori paraître paradoxal ou contre-intuitif : on parle en effet beaucoup sur les réseaux sociaux. Or "nous ne sommes pas censés parler autant" comme l'explique et l'analyse Ian Bogost dans un article dans The Atlantic. Et de s'interroger :
"Il est grand temps de remettre en question une prémisse fondamentale de la vie en ligne : Et si les gens ne pouvaient pas en dire autant, à tant de gens, si souvent ? (…) Ne serait-il pas préférable que moins de gens publient moins de choses, moins fréquemment, et que des publics plus restreints les voient ?"
Il y a une tension structurelle, une interrogation fondamentale entre chaque artefact technique et le seuil de l'artificialité de ce qu'il permet de produire ou d'atteindre. Lorsque plus aucun frein ne limite cette artificialité, lorsque le refus de limiter ou de freiner cette artificialité devient la déclaration d'intention, le programme et le modèle technique des entreprises développant ces artefacts, bref lorsque tout le monde tout le temps n'a pas simplement la possibilité de s'exprimer mais l'injonction (sociale, technique) de réagir en permanence, alors en effet la langue n'est plus un canal mais un canon.
Mais redisons-le, Facebook ne spécule pas sur la langue, Facebook ne spécule pas sur le marché linguistique, Facebook ne raffine ou n'extrait nul gisement linguistique ; Facebook spécule sur les interactions sociales dont la langue n'est que le support ; Facebook travaille à l'extraction de comportements stéréotypiques qu'il affine et "raffine" pour organiser ensuite la spéculation sur et autour de ces comportements.
Ces comportements, ces interactions reposent bien sûr initialement sur un matériau linguistique mais celui-ci, s'il demeure essentiel, n'est pas, n'est plus, pour Facebook, un essentiel. L'essentiel pour Facebook c'est cette grammaire émotionnelle, pulsionnelle. Souvenez-vous : je veux un chien, un enfant et du sexe. Une grammaire actionnable parce que chiffrable, réductible à une mise en nombre, donc en algorithme ; une grammaire dans laquelle "une réaction "en colère" ou "j'adore" vaut 5 points, quand un "j'aime" classique n'en vaut qu'un."
Il s'agit bien pour Facebook, même si cela apparaît contre-intuitif, de limiter l'usage de la langue au profit d'économies relationnelles et d'agencements sémiotiques construits toutes entiers sur des icônes comme le like (et ses 6 compagnons émotions primaires, 7 cavaliers de l'apocalypse interactionnelle) ou sur des dynamiques comme le partage. La première langue de Facebook, son premier idiome, ne repose sur aucun signifiant et n'articule que des signifiés : la joie, la colère, la tristesse, la surprise, la peur, le dégoût.
Il n'est donc pas étonnant, qu'une plateforme sociale, dans sa circulation, massive, inédite, capable de ne s'articuler qu'autour de 6 émotions fussent-elles universelles, et qui ne traite la dimension linguistique de ses signifiants que comme autant d'encombrants, il n'est donc pas étonnant que cette plateforme ait un problème de modération. Et que ce problème de modération ne nous renvoie collectivement à la question fondamentale de la langue et au mythe de Babel.
From the Networks of Facebook, to The Rivers of Babylon …