To block or not to block. Ce qui bloque quand Elon Musk débloque.

Dans le chaos qui suit le rachat de Twitter désormais « X » par Elon Musk, ce dernier vient d’annoncer son intention de mettre fin à la possibilité de « bloquer » des comptes sur la plateforme. Le blocage resterait possible uniquement pour les messages (DM) mais pour les comptes, il serait uniquement possible de les rendre « silencieux » (fonction « mute »), et donc de leur laisser la possibilité d’accéder en permanence aux contenus que l’on poste et partage, et d’y répondre (sans que nous voyions lesdites réponses).

Pourtant il fut un temps … où Elon Musk bloquait.

Comme chaque intention d’Elon Musk, celle-ci fait particulièrement débat car elle pose la question fondamentale de l’équilibre collectif des interactions dans des plateformes capables d’agréger, autour d’un compte en particulier, des dizaines, centaines, milliers ou millions d’interactions venant de dizaines, centaines, milliers ou millions d’autres comptes. Des interactions capables de porter les causes les plus nobles comme de conduire aux formes les plus cruelles de harcèlement en meute.

Le premier débat suite à cette nouvelle annonce explicitement arbitraire et ostensiblement polémique, est celui de son applicabilité. Les grands magasins d’application (Apple Store et Google Play) font de la capacité de bloquer l’une des conditions pour les applications disponibles dans leur écosystème de vente. Interdire la possibilité de bloquer des comptes conduirait donc à rendre l’application Twitter / X inaccessible au téléchargement depuis ces plateformes. Apple indique en effet explicitement que des lors que des applications proposent du contenu généré par les utilisateurs, elles doivent aussi offrir « la possibilité de bloquer les utilisateurs abusifs du service« , et Google indique de même qu’il faut « intégrer à l’application un système pour bloquer les utilisateurs et les contenus générés par l’utilisateur« .

L’autre débat est de savoir si la suppression de la fonction de blocage (block) sera compensée par un renforcement des options proposées par la fonction de silenciation (mute). A regarder la panique et les éléments de langage qui fleurissent chez certains ingénieurs et membres du board de X, il semble que oui.

Ainsi l’un des ingénieurs logiciels de X écrivait sur son compte :

Je vois beaucoup d’utilisateurs préoccupés par la suppression des blocages. Il est possible de renforcer les silenciations (mute), par exemple en interdisant aux personnes silenciées (« muted ») de vous répondre ou de vous citer. Nous pouvons également transférer votre liste de blocage vers la liste de mise en sourdine. Empêcher un compte de voir vos messages ne fonctionne pas dans la pratique (sic). N’importe qui, avec n’importe quelle intention, peut découvrir ce que vous publiez en créant simplement un autre compte ou en se déconnectant.

 

Quant à Linda Yaccarino, la nouvelle directrice générale de X, elle avançait péniblement quelques platitudes circonstancielles :

La sécurité de nos utilisateurs sur X est notre priorité absolue. Et nous construisons quelque chose de mieux que l’état actuel du blocage et de la mise en sourdine. N’hésitez pas à nous faire part de vos commentaires.

 

Nous verrons bien ce qui adviendra réellement de cette annonce. Il n’est d’ailleurs pas non plus totalement exclu que le blocage ne fasse partie d’un éventail de services ayant vocation à devenir … payants, confirmant une tendance « pay for privacy » que j’annonçais il y a 10 ans ;-).

Mais on peut d’ores et déjà y voir (au moins) deux visées stratégiques parfaitement alignées avec ce que l’on peut imaginer de l’agenda idéologique d’Elon Musk.

Créer un espace de non-mixité.

La première est d’achever de créer un espace de non-mixité, comme le soulignait le meilleur collègue Marc Jahjah :

Les queers seront plus exposés et partiront les uns après les autres de Twitter, devenu un enfer où s’épanouissent homophobes, racistes, fafs. Voilà comment on crée de la non-mixité, sans le dire explicitement, avec de petites fonctionnalités techniques.

 

Le solutionnisme technologique est aussi fait de ces petits ajustements de cadres expressifs qui permettent d’aligner l’ensemble de la circulation des discours dans une direction précise. Ici on ne dit pas que l’on veut exclure ou silencier, par exemple, des communautés en fonction de leur orientation sexuelle, mais on crée les conditions qui feront que ces communautés, souvent les plus fragiles et les plus exposées socialement, s’en iront d’elles-mêmes. On note d’ailleurs déjà, depuis l’arrivée de Musk et sa politique de rétablissement de comptes violents et toxiques et la baisse drastique de contrôle de régimes de modération déjà largement défaillants, que nombre de communautés mais aussi de scientifiques, notamment sur les questions climatiques, préfèrent fermer leur compte et s’exiler face à la recrudescence et à la volumétrie d’interactions devenues presque systématiquement toxiques. Et quand ils ne ferment pas leur compte, ils éprouvent des effets classiques de silenciation. Ce qui m’amène au second élément d’analyse stratégique d’une telle décision.

Amplifier les effets d’asymétrie. 

La clé et le coeur du réacteur des plateformes de médias sociaux est leur capacité à (sur)solliciter de l’engagement et à (sur)produire des interactions. Et l’un des principaux moyens pour y parvenir est d’organiser et d’entretenir des asymétries, des déséquilibres. Réunissez des gens qui disposent tous d’une expertise avérée sur un sujet et écoutez-les discuter : vous ne récolterez le plus souvent qu’un silence poli, incapable de fixer l’attention au-delà d’un petit cercle d’audience. Réunissez les meilleurs spécialistes scientifiques du climat et des climato-sceptiques avérés et vous obtiendrez d’homériques engueulades qui fixeront l’attention d’audiences hétérogènes et seront capables de générer d’importants effets de reprise et d’alimenter de nouveaux espaces discursifs aussi viraux que le plus souvent délétères. Asymétrie d’autorité.

On sait par ailleurs que le web est « affectif » pour reprendre le titre de l’ouvrage éponyme de Julien Pierre et Camille Alloing, et l’on sait également, depuis le début des analyses scientifiques sur la viralité et la contagion des sentiments sur les réseaux et médias sociaux, que les sentiments d’injustice et de colère sont ceux qui font le plus « spontanément » réagir. Trouvez un moyen d’optimiser la visibilité des discours appelant à ce type de sentiments et vous trouverez le moyen de générer à bas coût les audiences les moins « qualifiées » mais les plus larges possibles. Asymétrie émotionnelle.

De la même manière ont sait que s’affrontent au sein de ces biotopes informationnels des types de comptes très différents dans leur audience (leur nombre de folllowers) et donc dans la nature des interactions attachées. Et là encore les effets d’asymétrie sont parfaitement instrumentaux et jouent de dynamiques sociales assez classiques. Ainsi les « petits » comptes auront tendance à surjouer de différents types d’interactions (commentaires, partages, publications) afin de parvenir à voir leur discours « exister » en terme de visibilité. Ils le font parce qu’ils ont intégré que dans la volumétrie des plateformes, leur niveau de visibilité est en partie conditionné par leur capacité à compenser par leurs activités d’interaction le faible niveau de visibilité « organique » que leur confère leur nombre de followers. Pou le dire prosaïquement : il faut crier tout le temps et très fort pour avoir une chance d’être vu et entendu. A l’inverse, les « grands comptes », ceux qui font profession de leur capitalisme narcissique (les influenceurs), ceux qui « héritent » dans l’espace social numérique d’une exposition médiatique ou politique, ou ceux qui sont les deux à la fois, ceux-là savent que leur visibilité héritée ou capitalisée est seule garante de la circulation de leurs messages. Ils peuvent parler peu, il seront toujours immensément repris. Asymétrie de visibilité.

La décision de Musk de ne plus permettre de « bloquer » des comptes s’inscrit donc également dans la logique de construire un biotope informationnel totalement asymétrique, ce qui est l’une des premières conditions pour maximiser les interactions. Les interactions toxiques notamment, mais ça … Elon Musk s’en fout.

(Tout sauf) Safe Space X

Par-delà les constats empiriques, l’ambivalence fondamentale des médias sociaux en tant que biotopes informationnels est que tout en étant générateurs, à l’échelle macroscopique, d’interactions principalement vaines (effets de reprise ou d’écho, loi de Brandolini ou « Bullshit assymetry principle ») ou toxiques (harcèlement) – interactions qui peuvent, parfois, se parer de vertus cathartiques – ils sont également et simultanément capables, à l’échelle individuelle, de maintenir une matrice de liens intéressante et féconde. Il est possible d’y exister simultanément dans ce que l’on pourrait appeler deux plans d’expérience parallèles : celui qui nous conduit, par conformité sociale principalement, à n’être qu’un commentateur de plus, et celui qui nous amène à des interactions différentes et plus proche du champ de la conversation avec quelques comptes particuliers que nous choisissons par affinité plus que par opportunité ou par conformité.

Mais cet équilibre est fragile. Et pour pouvoir se maintenir et s’exercer il nécessite quelques conditions  – variables selon les écosystèmes informationnels, web ouvert ou plateformes fermées – conditions que j’avais essayé de détailler dans ce long article au titre un peu pompeux, je le confesse : « Des ‘Safe Spaces’ aux lieux de haine, et retour. Vers une anthropologie discriminatoire du cyberespace. » Je vous invite bien sûr à sa lecture mais vous rappelle ici quelques-unes des conclusions issues des travaux de chercheurs, de chercheuses et d’activistes que j’y mettais en perspective.

Si l’on veut que des espaces numériques « safe » puissent exister, c’est à dire non pas des espaces excluants pour les autres mais protecteurs pour celles et ceux qui expriment le besoin ou la nécessité de s’y retrouver pour discuter de leurs expériences de marginalisation, il faut d’abord noter que le sentiment de sécurité est indissociable du sentiment du secret. (Clark-Parsons, R. “Building a Digital Girl Army: The Cultivation of Feminist Safe Spaces Online.”) Or en retirant la possibilité de bloquer, on retire aussi l’une des composantes essentielles de la capacité de secret, ou à tout le moins de soustrait (au regard de certaines autres).

Il faut également être en capacité de jouer avec les temporalités et les stratégies énonciatives et expositives particulières à chaque plateforme (Shaw, Frances. 2013. « FCJ-157 Still ‘Searching for Safety Online’: collective strategies and discursive resistance to trolling and harassment in a feminist network.« ) C’est cette capacité que la décision d’Elon Musk vient remettre en question puisqu’il ôte l’une des principales stratégie énonciative et expositive.

Enfin (et pour le reste, c’est détaillé par là :-), la dimension « Safe » des espaces numériques privés est très liée aux effets d’autocensure qui sont eux-mêmes dépendants de la politique de modération globale de ces espaces. Et la question de la lisibilité et de la constance des politiques de modération est extrêmement importante. Et là encore, avec cette décision comme avec toutes celles qu’il a pris ou annoncé depuis son rachat de Twitter / X, miser sur une quelconque lisibilité ou constance est par avance voué à l’échec.

Moralité.

Cette décision, si elle doit aller à son terme, n’aura donc, du point de vue de l’usage, que des effets pervers, c’est à dire ceux qui sont précisément recherchés par Elon Musk pour achever de faire de Twitter / X une plateforme à son image.

3 commentaires pour “To block or not to block. Ce qui bloque quand Elon Musk débloque.

  1. L’avenir de X est-il si important que ça ? J’oserais que si X devient aussi insupportable que ça, ça permettra peut-être aux fuyards de découvrir des alternatives, voire (peut-être) de remettre les pieds dans le « vrai » monde.

  2. …ou alors permetre aux tenanciers des plus degueulasses statu quo, de saturer la  »web réalité » (c’est pas ar ce que c’edt sur internet que c’est pas  »le vrai monde »… ) de leur discours, sans aucune contradiction. Un genre de cnews à prétention participative, où tout les habituels exclus s’autocensurent..

    1. Je pense que c’est tout à fait le but… Et malheureusement les solutions libres ne sont pas prêtes en terme de facilité d’usage, Twitter est encore beaucoup plus simple que Mastodon

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut