<Edit du lendemain> Bon j'ai bien fait de faire ce billet car en effet à 4 invités en plateau pour une émission de 40 minutes moins les questions et les relances il reste moins de 5 minutes à chacun pour s'exprimer. C'est le jeu ceci dit donc pas de souci. Bref. En plus de ce que j'ai dit hier soir, et en plus de l'article ci-après, quelques remarques supplémentaires portant spécifiquement sur les "haters".
Nous avons tous et toutes une appétence particulière et parfois particulièrement trouble pour les discours provocateurs et pour les discours de haine autant que pour celles et ceux qui les portent. Cette appétence est liée à la dimension affective et émotionnelle que ces discours mobilisent. Et cette appétence est structurellement entretenue par les logiques virales des plateformes qui qualifient et quantifient parfaitement les émotions qui nous font le plus réagir et qui sont donc – pour les plateformes toujours – les plus rentables d'un point de vue attentionnel et donc, économique.
Les "Haters" ne sont pas une catégorie sociologique homogène. Il existe toute une gradation entre :
- les "raids" menés et organisés collectivement et ciblant une personnalité publique
- les discours individuels d'appel au meurtre, au viol ou les menaces physiques ou psychologiques explicites d'une part
- les "simples" provocations ou agressions verbales s'apparentant par ailleurs souvent davantage à des effets de "trolling".
En plus de cela, la caractéristique principale de beaucoup des haters est souvent celle d'un désoeuvrement pulsionnel et attentionnel. Hormis la catégorie des monomaniaques qui ciblent quasi-exclusivement un type de personnalité publique sur un type de sujet, très souvent on trouve chez les haters une forme d'incapacité à disposer d'un cadre attentionnel stable ; ils ne "savent pas" à quoi porter particulièrement attention. Ils se contentent donc de répondre au stimulus le plus puissant émotionnellement ou le plus présent dans l'affichage des sujets d'actualité mis en avant par les plateformes (trending topics par exemple).
Parmi les rares trucs compréhensibles que j'ai réussi à glisser à l'antenne suite à une relance d'Hervé Gardette il y a la question de "l'effet petit pois" ou du biais qui fait que l'attention médiatique se porte toujours sur le train qui n'arrive pas à l'heure (le discours de haine) plutôt que sur celui qui circule normalement (discours normalisé, respectueux, poli, courtois, simplement normal quoi). Et en effet, à l'échelle de la volumétrie réelle des interactions dans ces plateformes, la part des discours de haine reste extrêmement faible, mais c'est celle que l'on voit le plus.
La question des discours de haine est quand même avant tout celle des "audiences (dis)qualifiées". Quand vous avez 50 000 ou 100 000 followers (ou davantage) et que vous commencez à tenter d'articuler une pensée structurée sur la représentation du racisme ou l'image de la femme dans la société, c'est un peu comme tenter d'organiser un café philo dans un stade de foot à la mi-temps d'un match OM-PSG.
Dernière remarque. Au sein des plateformes nous évoluons dans un contexte attentionnel schizophrénique dont nous avons appris à maîtriser l'ambivalence. Primo nous savons (parce que nous fonctionnons individuellement comme ça) que les discours sur le registre de l'exagération et de la démesure (dont les discours de haine donc) sont les discours les plus capables de ramener efficacement de l'attention sur nos propres discours et nos propres prises de parole. Et nous savons aussi qu'à l'échelle de la volumétrie considérable des discours et des interactions, notre parole et notre discours vont se retrouver noyés dans la masse et la plupart du temps inaudibles, ce qui, toujours du point de vue de la situation de communication, est individuellement très difficile à accepter. Voilà pourquoi nous franchissons parfois le pas de l'outrance qui est aussi le premier pas vers un discours stigmatisant ou haineux. Juste pour parvenir à avoir l'impression d'être vu, lu et entendu. De là à croire que nous serons compris …
"Je vous ai entendu" Discours célèbre tenu sur une plateforme.
L'émission est réécoutable en podcast par ici.
</Edit du lendemain>
J'ai déjà beaucoup écrit et publié sur la question de savoir "comment lutter contre la haine sur Internet ?"
Le 22 février 2015 ("Lutter contre la haine sur Internet") je proposais – notamment – de remplacer "sur Internet" par "dans les plateformes" et de contraindre lesdites plateformes à ouvrir et à mettre en délibéré (donc en gros à rendre "publiques") les parties du code algorithmique relevant l'une logique classique d'éditorialisation. Et j'en rajoutais une couche en Mars 2017.
En septembre 2017, je m'efforçais d'en revenir aux racines de ces phénomènes : "Tant qu'il y aura de la haine, il y aura des gens pour n'y voir qu'un marché." La petite histoire de la haine sur les internets remonte – c'est en tout cas mon hypothèse – aux premières fois (en 2005) où des partis politiques s'emparent des liens sponsorisés pour s'approprier des audiences à la hussarde et avec le même code de déontologie que le couple Balkany rédigeant sa déclaration d'impôt et avec la même bienveillance que Laurent Wauquiez secourant des migrants en mer. En fait, ce sont là les prémisses de la prise de conscience de la nature profondément spéculative des discours de haine en particulier et des discours polarisés ou clivants en général. Mon opinion est que si l'on ne commence pas par comprendre cela, on ne comprendra jamais rien aux logiques virales – y compris et surtout haineuses – et on ne sera jamais capable de proposer des solutions adaptées. En ramenant un bien commun – la langue et le vocabulaire – dans le domaine marchand de la spéculation on a découvert, créé puis entretenu collectivement des pratiques discursives dont la rentabilité était directement indexée sur leur capacité de stigmatisation politique, sociale, commerciale, culturelle, et ce à l'échelle collective ou individuelle. Toutes les dérives auxquelles nous avons assisté entre 2005 – avec l'UMP achetant le mot-clé "banlieue et émeutes" pour ramener du trafic vers le site de candidature de Sarkozy – et 2018 – avec Facebook proposant à ses annonceurs des catégories de "ciblage" publicitaire qui recyclaient ces catégories discursives de la stigmatisation, sont directement liées à cette marchandisation de la langue. Tout est là. C'est la clé. La seule.
En Juin 2017 je revenais sur l'affaire du financement par Paypal de la campagne d'un groupuscule fasciste visant à empêcher l'Aquarius de sauver des vies en Méditerranée. L'argent n'a pas d'odeur mais le financement participatif de la haine en a une. Que les CGU ne suffisent pas à étouffer sans une vigilance étatique et citoyenne de chaque instant elle-même insuffisante dans transparence et explicitation de la partie non pas "obscure" mais "tacite" de l'application desdites CGU.
En décembre 2016, je vous ai parlé de la manière dont les moteurs de recherche (Google en tout cas) étaient à leur tour prisonniers volontaires de cette folie économique consistant à mettre les mots à prix, et de la manière dont les questions apportées par le moteur à certaines questions en venaient à fabriquer des représentations tordant la réalité historique et entretenant de néfastes confusions dans l'esprit de plein de gens. Il s'agissait en l'occurence de savoir "si l'Holocauste avait vraiment existé." Quelques mois plus tard, toujours sur Google, c'était cette fois l'un des idéologues principaux du négationnisme qui était présenté comme "un historien de l'holocauste".
Mais pourquoi tu nous re-racontes tout ça ?
Parce que je vais participer demain mercredi (par téléphone) à l'émission de France Culture "Du grain à moudre" qui sera consacrée à cette question, suite à la remise du récent rapport de Laetitia Avia ("Renforcer la lutte contre le racisme et l'antisémitisme sur internet.pdf"), lequel rapport eut pour premier et principal effet de conduire Mounir Mahjoubi à vouloir reciviliser l'internet ; émission où je serai (toujours par téléphone) en compagnie de Pablo Mira, de Rokhaya Diallo et donc de Laetitia Avia.
Et parce que en ce moment, entre les politiques qui veulent "reciviliser l'internet" et les collègues qui déplorent – avec des arguments parfaitement valables isolément – un nouvel "ensauvagement du web", mes errances numériques commencent sérieusement à ressembler au potentiel érotique qu'un discours d'intronisation de Mme Marais à la tête de l'Hadopi.
Mme Marais. Plus connue sous le sobriquet de "Mère fouettard de l'internet"
Notez d'ailleurs qu'il m'arrive également de ne pas nécessairement briller par mon optimisme et que je n'y vais pas toujours avec le dos de la main morte puisque j'ai très tôt – dès 2010 – évoqué la nature "concentrationnaire" de la navigation au sein des plateformes et, plus récemment, des formes de "néo-fascisme documentaire" caractéristiques de l'approche et du traitement des données au sein des mêmes plateformes. Mais les plateformes ne sont pas le web. Et le web n'est pas "internet".
Le grain à moudre est moulu.
Comme à l'accoutumé dans ce genre d'exercice radiophonique je sais que je vais, primo, être frustré de ne pas avoir le temps de dire tout ce que je voulais dire et, deuxio, trouver que j'ai parlé de tout sauf de l'essentiel et en plus que je l'ai mal fait. Donc je me fais ici un petit pensum et je vous en fait du même coup profiter si vous le souhaitez.
Sinon ben arrêtez votre lecture ici et retournez ensauvager l'internet pas civilisé bande de petits chenapans.
Zéro.
Le web est un espace public. A ce titre il n'est ni plus sauvage ni moins sauvage qu'un autre espace public qui ne serait pas le web. Et on n'a pas besoin d'y "renforcer la lutte contre le racisme et l'antisémitisme" mais simplement d'y faire appliquer les lois existantes (ce qui implique, nous sommes d'accord, un minimum de moyens supplémentaires). Mais pour cet espace public qu'est le web il n'y a besoin d'aucune – j'ai bien dit AUCUNE – loi supplémentaire. Les lois qui existent permettent déjà de circonscrire et si besoin de punir l'ensemble des dérives se produisant dans l'espace public idoine (injure, diffamation, propos anti-sémites, racistes, appels au meurtre, apologie du terrorisme ou de la pizza à l'ananas, etc.)
Et.
Pis.
C'est.
Tout.
Maintenant intéressons-nous aux plateformes qui sont sur le web mais qui ne sont pas le web mais autant de "jardins fermés" comme se plaît à le rappeler depuis plus 10 ans l'inventeur … du web. Et dans "plateformes", en plus des réseaux sociaux ou sites de vidéo (YouTube), j'inclus également les moteurs de recherche, en tout cas Google, qui même s'il se nourrit encore beaucoup d'externalités, fonctionne quand même de manière de plus en plus auto-centrée sur son propre écosystème de services.
Primo.
La lutte contre la haine sur les plateformes (PAS SUR LE WEB NI SUR INTERNET) est d'abord et avant tout un problème d'architecture(s) technique(s) toxique(s). Que l'on peut métaphoriquement ramener aux phénomènes de violence dans les banlieues. L'origine de cette violence (vous me pardonnerez ici mon approche sociologique à la hache) n'est pas que "les gens des banlieues" sont plus méchants ou agressifs que les autres mais que, plus que les autres, ils habitent des architectures urbaines anxiogènes où la promiscuité imposée est source de conflits, et que ces habitats sont plus que d'autres totalement désertés par la présence de l'état et des services publics.
Seule "différence" avec nos architectures urbaines anxiogènes, les architectures techniques sont invisibles, et cela participe au premier plan de leur toxicité.
Donc "les internautes anonymes ou non" ne sont pas davantage des "haters" ou des incendiaires de la haine que "les gens de la vraie vie déconnectée", mais "les internautes des plateformes", eux, oui. Précisément parce que l'essentiel de leurs interactions connectées se fait dans lesdites plateformes, dans ces architectures techniques toxiques et non plus sur le web en tant qu'espace public.
Et donc pour filer la métaphore jusqu'au bout, oui il faut raser les grandes tours toxiques que sont Facebook ou Youtube (entre autres). Oui il faut à la place reconstruire un web pavillonnaire décentralisé. Et oui, surtout et avant tout, il faut remettre "de l'espace public" (et les services qui vont avec) dans cet espace pour l'essentiel privatisé qui est devenu celui de nos navigations. Donc oui c'est bien sûr d'abord une décision qui doit être politique. Et oui la question d'un démantèlement ou d'une nationalisation des GAFAM ne doit plus être un tabou ou une pure hypothèse.
Tant que j'y suis j'ai même une autre métaphore moisie à vous fournir. C'est celle de l'écologie et de l'argumentaire du récent ministre d'état démissionnaire. Dans son argumentaire donc, Nicolas Hulot a – notamment – dit que la crise écologique ne pourrait pas être résolue ou ramenée à des proportions "soutenables" (réchauffement, extinction des espèces, migrations climatiques, etc.) tant que nous ne changerions pas de modèle économique (en gros, sortir du capitalisme / libéralisme). Et ben à l'échelle de 4 milliards d'humains connectés dont plus de la moitié (2,8 milliards) sont "dans" Facebook, et à l'heure où quatre sites drainent à eux seuls plus de 50% du trafic internet en France (Google, Netflix, Facebook et Akamai) et presqu'autant dans le monde, il va nous falloir en effet changer radicalement de modèle économique (= sortir du capitalisme linguistique) et d'architecture technique (remettre de la décentralisation, le chef y travaille déjà, et puis faut pas non plus oublier qu'il y a toujours ce projet d'index indépendant du web qui pourrait aussi faire bien avancer le schmilblick).
Deuxio.
Le problème de la lutte contre la haine sur les plateformes (MAIS TOUJOURS PAS SUR LE WEB OU SUR INTERNET) est ensuite le problème de l'aspect spéculatif des discours de haine et de l'intérêt – spéculatif également – qu'y trouvent les plateformes. Comme je le rappelais plus haut dans mon introduction en m'appuyant sur l'article dans lequel je refaisais l'histoire et la génèse de la naissance de ces discours de haine et que je vous recopie ici pour vous éviter un coup d'ascenseur :
En ramenant un bien commun – la langue et le vocabulaire – dans le domaine marchand de la spéculation (liens publicitaires et capitalisme linguistique) on a découvert, créé puis entretenu collectivement des pratiques discursives dont la rentabilité était directement indexée sur leur capacité de stigmatisation politique, sociale, commerciale, culturelle, et ce à l'échelle collective ou individuelle.
Et là encore permettez-moi de m'auto-citer. Lorsque j'évoquais les questions de la lutte contre le harcèlement, voilà le diagnostic que je posais sur la manière dont la "sagesse des foules" peut basculer dans la folie :
"Question. Si (…) ces plateformes ont en effet les moyens et les compétences pour mettre rapidement fin à ces campagnes de harcèlement organisées, la question est alors de savoir pourquoi elles ne le font pas, ou si peu ou si mal ?
Réponse. Si ces plateformes paraissent si inefficaces dans la lutte contre le harcèlement, c'est parce qu'à l'échelle du capitalisme linguistique qui est leur modèle, le harcèlement est perçu analysé et traité comme la forme spéculative du discours haineux. Et que cette forme de spéculation est économiquement féconde puisqu'elle alimente en interactions lesdites plateformes. Laisser se déployer la volumétrie des logiques de harcèlement, ou refuser de prendre les mesures nécessaires pour les stopper rapidement et efficacement, équivaut, aussi trivialement que cyniquement, à entretenir la spéculation linguistique sur des logiques de haine, de détestation, de stigmatisation, de colère, etc. Et quand on est une plateforme qui repose sur un triptyque capitaliste (capitalisme linguistique, cognitif et "de la surveillance"), on ne combat jamais la spéculation : on l'entretient, on crée les conditions de son existence, on la rend possible, on la facilite."
Et ce qui vaut pour le harcèlement, vaut bien sûr également pour les propos racistes ou sexistes : ils sont également autant de formes spéculatives du discours haineux.
Le rapport de Laetitia Avia, accordons-lui ce crédit, a parfaitement intégré l'argumentaire ci-dessus puisqu'il pointe :
"un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible".
Mais comme le rappelle La Quadrature du Net, les mesures proposées sont notoirement insuffisantes.
Alors oui, sortir de ce capitalisme linguistique qui favorise et nourrit cette spéculation est un impératif et un préalable non-négociable si l'on veut efficacement commencer à lutter contre la prolifération des discours de haine dans les plateformes. Il va d'ailleurs falloir rappeler un jour ou l'autre aux grands philantropes démocrates qui dirigent ces architectures techniques toxiques (Mark, Jeff, Serguei, Larry) qu'eux-mêmes ont parfaitement identifié le besoin de sortir de ce système pour proposer un service satisfaisant pour les utilisateurs, et, accessoirement, avec un minimum d'éthique et de déontologie.
La spéculation que j'évoque est bien sûr à corréler au phénomène de "tyrannie des agissants" notamment popularisée par Dominique Cardon en sociologie et qui dit qu'une petite minorité s'exprimant "squatte" systématiquement les premières places de la machine algorithmique. C'est cette tyrannie des agissants qui explique, parmi tant d'autres phénomènes, que régulièrement des propos racistes soient ramenés aux premières places des moteurs de recherche et bénéficient de la plus grande visibilité dans les réseaux sociaux, pour la seule et simple bonne raison que là où les racistes et antisémites ont la nécessité de parler de leur haine pour la faire exister et se constituer en communautés, les gens simplement "non-racistes" ou "non-antisémites" ne passent pas leur journée à parler de leur "non-racisme" ou de leur "non-antisémitisme".
Tertio.
La lutte contre la haine sur les plateformes (NON NON TOUJOURS PAS AILLEURS QUE SUR LES PLATEFORMES) est aussi un problème social lié aux conditions de travail des modérateurs directement employés par lesdites grandes plateformes ou par leurs sous-traitants. Il faut à l'évidence davantage de modérateurs humain(e)s. Et surtout il faut à l'évidence que leurs conditions de travail et de rémunération soient totalement revues et encadrées. Pour faire simple et vous en convaincre si besoin, allez visionner le remarquable documentaire "Les nettoyeurs du web / The Cleaners" et (re)lisez ce que raconte et propose – notamment – Antonio Casilli sur le sujet et au-delà (notamment sur la question d'un revenu universel numérique).
Et Basta.
Ces trois points sont les causes du "mal" qui ronge, je le rappelle, les plateformes et non pas le web ou "internet" (qui va bien merci pour lui, et qui n'a pas besoin d'être civilisé).
Au-delà de ces trois grandes "causes", il existe bien sûr aussi un certain nombre de symptômes qui ont tendance à aggraver le problème.
Par exemple le fait que chaque plateforme dispose d'un régime de vérité différent (la popularité pour Google, l'engagement pour Facebook) et qu'il y ait une concurrence a minima attentionnelle entre des régimes de vérité parfois antagonistes.
Par exemple aussi le fait (j'ai commencé ce billet par là) qu'il ne soit pas possible de contraindre les plateformes à ouvrir la partie de leur code algorithmique relevant de logiques classiques d'éditorialisation.
Et si l'on trouve qu'il y a quand même trop de propos raciste ou antisémites sur Internet ou sur le web ? Ben ce n'est pas la faute du web ou d'internet mais d'un manque de moyens mis dans le budget du machin qui sert à garantir l'application des lois de la république sur le territoire qui reste celui de la république même quand il est virtuel, et que l'on appelle également, je crois me souvenir, "le budget du ministère de la justice" (même s'il semble être officiellement en augmentation pour 2019, je doute que le millier de postes créés – en tout cas annoncés – suffisent à régler quelque problème d'engorgement que ce soit).
Et si l'on trouve qu'il y a quand même trop de propos raciste ou antisémites sur les plateformes ? Ben on relit les trois points précédents.
What the Fuck Rapport ?
Donc pour le reste les propositions du rapport de Laetitia Avia qui se limitent à "mieux sanctionner", "mieux prévenir", "mieux accompagner les victimes" et autres "mieux vaut un 'tu l'auras peut-être' qu'un 'tiens pour l'instant tu l'as pas du tout'" ne me semblent hélas pas augurer d'autre chose que d'un prompt classement aux archives du service documentation du ministère de l'internet civilisé, dans l'attente du prochain rapport sur le même sujet, qui viendra selon toute vraisemblance dans deux ans puisqu'il y a en gros un rapport sur ce sujet tous les deux ans qui préconise à peu de choses près tout le temps la même chose (= faire mieux avec moins).
A part donc avoir bien identifié le sujet de la nature spéculative des discours de haine et de l'intérêt des plateformes à s'en nourrir, la seule question d'importance qu'il aborde est celle du "statut" d'hébergeur ou d'éditeur relatif aux grandes plateformes en proposant une sorte de troisième voie.
En plus des constats déjà dressés dans cet article, la plupart des gens sérieux s'accordent pour considérer qu'on n'arrivera pas à stopper les discours de haine en tentant de penser et de réguler comme des "espaces publics" des plateformes dont le statut juridique est pour l'essentiel celui d'espaces – commerciaux – privés.
Comme danah boyd l'a démontré très tôt, la principale caractéristique de la sociabilité en ligne dans les grandes plateformes (sociales) est qu'elle opère au sein d'espaces semi-publics et semi-privés, qui ne sont donc réellement ni l'un ni l'autre.
Changer le statut des plateformes pour qu'on n'ait plus à hésiter entre celui de simple "hébergeur" (sans responsabilité éditoriale) et celui d'éditeur (supposé responsable de la totalité des contenus qu'il héberge) est la piste probablement la plus rebattue depuis que le web existe. Remember les photos dénudées d'Estelle Halliday et le procès qui fut fait à Valentin Lacambre au titre d'hébergeur en 1998 par une certaine mère fouettard de l'internet qui prit des années plus tard la présidence de l'Hadopi … Et oui. 1998 déjà. Brin et Page venaient à peine de déposer les statuts de la SARL Google et le petit Mark Zuckerberg entrait en classe de troisième.
Il est clair et évident, à l'échelle des plateformes dont on parle, que ni l'actuel statut d'hébergeur ni celui d'éditeur ne correspond à la réalité de la nature et du volume des interactions qu'elles gèrent et organisent, ni d'ailleurs au degré de responsabilité qui leur est imputable pour chacune d'entre elles prises isolément. Ne faire des plateformes que des intermédiaires techniques serait irréel, les rendre éditorialement responsables de tout ce qui s'y dit serait ajouter une dimension Kafkaïenne à un scénario déjà Orwellien.
Le rapport Avia propose donc de créer un statut intermédiaire "d'accélérateur de contenus" (sic) :
"il apparaît nécessaire de définir un statut particulier d’hébergeur, qui pourrait être dénommé « accélérateur de contenus » pour les réseaux sociaux et les moteurs de recherche les plus utilisés, assorti d’obligations renforcées, lesquelles peuvent être introduites dès maintenant dans le cadre législatif français (…)'"
Bon. "Accélérateur de contenus". Quand même. Au moins ce sera raccord avec feu "les autoroutes de l'information". Mais à part ça et le flou artistique quasi-total de la proposition … A part ça rien. La Quadrature du Net de son côté propose la chose suivante :
"Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.
Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu."
Et puisque vous ne me demandez pas mon avis mais que j'ai un blog je vous le donne quand même. Le voici.
Quand bien même on parviendrait à trouver un statut intermédiaire qui satisfasse à la fois aux exigences des états en termes de régulation et aux exigences des plateformes en termes de services – ce qui me semble aussi probable que de voir un raisonnement rationnel dans un discours de Laurent Wauquiez – que l'on n'aurait toujours pas trouvé le moyen de lutter efficacement contre les discours de haine dans lesdites plateformes puisque la fabrique et la distribution desdits discours tient d'abord au modèle économique qui est la base de l'infrastructure technique déployée et des régimes attentionnels qui la font vivre.
A ce titre (et à d'autres), la mise en oeuvre d'un index indépendant du web, géré comme un "commun informationnel", me semble un bien meilleur angle d'attaque qui permettrait de ne pas poser le problème en termes d'intermédiaires (qui seront toujours plus ou moins responsables de plein de choses et coupables de pas grand chose) mais en termes de ressources.
Et soudain Pierre Desproges.
Pierre Desproges est l'autre face de la médaille du point Godwin. Quant il s'agit de "liberté d'expression" versus "discours de haine" avec option "antisémitisme" on en arrive quasi systématiquement à une reductio ad Hitlerum ou à l'évocation d'une supposée feu "liberté de tout dire" immanquablement associée à Desproges (y compris des propos supposément antisémites dont le célèbre texte "on me dit que des juifs se sont glissés dans la salle …").
Abonné sur Facebook à la page des Archives de la RTS (Radio Télévision Suisse) j'ai l'autre jour découvert cette interview de Desproges que j'ignorais et dans laquelle il déclare :
Je vous le recopie.
"On entend le groupe Indochine et on regrette que ces gens là ne fassent pas de la moto sans casque pour s'empaffer dans des camions."
J'ai bien sûr beaucoup ri même si j'ai bien sûr beaucoup aimé Indochine. Mais l'extrait d'une minute et cinq secondes choisi par la page Facebook des archives de la RTS est beaucoup moins drôle et savoureux que la séquence de 2 minutes que la RTS a publié sur son site et où s'exprime toute la cabotinerie et l'art de la provocation qui fait (aussi) le talent de Pierre Desproges.
Chipotage ? Je ne crois pas. L'extrait de deux minutes, pour celles et ceux qui ne connaissent pas l'humour si particulier du gars Desproges (et ils sont quand même de plus en plus nombreux ne serait-ce que d'un point de vue générationnel) l'extrait de deux minutes, donc, permet de voir le côté provocateur ad absurdum du maître puisqu'après avoir souhaité la mort d'Indochine il explique sur le même mode à propos de la privatisation d'une chaîne de télé que, je cite, "la seule expression artistique télévisuelle, c'est la pub."
Ce qui est inquiétant – ce qui m'inquiète en tout cas – ce n'est pas tant le risque qu'ainsi montée et partagée la vidéo de Desproges puisse le faire passer aux yeux de certains comme un odieux personnage capable de souhaiter impunément et publiquement la mort de jeunes gens. Non ce qui m'inquiète c'est qu'au moment où j'ai moi-même été confronté au visionnage de cette vidéo mon éclat de rire a été presqu'immédiatement atténué par la question sur la manière dont d'autres (humains ou algorithmes) pourraient l'interpréter et la catégoriser comme "un discours de haine supplémentaire".
C'est mon problème me direz-vous. Et vous aurez probablement raison. Mais le cognitif n'est pas détachable du social. Une plateforme sociale produit de la norme sociale. Elle structure, elle fait exister, elle minore ou majore des points de vue et des représentations de ce qui est acceptable et de ce qui ne l'est pas, de ce qui est tolérable et de ce qui ne l'est pas, de ce qui est "dicible" ou indicible. Elle fabrique autant qu'elle nourrit nos "habitus". Elle n'est bien sûr pas la seule à le faire, mais elle le fait aujourd'hui quotidiennement pour plus de 2,8 milliards d'individus sur cette planète.
Le problème de Procuste.
Procuste, dans la mythologie grecque, était un brigand connu pour allonger ses victimes sur un lit et pour couper tous les membres qui dépassaient. D'où le célèbre "lit de Procuste" (qui est aussi par ailleurs une position sexuelle mais là n'est pas le sujet).
La viralité telle qu'elle est algorithmiquement régulée au sein des grandes plateformes, et la viralité particulière des discours de haine accrue par leur dimension spéculative, est un art Procustéen. A tout le moins elle obéit à une logique littéralement Procustéenne. Cela ne fonctionne que parce que l'on a ôté à ces discours tous les éléments qui permettaient leur mise en contexte et ce faisant qui affaiblissaient (ou risquaient d'affaiblir) leur potentialité virale.
Couchés sur le lit de Procuste, Desproges comme tant d'autres disposant d'un talent bien moindre autant que d'une insignifiance sociale bien plus marquée, ne sont plus que les fantômes de leur propre pensée, d'une pensée désarticulée à force de lui ôter les membres et le temps nécessaire à l'exprimer avant que de la partager.
Pour les discours de haine comme pour hélas tant d'autres, la viralité est simplement une forme antithétique de la vitalité. Vi-R-alité ou vi-T-alité. RT. Retweet si vous voulez.
A demain pour reparler de tout ça, ou de tout autre chose, dans Du Grain à Moudre sur France Culture.
Desproges + Estelle Halliday… naaan, on va finir par croire que tu vieillis plus vite que moi ;-))))
Bonne émission.
Hervé
Bonjour,
J’aurais une question qui va peut-être paraître naïve, stupide, et peut-être un peu méchante.
Si j’ai bien suivi vos trois points, comment alors peut-on expliquer qu’on retrouve ces mêmes dynamiques de discours de haine et diffusion de « fausses nouvelles » sur des plateformes sociales de type board comme Tumblr (coucou les néo-nazis de tumblr et les raids des fascistes de 4chan sur la plateforme il y a quelques années) et Reddit, qui sont :
– dépourvues de toute éditorialisation purement algorithmique
– quasiment entièrement modérée par la communauté (tellement qu’il y a un « mouvement social » sur Tumblr pour réclamer plus de modération de la part du staff notamment sur les contenus nazis et les porn bots, où on a bien vu la capacité limitée de la communauté à réguler ce genre de contenus qui ne peut pas faire face numérique à des attaques de bots automatiques)
– avec très peu de collecte de données personnelles car les seules informations exactes que ces plateformes peuvent avoir c’est l’email et la localisation géographique, sinon le fonctionnement même de ces plateformes qui reposent sur l’user generated content ne nécessite pas de collecte massive de données personnelles. Sauf éventuellement Tumblr, qui a introduit depuis très peu de temps la publicité depuis le rachat par Yahoo et de toute évidence aspire les données d’autres applis que j’utilise sur mon téléphone, mais le ciblage est très bancal (voir le grand fail des publicités ciblées sur Tumblr qui sont tellement à côté de la plaque que ce sont devenues des mèmes en soi absolument hilarants) et ces petits malins d’utilisateur.rice.s ont déjà trouvés plein de combines pour masquer les pubs de leur fil
?
(en prévision de la remarque, « oui mais on s’en fout de tumblr », je ferais remarquer que c’est autant d’utilisateur.rice.s que twitter, autour de 330-350M.)
(Et aussi, sur le rapport de Laetita Avia, je n’ai pu lire que des analyses un peu laconiques de journaliste parce que, même si j’aimerais beaucoup beaucoup, j’ai aussi une activité quotidienne qui ne permets pas d’éplucher en détail tous les rapports et publications qui sortent. Cependant je n’ai pas grand-chose à dire sur ce rapport, qui est fait par le gouvernement pour le gouvernement, cela me paraît cependant extrêmement problématique d’en tirer des généralités théoriques vu la méthodologie de l’enquête (qui porte uniquement sur Facebook, twitter, Youtube et JV.com, voir p.58-59). Cela me paraît extrêmement biaisé car 1. C’est réduire la multitude hétérogène des plateformes en ligne à 3 ou 4 grosses plateformes ; 2. On s’intéresse uniquement à des objets qui auto-alimentent l’analyse, c’est par exemple venir à penser qu’une « plateforme » se caractérise principalement par la collecte et la vente massive de données personnelles parce que 95% des études sur les plateformes portent sur Facebook (ce qui pose aussi un sérieux problème de méthodologie à mon avis), puis ensuite critiquer le fait que les plateformes collectent et revendent nos données personnelles ! Or un champs d’étude comme les fan studies par exemple regorge d’exemples et d’études sur des plateformes auto-gérées, qui fonctionnent sans publicité et dont le modèle économique, quand il y en a un, ne repose pas sur la collecte de données personnelles. La question mérite d’être explorée)
Ensuite, 3 remarques qui portent sur des points précis de votre texte (peut-être trop) mais sur lesquels je tiens à attirer l’attention parce qu’ils sont bien trop récurrents dans les discours universitaires ou militants sur le numérique et ça me donne envie de me taper la tête contre le mur :
1. Désolé mais l’explication « les haters sont des gens à l’attention perturbée » (je caricature mais vous m’aurez compris.e) me rappelle ce discours autour des violeurs qui expliquent que ce sont des gens « mal élevés », des « connards », des « sous-hommes »…Non. Ce sont des gens qui ont un agenda politique précis et plus ou moins conscient (il suffit de voir la source des discours de haine et de la plupart des fake news : surprise, des réseaux de droite et d’extrême-droite et les Etats fascistes type Russie), qui visent à entretenir par la violence physique ou verbale la domination d’un groupe sur l’autre, et de ce fait ils s’inscrivent parfaitement dans une logique plus ancienne de notre système. De plus, ce genre de rhétorique altérise ces gens vues comme « déviants » ou « mal éduqués » par nos consciences qui ne veulent pas voir les choses les choses en face : les haters, tout comme les violeurs, ça peut être nos potes, nos collègues, et même aussi nous-mêmes. Prendre les haters pour des personnes simplement perturbées, c’est se laver les mains sur la question de notre responsabilité politique, du fait qu’ils s’inscrivent parfaitement dans des logiques de pouvoir et de domination qui visent à repousser hors des espaces publics (ici les réseaux sociaux) les groupes qui ont été jusqu’ici maintenus avec soin hors des espaces publics traditionnels (classes populaires, femmes, racisé.e.s, LGBT). La haine, peu importe le média, est une question de pouvoir, d’intimidation, c’est la fin de la chaîne de comportements dont nous sommes aussi responsables (culture du viol, racisme et misogynie du quotidien, hétéronormativité, déligitimisation permanente et banalisée des luttes des groupes marginalisés). Virer cette responsabilité sur les plateformes et les infrastructures techniques, c’est à mon avis dépolitiser et désocialiser la question alors qu’on voit dans l’histoire que ce qu’on met derrière « fake news » et « haine en ligne » ne sont pas des phénomènes nouveaux et inventés par Facebook pour se faire du fric (et même encore aujourd’hui hein, moi j’entends plein de discours de haine dans les médias traditionnels, sans compter les mensonges éhontés proférés depuis des années par Fox, CNN et consort avec un but POLITIQUE précis. A longueur de temps, et contrairement aux plateformes où je peux réguler les contenus que je vois parce que je commence quand même à maîtriser l’usage que j’en fais, je n’ai aucune capacité d’action ou de feedback sur la radio ou la télé où on voit défiler des idées haineuses !)
2. Même chose pour les banlieues. Oui effectivement, c’est un peu de la sociologie à l’emporte-pièce. Alors bien sûr qu’il y a le problème de l’aménagement urbain, mais bon, peut-être aussi que le racisme institutionnel, le néo-colonialisme, la pauvreté entretenue par le capitalisme, la ségrégation sociale et scolaire, l’appauvrissement des communes et des territoires, les phénomènes d’exploitation des classes populaires et beaucoup d’autres choses à piocher dans l’histoire populaire peuvent aussi expliquer un sacré paquet de choses. Nous ne sommes pas des exemples rhétoriques accessoires à sortir quand ça arrange les gens.
3. « Nous avons tous et toutes une appétence particulière et parfois particulièrement trouble pour les discours provocateurs et pour les discours de haine autant que pour celles et ceux qui les portent. » ????? Il faudrait clarifier parce que je doute que, par exemple, une femme racisée qui expérimente déjà la haine au quotidien ait une telle « appétence ».
(ceci est la suite de mon commentaire parce que trop long pour le bloc de texte)
Après ces joyeusetés, je préciserai aussi que je n’ai pas eu le temps d’écouter l’émission en entier, donc je m’excuse d’avance s’il y a eu des éléments déjà évoqués ci-dessus dans l’émission. Et il y a peut-être aussi des choses qui vont vous paraître à côté de la plaque dans ce que je dis, ce qui est normale parce que 1) j’ai encore du mal avec l’exercice de l’argumentation théorique, d’où peut-être quelques confusions 2) parce nous ne sommes probablement dans des champs différents. Toujours est-il qu’il me semble important d’avoir une autre perspective sur la question, et face à certains discours je me pose plein de questions auxquelles je n’ai pas souvent de réponse parce que la critique me semble enfermée dans un espèce de tout-technique sans penser la dialectique entre espace en ligne et espace hors-ligne. Parce que ceux qui font les réseaux sociaux, ce sont avant tout des individus qui y portent tout ce qui fait un individu (pratiques, représentations, praxis, habitus…) forgés d’abord dans la société qui est la nôtre. Bref, des questions, des pistes de recherche.