Lutter contre la haine sur internet

J'aurais du être aujourd'hui, à l'invitation de l'UEJF, aux "1ères assises de la lutte contre la haine sur internet." (Vous pouvez suivre en direct le déroulement des assises via le hashtag #assisesinternet)

Pour différentes raisons (personnelles), je n'y étais finalement pas. Mais mon intervention étant prête, je le mets à disposition.

Cette contribution s'inspire de deux textes récemment publiés sur ce blog :

Le diaporama est disponible ci-dessous. Juste avant, retour sur quelques points qui y sont évoqués. 

#DiscoursDeLaHaine ? C'est compliqué.

D'abord il n'y a pas de "discours type de la haine" (diapos 3 et 4). A quelques rares exceptions qui font l'unanimité, comme la diffusion de ces vidéos de décapitation ou les insultes ouvertement racistes, la plupart des cas qui posent problème ne sont des discours de haine qu'au regard de certains contextes ou de certaines communautés : c'est le cas des caricatures du prophète, c'est aussi le cas de certaines "blagues" accolées au hashtag #UnBonJuif.

La question est alors de savoir "qui décide" de laisser diffuser ces contenus (diapos 5 et 6), et surtout sur quels critères : 4 possibilités : la justice, nous-mêmes, le code (les algorithmes) ou les plateformes elles-mêmes.

Code is Law.

Il faut remettre en perspective, à l'échelle du web-média, les bouleversements qui ont eu lieu dans notre perception (ou nos aspirations) de la légitimité d'un discours (diapos 8 à 11). Avec ces 3 grandes étapes qui furent, en 1996, la déclaration d'indépendance du cyberespace ("il n'y a pas de lois ici"), l'article "Code is Law" de Lessig en janvier 2000, et la récente déclaration de Mark Zuckerberg qui place, de facto, sa plateforme au-dessus et à l'extérieur des lois ("nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde"). Vous noterez l'emploi du présent dans la déclaration de Zuckerberg qui indique qu'il a déjà "acté" cette pratique et qu'il la considère comme parfaitement légitime (culture du 1er amendement de la constitution américaine), toute la question étant de savoir ce que devient cette pratique "libertarienne" si on la déplace dans un contexte moins "unanimiste" que celui de la réaction aux attentats contre Charlie Hebdo.

Il faut ensuite acter l'état actuel des législations (américaines, françaises, etc.) qui disposent en l'état d'un arsenal de textes déjà largement suffisant (diapo 13) pour encadrer, pour "surveiller et punir" dirait Foucault, l'expression des discours de haine. Des lois certes controversées, mais des lois existantes et directement applicables. A condition de ne jamais zapper la case justice. A ces législations s'ajoutent des plateformes qui permettent de signaler l'expression des discours de haine (plateforme Pharos en France) et des phénomènes d'auto-régulation et d'auto-censure liés à l'architecture en panoptique de la plupart des réseaux sociaux dans lesquels nous sommes à la fois le gardien ("big brother") et les prisonniers ("little sisters").

Batrob

La tyrannie des agissants : "désengagez-vous qu'ils disaient"

Il faut, enfin, accepter, reconnaître et comprendre un certain nombre de principes "simples" qui caractérisent les modes d'expression sur le réseau : le premier d'entre eux (diapo 13) est la "tyrannie des agissants" décrite par Dominique Cardon ("Internet donne une prime incroyable à ceux qui font"). Comprendre également la nature des processus d'engagement en ligne (diapos 18 à 21), lequel "engagement" déterminera ensuite la portée et le risque réel associé aux discours de haine qu'il sous-tend. Or en la matière, il faut constater, comme l'a rappelé l'affaire du "soutien au bijoutier de Nice", que 1 million de like n'équivaut pas à un million de soutiens, qu'une personne "soutenant" en ligne un certain type de discours n'est pas nécessairement prête à "s'engager" derrière ce discours, fut-il un discours de haine ou, d'ailleurs, un discours de paix. L'engagement en ligne est le plus souvent une forme de désengagement ("slacktivisme").

A propos de l'engagement, Merleau-Ponty écrivait :

"Tout engagement est ambigu puisqu’il est à la fois l’affirmation et la restriction d’une liberté : je m’engage à rendre ce service, cela veut dire à la fois que je pourrai ne pas le rendre et que je décide d’exclure cette possibilité."

Or précisément, sur les internets, le "like" ou le slacktivisme est une forme d'engagement monoface : "liker" une "cause" ou un "discours" c'est exclure la possibilité de rendre réellement un service. Et la plupart du temps … c'est tout.

Ceci étant posé, oui, il y a bien un discours de haine présent sur internet. Comme d'ailleurs dans le PMU du coin. C'est vouloir les traiter de la même manière, c'est leur accorder la même importance qui serait une erreur. Car ces discours de haine sur internet obéissent à des logiques propres qui tournent autour de 4 effets contre-intuitifs (diapos 23 et 24).

4 effets contre intuitifs.

L'effet petit pois (comme dans le conte de la princesse au petit pois) fait que l'on se focalise souvent – et particulièrement dans le cadre de l'analyse des discours de haine – sur des phénomènes relevant de l'infinitésimal. Il s'agit d'une erreur sur "l'ordre de grandeur" de ces phénomènes ou de ces discours. Pour s'en convaincre on pourra relire ces deux illustrations de l'effet petit pois que furent le traitement du hashtag #jesuiskouachi ou celui de #jenesuispascharlie.

L'effet miroir consiste à interpréter ces mêmes phénomènes à l'inverse de ce qu'ils signifient réellement. Là encore, en termes d'ordre de grandeur, pour 100 000 "je suis charlie" on dénombrait à peine 100 "je ne suis pas charlie", et sur ces 100 "je ne suis pas charlie", 99 reprenaient le hashtag mais pour condamner celui qui l'avait utilisé.

L'effet Streisand, le plus connu et le plus ancien à l'échelle du web, consiste à croire que supprimer ces contenus serait "la" solution alors que chaque suppression ne fait qu'accélérer la duplication et l'audience des contenus, des propos ou des discours visés.

L'effet cigogne, enfin, qui est le résultat de la somme des 3 effets précédents et qui consiste à confondre corrélation et causalité. En gros "il y a beaucoup d'appels à la haine sur internet, donc internet incite à la haine". Ben non.

Le problème est que la plupart des approches visant à lutter contre ces discours de haine, qu'il s'agisse du discours politique ou de l'action législative ignorent presque totalement ces 4 effets.

Bain d'acide : qu'importe le caleçon ou le slip de bain.

Et l'autre problème qui explique qu'il soit si difficile de dégager un concensus efficace autour de la manière de les contrer est que la hiérarchie entre "la loi", "les réglements intérieurs" et "le code" est désormais totalement inversée (diapos 26 et 27).

. Diapositive26

Si je reprends un exemple qui m'est cher, assimilant les CGU à ce qu'elles sont réellement, c'est à dire rien d'autre que l'équivalent du règlement intérieur d'une piscine privée vous interdisant de porter des caleçons de bain, on peut alors, par extension, considérer d'une part "la loi" qui régit l'espace public de la baignade sur les plages (et qui n'a vocation qu'à autoriser ou à interdire la baignade dans certaines zones), et d'autre part "le code" qui serait alors la composition de l'élément liquide dans lequel on va se baigner ou non, en caleçon ou en slip de bain. Si le code se compose de 2 atomes d'hydrogène et d'un atome d'oxygène, alors nous sommes dans de l'eau. Tout va bien. Si l'on change quelques éléments seulement de ce code, on se trouve à patauger dans de l'acide chlorydrique. L'expérience de la baignade en est radicalement changée. 

Diapositive27

Dans l'environnement numérique, c'est ce code qui prédomine. C'est la manière dont sont agencés les différents "critères" algorithmiques, les différents "atomes" du code, c'est la finalité qui leur est assignée par les ingénieurs et les plateformes qui détermine l'expérience, la nature et la portée des discours qu'ils véhiculent, qu'ils organisent, qu'ils filtrent, qu'ils trient en permanence et dans la plus totale opacité.

La bonne loi, la brute réglementaire et le truand du code.

La loi. Les réglements (CGU). Et le code. Nouvelle version de la trilogie "Le bon, la brute et le truand". Dans l'ordre. Une trilogie dans laquelle le "nul n'est censé ignorer la loi", devient, à partir du moment où le code est la loi, "nulle loi ne peut plus se permettre d'ignorer le code", permettant du même coup que Mark Zuckerberg écrive "nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde" sans que personne d'autre que le type en train de rédiger ce billet ne semble s'en émouvoir outre mesure (diapos 28 et 29).

Et donc on fait quoi, #GrosMalin ?

D'abord on constate (diapo 31). On constate que tout le débat sur "comment lutter contre les discours de la haine" ne concerne pas "internet" mais concerne ses jardins fermés, c'est à dire les "plateformes" que sont Facebook, Twitter mais aussi de plus en plus Google en tant qu'écosystème de services (via Youtube notamment). Donc on agit au niveau des plateformes et pas au niveau d'internet (pour lequel, je répète, y'a déjà suffisamment de lois qui fonctionnent et s'appliquent).

On constate que ce sont les algos des plateformes qui ont à la fois pouvoir de police et de justice, dans la plus totale opacité, et qui décident de publier telle ou telle vidéo, de laisser passer tel ou tel #hashtag. Bref on constate que les algorithmes sont ces nouvelles "corporations du filtre" (l'expression est d'Umberto Eco) comme l'étaient hier les éditeurs et les rédactions de médias "papier".

On constate que ces choix (laisser passer, laisser publier, etc.) relèvent d'un processus d'éditorialisation classique. On constate que les algorithmes font des choix d'éditorialisation classique.

On constate également qu'il serait vain et absurde (sauf à vouloir singer la corée du nord ou la chine) de demander aux plateformes de modérer "a priori" les millions de contenus publiés chaque minute. Et que c'est faire fausse route que de s'abriter uniquement derrière la logique de l'application du droit national sur Internet (cf la déclaration de Zuckerberg notamment …).

Donc on oblige, on contraint, par voie législative et à une échelle trans-nationale (comme par exemple la convention de Berne permet de la faire pour la protection des oeuvres littéraires et artistiques), on contraint les plateformes à rendre publique la partie du code qui détermine ces choix d'éditorialisation classique. Et ce faisant, à mettre en délibéré cette partie du code. Parce que, comme le disait Stiegler, "la démocratie est d'abord un exercice de rendu public."

Voilà pour l'essentiel. Voilà pour l'urgence.

Et puis bien sûr on est conscient qu'il ne faut pas s'arrêter là. Conscient qu'il ne faut pas tout attendre du politique ni des plateformes, car comme l'écrivait encore Dominique Cardon : "Internet joue en effet un rôle majeur dans l’émancipation, dans l’auto-organisation de la société civile, sans que ses acteurs aient nécessairement à se préoccuper du centre de la société que seraient l’exécutif et la démocratie représentative…".

Conscient qu'il ne faut à aucun prix laisser ces plateformes devenir une métonymie castratrice du web, car les cas échéant, rien ne les empêcherait plus d'y imposer leur loi, une loi qui ne serait même plus celle du code mais celle de leur code. Double peine (diapo 32).

Conscients enfin des avertissements déjà lancés, déjà écrits. Celui de Lessig en Janvier 2000.

"(…) La loi du cyberespace sera déterminée par la manière dont le cyberespace sera codé, mais nous aurons échoué à jouer notre rôle dans l'établissement de cette loi.

En Janvier 2015, nous n'avons jamais été aussi près d'échouer.

 

3 commentaires pour “Lutter contre la haine sur internet

  1. Salut Olivier,
    Pas convaincu du tout.
    1. “L’effet petit pois” à une dimension bien différente sur internet du fait d’une part de la taille du réseau et surtout, d’autre part, qu’il suffit qu’une toute petite minorité soit touchée pour que les effets soient catastrophiques. C’est le fonctionnement même du terrorisme qui trouve dans le web un outil performant par la diffusion, mais surtout l’individuation des messages. Pas gd chose à voir avec les “jardins fermés”, cela fonctionne aussi très bien avec le mail.
    2. La publication de la partie éditoriale de code aurait pour effet d’exploser les services de publications automatiques sur le web du fait des stratégies opportunistes des publiants. Voir le jeu du chat et de la souris entre G et les SEO. C’est justement parce que le code n’est pas public que ces services fonctionnent. Le rendre public aurait vraisemblablement l’effet inverse sur le sujet que tu traites : donner des outils supplémentaires aux fauteurs de trouble. Il faut inventer un autre type de régulation, soit par une instance intermédiaire, type CNIL qui pourrait y avoir accès, soit par des évaluations a posteriori ou encore d’autres choses à trouver.
    Plus le temps passe, plus je trouve que les défenseurs d’un internet libre, comme toi, s’enferment dans un discours fait d’a priori où tous les arguments sont mis au service d’une conclusion connue d’avance. Pourtant plus l’histoire du web avance, plus les situations se complexifient et mériteraient plus de recul, moins de précipitation et une vraie analyse critique.

  2. Je crois que le danger d’internet face au discours.
    C’est l’internet de l’a désinhibition, c’est google la nuit, les recherches de culs pas avouables…
    On se sent moins seul dans sa ‘déviance’, des milliers de vidéos, cette déviance, pourtant précise, a même un hashtag
    Les plus jeunes ont grandi avec ça, c’est évident pour eux, que leurs déviances ou fantasmes sexuelles ne sont pas des phénomènes isolés.
    Ils savent que c’est tabou, mais ils savent que ça existent, c’est bcp plus schizophrénique, ils peuvent enfin vraiment être tout et son contraire, ils doivent choisir la déviance qu’ils préfèrent, l’internet (du cul) sert de manuel.
    C’est la même chose pour la haine, pour le discours de la haine, internet désinhibe, Un certain discours peut mettre des années a se légitimiser, mais il se legitimise, et tout un business s’articule autour de lui, le web la encore est un accélérateur, c’est du libéralisme sauvage.
    La haine comme le sexe, on en parle (parfois) peu, mais ca nous caractérise, parfois plus que le reste, de par son activité ou son inactivité.
    et comme pour ses fantasmes, on est sommé de choisir le sien, quel est ton fantasme? quel est ton discours? quel est ta haine?
    La comparaison est souvent malaisé, mais nous sommes vraiment dans ce cas precis de la liberté d’expression, comme charlie la pratique, d’autre le font sur internet, mais il ne s’agit plus la, de la permettre par une pseudo conscience républicaine, de la sagesse du peuple et du pouvoir réunis et réconciliés, non, cette liberté d’expression existe de par sa réalité et du fait qu’elle ne connait pas de frontière, elle n’est pas le fruit d’une éducation républicaine hérité des lumières etc…
    Alors:
    -les lois existantes, il y’en a deja bcp,
    -bcp plus de lois et être liberticide au possible.
    -Ou alors laisser faire…, éduquer blabla, dialogue social blabla,
    Il ne faut pas faire de différence entre des fanatiques activistes gourous qui enrôlent grâce a leurs pouvoirs, de petits innocents perdu dans la jungle d’internet.
    Si ton enfant prend de la drogue (bcp), ce n’est pas parce qu’il est influençable par d’autres jeunes méchants, c’est parce que c’est un con, surement frustré et aigri a 15, 20 a peine.
    Il revend de la drogue, il participe a ce marché, il est le marché.
    On parle de la syrie, ca fait longtemps que des gens y vont, comment ont il eté au courant, ce sont des hipster, aller en syrie aujourdhui, c’est etre un suiveur.
    Les algos ont leurs importances dans la diffusion du contenu, c’est vrai, connaitre leurs fonctionnement est nécessaire, mais ces algos aussi précis ou magique soient ils, ne sont alimentés que par des phénomènes qui existent déjà, les algos ne créent rien, sur internet 3 keké qui parlent ensemble c’est aussi influent que 30 keké qui parlent ensemble.
    On peut critiquer les algos, mais alors que dire des medias qui exposent aussi sur la place public, a la masse, des phénomènes parfois ultra isolé.
    L’algo n’est pas coupable, il tente maladroitement d’etre un ersatz du bouche a oreille.

  3. Salut Jean-Michel, hééé béééé, je te trouve un peu sévère quand tu écris : “les défenseurs d’un internet libre, comme toi, s’enferment dans un discours fait d’a priori où tous les arguments sont mis au service d’une conclusion connue d’avance.” Je ne vois pas trop quels sont les “a priori” dont tu parles, ni en quoi la conclusion est connue d’avance … Sur tes deux arguments (heureusement plus constructifs), je te réponds dès que j’ai le temps par une mise à jour du billet. Très rapidement quand même sur ton point 2, parler de “stratégies opportunistes des publiants” est au mieux un pur sophisme et au pire une étrange tautologie qui met dans le même sac les “publiants” djihadistes et les “publiants” commerçants ou simples adeptes du personnal branding. Tu le sais parfaitement, tout le monde, de Buzzfeed à Al-Quaïda joue déjà depuis longtemps des critères connus des différents algorithmes. Il y a toujours eu une “aristocratie de la parole” sur internet, aristocratie que servent la plupart des algorithmies, et aristocratie confortée par la “tyrannie des agissants” dont parle Dominique Cardon. Ce dont il est urgent de débattre et “d’ouvrir”, ce ne sont pas les seuls critères de hiérarchisation – déjà connus – mais les critères relevant de l’éditorialisation. Tant que l’on n’ouvrira pas ce débat, on continuera d’acter un schéma législatif caduque qui permet aux plateformes de s’abriter derrière un statut de “simple hébergeur”. On ne peut pas d’un côté, passer contrat avec des ayants-droits et mettre en place de réelles “milices algorithmiques” de mise en conformité faisant la chasse à certains types de contenus contrevenant – par exemple aux droits d’auteur – et de l’autre, sur l’ensemble des autres sujets, renvoyer la justice au statut de simple “hébergeur” de ces mêmes plateformes et se dédouaner de toute responsabilité éditoriale. Enfin, quand j’évoque une sorte de “convention de Berne” à l’échelle trans-nationale, je suis précisément dans ce que tu appelles toi-même “une instance intermédiaire”, à ceci près que ces instances intermédiaires existent déjà (les CNIL européennes) et qu’il leur manque juste de quoi “dire le droit”.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut