La vidéo du massacre de Christchurch en Nouvelle-Zélande s'est produite le 15 mars. Elle était encore en ligne le 16 mars au matin à 8h30 sur Twitter. Le lendemain de l'attentat. Elle était même la première qui ressortait lorsque l'on cliquait sur le hashtag #Christchurch dans l'onglet vidéo.
Facebook de son côté avait, au moins en surface, effectué un premier travail d'invisibilisation, d'obfuscation de la vidéo du massacre.
Le gouvernement britannique a demandé aux réseaux sociaux mais également à des journaux (The Mirror, MailOnline) de ne pas participer à la rediffusion de cette vidéo.
De la vidéo originelle de 17 minutes et de ses innombrables répliques et extraits, Facebook indique avoir retiré 1,5 millions de ces duplications et bloqué 1,2 millions de téléchargements dans les 24h qui ont suivi l'attentat.
Nul bien sûr n'est censé ignorer la loi. Et comme le rappelle opportunément Numérama :
"L’article 222-33-3 du code pénal expose ainsi que « le fait de diffuser l’enregistrement de telles images est puni de 5 ans d’emprisonnement et de 75 000 euros d’amende ». Et par de « telles images », la loi entend notamment actes de barbarie et violence. Seules exceptions prévues : les journalistes dans le cadre de leur travail d’information et les professionnels du droit lors d’une affaire passant devant les tribunaux. Potentiellement, d’autres textes peuvent être mobilisés. C’est le cas de l’article 227-24 du code pénal, qui pénalise la diffusion d’un message violent, incitant au terrorisme ou portant atteinte à la dignité humaine, entre autres, quand il est susceptible d’être vu par un mineur. Et les réseaux sociaux, justement, sont largement fréquentés par des utilisateurs qui ont moins de 18 ans. Dans ce cas, la peine est de 5 ans de prison et 75 000 euros d’amende."
Encore faudrait-il que "la loi" dispose des moyens permettant de la faire appliquer et que l'on trouve une solution (et des moyens donc) pour désengorger les tribunaux.
Ce soir (lundi 18 Mars), l'émission Quotidien de Yann Barthès, jouant de sa puissance d'audience et de prescription, dénonce carrément la "culpabilité" de Facebook et interpelle directement Laurent Solly, sur Facebook puisque, je cite, "pendant 17 minutes une société américaine autorise la diffusion en direct du massacre de 50 innocents".
(Note pour moi-même : le plus navrant est que je peux déjà vous dire que Laurent Solly sera, bien sûr, dans Quotidien, probablement cette semaine, et surtout que l'on sait très exactement ce qu'il va expliquer : primo "bien sûr que nous sommes navrés", deuxio "vous vous rendez compte du volume de contenus qu'il faut modérer en temps réel ?", tertio "mais nous avons recruté plein plein plein de modérateurs pour faire face à ce genre de situations et aussi on a remis de l'intelligence artificielle parce que c'est cool", quarto "mais nous – et pas twitter – nous avons supprimé la vidé et le compte du terroriste" et quinto : "non mais après si on supprime avant on va nous accuser de censure car après tout nous ne sommes pas éditeurs mais hébergeurs et l'obligation légale que nous respectons est de supprimer des contenus problématiques une fois qu'on nous les a signalés, ce qu'on a fait suite au signalement de la police néo-zélandaise" Merci Laurent Solly pour ce bullshit bingo et à bientôt).
J'aurais pu ne pas regarder cette vidéo.
Décider de ne pas la voir. Cliquer ou ne pas cliquer. Lancer le visionnage ou ne pas le lancer. Pourquoi ai-je cliqué ? Pour une raison principale. J'ai trois enfants. Deux au lycée et un au collège. Présents sur internet via leur smartphones pour les deux plus âgés et via la tablette "familiale" (et essentiellement Snapchat) pour le plus jeune. J'ai voulu voir ce qu'ils risquaient de voir pour être en capacité d'en parler avec eux. Et j'ai vu.
J'ai vu la vidéo du massacre de Christchurch. J'ai vu est une scène filmée en mode FPS ("First Person Shooter"). Je n'ai pas vu la vidéo de 17 minutes mais l'une de ses répliques, d'un peu plus d'une minute. On y voit le tireur entrer dans la mosquée, assassiner froidement et arrêter son "live vidéo" depuis ce que l'on identifie comme l'interface d'un iPhone. On ne voit pas de sang, on ne voit presque pas de visages car ce genre d'assassin tire surtout sur des gens qui s'enfuient. On voit des gens qui tombent. On voit des gens au sol. Probablement encore vivants. Et sur lesquels s'abat une pluie de balles. La violence "explicite" des images de cette vidéo est paradoxalement très en deçà d'une quelconque scène de jeu vidéo ou de film. Elle n'en est pas moins terrifiante, glaçante.
Sur une autre vidéo d'une vingtaine de seconde, peut-être la seconde mosquée, également accessible sur Twitter, des corps sont agglutinés au sol, probablement déjà morts, ou peut-être faisant semblant de l'être pour échapper à cette folie meurtrière. Et là aussi on voit le tireur leur tirer dessus. Encore et encore.
Aurais-je regardé cette vidéo si je n'avais pas eu peur que mes enfants la voient et d'être incapable d'en parler avec eux ?
Probablement. Très probablement. Conjugaison d'une pulsion et d'un biais. Pulsion scopique qui fait que nous collerons toujours notre oeil sur la serrure si nous entendons du bruit derrière. Et biais de disponibilité qui nous amènera à cliquer même sur ce que nous ne voulons pas voir, simplement parce que nous savons que cela est disponible au regard. Et parce que tout le monde en parle. Et que l'on infère donc que possiblement tant d'autres que nous l'ont déjà vue ou la verront. Un autre biais se présente alors : celui dit de conformité, sociale. Et là s'engage alors la viralité. Celle qui fait que ces rediffusions – davantage que des partages supposant réflexion et appropriation – ces rediffusions disent que nous vivons le même présent, que nous sommes une périphérie sociale qui aspire au centre. Et que le centre, celui de l'attention, n'est occupé que par l'espace de ce massacre et de cette vidéo. Live. Quoi de plus paradoxal que de parler de "Live" pour le film d'un massacre ?
Et ces rediffusions sont à leur tour servies par de redoutables ingénieries de la viralité au travers de ces boutons dits de "partage" et qui ne sont qu'une forme molle d'acquiescement, à coût cognitif nul quand on les observe à l'échelle individuelle, mais dont le coût médiatique, normatif et sociétal s'avère exorbitant à l'échelle collective dans cette sorte de monde inverti et paroxystique qui se déploie entre les murs des plateformes.
Il y a trois choses frappantes dans cette vidéo.
Il y a trois choses frappantes dans cette vidéo. Au-delà bien sûr des images elles-mêmes. Sa capacité à être vue. Sa capacité à être partagée. Et sa capacité à être dupliquée pour être, de nouveau, vue et partagée.
Sa capacité à être vue renvoie essentiellement à nos propres pulsions et à la multiplication des canaux et médias de diffusion dont on ne saurait se désoler au regard des formes d'émancipation qu'ils permettent également et simultanément.
Sa capacité à être partagée et dupliquée renvoie plus fondamentalement à une dimension "technique" ou à tout le moins artefactuelle, servie autant que desservie par les grandes architectures techniques (toxiques) des plateformes.
On pourrait bien sûr pointer l'inefficacité des plateformes en général et de Twitter en particulier pour bloquer efficacement ce genre de vidéos. On pourrait même, comme vient de le faire l'émission Quotidien en interpellant directement, et sur Facebook, Laurent Solly de DG France, parler de la "culpabilité" de Facebook. On pourrait expliquer à quel point ce blocage est techniquement complexe car même si chaque vidéo mise en ligne peut faire l'objet d'une sorte de marquage, de tatouage indélébile permettant de la suivre et de la supprimer, elle et ses clones, la temps de la viralité est aussi fulgurant que semble infinie la longue traîne de celles et ceux qui ont intérêt ou curiosité à la diffuser ou à la voir.
Et une fois cela constaté on pourrait aussi rappeler, quand même, que lorsqu'il s'agit de supprimer par exemple la Une de Charlie Hebdo représentant le prophète Mahomet, Facebook est capable de le faire instantanément à l'échelle d'un pays (la Turquie) dès lors que ce pays subordonne cette invisibilisation radicale et univoque au maintien sur le marché de la plateforme hôte. On pourrait rappeler, simplement, que la raison du marché est toujours la plus forte.
Alors oui, on pourrait s'étonner de cette différence de traitement. On pourrait s'en étonner, et tout de suite se souvenir qu'elle est aussi un marqueur de la ligne séparant régimes démocratiques et autoritaires. Et accepter donc cette crise de la (re)présentation pour ce qu'elle est : l'inaptitude (technique) à traiter d'une intentionnalité (non-technique).
La fonction l'intention crée l'organe (de diffusion).
Ce qui fait la violence de cette vidéo ce ne sont pas tant les images, bien sûr insoutenables mais "en représentation" bien moins violentes que celles d'un jeu vidéo ou d'un film. Ce qui fait la violence de cette vidéo, et l'insupportable de ses rediffusions, c'est l'intentionnalité qui préside à ces images. Non pas simplement tuer lâchement mais vouloir montrer que l'on tue des enfants s'enfuyant, que l'on leur tire dans le dos au nom de cet immondice pseudo-conceptuel du "grand remplacement" que l'on appelle "théorie" par abus de langage autant que par défaut de vigilance intellectuelle.
C'est l'intentionnalité qui seule compte. C'est en tout cas elle qui prime. C'est en fonction de cette intentionnalité seule que notre sens moral s'indigne ou s'émeut. Car ces tentatives d'obfuscation sont légion et chaque fois différentes. Si une plateforme échoue à masquer la vidéo d'un homme qui se filme en train de massacrer des innocents on trouve cela condamnable. Mais si une plateforme masque la vidéo du massacre d'un peuple par son régime, on trouvera cela également condamnable mais pour des raisons morales tout à fait antagonistes. Souvenez-vous, souvenons-nous des enfants d'Assad.
La passoire, la chambre à air et la tasse à café.
Le grand tamis de la modération (un peu) humaine et (beaucoup) algorithmique, celui qui parfois laisse passer et parfois bloque inutilement, doit être vu à l'échelle d'une science particulière que l'on appelle la topologie. La topologie c'est cette science mathématique dans laquelle "une tasse à café est identique à une chambre à air, car toutes deux sont des surfaces avec un trou".
Nous nous représentons souvent la modération soit comme une passoire (si elle est algorithmique), soit comme une écumoire (si elle est humaine et manuelle), soit comme la conjonction des deux. Et nous sommes donc résignés à nous désoler de l'incapacité de certaines passoires (trop larges) à contenir certains contenus (trop fins), ou à nous alarmer de l'impossibilité de modérer "à la main" à l'aide d'écumoires circonstancielles, d'inextinguibles torrents de contenus. Or s'il semble en effet si délicat voir impossible de "modérer" intelligemment et "moralement" des contenus sans hurler à la censure ou à l'arbitraire total, c'est parce que la réalité de la circulation des contenus et les logiques virales qui les accompagnent relèvent davantage de la topologie que de la simple métaphore culinaire. Et en topologie, je le redis, "une tasse à café est identique à une chambre à air, car toutes deux sont des surfaces avec un trou."
Une surface sociale et un trou noir informationnel.
La surface, c'est celle de l'architecture technique, à mon sens intrinsèquement toxique dans les proximités possibles qu'elle instancie systématiquement comme autant de promiscuités imposées. Et le trou désigne l'insupportable vacuité qu'il faut à tout prix combler à l'aide d'une immensité de contenus dont il faut à la fois susciter ou provoquer la production et accélérer la circulation et la rediffusion. Dès lors, et dans ce qui est une dynamique bien davantage qu'une logique de modération, le seul dilemme auquel font face les plateformes est celui de la tasse à café et de la chambre à air.
Tasse à café. Soit elles reconfigurent l'ensemble de leur architecture technique pour opérer en mode "tasse à café", c'est à dire à la fois symboliquement et structurellement autour de logiques groupales réduites, à très faible réactivité dans la diffusion et à très grand contrôle dans la hiérarchisation des contenus en circulation.
Chambre à air. Soit elles optent pour une logique de "chambre à air" où la périphérie des "partageants" se gonfle à proportion de l'élargissement du périmètre laissé libre pour que s'y déverse une volumétrie de contenus par essence incontrôlables. Plus la volumétrie des contenus "engageants" augmente, plus la taille de la chambre à air augmente également, et la périphérie sociale agglutinée augmente à l'unisson.
C'est jusqu'ici ce modèle et cette architecture technique qu'à retenu et validé Facebook. Et c'est aujourd'hui davantage vers le modèle de la "tasse à café" que l'entreprise dit vouloir se recentrer (je n'y crois pas une seconde mais là n'est pas le sujet), constatant à la fois un optimum de croissance atteint et devant – surtout – faire face à différents scandales qui rappellent que la taille … compte. D'où ces annonces enchaînées depuis celle de l'algorithme des pauvres gens, pour renforcer par exemple, la prééminence des groupes et des interrelations hyper-locales.
Dans un cas comme dans l'autre, tasse à café ou chambre à air, et comme le rappelait l'ancienne co-fondatrice de FlickR :
"Ce que vous tolérez indique ce que vous êtes vraiment". Donc si votre code tolère le sexisme, vous êtes une plateforme sexiste. Si votre code tolère les suprémacistes blancs, vous êtes une plateforme qui soutient le suprémacisme blanc."
Et si votre plateforme tolère la possibilité qu'un homme se filme pendant 17 minutes en "live" en train d'assassiner froidement à l'arme lourde des hommes et des enfants, qu'êtes-vous vraiment ? C'est d'abord à cette question que doit répondre Facebook. A cette question et à celle-là avant tout. Mais cette question, se la posent-ils seulement ?
Et pour y répondre honnêtement, la plateforme n'a pas d'autre choix que d'accepter de ré-envisager une autre question déjà ancienne et de nombreuses fois traitée ici qui est celle de la transparence des processus s'apparentant à des logiques d'éditorialisation classiques. Je l'écris et le réclame depuis plus de 4 ans et demi (et je ne suis heureusement pas le seul) :
"Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs "ouvrir" complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation."
Sauf qu'il y a 4 ans et demi, Trump n'avait pas été élu, le Brexit n'était pas voté et le scandale Cambridge Analytica n'existait pas. Alors aujourd'hui la question se pose différemment : soit il faut, et dans des délais très courts, rendre clairement et totalement publics ces fonctionnements algorithmiques directement assimilables à des formes classiques d'éditorialisation, soit il faut en effet démanteler ces sociétés comme le proposait il y a moins d'une semaine Elisabeth Warren, candidate en course pour la primaire démocrate aux USA. Ou les nationaliser. Ben oui. Non pas les nationaliser pour les faire passer sous contrôle de l'état (surtout en ce moment …) mais les nationaliser pour leur permettre d'être réinvesties d'une dimension authentiquement et sincèrement publique dans la mesure où, de manière désormais tout à fait claire et évidente, elles pèsent sur l'agenda public et sur les politiques idoines.
Voilà pourquoi il faut aussi questionner la nature même de ces architectures techniques toxiques. Celles des plateformes mais également celles des "médias" qui prétendent traiter une épidémie en exposant un maximum de gens aux sources de la contagion. Comme le signalait déjà Zeynep Tufekci à l'occasion d'une énième tuerie de masse aux USA :
"Media: the next potential mass shooter is watching the current media coverage intently. Right now. Your coverage is a factor in this crisis."
La modération à l'épreuve des balles et des faits.
La question de la modération, celle du rendu public de logiques algorithmiques "éditoriales", celle des architectures techniques toxiques, ces questions ne sont pas adressées simplement aux dirigeants des plateformes ou aux femmes et hommes politiques, mais aussi à nous-mêmes, simplement citoyens.
Pour nous aussi, "ce que nous tolérons indique ce que nous sommes vraiment". Ce que nous tolérons à l'échelle d'une société dont nous ne cesserons jamais d'être acteurs même si nous avons l'impression de n'en être que spectateurs, ce que nous tolérons indique ce que notre société est vraiment. Le 15 Mars 2019 nous avons toléré qu'un homme se filme en direct en train de répandre froidement la mort sur une plateforme réunissant plus de deux milliards et demi d'utilisateurs.
Ibrahim Mucad avait trois ans. Abdullahi Dirie avait quatre ans. Ils sont morts assassinés en Facebook "Live". A eux et aux 50 autres victimes de cette barbarie nous devons autre chose que nos regards de morts-vivants posés sur des extraits de vidéos que nous aurions préféré ne pas avoir à regarder.
(Source Otago Daily Times)
Mais puisque ces vidéos sont là et puisque eux, ne sont plus là, rappelons que filmer la mort en direct n'est pas un projet de société. "Ce que nous tolérons indique ce que nous sommes vraiment". Alors pour Ibrahim, trois ans, pour Abdullahi, quatre ans, et pour toutes les autres victimes du massacre de Christchurch, penser de quelle manière nous pourrons éviter la diffusion en direct du prochain massacre ou l'interrompre plus tôt ne doit surtout pas nous empêcher de penser l'essentiel : ce qui politiquement, socialement et médiatiquement nous a conduit à rendre possible la diffusion en live du massacre d'innocents.
<Mise à jour du 19 Mars> Facebook vient de publier un communiqué, heu … assez … aride à propos de ses actions de modération en temps réel concernant la vidéo du massacre de Christchurch. On n'y apprend rien de plus que ce que j'avais déjà écrit dans mon article mais il y a cette phrase, quand même, que je souligne :
"La vidéo a été vue moins de 200 fois pendant la diffusion en direct. Aucun utilisateur n’a signalé la vidéo pendant la diffusion en direct. Si l’on tient compte des vues en direct, la vidéo a été visionnée environ 4000 fois au total avant d’être retirée de Facebook."
"Aucun utilisateur n'a signalé la vidéo pendant la diffusion en direct". Pendant 17 minutes. Selon Facebook. Qu'il serait tout de même assez étonnant de voir confesser que des signalements ont eu lieu pendant le visionnage et qu'ils n'ont rien fait. Mais accordons-leur le bénéfice du doute. De fait il est possible de postuler un effet de sidération qui nous ferait oublier de "signaler" le massacre en direct que l'on est en train de regarder. Mais que ces 17 minutes doivent être longues. Il est hélas également possible (et davantage probable) qu'au regard du contexte et de ce que l'on connaît des intentions du tueur et de la manière dont il avait préparé et "annoncé" son passage à l'acte, il est très probable que la majorité de des 4000 spectateurs aient été des suprémacistes. Une nouvelle fois donc, "ce que nous tolérons indique ce que nous sommes vraiment".
</Mise à jour du 19 Mars>
Salut Olivier,
Oui, je pense comme toi que les plateformes et les moteurs ont une responsabilité éditoriale. Je pense aussi qu’il faudrait démanteler l’oligopole du web. mais c’est un autre sujet.
Mais, je ne vois pas comment cela aurait empêché la stratégie terroriste, au sens premier, d’un suprémaciste blanc qui est d’abord passée sur le web par des forums, a été relayée largement sur le web et pas seulement par FB et Twt et enfin a été aussi reprise par les médias traditionnels.
Ce qui est utilisé ici, c’est l’ensemble du système médiatique, avec à la base l’inversement de l’ordre documentaire et non simplement des plateformes soit-disant toxiques. Mais à l’origine de ce drame, c’est l’idéologie suprémaciste (et ses succédanés) qu’il faut combattre et rien d’autre.
Bonsoir Jean-Michel, oui bien sûr c’est le racisme et le suprémacisme qu’il faut combattre. C’est d’ailleurs ce que je dis à la fin de l’article. Mais je pense « aussi » que l’activité de polarisation ou le déterminisme algorithmique (pour s’éviter une débat sur la « bulle de filtre »), je pense que le déterminisme algorithmique s’épanouit pour le pire dans une architecture technique toxique qui le suscite et l’amplifie. A ce titre là d’ailleurs, j’englobe également les chaînes d’info continue au titre de dispositif d’architecture technico-médiatique toxique. Pour le dire différemment (et plus simplement) je trouve qu’on ne peut pas évacuer totalement le dispositif. Mais là dessus aussi je pense qu’on sera d’accord 🙂