On apprend, grâce au livre "Au coeur du Z" de Vincent Bresson, un certain nombre de points sur la stratégie numérique de l'équipe du candidat néo-fasciste.
L'une des révélations est qu'une cellule baptisée "WikiZédia" avait (et a toujours) comme objectif non pas simplement de "nettoyer" et de tourner à son avantage la page Wikipedia d'Eric Zemmour (ce que la plupart des hommes et femmes politiques font ou essaient de faire, souvenez-vous encore récemment de l'inénarrable Marlène Schiappa et des caviardages de son cabinet), mais de modifier un nombre substantiel d'articles de l'encyclopédie pour y mettre en avant ou en tout cas les rendre favorables à certaines thèses défendues par le candidat néo-fasciste.
Sur Wikipédia, les guerres d'édition (modifications successives, rapides et partisanes d'une page) font partie de l'histoire de l'encyclopédie collaborative, et se terminent en général plutôt bien. Je vous avais raconté, lors du 2ème tour de l'élection présidentielle de 2007 opposant Ségolène Royal à Nicolas Sarkozy, celle qui vit s'affronter en direct leurs partisans modifiant la page des réacteurs nucléaires pour donner raison aux affirmations de leur candidat.e lors du débat.
Si toutes ces guerres d'édition se terminent à l'opposé des histoires d'amour en général (ce qui ne veut pas dire qu'elles ne sont pas violentes), c'est principalement pour les raisons suivantes :
- d'abord l'organisation interne des contributeurs et administrateurs de l'encyclopédie qui forme une démocratie complexe mais vivante ;
- ensuite les règles et les outils techniques permettant aux administrateurs et contributeurs d'être alertés desdites manoeuvres en cours sur une page et de prendre les mesures adéquates (restreindre la possibilité de modifier la page par exemple) ;
- enfin bien sûr et peut-être surtout, le caractère public des modifications qui sont toutes traçables et consultables publiquement (dans l'onglet historique) ;
Mais il existe une autre raison. Qui est que Wikipedia, comme un outil autant que comme un produit documentaire collectif et commun, se vit, se lit et s'éprouve dans des temporalités qui en modifient la perspective. Si je reprends l'exemple du débat présidentiel du 2ème tour de 2007, sur le temps du débat en direct, il arrive que la consultation de Wikipédia puisse ajouter à une forme de confusion au regard des modifications incessantes s'y opérant avant qu'elles ne soient repérées puis stoppées. Mais dans un temps démocratique et citoyen "raisonnable", c'est à dire qui laisse la place à la vérification des faits et à la mobilisation des collectifs s'en chargeant ainsi qu'à l'apport de preuves documentaires, alors le fait même que ces pages aient été caviardées dans un sens ou dans l'autre finit par permettre l'établissement d'une vérité consensuelle, c'est à dire partagée et rationnellement opposable à celles et ceux qui auraient encore en tête de vouloir la nier au nom d'une idéologie ou d'une intime conviction. Ainsi et comme je l'écrivais à l'époque, pour la page sujette à cette guerre d'édition ou pour toute page en étant victime, il ressort assez rapidement que celle-ci :
"n'a rien perdu de son intérêt originel, lequel s'en trouve même accru ; s'est enrichie quantitativement (discussions dans l'historique) et qualitativement (ajout de sources "documentées" inédites) ; dispose d'une "valeur de preuve" qui se trouve enrichie par l'ajout de nouvelles dimensions : celle de la chronique des falsificateurs pris la main dans le sac et celle de l'écho documentaire suscité dans d'autres documents (tels les articles de presse s'en faisant écho par exemple)."
La démarche de "zemmourisation" de Wikipedia procède de tout autre chose. C'est une sorte de fenêtre d'Overton qui prétend truquer et falsifier le débat public en s'attaquant non pas aux informations qui en sont l'écume, mais aux connaissances qui en sont la vague. Et s'il fallait la caractériser d'un mot, ce serait celui d'une stratégie de saturation.
Stratégie de saturation.
Toute cette stratégie s'appuie sur un seul principe méthodologique : celui de la saturation. Il faut saturer les pages Wikipedia de modifications en faveur du candidat néo-fasciste, il faut saturer les groupes Facebook de liens et de visuels en faveur du candidat d'extrême-droite, il faut saturer les tendances (Trending Topics) Twitter de hashtags favorables au candidat révisionniste.
Dans l'écologie cognitive du web, c'est à dire dans la manière dont les agencements et plateformes techniques rencontrent la naissance des discours, des idées et des opinions, le recours à cette dynamique de saturation par des groupes organisés ou des collectifs vaguement coordonnés est déjà ancienne. L'une de ses premières manifestations fut celle du "Google Bombing" (sur lequel j'ai déjà beaucoup écrit en plus du lien précédent).
Et voilà son enjeu actuel : lorsque cette saturation est suffisamment forte, lorsqu'elle sédimente suffisamment longtemps, alors son effet premier sera d'apparaître comme "naturelle" et dès lors d'avoir la capacité de s'auto-entraîner, et de produire ses propres effets de documentation légitimant les idées fausses qu'elle s'échine à mettre en avant.
En effet si l'on réussit à caviarder et à saturer Wikipédia avec des passages, des images, des débats reprenant l'idée folle que le régime de Vichy aurait permis de sauver des juifs, si l'on réussit à saturer une foule de groupes Facebook sans aucun rapport entre eux avec des informations renvoyant systématiquement à des points du vue et à des mensonges du candidat néo-fasciste, si l'on réussit à saturer chaque jour les tendances Twitter à la gloire du candidat négationniste, il se produit la même chose que lorsque l'on sature l'espace médiatique radiophonique ou télévisuel avec la théorie complotiste du grand remplacement : elle est reprise partout et la fenêtre d'Overton joue à plein régime, ce qui était impensable devient "populaire".
Mais cette saturation de l'espace numérique n'est pas "uniquement" réductible à la fenêtre d'Overton. Car il procède un peu différemment.
Dans l'écosystème des différents biotopes numériques, Google scrute et reflète en permanence ce qui se dit sur Wikipédia, il le fait en mettant quasi-systématiquement en tête de ses pages de résultats des pages de Wikipedia. De la même manière, les contributions sur Wikipédia s'appuient beaucoup sur des sources que les Wikipédiens vont – entre autres – chercher et obtenir via des requêtes sur le moteur de recherche Google. Parallèlement, le moteur de recherche met également beaucoup en avant, sur certains thèmes et sujets, des informations issues de pages et groupes Facebook. Pages et groupes qui jouent aussi énormément sur la visibilité et la notoriété que leur confère Google dès lors qu'elles sont ouvertes à l'indexation par le moteur de recherche. Idem pour les polémiques qui naissent dans les espaces discursifs intersticiels de Twitter et se trouvent à la "Une" des résultats du moteur de recherche, entraînant parfois la rédaction ou la modification d'une page Wikipédia. Et ainsi de suite.
Et la saturation alors ? Alors précisément vient ce moment où la saturation des différents biotopes numériques est atteinte :
- sur les requêtes Google concernant le régime de Vichy ou le Maréchal Pétain, les pages et discours vidéo du candidat négationniste sont en bonne place ;
- sur les pages Wikipédia on trouve, même brièvement, des vues altérées et mensongères de certains faits historiques ;
- sur Facebook n'importe quel groupe sur n'importe quel sujet comporte des visuels et des contenus poussés par les équipes de campagne du candidat néo-fasciste ;
- sans oublier les tendances des Hashtags Twitter qui chaque jour voient arriver dans le top 5 un ou plusieurs hashtags là encore artificiellement poussés par les équipes numériques du candidat d'extrême-droite.
Alors la perception que nous avons de la réalité, d'une réalité médiée par ces biotopes numériques déterminants, commence à changer et avec elle l'opinion change également comme changent les arbitrages médiatiques permettant de choisir de traiter ou d'ignorer ces questions.
Les systèmes techniques produisent leurs propres heuristiques, leurs propres preuves, leurs propres effets d'évidence et de réfutation. Et dès lors que l'on peut, par exemple, documenter une controverse sur le rôle du régime de Vichy dans sa politique anti-juive, dès lors que des médias "mainstream" s'en font l'écho même pour condamner ces thèses, ces thèses deviennent "citables" dans le cadre d'un article de l'encyclopédie Wikipédia puisque l'une des règles essentielles conditionnant la publication ou la modification d'un article est celle de sa "vérifiabilité". Et dès lors que ces éléments apparaissent dans l'encyclopédie Wikipédia, ils se retrouveront alors affichés dans le cadre de requêtes Google sur le sujet. Et ainsi de suite.
Moralité ?
Ce que nous apprend et nous enseigne cette histoire tient à deux principes élémentaires.
Contribuer à Wikipédia (et former les gens à être capable de le faire). Chacun de sa place d'enseignant, de chercheur, de journaliste, d'étudiant, de citoyen devrait avoir à coeur de contribuer à l'encyclopédie collaborative. Pour contrer les effets connus de la "tyrannie des agissants" il serait nécessaire que ces contributions soient encadrées et mises en oeuvre dans différents cursus (notamment) universitaires, ce qui est aujourd'hui hélas bien trop rarement le cas.
Financer Wikipedia, y compris sur fonds publics. Cette oeuvre collective que constitue Wikipedia est plus que jamais une tour de Babel désirable et impérieusement nécessaire. Son administration doit rester collective et à l'abri de toute forme de monétisation. Il importe donc là aussi que chacun, puisse, selon ses moyens, contribuer financièrement à cette autonomie. Et il serait urgent que les entités d'enseignement et de recherche publiques sanctuarisent des formes de contributions financières à l'encyclopédie. Parce qu'elle est, et de loin, et depuis longtemps, le premier outil de travail et la première référence commune de l'ensemble des élèves puis des étudiant.e.s qui passent sur les bancs de l'école élémentaire à l'université. Et qu'elle le restera encore longtemps. Chaque université paie chaque année sur fonds publics des sommes considérables à des éditeurs (souvent crapuleux comme Elsevier) et à différents fournisseurs et intermédiaires de documentation scientifique pour permettre à leurs étudiant.e.s d'accéder à des connaissances scientifiques. Même si le cercle est aujourd'hui devenu plus vicieux que vertueux au regard de la situation de concentration dans l'édition savante, il s'agit tout de même de soutenir un écosystème entier qui est le socle de l'enseignement et de la recherche universitaire et de tout ce qui en découle. Or citez-moi maintenant, citez-moi aujourd'hui, l'exemple d'une contribution financière d'une seule université française à Wikipedia (ou à la fondation Wikimedia). Il n'y en a pas. Cela me semble tout à fait ahurissant. Ahurissant et à moyen terme mortifère pour une écologie des savoirs et des connaissances capables de s'affranchir des seules règles de l'audience ou de la monétisation.
Toute Babel est fragile. Le dernier enseignement de cette histoire c'est qu'il n'existe aucun système infaillible, aucune construction intellectuelle collective qui ne puisse être dévoyée ou défaite. Et que la meilleure garantie de pouvoir continuer à trouver dans Wikipédia des informations qui nous permettent de faire réalité commune, c'est de garantir à côté de l'indépendance de cet outil de connaissance, l'indépendance des outils d'information eux-mêmes garants de la possibilité d'enquêter sur la manière dont naissent à la fois les controverses scientifiques et les processus de désinformation. Cela passe par deux fondamentaux : garantir les libertés académiques (qui sont aujourd'hui menacées au premier plan par les délires politico-pathologiques sur l'islamo-gauchisme de la ministre Frédérique Vidal), et garantir l'indépendance de la presse et des médias. Or sur ce second point, l'opération et le collectif #StopBolloré ou le documentaire "Media Crash" de Médiapart le démontrent encore de manière éclatante, non seulement nous en sommes loin à quelques exceptions près, mais, et c'est tout aussi inquiétant, nous nous en éloignons chaque jour encore davantage.
Wikipedia est un biotope particulier et un Commun de la connaissance. Il est particulier par les principes de circulation de l'information qui s'y négocient, par les garanties de vérifiabilité qui y sont établies pour que les informations se sédimentent en autant de connaissances, il l'est aussi par les jeux d'acteurs toujours démocratiques et toujours observables qui en décident, et par l'ensemble des cadres et dispositifs qui concourent à faire de l'encyclopédie ce qu'elle est autant qu'à lui permettre de s'inscrire dans des paysages médiatiques, informationnels et sociaux bien plus vastes et de les nourrir.
Elle est ainsi particulière qu'elle est la seule à présenter cet ensemble de caractéristiques sur chacun desquelles nous pouvons agir et être acteurs. En face d'elle se dressent d'autres biotopes sur lesquels nous n'avons, en tant que citoyens, chercheurs, universitaires, absolument aucune autre prise que celle consistant à en pointer et à en documenter les biais et les dangers, comme le fait admirablement Claire Sécail (parmi d'autres).
Wikipedia est une nouvelle fois parvenue à se protéger de la campagne de saturation menée et pilotée par Samuel Lafont, l'un des sbires les plus crapuleux et immonde de l'idéologie d'extrême-droite et de la fachosphère. Cette affaire lui a permis (a Wikipédia) de relever ses propres failles dans la manière dont un contributeur historique et membre de l'opération "WikiZedia" avait bénéficié de son statut pour éviter dans un premier temps d'être bloqué. Même si cette opération viendra bien sûr nourrir le discours de ses détracteurs habituels, il est probable que l'encyclopédie en ressorte plus renforcée qu'affaiblie (comme le montre ce communiqué de la fondation Wikimedia qui revient en détail sur l'impact de l'affaire).
Mais cette affaire doit nous alerter collectivement sur la nécessité de protéger, de défendre, de faire vivre et de garantir l'indépendance de ce patrimoine immatériel de l'humanité, inédit dans sa forme comme dans son ampleur et dans sa vitalité constante. C'est une urgence parmi d'autres. Mais plus que d'autres elle est aujourd'hui vitale.
Comme il est urgent de réfléchir aussi à la manière dont, bien au-delà de Wikipédia, les relations entre les médias de masse et d'opinion d'une part, et les médias sociaux d'autre part, offrent et construisent une anamorphose permanente de la réalité du champ social qui n'est conditionnée que par une série de primes à la radicalité, et qui finit par faire vasciller totalement la possibilité de faire société autour de valeurs de preuve communes.
Parce que nous sommes dans un temps où les discours politiques explicitement xénophobes ne cherchent même plus à se masquer. Parce que les appels à la haine contre des populations, des religions et des minorités se discutent sur les plateaux télé avec la même nonchalance convenue que l'arrivée de la neige en hiver dans un flash météo. Parce que comme le rappelait Daniel Schneidermann dans l'un de ses derniers éditoriaux :
"Je ne peux pas avoir consacré un livre à l'aveuglement de la presse occidentale à Berlin en 1933, et ne pas poser les mots sur ce qui se déroule sous mes yeux à Paris, en 2022."
Parce qu'après les guerres d'édition et qu'après les guerres d'opinion, viennent alors souvent les guerres tout court.
____________________________________________
Pour approfondir le sujet vous pourrez (notamment) consulter :
- les bonnes feuilles du livre de Vincent Bresson publiées dans Le Monde
- l'article de Marie Turcan dans Numérama sur la manière dont Wikipédia a été trompée.
- un résumé de l'affaire par Juliette Geay sur France Inter.
Merci pour l’article, je me contente ici de signaler que le lien vers le communiqué de Wikimedia est erroné, voici le bon : https://www.affordance.info/%C2%A0https://www.wikimedia.fr/tentative-de-manipulation-de-wikipedia-par-lequipe-deric-zemmour/
Voici le VRAI bon (désolé) : https://www.wikimedia.fr/tentative-de-manipulation-de-wikipedia-par-lequipe-deric-zemmour/