Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.

Nous avons passé le 1er Avril que quelqu'un, sur Facebook ou Twitter je ne sais plus, a rebaptisé "Journée des Fake News". C'est en effet, comme il le faisait remarquer, la seule journée dans l'année où nous nous demandons si une information est vraie avant de la partager. 

DZwn8YnXkAA8XeZ

C'est aussi la seule journée où l'on se targue avec gourmandise d'avoir propagé des Fake News avant que l'on ne réadopte, dans pareille situation et pour les 364 jours un quart restants, la posture contrite de l'enfant pris les mains dans le pot de confiture. 

Le jour des fous et des mensonges.

Telles sont deux des appellations de cette fête du faux à travers le monde. Une fête qui se pare naturellement de nouveaux atours quand le faux est devenu l'une des préoccupations majeures des 364 jours restants au point que les gouvernements se mettent en tête de légiférer. Or légiférer sur le faux est hautement foireux comme nous le verrons plus bas. Mais avant cela, revenons brièvement sur cette épiphanie du faux. 

De mon point de vue, trois raisons suffisent à expliquer et à circonscrire l'ampleur actuelle du phénomène des Fake News et à constater qu'à rebours du poisson qui n'est pas que d'Avril, l'affaire, elle, est quasi-insoluble :

  1. une architecture technique toxique au service du faux,
  2. nos biais cognitifs (dont notre appétence pour le faux),
  3. les régimes de vérité propres à chaque plateforme.  

La première raison est celle de l'architecture technique. Il y a une architecture du faux. Du faux-semblant que ne fait pas semblant de l'être et qui s'assume comme tel. Et cette architecture est celle, visible, de la promiscuité des profils dans Facebook, comme elle est aussi celle, invisible, de l'orchestration algorithmique de la viralité qui unit les GAFAM. Dès lors il est absolument impossible de ne pas propager de fausses informations et il est impossible de ne pas y être confronté ou exposé, exactement de la même manière qu'il est impossible de ne pas entendre et voir ce disent ou font vos voisins quand vous habitez dans un immeuble lui même implanté dans un ensemble de "barres" où la promiscuité est érigée en dogme architectural.

D'autant que cette architecture du faux se double d'une architecture de l'invisibilisation comme en attestent, notamment, les "Shadow Profiles" de ces utilisateurs malgré eux du réseau social, ou bien encore les Dark Posts intégrés depuis longtemps comme stratégie publicitaire à part entière mais révélés au grand public à l'occasion du scandale récent autour de Cambridge Analytica. 

Fenetre-sur-cour-5
 

Fenêtre sur cour. Une (autre) architecture de la promiscuité.

Par parenthèse, il n'y a que par une architecture technique autorisant d'autres usages – par exemple un index indépendant du web – que nous parviendrons à atténuer les effets parfois désastreux que produisent les architectures techniques aujourd'hui dominantes. Ainsi, comme le rappelle très justement Anil Dash, la fin programmée de l'usage des fils RSS et des outils (comme Google Reader) permettant de promouvoir leur usage, est, sinon une cause, du moins indubitablement une corrélation non-négligeable de l'essor des logiques de désinformation : 

"Google’s decision to kill Google Reader was a turning point in enabling media to be manipulated by misinformation campaigns. The difference between individuals choosing the feeds they read & companies doing it for you affects all other forms of media. (…)

Je traduis pour être sûr que tout le monde le retienne : "La différence entre des individus choisissant les contenus qu'ils lisent et des entreprises choisissant ces contenus à la place des individus affecte toutes les formes de médias." C'est assez simple mais ça marche pas mal comme raisonnement 🙂

Anil Dash renvoie ensuite à la question classique mais essentielle d'une aristocratie de la parole que l'isègoria des blogs permit un temps d'incarner avant de n'avoir plus, comme disait Balzac, "que la beauté des villes sur lesquelles ont passé les laves d'un volcan".   

"The point is not that huge numbers of people used Google Reader. It’s that lots of people who *make media* did. Instead, they look at a feed generated by an opaque, unaccountable algorithm whose board member thinks nothing of destroying media companies & funding misinformation."

La seconde raison est celle de nos biais cognitifs. Nous avons une appétence, une gourmandise presque "naturelle" pour le faux, la tromperie et l'illusion. Et c'est de cette appétence dont l'architecture technique se repaît ; non pas uniquement parce que cette architecture technique est intrinsèquement mauvaise – elle l'est de fait un peu quand même puisqu'uniquement centralisée – mais parce qu'elle se doit de gaver l'actionnariat – et le modèle publicitaire – qui la détient et l'entretient en tant qu'architecture permettant de dissoudre toute forme de conscience de classe (mon côté Marxiste) dans une routine cognitive du divertissement qu'entretiennent les nouveaux contremaîtres algorithmiques de l'éternelle société du spectacle (mon côté situationniste). Oui je sais que la phrase précédente était trop longue (mon côté Proustien). Comme le rappelle très justement Gérard Bronner dans un entretien sur son ouvrage "La démocratie des crédules"

"Le régime de la connaissance que permet le progrès de la science est un régime exceptionnel et celui de la croyance est notre régime normal. Nous sommes des êtres de croyance."  

Et la troisième raison est celle des régimes de vérité propres à chaque grande plateforme, c'est à dire à chaque grande architecture technique : la popularité pour Google (est "présenté comme vrai" ce qui est populaire), la vérifiabilité sur Wikipédia, et sur Facebook ce que l'on nomme "l'engagement" ou le "reach" c'est à dire une forme singulière, perverse et paroxystique de popularité. Ainsi ce qui est faux sur Google ou sur YouTube peut être vrai dans Wikipédia mais prétendre se servir de la seconde pour garantir la valeur de vérité du premier est une aberration et a autant de sens que de demander à un spécialiste de biologie évolutionniste de convaincre les créationnistes de l'inanité de leur doctrine : il parviendra facilement à présenter les arguments scientifiques nécessaires à l'établissement de la preuve mais ne convaincra personne durablement. Si le rapport de concurrence et de dépendance entre l'encyclopédie et le moteur est déjà ancien, l'idée de s'appuyer sur Wikipédia pour "démentir" ou débunker des rumeurs présentes sur Youtube est non seulement inefficace mais elle est également mauvaise et perverse car, tout au moins dans l'opinion et donc en partie dans l'usage, elle installe l'idée que le processus de certification encyclopédique et l'établissement de la preuve documentaire devraient être à la remorque de la publication massive de contenus viraux aux formes sans cesse renouvelées, alors que la temporalité nécessaire à l'établissement de la preuve est aussi la première garantie de la véracité des éléments de preuve collectés et rassemblés. J'ajoute que conformément au régime de vérité qui est le sien, Wikipédia n'a pas pour fonction "de discerner le vrai du faux" mais de discerner le vérifiable de l'invérifiable, ce qui est tout à fait différent. 

Au demeurant la différence entre ces régimes de vérité explique le récent (22 mars 2018) "clash" entre Google et Facebook sur le sujet des Fake News. Facebook défend un positionnement "hybride" qui l'amènerait à accréditer certaines sources et certains journalistes alors que Google s'y refuse en y voyant un risque pour la liberté d'expression. De fait, la popularité – le régime de vérité de Google – est une externalité, alors que celui de Facebook – l'engagement – suppose un contrôle total des internalités. De son côté, Twitter ayant toujours autant de mal à trouver un modèle économique qu'un régime de vérité, préfère officiellement se reposer sur un postulat d'auto-organisation en feignant d'oublier les effets de la tyrannie des agissants qu'entretient là encore sa propre architecture de la viralité. 

Sur Twitter ou ailleurs, le faux n'est pas "plus fort que le vrai", mais le faux y est architecturalement plus visible et vient nourrir différents biais cognitifs qui n'en attendaient ni n'en demandaient pas tant. Sans oublier non plus les effets non plus de concurrence mais de percolation entre ces écosystèmes numériques : quand Google renvoie à Twitter dans ses résultats pour saisir l'instantanéité d'un phénomène, cela alimente des logiques de viralité dont les Fake News ne sont que le symptôme le plus apparent.

Attention aux fausses nouvelles bonnes idées. 

Depuis – en gros – l'élection de Trump en 2016, tout ce qui pouvait être testé à l'échelle des plateformes et des états pour endiguer le phénomène des Fake News l'a été. Et rien n'a marché. Rien.

Il ne sert à rien de demander aux Etats d'être exemplaires puisqu'ils sont les premiers à utiliser Facebook à des fins de propagande

Il est bien sûr utile et nécessaire de purger les faux comptes (Facebook le fait de plus en plus régulièrement) mais faute de modification structurelle de l'architecture des plateformes et faute de contrainte réglementaire suffisante et à l'échelle transnationale, autant essayer de remplir le tonneau des Danaïdes. En 2017 Facebook estimait que 60 millions de comptes sur plus de 2 milliards d'utilisateurs étaient des faux. Personne d'extérieur à la firme ne pourra jamais vérifier la véracité de ces chiffres. Ce qui n'est pas le moindre des problèmes … 

De la même manière l'étiquetage de contenus par les plateformes, s'il est parfois souhaitable pour rétablir des éléments de contexte manquants, est nécessairement soumis à un régime discrétionnaire qui peut heurter ou même renforcer les logiques complotistes. Facebook avait d'ailleurs de son côté établi que le "marquage" des Fake News produisait souvent l'effet inverse de celui escompté. Labelliser des niveaux de véracité ("vrai", "faux", "partiellement vrai") avec des éditeurs vérificateurs qui doivent être "une source d'information reconnue déterminée par un algorithme" me donne à la fois la migraine et l'envie de me reconvertir dans l'industrie du macramé sur une ZAD, tout comme les différentes signalétiques proposées qui participent de la même logique de labelisation qui ne contraint, n'évite ou ne limite aucunement la propagation de fausses informations.

Le dé-référencement à la hussarde est aussi efficace qu'il est à manier avec une extrême précaution tant il renforce là encore un régime d'arbitraire limité à la seule décision de la plateforme. 

Il serait naïf de croire que les changements de règle annoncés (comme par exemple le fait de "purger" des pages ou des sites de presse qui masqueraient délibérément leur pays d'origine) seront pérennes. Chacun des GAFAM nous a habitué à des évolutions de leurs CGU aussi floues que brutales et ne correspondant à aucune autre logique que celle d'éteindre un incendie médiatique entamant leur image ou de permettre d'augmenter leurs marges et leurs revenus. La seule règle que les plateformes appliquent avec constance est celle de la dérégulation.

Il est illusoire de croire que les actionnaires des plateformes renonceront à une partie de leurs dividendes au prix d'une lutte contre la désinformation. Ils l'ont explicitement indiqué, la garantie de leurs marges ne se négocie pas. Un écho aux fabriquants de Fake News qui assument à titre individuel des motivations au moins autant financières qu'idéologiques (lire également le reportage saisissant de Wired sur les jeunes rédacteurs de Fake News en Macédoine). 

Il est stupide de croire que des changements algorithmiques opérés par les plateformes produiront un effet mesurable et pérenne tant que la partie de ces algorithmes relevant de logiques d'éditorialisation classiques ne sera pas ouverte et auditable de manière indépendante

Il n'y a rien à attendre de la rémunération des éditeurs et des sites de presse par des plateformes, plateformes dont l'architecture technique est la condition d'existence du problème qu'elles prétendent vouloir régler. Facebook rémunérant des Fact-Checkers c'est aussi pertinent que l'industrie du tabac rémunérant des pneumologues.

Sinon on peut aussi laisser le même Facebook financer un programme de recherche sur la désinformation, ou faire confiance au Figaro pour enquêter sur Serge Dassault. 

Plus globalement que Facebook rémunère des médias pour qu'ils deviennent ses opérateurs de vérification sur la base de signalements effectués par les utilisateurs de la plateforme, c'est dissoudre et disqualifier d'avance toute forme de certification légitime.

Réinventer le délit de fausses nouvelles est inutile et inefficace (nous y reviendrons). Mais ça permet visiblement d'avoir son moment Warholien de célébrité.

Quant à tout miser sur les développements de l'intelligence artificielle pour "corriger" ou "détecter" les Fake News, en l'état actuel de ce qu'est capable de faire l'intelligence artificielle sur le traitement du langage et au regard de la complexité des aspects linguistiques, rhétoriques et conceptuels mobilisés par les fausses nouvelles (qui jouent aussi sur des dimensions relevant de l'implicite, de l'ironie, etc), c'est comme si l'on demandait à un enfant d'un an qui est en phase d'acquisition du langage de se livrer à une analyse géopolitique sur le moyen-orient et le conflit israélo-palestinien. N'en déplaise à Mark Zuckerberg et à son argumentaire autour de la mise en place d'algorithmes intelligents pour corriger les contenus mis en avant par des algorithmes stupides.

Cela ne sert non plus à rien de culpabiliser les internautes en leur répétant que le problème vient d'eux. Oui bien sûr le problème vient aussi de nous, mais il a d'abord partie liée avec une architecture technique elle-même liée à un business-model toxique. 

Laisser aux utilisateurs le soin de faire eux-même la police du Fake c'est postuler l'efficience d'une régulation par les pairs dans un écosystème où la polarisation des opinions et la densité des liens faibles rend la procédure impossible ou nécessairement et fortement biaisée (tyrannie des agissants).

Considérer que les Fake News sont réservées au numérique et aux réseaux sociaux, c'est avoir quelques lacunes historiques.

Croire que les publics les plus socialement déclassés sont les premiers relais des Fake News ou ceux qui y seraient les plus exposés c'est ne pas voir, comme l'avait montré Jacques Ellul – ici cité par Konrad Becker – que "La propagande repose sur un système de croyances. Et sa cible aujourd’hui est une population éduquée, avec des cadres, sinon elle ne pourrait pas être manipulée."

Et puis il faut se méfier des causalités trop faciles : le fait que les partisans de Marine Le Pen aient tendance, en période électorale, à partager davantage de sources peu fiables que les autres, et le fait que les mêmes partisans de Marine Le Pen bénéficient d'un niveau d'éducation moins élevé et soient moins diplômés que d'autres électorats ne doit pas transformer une corrélation en causalité. 

Croire que les "jeunes" seraient de même davantage concernés que les anciens est également une erreur. La question n'est pas celle de l'âge mais celle de la diversité des contextes informationnels qui nous sont accessibles, ouverts ou disponibles.  

Sur ces trois derniers points, rappelons-le, la propagation de Fake News est davantage affaire de topologie que de sociologie.

Le fact-checking, pour autant qu'il reste indépendant – c'est à dire non financé par les plateformes comme rappelé plus haut – et relève d'un savoir-faire et d'une méthodologie journalistique empreinte d'un minimum de déontologie reste très utile et nécessaire. D'ailleurs "le nombre de projets de Fact-Checking a triplé en 4 ans". Récemment le Monde titrait "France Info et France Culture s'allient contre les Fake News". Dont acte et bravo. Mais là encore à elles seules les logiques de démenti ou de réaffirmation de sources ont une utilité dans l'instant à la condition, c'est hélas devenu la norme, qu'elles soient correctement prises en compte par les architectures techniques des plateformes, soit en terme de référencement s'il s'agit de moteurs de recherche, soit en terme d'exposition et d'engagement s'il s'agit de réseaux sociaux. D'où l'importance pour ces logiques de fact-checking, de miser sur le temps long que permettent des architectures techniques indépendantes ou qui ne sont d'aucune manière liées aux GAFAM.

Briseurs de pub.

A propos d'économie justement, impossible de ne pas au moins évoquer ce qui est peut-être la seule manière efficace et concrète de limiter la portée des Fake News en brisant la logique publicitaire qui les sous-tend et qui est leur modèle d'affaire. Du côté des associations citoyennes, c'est ce que permet l'initiative Sleeping Giants en signalant aux marques et annonceurs que leurs publicités sont diffusées sur des sites ou portails qui propagent des Fake News ou des contenus racistes (par exemple) en les incitant donc, sous la pression de l'opinion, à retirer leurs publicités de ces sites pour tarir ainsi leur mode de financement.

De son côté Facebook avait annoncé en Août 2017 qu'il allait priver de publicité (= de la possibilité de lui acheter de la publicité) les pages diffusant des Fake News. Mais que la mesure était temporaire et que si les pages se remettaient à publier de vraies informations elles pourraient de nouveau acheter de la publicité, et que bien sûr les pages (détectées on ne sait pas trop sur quelle base ni avec quel systématisme ou quelle régularité) ne seraient pas supprimées. Notez bien que dès Novembre 2016, au lendemain de l'élection de Trump, Google et Facebook annonçaient déjà leur intention de restreindre et de limiter l'accès à leurs régies publicitaire pour les sites "douteux". Il faut croire que ces mesures n'ont pas été suivies d'effet probants. A moins bien sûr qu'elles n'aient que très mollement été mises en oeuvre …

Au-delà de l'interrogation légitime que peut susciter la volonté d'acteurs de limiter l'influence et la viralité publicitaire des Fake News lorsque le modèle économique desdits acteurs repose exclusivement sur la publicité ciblée et qu'ils savent en outre parfaitement que plus la publicité est "menteuse" et plus elle est "virale" et plus elle leur rapporte, on est aujourd'hui toujours aussi effaré de voir que nombre de médias "prestigieux" ou "d'autorité" n'ont aucun scrupule à avoir recours à des régies virales comme Outbrain qui collent en bas de chaque article une collection de Fake Ads plus hallucinantes les unes que les autres

Et globalement il est toujours assez dangereux de se limiter à demander aux plateformes de faire le ménage dans leur régie publicitaire sauf à les placer en situation d'être d'authentiques censeurs (affaire Google Adwords / Breitbart News).

En résumé ?

D'abord il faut rappeler que le seul angle possible pour proposer des mesures concrètes visant à limiter ou atténuer la portée des Fake News, passe par la possibilité d'accéder à l'ensemble des données qui font le cycle de vie des Fake News. Des données que les plateformes sont les seules à pouvoir analyser. Des données auxquelles elles refusent bien entendu d'ouvrir un accès à des acteurs extérieurs et indépendants. Or prétendre lutter contre les Fake News sans avoir accès à ces données, ce que fait le gouvernement Macron dans le cadre de la loi dont je vais vous parler juste après, c'est se trouver dans la situation du médecin posant un diagnostic et proposant une ordonnance sans jamais avoir consulté le résultat d'un examen médical sur le patient ou la maladie qu'il prétend soigner. 

Nous n'évoluons aujourd'hui pour l'essentiel de nos vies connectées qu'au sein de plateformes monopolistiques publicitarisées dont les architectures techniques nourrissent sciemment nos biais cognitifs et jouent en permanence du pulsionnel contre le rationnel. Des plateformes disposant chacune de leurs propres régimes de vérité, lesquels ne peuvent être contestés de l'intérieur même desdites architectures. Des plateformes enfin, qui ne peuvent être soumises à aucune forme de régulation externe efficace sauf à changer simultanément leur statut (privé -> public) et leur modèle économique. Une nationalisation d'ailleurs de moins en moins théoriquement improbable même si l'on cherche à nous convaincre qu'elle reste encore pour l'instant politiquement et économiquement trop complexe.

Une architecture technique est (déjà) une opinion (et ceci n'est pas une pipe).

Internet a bouleversé, durablement et radicalement, les régimes de construction des opinions. C'est un fait et non un faux. Et il faut l'accepter et le comprendre comme tel.

Internet a – entre autres – inauguré une société des avis. Tout est noté et notable. Avisé et avisable. Des avis déposés sur tout et sur n'importe quoi, des objets, des compétences, des gens, des lieux, et des avis autorisés seulement par l'entremise des mêmes infrastructures et architectures techniques qui les nécessitent pour entretenir un modèle d'affaire qui devient toxique pour toute forme de diversité dès qu'il passe à l'échelle industrielle.

Et soyons clairs : que chacun ait son avis et puisse le donner est une bonne chose. Mieux qu'une bonne chose c'est même une garantie démocratique essentielle et vitale. Pour autant qu'il n'existe aucune forme de sur-sollicitation biaisée dans l'expression, la collecte et le recueil de ces "avis". Et pour autant que l'intentionnalité de cette collecte ne soit pas exclusivement le prétexte à une forme d'exploitation commerciale s'exerçant dans le cadre d'un monopole ou d'un oligopole déjà constitué. Or sur ces deux points nous sommes à l'évidence très loin du compte. 

Plotin disait que l'architecture est "ce qui reste de l'édifice une fois la pierre ôtée". Ôtez à Google ses contenus et vous verrez l'architecture de la popularité ("For Google everything is a popularity contest"). Ôtez à Facebook ses profils d'utilisateurs et vous verrez l'architecture de la surveillance. 

Architecture technique, biais cognitifs et régimes de vérité (tous trois conditionnés par une logique de rentabilité attentionnelle) : ces trois raisons suffisent à rendre tout débat sur "comment lutter contre les Fake News ?" à peu près aussi vain que celui sur "Comment s'assurer que la ligne éditoriale du Figaro se rapproche de celle de l'Humanité ?"

On ne "lutte pas" davantage contre les Fake News que contre les poissons d'Avril. On peut en revanche tenter de lutter contre l'architecture technique toxique des plateformes et contre leur modèle économique. Mais ce n'est hélas pas du tout ce que prévoit le projet de loi du gouvernement. 

Le projet de loi contre les poissons d'Avril (Fake News) est en l'état – et en l'État – une farce.

<Rien à voir mais ça – me – soulage de le dire et cela venait de se produire quand j'ai pour la première fois commencé à rédiger ce billet> En politique, le cynisme, la fatuité, l'indécence et la bêtise la plus crasse se mesurent à la capacité de se lancer des paris débiles à remporter dans l'hémicycle et sous les yeux de la nation tout entière alors même que l'on aborde des projets de loi qui mettent directement en cause les valeurs fondamentales du pays que l'on représente. Par exemple essayer de glisser les mots "bite" ou "cassoulet" dans un projet de loi sur le droit d'asile. Imaginez un peu … C'est pourtant très exactement ce genre de défi que grand guignol Philippe a lancé à la Momie Collomb, défi que ce dernier s'est empressé de relever pendant qu'il défendait l'une des lois les plus ignobles et scélérates de cette mandature avec une conception de la dignité de l'action et de la parole publique "en séance" qui doit être l'équivalent moral de Patrick Balkany remplissant sa déclaration d'impôt. D'ailleurs si la définition de l'arrivisme qui siège actuellement au perchoir de l'assemblée nationale pouvait être aussi prompt à sanctionner Gérard Trou Du Cul Collomb pour cette attitude absolument honteuse et méprisable, qu'il l'est à coller des conseils de discipline à François Ruffin pour port illicite de T-shirt de Foot, peut-être que cela contribuerait à redorer un minimum le sens de l'action et de la parole publique. Mais ce n'est pas de ça que je veux vous parler. </Rien à voir>

La manière dont le gouvernement entend s'attaquer à la question des Fake News, des "fausses informations", est à la fois incohérente, inefficace et démocratiquement très dangereuse.

Ce que nous savons de l'actuel projet de loi, complété par la lecture des fichiers mis à disposition par Next Impact, va mettre un gouvernement en situation de museler des organes de presse en temps d'élection dans ce qui reste quand même, ne leur en déplaise, une putain de démocratie. En l'état de ce qu'on connaît du projet de loi, Sarkozy pourrait saisir un juge des référés pour empêcher les révélations de Mediapart sur le financement de sa campagne (par exemple hein …). Ou plus récemment François Fillon aurait pu étouffer pépouze l'affaire Pénélope au même motif de Fake News en temps d'élection (par exemple toujours hein …).

Je rappelle qu'en d'autres temps on alertait – hélas déjà en vain – sur la situation qu'une inscription dans la loi de certaines dispositions d'exception de l'état d'urgence laisserait si un parti comme le Front National arrivait au pouvoir. On insistait également sur la dangerosité de certaines dispositions du projet de loi anti-terroriste. Et là ces dingos sont en train de préparer l'arsenal législatif nécessaire pour museler toute expression démocratique venant de journalistes pendant une élection. Rien de moins. Alors même que certains sont encore groggy de découvrir l'étendue du scandale de Cambridge Analytica et de Facebook. Ce ne sont pas les Fake News mais les contre-pouvoirs que l'on cherche à contrôler avec cette loi. Ajoutez à cela la récente proposition de loi sur le secret des affaires et vous aurez tous les ingrédients du kit du petit dictateur. 

Ceci étant, leur dinguerie n'est mesurable qu'à l'aune de la cohérence qu'ils mettent à l'entretenir. Ainsi, non contents de mal s'attaquer au mauvais problème par les mauvais outils, ils ont eu une deuxième idée de génie : contribuer et continuer à éparpiller façon puzzle les acteurs de l'éducation aux médias, pourtant les seuls capables de lutter efficacement contre les Fake News. 

La loi (sur les Fake News) et le désordre.

La loi. La copie du texte du projet de loi que Le Monde s'est procuré est affligeante dans l'ambition proposée et consternante dans les pistes d'application envisagées. Nous y reviendrons plus bas. 

Et le désordre. On apprenait dans Le Parisien que les mêmes branquignolles, par la voix de leur ministre des intérêts des éditeurs et accessoirement de leur vision de la culture, les mêmes annonçaient vouloir, je cite, "doubler le budget consacré à l'éducation aux médias". Et là on se dit "Waaaaaa troooop chouette." Mais en fait non puisque le même article nous apprend que ce doublement, je cite toujours : 

"aidera les associations qui interviennent dans les médiathèques et les écoles. Il financera l’intervention de jeunes dans le cadre du service civique."

Dans ton cul Lulu. Financer l'intervention de jeunes dans le cadre du service civique. Plutôt que de créer des postes stables, permanents, de titulaires formés et capable d'accompagner tout ça sur la durée et non uniquement par soubresauts électoraux ou médiatiques. Plutôt que d'ouvrir aux concours des postes de professeur-documentaliste, des postes de bibliothécaires et médiathécaires, des postes de prof à la fac, et ainsi de suite.

Mais c'est vrai que l'essentiel n'est pas de régler le problème ni même de s'y intéresser sincèrement, l'essentiel c'est de dire qu'on va le régler. Si en plus cela permet de faire mécaniquement (et artificiellement) baisser le taux de chômage chez les jeunes, c'est bingo mon lolo.

Donc on fait quoi ?

On relit attentivement le début de cet article 🙂 Lutter contre les Fake News n'a pas de sens. Il faut lutter contre l'architecture technique toxique, contre le modèle économique qui lui sert de mortier, et bien sûr pénaliser le client : pénaliser les gros clients qui, en temps d'élection, sont les premiers à jouer du placement de Fake News sur un électorat de niche. Or ces gros clients étant les partis politiques eux-mêmes il est hélas assez peu probable, comme nous le verrons plus bas avec Antonio Casilli, qu'ils fassent le nécessaire pour réguler leurs propres pratiques délictueuses. 

Mais comme je vous entend insister, sur le sujet des Fake News et du sempiternel "oui t'es mignon mais bon alors on fait quoi ?" j'ai trois piliers qui me servent de référence intellectuelle et méthodologique : Gunthert le paisible, Cardon le sage et Casilli le combattant (qu'ils me pardonnent l'octroi de ce sobriquet qui ne vaut que pour l'amical clin d'oeil qu'il me permet de leur adresser). 

Alors d'abord on se détend.

On ne s'affole pas. Ou en tout cas on ne répond pas à l'affolement des technologies par l'affolement de l'agenda médiatique supposé le couvrir. Sans être aussi optimiste – loin s'en faut mais nous y reviendrons plus tard – sans être aussi optimiste donc, que le camarade André Gunthert, certains des arguments qu'il mobilise sont tout à fait pertinentsPar exemple ceci en réponse à nombre d'articles, dont le mien, s'alarmant d'une terrifiante apocalypse du faux

"l’inquiétude manifestée par les descriptions alarmistes des “Deepfakes” repose sur la conviction d’une expansion incontrôlée des falsifications, rendues plus aisées par un outil facile d’accès. (…) Ce n’est pourtant pas la première fois que la phobie du faux frappe les images. Dès les prémices de la transition numérique, la critique de la retouche pointe le danger représenté par des outils grand public comme Photoshop, et dépeint un futur angoissant, où la frontière qui sépare la vérité du mensonge aura disparu, livrant les contemporains à l’incertitude."

Et André Gunthert de poursuivre : 

"La vérité étant une construction sociale, il ne suffit pas de produire un document trompeur pour modifier la réalité. Un mensonge crédible, comme celui de la possession d’armes de destruction massives par l’Irak de Saddam Hussein, suppose au contraire la mobilisation d’un réseau étendu d’institutions et d’autorités, qui acceptent de mettre leur crédibilité en jeu – sans pour autant réussir à tromper durablement une opinion publique qui dispose d’instruments de vérification autonomes.

Plus fondamentalement, l’altérabilité généralisée des formats numériques n’a pas transformé notre rapport au réel. (…) L’erreur consiste ici à soumettre toutes les images à un modèle de type documentaire, imposant à l’ensemble de la production visuelle les mêmes critères d’authenticité que ceux de l’information. Cette approche occulte la vaste gamme des usages imaginaires de l’image."

Avant de conclure : 

"Plutôt que d’imaginer avec angoisse les applications journalistiques du face-swapping, il est plus pertinent de constater que les usages réels de ces technologies se limitent aux territoires traditionnels du détournement, de la satire ou de la fiction – qui ne peuvent être confondus avec la falsification."

Alors oui, la vérité est, en effet, un construit social. Mais – et c'est là où je suis en désaccord avec André – ce construit social s'élabore aujourd'hui au moins autant dans la presse et les médias "de métier" que dans les grandes plateformes. Donc ne nous énervons pas mais ne nous endormons pas trop non plus sur les régimes d'intentionnalité qui pourraient venir se plaquer sur ces technologies disponibles. Des technologies elles-mêmes capables de fabriquer toujours davantage d'artificialité rendant la fabrication de Fake News toujours plus personnalisée et optimisée et leur détection toujours plus difficile. La vérité est un construit social mais la vérité se construit également au sein même de ces architectures du faux, et à ce titre, les Deep Fakes restent quand même une menace conséquente sur notre vie privée mais également sur des enjeux de sécurité nationale et de démocratie.

<Mise à jour du 4 mai 2018> André m'a répondu dans ce billet : "Opération Lune (ou à quoi servent les Fake News)" </Mise à jour>

Ensuite on essaie de se souvenir que les Fake News ne font pas l'élection.

Dans une récente autant que remarquable conférence au collège de France sur le thème "Comment Internet a bouleversé les régimes de construction des opinions", Dominique Cardon rappelle que du point de vue de la sociologie des médias, après le modèle dit de "la seringue hypodermique" théorisant un effet fort des médias sur le public et les disant capables d'endormir toute forme de vigilance, nous sommes progressivement passés au modèle du "The people choice" dans lequel aux effets "forts" succèdent des effets "faibles" ou limités.

La thèse de Dominique Cardon sur les Fake News est que nous sommes dans la seconde configuration et qu'il faut relativiser l'idée que les Fake News produiraient des effets "forts" sur les publics. Les publics se forment dans la conversation (cf Gabriel Tarde) et pas uniquement par la "lecture" d'informations publiées. Toujours selon Cardon la grande nouveauté du numérique, sa grande rupture est que ces deux circuits, celui de l'information et celui de la conversation, sont de plus en plus superposés et perméables l'un à l'autre.

Ainsi nous sur-interprétons les conséquences des Fake News dans le cadre – par exemple – de l'élection américaine. Un peu comme on a longtemps sur-interprété l'effet de l'annonce à la radio de la guerre des mondes d'H.G Wells et du mouvement de panique qui avait suivi, mouvement de panique dont on a depuis démontré … qu'il n'avait jamais existé (ça je l'ai appris en écoutant les 10 premières minutes de sa conférence).

En d'autres termes, qu'il y ait corrélation entre les Fake News sur certains publics hyper-ciblés et le résultat de l'élection chez ces publics spécifiques, c'est une réalité. Mais qu'il y ait causalité simple entre l'élection de Trump et les Fake News diffusées en général pendant la période électorale est une sur-interprétation à tout le moins hasardeuse comme je l'avais d'ailleurs déjà rappelé à la fin de mon article sur les biais cognitifs : les Fake News n'ont pas d'impact sur le résultat des élections. En tout cas pas "mécaniquement" et pas en première intention. Et le fait que les Fake News n'aient pas d'impact direct et mécanique sur le résultat des élections ne doit pas nous empêcher de voir et d'analyser ce que peut-être l'influence de Facebook dans le même cadre électoral.

Cardon poursuit en citant différents chercheurs qui, sur le résultat de l'élection américaine, ont démontré qu'il y avait eu un "effet d'agenda de scandalisation", c'est à dire que, paradoxalement, les grands médias (presse et télé) avaient davantage traité la campagne Clinton sous l'angle de différents scandales (l'histoire de sa boite mail notamment) alors que la campagne de Trump était, dans ces mêmes médias, davantage traitée sous l'angle des idées politiques, sur le "fond" donc. Le scandale des mails d'Hillary Clinton contre le projet de politique migratoire de Donald Trump et son volet économique.

Hormis donc le cas non-nul et non-négligeable des électorats de niche que la distribution économique des Fake News a permis de polariser en les amenant aux urnes et en faisant donc possiblement basculer le vote de certains états clés (et ici on attend encore plein de choses de ce qui sortira du scandale Cambridge Analytica), hormis cela, ce sont bien "les médias traditionnels" plus que les Fake News qui ont eu, assez classiquement, un impact sur l'élection. 

A l'image du vieux débat sur la poule de la bulle de filtre et l'oeuf de l'éditorialisation algorithmique, la réalité est toujours plus complexe et fuyante que les analyses prétendant en rendre compte, mais disons que la principale influence des Fake News sur le résultat de l'élection présidentielle américaine aura été de contribuer à imposer aux médias "traditionnels" un agenda du scandale pour Clinton et du projet politique migratoire et économique pour Trump (également scandaleux), et que c'est cet agenda médiatique qui a surtout fait la différence lors de l'élection. En un mot c'est surtout l'architecture technique de visibilité de la viralité qui a conditionné l'agenda médiatique jusqu'à le faire peser de manière peut-être déterminante sur le vote. 

Enfin, ne se trompe pas de cible et on s'attaque à la maladie plutôt qu'à son symptôme.

Et là encore on a, cela tombe bien, plein de gens qui ont des propositions concrètes et opérationnelles. Comme par exemple le camarade Antonio Casilli qui propose notamment ceci

"Au lieu de cibler exclusivement les petits dealers de mal-information, il est nécessaire de se concentrer sur leurs mandataires et sur les infrastructures techniques qui rendent possible leur action. Il faudrait par exemple établir l’obligation, pour les formations politiques, de publier un "bilan numérique" faisant état des dépenses et de la nature de leur marketing politique sur internet, de façon à les décourager d’effectuer des opérations clandestines à base de marchandage de clics. Tout comme les médias audiovisuels adoptent une règle d’égalité du temps de parole des candidats pour garantir le pluralisme, il est urgent de s’assurer que les partis politiques n’obtiennent pas subrepticement du "temps de cerveau" supplémentaire en achetant des tweets, des "like" et des contenus viraux lors des campagnes."

Dans le projet de loi envisagé par le gouvernement, la charge de la preuve incombe entièrement aux plateformes et non aux formations politiques elles-mêmes (je vous laisse répondre à la question du "Oh ben pourquoi ?"). Voilà en effet ce qu'en révèle Le Monde

En période électorale, les « plates-formes », comme les réseaux sociaux, devraient donner une information « claire, loyale, transparente » sur les « contenus d’information liés à l’actualité » qui ont été mis en avant contre rémunération : seraient précisés l’identité du payeur – voire son commanditaire, s’il en a un – et le montant dépensé, au-delà d’un certain seuil.

Sans développer davantage car cet article est déjà suffisamment long, je rappelle simplement que tout travail sur l'architecture technique et sur le modèle économique des plateformes visant à limiter leur impact sociétal (ou à le cantonner à une sphère d'influence raisonnable et inspectable) sera toujours totalement vain s'il ne s'accompagne pas d'une réflexion, pour le coup législative, permettant d'instaurer un droit social des données dans la lignée de ce qui est là encore déjà proposé par Lionel Maurel et Laura Aufrère.  

Fifty Shades of Fake ?

Pour lutter contre les Fake News, il faut passer du "Code Is Law" au "Code Is Slow".

Ingérence, complotisme, désinformation ou malinformation, prélude à l'apocalypse informationnelle qui vient, grand désenchantement démocratique, überisation de la croyance … Fifty Shades of Fake, un film dont le danois Emil Kirkegaard pourrait être le sulfureux héros.

Je reprends ce que je vous disais plus haut : lutter contre les Fake News n'a pas de sens. Il faut lutter contre l'architecture technique du faux, contre le modèle économique qui lui sert de mortier, et bien sûr pénaliser le client.

Pour lutter contre l'architecture technique du faux ou plus exactement contre l'architecture technique de la promiscuité qui organise la viralité, nous avons besoin de remettre de la décentralisation à la fois dans les outils, dans les pratiques et dans les usages. Un index indépendant du web qui soit géré comme un commun, permettrait d'y parvenir rapidement et efficacement. Car si le web produit aujourd'hui autant de "faux", ou plus exactement si ce faux est aujourd'hui aussi visible et parfois aussi toxique c'est parce que, tant sur le plan de notre "attention" que de "l'information", le niveau de concentration permis par les plateformes est maximal alors que l'architecture technique des débuts du web et sa décentralisation effective permettaient un effet de dilution. 

Pour lutter contre le modèle économique qui sert de mortier à cette architecture technique, il faut systématiser les régulations du type RGPD. C'est en bonne voie mais ce sera – très – loin d'être suffisant si l'on ne fait que cela. Mais c'est un effet de levier et d'opportunité dont il faut se saisir rapidement.

Sur ces deux premiers points, la question de la "vitesse" propre au numérique est essentielle, à la fois dans la circulation (viralité) de l'information et dans la captation et l'usage de nos données à des fins de publicité ou de surveillance. Les lois et les régulations les plus efficaces seront celles qui permettront de passer du "Code Is Law" de Lessig à un "Code Is Slow", c'est à dire de contraindre le temps algorithmique à ralentir suffisamment pour – entre autres – obtenir des consentements explicites et éclairés d'usagers

Et pour savoir quand et comment pénaliser quel(s) client(s) il faut simplement commencer par relire les propositions d'Antonio Casilli

Le problème ce n'est pas le travail. Même digital. Le problème c'est le capital.

Et la spéculation comme spéculum de nos émotions.

A ce stade du raisonnement, du constat et des propositions ci-dessus, n'oublions pas que le principal problème de nos sociétés, démocratiques autant que connectées, n'est pas celui des Fake News mais celui de phénomènes spéculatifs qui relèvent d'une triple forme de capitalisme : capitalisme cognitif (à l'échelle macro), capitalisme de la surveillance (à l'échelle structurelle) et sémio-capitalisme à l'échelle conjoncturelle (notamment au travers de la régie AdWords comme relaté dans ce formidable article faisant écho aux travaux pionniers de Frédéric Kaplan sur le capitalisme linguistique).

Les architectures techniques toxiques se nourrissent, entretiennent et propagent les conditions d'existence nécessaires à l'ensemble de l'organisation spéculative des affects. 

"L'information n'est pas faite pour être une marchandise" disait Norbert Wiener. Tout part de là. Car c'est précisément à partir du moment où elle est avant tout devenue marchandise que tout est parti en sucette. Et comme le rappelait encore Yves Citton dans un entretien à Libération :

"Le problème va bien au-delà du contenu des informations ou des opinions. Il tient aux structures de commercialisation de l’attention."

Des structures dont le gigantisme et dont l'incapacité à se moraliser font que l'on voit mal comment faire autrement que les démanteler ou les nationaliser pour leur imposer le minimum de régulation permettant d'éviter de basculer dans une dystopie totale simplement en cliquant sur des publicités.

A fortiori lorsque se confirme ce dont tout observateur attentif pouvait se douter à savoir qu'elles se moquent des régulations vertueuses et feront tout pour s'y soustraire et maintenir leurs utilisateurs dans des formes d'exploitation maximales. Ainsi Facebook vient d'annoncer une modification de ses CGU qui va priver 1,5 milliard de ses utilisateurs de garanties offertes par le RGPD. Il le fait en rattachant tous les utilisateurs et les comptes "non-européens" au régime juridique de protection des données de la zone US, c'est à dire au régime le plus permissif et le moins protecteur :

"Next month, Facebook is planning to make that the case for only European users, meaning 1.5 billion members in Africa, Asia, Australia and Latin America will not fall under the European Union’s General Data Protection Regulation (GDPR), which takes effect on May 25."

 One more thing.

Le 12 Avril 2018, le New-York Times faisait état des résultats d'une étude montrant que 41% des américains ne connaissaient pas le nom d'Auschwitz. Et que ce pourcentage montait à 66% chez les Millenials. 

En Décembre 2016 nous découvrions qu'à la question de savoir si l'holocauste avait vraiment existé Google répondait essentiellement par la mise en avant de sites révisionnistes et négationnistes

Dès 2006 j'alertais sur le risque que le rapport au numérique ne tende à fabriquer des autarcithécaires, que nous n'en arrivions à ne plus pouvoir fonctionner qu'en autarcie informationnelle, une autarcie entretenue par les algorithmes des plateformes alors même que l'information nécessite des médiations et des autorités diverses et plurielles pour pouvoir être autre chose que de la simple propagande. <Moment je me la pète> Le principe de la bulle de filtre était ainsi décrit 5 ans avant qu'Eli Pariser ne popularise le concept dans son – excellent – bouquin 😉 </Moment je me la pète> 

Et aujourd'hui donc on ne parle plus que de Fake News. Bien plus que la fausse information, les deux exemples ci-dessus nous rappellent que nous pourrions rapidement basculer dans une forme d'anti-information, à l'image que ce que l'antimatière est à la matière. Dans cette anti-information Auschwitz ne serait plus associé à la Shoah dont l'existence même serait remise en cause. Entre autres choses car du côté de la santé publique et de l'accès à l'information médicale les enjeux des logiques de désinformation sont également énormes. Peut-être d'ailleurs serait-il bon, à la manière du code de la santé publique, de réfléchir à un code de l'algorithmie publique … D'autant qu'à chaque fois que des événements malheureux se produisent (comme lors de la fusillade d'Octobre 2017 à Las Vegas qui avait causé plus de 50 morts et 500 blessés) la spéculation algorithmique s'auto-alimente dans une spirale de désinformation aux conséquences désastreuses.

Plus globalement ce qui est en cause ici c'est l'explosion circonstancielle ou délibérée de nos cadres collectifs d'énonciation, d'éducation et d'entendement. Et des repères mémoriels qu'ils contribuent à construire, à préserver et à expliciter. Et à ce titre lutter contre les architectures techniques toxiques doit être une priorité. Une priorité absolue. En profiter pour lutter pied à pied contre chaque nouvelle avancée du capitalisme de la surveillance doit en être une autre. Et plus que tout, par-dessus et au-delà de tout, il nous faut investir massivement dans l'éducation. La mémoire collective construite par l'éducation comme rempart aux contre-vérités individuelles instruites par des logiques marchandes se déployant au sein d'architectures techniques toxiques. Le combat est celui-là. Et aucun autre.  

Finalement et parmi toutes les autres pistes évoquées dans cet article, au sujet des Fake News en particulier et de la désinformation ou malinformation en général, la réflexion essentielle à mener est bien celle de la mémoire. Qu'importe les Fake News pourvu qu'elles passent pour ce qu'elles sont – des accrocs temporaires dans la trame du réel – et qu'elles ne puissent pas se fixer dans notre mémoire collective en y créant de faux-souvenirs, faux-souvenirs que publicitaires et apprentis-sorciers pourraient ériger un nouvel outil totalitaire de contrôle émotionnel avec comme seule ambition celle du marché et comme seule règle cette de la spéculation. 

Bonus Tracks.

Je joins ici quelques liens que je n'ai pas réussi à caser dans cet article fleuve mais qui, sur la question des Fake News, me semblent intéressants. 

 

 

 

4 commentaires pour “Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.

  1. Bonjour
    Très intéressant comme d’habitude, mais n’oubliez pas que beaucoup d’entre nous vous lisent au bureau. Autant on a 5 minutes, autant 15/20 c’est plus compliqué.

  2. Je vous lis depuis tellement longtemps que je pourrais-presque- me passer de vos écrits 😉
    j’ai travaillé dans le cadre de l’enseignement moral et civique en lycée avec des élèves de 1ère sur les enjeux éthiques et démocratiques posés l’utilisation massive du Web, vous me fûtes d’une grande aide. Et les élèves étaient intéressés… A quand une « culture numérique » transversale dans les programmes..?

  3. À mon avis, passer seulement 15 à 20 minutes sur un article de ce genre serait à mon sens ridicule, il mérite qu’on s’y attarde bien plus longtemps.
    Certains lecteurs fous (dont je) poussent la perversion jusqu’à cliquer sur les liens insérés. Z’ont vraiment rien à foutre de leur vie, quoi…
    Une prévision pour la seconde compilation des articles d’affordance (je n’ai plus rien à lire aux chiottes…) ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut