Depuis la création de Facebook en 2004 une question m'obsède bien qu'elle puisse paraître anecdotique. Saisissez un nom ou un prénom et vous obtiendrez alors une liste d'une dizaine, d'une vingtaine ou d'une centaine de profils. Pourquoi tel profil apparaît-il avant tel autre ? Quelle est la raison qui dit que celui-ci est plus pertinent que le suivant ?
Le silence des agneaux et la pertinence des profils.
Bien sûr on connaît ou en tout cas on devine en les observant, quelques-unes des raisons probables ou possibles d'un tel ordonnancement : les premiers profils sont souvent ceux de nos amis, ou alors ceux de gens qui habitent dans la même ville ou dans la même région, ou bien encore des gens avec qui nous avons des amis communs. On peut aussi imaginer que Facebook nous affiche en premier des profils avec qui nous partageons un certain nombre "d'intérêts". Mais ces listes de résultats comportent aussi tout un tas de profils qui semblent ne correspondre à aucune des raisons précédentes et qui apparaissent pourtant en bonne place dans ce "classement", dans celle liste ordonnée.
A l'image de la "pertinence" des pages web qui apparaissent dans le classement des listes de résultats des moteurs de recherche, la question qui m'obsède est assez simple : c'est celle de la pertinence des profils humains. Et impossible de l'esquiver. Sur un moteur de recherche, sur Google en particulier, la "pertinence" est essentiellement une mesure de popularité. Mais transposée dans ce pan-catalogue des profils qu'est Facebook, la liste renvoyée suite à une requête ne relève pas de la "popularité" de tel ou tel profil mais bien d'une étrange "pertinence". La question de la pertinence des profils humains. Cette question m'obsède autant que le simple fait d'être en situation de la poser puisse à plus ou moins court terme nous faire basculer dans un régime obsessionnel de flicage du moindre de nos comportements qui, conjugué à des formes autoritaires de populisme, pourrait faire sombrer nombre de nos démocraties plus rapidement que nous ne l'imaginons aujourd'hui.
Cette question, j'avais commencé de la formaliser dans un court texte paru sur ce blog en Novembre 2007 et intitulé "Bienvenue dans le World Life Web" et deux ans plus tard dans un article scientifique intitulé : "L'Homme est un document comme les autres" jusqu'à m'alarmer récemment de l'émergence de ce qui me semble se caractériser comme un néo-fascisme documentaire au travers d'un fétichisme du fichage hélas de plus en plus normalisé et accepté. Voici ce que j'écrivais en 2007 :
"De plus en plus de sites de réseaux sociaux "ouvrent" l’immense catalogue des individualités humaines qui les composent à l’indexation par les moteurs de recherche. Ce qui pose nécessairement la question de la pertinence des profils humains. Une question qui n’en est encore qu’à ses balbutiements mais dont l’étendue des problèmes posés peut à juste titre faire frémir."
Nous sommes en Août 2018 et le Washington Post nous apprend que Facebook vient de mettre en place un système de notation de la "fiabilité" de ses utilisateurs.
Pourquoi un indice de fiabilité est une fable.
En plus d'être déjà "classés" et indexés en fonction de nos activités, de nos géo-localisations ou de nos centres d'intérêts, nous allons désormais l'être aussi en fonction d'un score de crédibilité ou plus exactement d'un score de "fiabilité" ("Trustworthiness") étalonné entre 0 et 1 et dont seule la plateforme disposera.
Facebook en réalité se moque de savoir si nous sommes "crédibles", c'est à dire de savoir si ce que nous écrivons ou relayons renvoie à une forme de vérité objectivable ; ce dont Facebook se soucie et ce qu'il veut donc désormais mesurer c'est bien notre "fiabilité", et la nuance est d'importance. La "fiabilité" est une métrique qui est raccord avec le moteur de la plateforme qui est la notion "d'engagement". Ainsi un utilisateur néo-nazi qui relaie une info annonçant que les migrants mangent leurs enfants et qu'il va aller les jeter au bout de la terre qui est plate, ce néo-nazi est un utilisateur qui n'est pas une seconde crédible mais qui est en revanche totalement fiable dans la constance – par ailleurs navrante – de ses convictions. C'est cette fiabilité que Facebook cherche à quantifier pour – c'est en tout cas ce qu'ils prétendent – permettre de mieux repérer les faux-comptes ou ceux qui relaient le plus souvent de fausses informations.
Sur le fond, on peut d'ailleurs se réjouir que Facebook préfère évaluer notre "fiabilité" plutôt que notre "crédibilité", l'inverse indiquerait en effet que la plateforme adopte une position morale pour définir ce qui est vrai / crédible et ce qui ne l'est pas. Et à l'échelle de 2,5 milliards d'utilisateurs ce serait excessivement dangereux. Et dans le même temps, l'exemple de l'utilisateur néo-nazi que j'ai choisi montre bien à quel point cette "fiabilité" ne permettra aucunement de résoudre le problème des logiques de désinformation ou de "fake news", qui, comme j'ai souvent essayé de l'expliquer, n'ont rien à voir avec l'information mais sont liées aux architectures techniques toxiques qui favorisent et entretiennent certains modes de circulation et de diffusion garants d'un modèle économique.
Or voilà des décennies que nous avons appris à analyser l'information au regard de son contenu et de son contexte pour en comprendre les effets produits sur le public : c'est le champ des "media studies". Ainsi pour "comprendre" la main-mise de Berlusconi sur la télé italienne dans les années 80 il fallait regarder le contenu des émissions, le contenu des journaux télévisés, la dimension éditoriale mise en avant, et croiser le tout avec les intérêts économiques du roi du Bunga Bunga au travers de ses autres secteurs d'activité. Idem en France avec le TF1 de Martin Bouygues. Ou avec le Figaro de Dassault. Etc. Mais il est impossible aujourd'hui avec cette approche de comprendre quoi que ce soit aux différentes plateformes numériques et à ce qui s'y joue. Cela aurait autant de sens que si, a contrario, on s'appuyait sur la disposition géographique des émetteurs de télévision pour comprendre en quoi le projet culturel d'Arte est différent de celui de TF1. Si l'on veut comprendre quelque chose aux phénomènes de viralité et de désinformation à l'échelle des plateformes et des grands écosystèmes numériques il faut précisément faire abstraction du contenu pour se concentrer sur l'architecture technique. Bref, réinventer une pensée structuraliste de ces plateformes.
Peut-on pour autant se contenter de blâmer Facebook ?
Le Facebook-Shaming est certes à la mode. Ici même d'ailleurs je ne m'en prive guère. La plateforme développe actuellement une série impressionnante de contre-mesures visant à "assainir" son écosystème tant sur le plan du business (suppression des catégories raciales et religieuses pour le ciblage publicitaire) que des interactions sociales (priorité donnée aux infos des amis) ou à l'échelle des applications tierces. Mais elle est confrontée au fait que son régime de vérité (l'engagement) est, par nature autant que par fonction, une machine à renforcer les croyances de chacun (du fait de son architecture technique donc).
Pour Facebook comme pour d'autres, le seul et unique moyen de revenir à des interactions saines à l'échelle collective est d'abandonner le modèle économique qui est le sien et qui continuera inexorablement de susciter diverses formes spéculatives du discours haineux. Ce qu'il ne fera jamais. Ce modèle économique définissant son rapport à la vérité au travers de l'unique vecteur de "l'engagement" (apparaît comme "vrai" ce qui suscite le plus d'engagement et donc d'interactions), et Facebook ne pouvant ni ne voulant abolir ce modèle, la plateforme s'attaque alors "logiquement" au rapport à la crédibilité de ses propres utilisateurs au travers de cette notion de "fiabilité". C'est à dire qu'une fois de plus et conformément à une forme diluée de libertarianisme qui nourrit l'idéologie de la plateforme, celle-ci considère que la meilleure réponse ne se trouve pas à l'échelle collective mais à l'échelle individuelle. On en avait déjà eu la démonstration lors de la lettre de Zuckerberg à la nation Facebook en Mars 2017, dans laquelle pour résoudre les problèmes liés à la représentation de la violence ou de la nudité il avait renvoyé chacun à ses propres critères de tolérance ou d'acceptabilité.
La loi de Goodhart.
En macro-économie la loi de Goodhart indique que "lorsqu'une mesure devient un objectif, elle cesse d'être une bonne mesure." Est-il besoin de développer ? A l'échelle du numérique, la question de la "quantification" et des métriques qui l'accompagnent est dépendante de cette loi de Goodhart. Quand Facebook se fixe comme objectif d'améliorer la "fiabilité" des informations qui circulent en mesurant le score de fiabilité de chaque utilisateur, la mesure de la fiabilité cesse d'être une bonne mesure.
Dans chaque "métrique" il y a des coups de trique.
Beaucoup des articles qui sont parus et qui traitent du système de classement mis en place par Facebook font naturellement l'analogie fictionnelle avec l'épisode Nosedive de la série Black Mirror, et l'analogie, réelle cette fois, avec le Social Credit mis en place par la Chine tout en indiquant que ce dernier système est bien plus angoissant que le "score de fiabilité" proposé par Facebook. Je ne le crois pas. Je pense que les deux posent des problèmes équivalents. Et j'essaie de vous expliquer pourquoi.
Si l'approche de Facebook me paraît au moins aussi alarmante que la mise en place du Social Credit en Chine, c'est bien sûr parce qu'elle peut potentiellement s'appliquer à 2,5 milliards d'individus.
C'est ensuite parce que l'essentiel de ces 2,5 milliards d'individus vivent pourtant dans ce qu'il est encore convenu d'appeler des démocraties et qu'une démocratie prête à tolérer ce genre de pratique n'est plus très éloignée d'une dictature ou d'un gouvernement autoritaire les instituant. "Si tu veux la paix prépare la guerre", et si tu veux l'avènement d'un gouvernement autoritaire habitue les gens à être en permanence scrutés et quantifiés.
C'est aussi parce que personne n'est capable de dire à quelle échelle réelle ce scoring est mis en place ni bien sûr quels en sont les critères complets et exacts. Critères qui s'ils étaient rendu publics seraient immédiatement détournés pour que chacun puisse mieux s'y conformer ou mieux s'en détourner. Comme le souligne cette juriste anglo-saxonne :
"Not knowing how [Facebook is] judging us is what makes us uncomfortable. But the irony is that they can’t tell us how they are judging us — because if they do, the algorithms that they built will be gamed."
Dilemme classique d'une algorithmie non-publique qui n'a de compte à rendre qu'au modèle économique qu'elle nourrit et qui la légitime en retour. Classique … mais de plus en plus problématique et toxique pour l'ensemble de nos interactions, connectées ou non.
Et c'est enfin car derrière ce score de "fiabilité" ne cherche même plus à se cacher l'idée aussi folle qu'inquiétante d'une rationalisation automatisée ou automatisable d'un rapport individuel à l'information absout de tout rapport collectif à une quelconque forme de vérité(s) objectivable(s). Le solutionnisme technologique est intrinsèquement lié à une forme de relativisme moral individualiste.
Même si, en première intention, on peut se rassurer en se disant, comme le rappelle Numérama qu'il s'agit juste pour la plateforme de "déterminer le degré de confiance que le site peut raisonnablement avoir face aux actions de chaque inscrit", même si ce "scoring" n'est qu'un "indice comportemental parmi des milliers d'autres", il est aussi et surtout une manière tout à fait perverse et biaisée de fabriquer des représentations sociales individuelles et collectives tout en se défendant de le faire, des représentations qui ne reposent le plus souvent que sur la dimension pulsionnelle du rapport à l'information. Comme l'indique encore Numérama d'après les informations du Washington Post :
"D’après le site communautaire, la nécessité de cette notation des internautes a fini par s’imposer lorsqu’il a été constaté que les membres du service, à mesure qu’ils avaient accès à de nouvelles options, ne s’en servaient pas de façon attendue. Certains ont ainsi marqué des actualités comme étant fausses, ce qui ne se vérifiait pas dans les faits, mais était la marque d’un désaccord avec les articles."
Le Monde rend également compte de cet aspect en citant Tessa Lyons, chef de projet en charge de la lutte contre la désinformation sur le réseau social, et également interviewée par le Washington Post :
"L’un des signaux que nous utilisons est la manière qu’ont les gens d’interagir avec les articles. Par exemple, si quelqu’un a signalé un article comme faux, et qu’un vérificateur indépendant (sic) lui donne raison, nous pourrions mieux considérer les futurs signalements de cette personne, par rapport à quelqu’un qui passe son temps à dénoncer la véracité d’articles sans discernement, alors que certains sont vrais."
Voilà le coeur du sujet autant que du danger. Facebook est une réalité informationnelle et sociale diffractée. Chaque utilisateur peut librement et individuellement décider que telle ou telle information est "vraie" ou "fausse" et la marquer comme telle. Primauté totale de l'individu sur le collectif. Premier amendement.
Libertarianisme (économico-politique), solutionnisme (technologique) et relativisme (moral) : la sainte trinité de l'évangile des plateformes.
Chaque individu est a priori le seul à savoir pourquoi il choisit de le faire. Le point de diffraction n'est pas que Facebook puisse évaluer ou juger ce choix comme sincère ou insincère (il le pouvait déjà ponctuellement s'il le souhaitait) ; le point de diffraction qui pose problème est le fait que ce soit l'architecture technique qui désormais opérationalise et rationalise ce rapport à l'insincérité au travers d'un score de fiabilité. Un taylorisme de l'insincère au service d'un commerce de l'opinion.
Moralité ?
Je voudrais partager ici deux réflexions en guise de conclusion.
"La différence entre des individus choisissant les contenus qu'ils lisent et des entreprises choisissant ces contenus à la place des individus affecte toutes les formes de médias." alertait Anil Dash en pointant le changement de paradigme du point de vue du modèle classique de l'information (émetteur – signal – récepteur)
Ce changement affecte également toutes les formes de démocratie et de sociabilité.
Et récemment à propos de l'affaire Cambridge Analytica, Cory Doctorow écrivait :
"Facebook doesn’t have a mind-control problem, it has a corruption problem. Cambridge Analytica didn’t convince decent people to become racists; they convinced racists to become voters."
Nous sommes, et c'est heureux, encore le plus souvent irréductibles à la seule somme de nos profils et des interactions et comportements qui les constituent sur tel ou tel réseau social. Il serait pour autant dangereux de nier la pregnance actuelle de ces plateformes sociales dans l'industrialisation d'une fabrique du consentement.
Une plateforme numérique de 0 et de 1 décide de noter de 0 à 1 le niveau de fiabilité de ses utilisateurs dans leur rapport à l'information. Un score de crédibilité, un taux de confiance, un indice de fiabilité, une métrique du sincère et un calcul de l'insincère.
"La sincérité est un calcul comme un autre" écrivait Jean Anouilh dans la pièce "Becket ou l'honneur de Dieu". Il ignorait à quel point il avait une fois de plus raison.