La nouvelle est tombée suite à une enquête du Wall Street Journal : selon que vous serez, puissant ou misérable, la modération de Facebook vous rendra blanc ou noir.
Le Wall Street Journal est parvenu à documenter ce que beaucoup d'observateurs (dont votre humble serviteur) expliquaient depuis des années mais sans pouvoir le "prouver", il existe des comptes VIP qui sont protégés des affres classiques de la modération humaine et algorithmique et qui, du simple fait de leur notoriété, bénéficient d'un traitement de faveur leur permettant d'enfreindre les règles de la plateforme sans craindre de souci, de censure, de blocage ou de suspension.
De Neymar à "Doug le Carlin" : une certaine idée des "élites".
(Montage récupéré dans l'article du WSJ)
Quand je dis que tout le monde s'en doutait, c'est d'abord parce qu'il n'existe pas et il n'a jamais existé de régime médiatique, a fortiori hyper-centralisé (et Facebook en est l'archétype) qui traite ses intervenants sans considération de leur statut et de leur fonction sociale, et donc de leur notoriété.
Il n'existe que deux exemples d'une égalité stricte de parole dans l'histoire de l'humanité : celui de l'isegoria grecque (mais qui là encore ne concernait pas tous les citoyens) et celui du web des années 1989 (naissance officielle) à 1998 (arrivée de Google) où, comme l'expliquait alors Benjamin Bayart, "l'imprimerie avait permis au peuple de lire, internet va lui permettre d'écrire". Mais là encore, tous et toutes n'avaient pas accès à internet et au web.
Alors quand on apprend que Facebook "triche" et modère différemment les comptes de personnalités (nous y reviendrons en détail) et quand je dis que tout le monde s'en doutait et l'expliquait, c'est par exemple le cas, pour rester sur deux exemples récents, des "erreurs" commises et corrigées lors de la suppression du compote Instagram d'Eric Zemmour ou de celui du prochain film d'Almodovar à cause de son affiche représentant un sein féminin.
Il était évident que s'il ne s'était pas agi de "personnalités", les suppressions et blocages perdureraient toujours. Toute l'histoire des grandes plateformes sociales et des moteurs de recherche est jalonnée d'épisodes, d'anecdotes et parfois de drames qui actent et documentent le régime d'arbitraire le plus souvent total qui y prévaut. Un arbitraire que les différentes tentatives de régulation – des états ou des plateformes elles-mêmes – peinent à circonscrire efficacement et durablement.
Dans la VIP Room de Facebook.
Le Wall Street Journal vient de sortir une série d'enquêtes édifiantes, pour partie liées à différentes fuites émanant de l'entreprise.Voilà quelques-unes des révélations de l'une des ces enquêtes portant sur la politique de modération "sur-mesure" dont bénéficient certains comptes influents (traduction automatique via DeepL).
On y apprend donc qu'il y avait bien une exception pour les VIP.
- "Un programme connu sous le nom de XCheck a permis à des millions de célébrités, de politiciens et d'autres utilisateurs très en vue de bénéficier d'un traitement spécial, un privilège dont beaucoup abusent."
Que cette exception les protège des formes habituelles de modération mais les autorise aussi à publier ce que tous les autres utilisateurs ont interdiction de publier.
- "Ce programme, connu sous le nom de "cross check" ou "XCheck", était initialement conçu comme une mesure de contrôle de la qualité des actions menées contre des comptes très médiatisés, notamment des célébrités, des hommes politiques et des journalistes. Aujourd'hui, il protège des millions d'utilisateurs VIP du processus normal d'application de la loi de la société, comme le montrent les documents. Certains utilisateurs sont placés sur une "liste blanche", c'est-à-dire à l'abri des mesures d'exécution, tandis que d'autres sont autorisés à publier des contenus contraires aux règles en attendant que les employés de Facebook les examinent, ce qui n'arrive souvent jamais."
Que cette "protection" et cette différence de traitement s'applique y compris dans des cas de harcèlement ou d'incitation à la violence. L'exemple est notamment donné de Neymar diffusant des photos intimes d'une relation après avoir été accus de viol (ce qui relève d'une forme de Revenge Porn) et qui se trouvera ainsi "protégé" : non seulement son compte restera actif mais il ne récoltera même pas un "strike" (avertissement).
- "Les documents montrent que XCheck a parfois protégé des personnalités publiques dont les messages contenaient du harcèlement ou des incitations à la violence, des violations qui entraîneraient généralement des sanctions pour les utilisateurs réguliers."
Que Facebook a tout à fait conscience qu'il faut garder tout ça secret parce que vraiment … c'est pas joli joli.
- Un document interne de 2019 (…) a révélé que le favoritisme envers ces utilisateurs était à la fois répandu et "non défendable publiquement".
Que moins d'1% des utilisateurs de la plateforme sont concernés. Ce qui est très peu … sauf pour une plateforme qui compte presque 3 milliards d'utilisateurs !
- XCheck s'est développé pour inclure au moins 5,8 millions d'utilisateurs en 2020 [Note de moi-même : pour 2,85 milliards d'utilisateurs actifs par mois, c'est à dire à la louche 0,2% des utilisateurs de la plateforme]
Que pour ces Happy Few (qui sont quand même près de 6 millions …), la police de la publication de passe presque quasiment jamais, quoi qu'ils et elles publient …
- "Nous examinons actuellement moins de 10 % du contenu XChecké", indique le document."
Qu'il s'agit autant de "protéger" des comptes importants que de protéger avant tout l'image de l'entreprise sur les questions de modération.
- "Facebook a conçu ce système pour minimiser ce que ses employés ont décrit dans les documents comme des "feux de relations publiques ", c'est-à-dire l'attention négative des médias qui résulte d'actions de modération bâclées prises contre des VIP."
Que ce n'était pas un (dys)fonctionnement à la marge mais quelque chose de courant et de massif dans le fonctionnement de la firme.
- "La plupart des employés de Facebook ont pu ajouter des utilisateurs dans le système XCheck (…) et (…) au moins 45 équipes de l'entreprise étaient impliquées dans la mise en liste blanche. Les utilisateurs ne sont généralement pas informés qu'ils ont été marqués pour un traitement spécial. Un guide interne sur l'éligibilité au système XCheck cite des critères tels que le fait d'être "digne d'intérêt", "influent ou populaire" ou "risqué en termes de relations publiques".
Que quand on dit traitement VIP, on n'exagère presque pas en disant qu'il ne manquait plus que des prostituées et un peu de coke gratos …
- "Historiquement, Facebook contactait certains utilisateurs VIP qui violaient les politiques de la plateforme et leur offrait une "fenêtre d'autoréparation" de 24 heures pour supprimer eux-mêmes le contenu en infraction avant que Facebook ne le retire et applique des pénalités. M. Stone, le porte-parole de l'entreprise, a déclaré que Facebook a progressivement supprimé cet avantage, qui était encore en place pendant les élections de 2020. Il a refusé de dire quand il a pris fin."
Que même au sein des VIP, il y avait aussi des différences de traitement … pour l'essentiel inexplicables et qui ajoutent un arbitraire à une inégalité.
- "Si le programme incluait la plupart des fonctionnaires, il n'incluait pas tous les candidats aux fonctions publiques, ce qui donnait parfois un avantage aux titulaires des élections par rapport à leurs adversaires. Les documents montrent que cet écart était le plus fréquent dans les élections locales et d'État, et les employés craignaient que Facebook ne soit accusé de favoritisme."
Que la palette pour pouvoir bénéficier de ce traitement de faveur était … assez large.
- "Le programme couvre à peu près tous ceux qui sont régulièrement présents dans les médias ou qui ont une audience importante en ligne, y compris les stars du cinéma, les animateurs de talk-show sur le câble, les universitaires et les personnalités en ligne ayant un grand nombre de followers. Sur Instagram, XCheck couvre les comptes d'influenceurs animaliers populaires, dont "Doug le carlin".
Que l'arbitrage entre Free Speech et Free Reach a encore de beaux jours devant lui :
- "L'année dernière, XCheck a permis à des messages qui violaient ses règles d'être vus au moins 16,4 milliards de fois, avant d'être supprimés."
Que chez Facebook c'est pas "American" mais "Schizophrenic Way Of Life" :
- "Facebook a reconnu il y a plusieurs années que les exemptions de mise en application accordées par son système XCheck étaient inacceptables, les protections étant parfois accordées à ce qu'il appelle des comptes abusifs et à des contrevenants persistants aux règles (…) Néanmoins, le programme s'est développé au fil du temps, avec des dizaines de milliers de comptes ajoutés rien que l'année dernière."
Que ces pratiques dérogatoires affectaient y compris des partenaires extérieurs et le coeur même de son algorithmie :
- "En outre, Facebook a demandé à des partenaires de vérification des faits de modifier rétroactivement leurs conclusions sur des publications de comptes très médiatisés, a renoncé à des sanctions standard pour la propagation de ce qu'il considère comme de la désinformation et a même modifié des changements prévus dans ses algorithmes pour éviter les retombées politiques."
Qu'il y a longtemps que tout le monde a bien conscience, en interne, que cette pratique est exactement l'inverse de ce qu'il faudrait faire …
- "Nous exposons sciemment les utilisateurs à des informations erronées que nous avons les processus et les ressources pour atténuer", indique un mémo de 2019 des chercheurs de Facebook, intitulé "La liste blanche politique contredit les principes fondamentaux déclarés de Facebook."
Intervenir manuellement ou pas.
Il faut se souvenir qu'au début des âges farouches des internets et de l'hégémonie de Google (qui succéda à Microsoft et précéda de peu Facebook dans l'incarnation du mal absolu), la pratique dite du "Google Bombing" permettait d'associer des noms de personnes et des pages web à des requêtes insultantes ou ordurières ou rigolotes. C'est ainsi que Georges W. Bush fut l'un des tout premiers à voir sa bio officielle sur la page de la Maison Blanche s'afficher en premier sur Google lorsque l'on tapait "Miserable Failure". Quelques années plus tard, en France, c'est la bio de Nicolas Sarkozy sur le site de l'Elysée qui apparaissait classée première sur la requête "trou du cul". On rigolait bien sur les internets à cette époque.
Mais au-delà de la blague, ce fut surtout l'occasion d'une prise de conscience accompagnant celle de la prise de la main des GAFA dans le pot de confiture du tripatouillage de résultats. Je m'explique : avant ces affaires, les moteurs de recherche avaient toujours juré craché qu'il n'intervenaient jamais manuellement dans les résultats affichés. JA – MAIS. Ce qui était pour eux l'équivalent d'un totem d'immunité car s'ils avaient affirmé le contraire, l'objectivité (toute relative) à laquelle ils prétendaient se serait immédiatement effondrée. Or précisément à l'occasion de ces affaires (notamment le trou du cul de Sarkozy), les Google Bombing furent rapidement et manuellement désamorcés dès lors qu'ils touchaient des personnalités publiques éminentes. Idem lorsque l'on retrouvait (on le retrouve hélas encore parfois) des suggestions de mots-clés insultants ou racistes accolés au nom de personnalités publiques via la fonction d'auto-complétion. Il devint alors impossible pour tous ces acteurs de prétendre que seuls les algorithmes faisaient le travail et que toute erreur, polémique ou association étrange ne relevait pas de leur responsabilité directe. Il y avait bien, et depuis longtemps, une manipulation humaine de certains résultats de recherche, et il y avait donc bien une dimension "politique" à questionner et à élucider au travers des motivations et des légitimations ou des dissimulations de ces interventions humaines.
L'histoire des révélations du WSJ sur les passe-droits mis en place par Facebook pour ses utilisateurs VIP n'est que la continuité de l'histoire précédente. Il ne s'agit plus cette fois de manipuler les résultats de recherche, mais de truquer et de manipuler les règles de politiques de modération.
A bien y réfléchir, qu'y a-t-il de proprement scandaleux dans tout cela ?
C'est une interrogation purement rhétorique au regard des éléments présentés plus haut à l'issue de l'enquête du WSJ, mais comme il semble encore exister un pan du débat public considérant qu'il ne s'agirait que de phénomènes à la fois marginaux et nécessaires, poussons un peu le raisonnement.
Rien de scandaleux donc, si l'on accepte que l'idée qu'une égalité totale de parole – à l'exception des 2 exemples cités au début de cet article – n'ait jamais été autre chose qu'un leurre, ou une fable racontée par un idiot, pleine de bruit et de fureur, ne signifiant rien (Macbteh, Acte 5, scène 5). MAIS. Mais cette absence d'égalité de parole autre qu'en droit ne permet pas de légitimer la mise en place de régimes discrétionnaires dans le champ du débat public. A fortiori lorsque ces régimes concernent près d'un tiers de l'humanité globale et plus de la moitié de l'humanité "connectée".
Rien de scandaleux non plus si l'on considère qu'à l'instar de tout type de média, Facebook, ses modérateurs, ses algorithmes et les développeurs de ses algorithmes, ne font rien d'autre qu'en permanence éditorialiser, éditorialiser et éditorialiser, l'éditorialisation étant comme l'explique Marcelo Vittali Rosetti, "un acte de production du réel". Et que comme tout processus d'éditorialisation il faut pouvoir disposer d'un certain nombre de critères et de règles. Bref, "faire des choix". MAIS. Mais cette fois le problème est celui de l'arbitraire, et d'un arbitraire essentiellement dicté par enjeux économiques eux-mêmes associés à des craintes d'atteintes réputationnelles dont on ne peut exclure qu'elles ne masquent d'autre enjeux et conflits d'intérêts pouvant aller jusqu'à des formes actives de corruption.
Alors de quoi Facebook et Zuckerberg sont-ils réellement coupables ? En quoi ont-ils fauté ?
La faute de Facebook et de Zuckerberg est celle d'un double cynisme : celui avec lequel ils ont de manière discrétionnaire dissimulé aux regards ces passe-droits et celles et ceux en bénéficiant ; et celui de l'arbitraire avec lequel ils les ont mis en oeuvre à une échelle d'audience tout à fait inédite dans l'histoire de l'humanité.
Une nouvelle fois, "ce que vous tolérez indique ce que vous êtes vraiment", et cette tolérance à la magouille, à la dissimulation, aux petits arrangements et aux grands mensonges, indique ce que Facebook est vraiment. Et l'indique explicitement et publiquement.
La démonstration de cette faute est assez paradoxale : car en même temps qu'elle achève de condamner aux yeux de certains l'emprise mortifère de cette entreprise sur des questions de société, de politique et de liberté (variable) d'expression, elle donne des arguments à d'autres pour s'engager toujours plus avant dans des logiques de désinformation, de discours toxiques ou de défense d'une conception de la liberté d'expression évacuant totalement le paradoxe de la tolérance de Popper.
C'est bien la taille qui compte.
Et l'article du WSJ le rappelle encore :
"Le système d'application spécial de Facebook pour les utilisateurs VIP est né du fait que ses systèmes humains et automatisés d'application des règles de contenu échouent régulièrement. Le problème est en partie lié aux ressources. Bien que Facebook se soit vanté d'avoir dépensé une armée de modérateurs de contenu, il n'est toujours pas en mesure de traiter entièrement le torrent de contenu généré par les utilisateurs sur ses plateformes."
Je vous ai souvent cité Christophe Benavent sur Twitter à propos des "tendances" et autres "trends" qui sont l'un des principaux moteurs de propagation virale en ligne. Christophe qui expliquait : "Le trend c'est un niveau, une vitesse et une accélération."
Toue l'histoire du web des plateformes est liée à ces trois enjeux fondamentaux de contrôle : le niveau, la vitesse et l'accélération. Comment contrôler le niveau (des publications ou des interactions) et jusqu'où "monter" ce niveau ; comment contrôler la vitesse (des publications ou des interactions) et comment, enfin, contrôler les effets d'accélération (des publications et des interactions).
Qui souhaite accélérer et qui est en situation de le faire pour lui-même et de l'autoriser pour d'autres que loi ? C'est la première question. Et qui profite de l'accélération et des dépassements de vitesse qu'il s'autorise pour lui-même ou pour les autres ? Voilà la seconde.
Le fait est que sur le volume global des publications (niveau), sur leur circulation individuelle (vitesse), et sur leurs partages collectifs (accélération), Facebook n'est pas en capacité de fournir des dispositifs humains de modération adaptés, et qu'il n'est pas davantage en capacité de fournir des dispositifs algorithmiques de modération "soutenables" (c'est à dire qui répondent aux besoins). Mais il doit pour survivre au moins économiquement, affirmer qu'il est en capacité de le faire. Il fait donc ce que toute entité morale ou politique, singulière ou collective, ferait dans ces cas là : il triche et il ment. Il ajoute du discrétionnaire dans une architecture qui ne devrait être que fonctionnelle. Il installe des régimes d'arbitraire parce qu'il est incapable de standardiser des arbitrages.
A ce problème de soutenabilité, s'ajoute un problème de scalabilité, de passage à l'échelle. Qui ne concerne ni les infrastructures techniques ni même les dimensions algorithmiques. Le défaut de scalabilité de Facebook est un défaut ontologique : un réseau ou un média social fermé de 2,8 milliards d'utilisateurs sans "gouvernement" autre que celui d'une stratégie d'expansion commerciale ne peut être autre chose qu'une aporie politique et un danger démocratique.
Facebook est 'simplement' trop gros. Et à la fable des animaux malades de la peste où "selon que vous serez, puissant ou misérable, les jugements de cour vous feront blanc ou noir", s'ajoute une morale qui pourrait être l'inverse d'une autre fable traitent de grosseur, de grenouille et de boeuf. Facebook est un boeuf commercial s'efforçant de rentrer dans la peau d'une grenouille sociale et politique. Il faut cesser de s'étonner des déchirements que cela crée.
Il n'y a pas de démocratie "sur-mesure".
Samidh Chakrabarti, l'un des anciens responsables de l'équipe en charge des questions civiques pour Facebook, expliquait à la suite des révélations du WSJ :
"L'une des raisons fondamentales pour lesquelles j'ai rejoint FB est que je crois en son potentiel pour être une force profondément démocratisante qui permet à chacun d'avoir une voix civique égale", a-t-il écrit. "Donc, avoir des règles différentes sur le discours pour différentes personnes est très troublant pour moi".
Pourtant cette approche de la différenciation par la dissimulation a toujours été au coeur de l'idéologie de Facebook. Il faut se souvenir de ce que Zuckerberg expliquait en 2017 lors de son discours à la nation et de la manière dont, après avoir fait acte de (légère) contrition, il proposait de régler le problème de nos "sensibilités" :
"L'idée c'est que chacun dispose d'options lui permettant de régler ses propres paramètres concernant la politique des contenus. Où se situe votre limite concernant la nudité ? La violence ? Les contenus graphiques explicites ? Les jurons ("profanity") ? Vos critères deviendront vos paramètres personnels. Nous vous poserons périodiquement des questions pour améliorer cette définition de vos paramètres afin que vous n'ayez pas à chercher comment les régler. Pour ceux qui n'indiqueront pas de choix particulier, le réglage par défaut sera celui de la majorité des utilisateurs de votre zone géographique, comme pour un référendum. (…) Avec davantage de possibilités de contrôle, des contenus ne seront supprimés que s'ils sont plus insupportables / répréhensibles ("objectionable") que l'option la plus permissive. De cette manière les contenus n'apparaîtront pas chez les utilisateurs dont les réglages personnels indiquent qu'ils ne veulent pas les voir, ou au moins qu'ils veulent les voir précédés d'un avertissement. Bien que nous continuions de bloquer certains contenus en fonction de nos standards et des lois locales, nous espérons que ce système de choix personnels et de démocratie référendaire puisse minimiser les restrictions de ce que nous pouvons partager."
"This is not a bug but a feature" : ce n'est pas une erreur mais une fonctionnalité. Et une philosophie. Il y a toujours eu sur Facebook des règles différentes pour différentes personnes. Toujours. En accord avec l'idéologie politique libérale et sur certains points libertarienne qui traverse et structure toute l'histoire de l'entreprise. Le plus étonnant c'est que cela étonne encore d'anciens cadres de la firme …
Si la démocratie est un marché, seules les dictatures sont rentables.
A l'heure actuelle, 90% des 2,8 milliards d'utilisateurs de Facebook se situent en dehors des Etats-Unis et du Canada. Et leur nombre stagne en Europe depuis déjà quelques années. C'est donc essentiellement dans des pays pauvres et émergents, livrés à la corruption et instables politiquement, que Facebook déploie désormais l'essentiel de sa croissance. Et si c'est en effet un succès commercial, c'est un naufrage absolu sur le plan de l'éthique.
Cette autre enquête du WSJ (il y en a toute une série regroupées sur le thème des "Facebook Files"), également reprise sur Fox Business, montre comment des cartels mexicains recrutent des assassins en ligne, comment des milices éthiopiennes appellent au meurtre de minorités ethniques, comment des trafics d'êtres humains s'organisent dans les Emirats, et comment, à chaque fois, Facebook a connaissance de ces crimes et délits mais les laisse continuer, ne ferme ni les comptes ni même les budgets publicitaires afférents, ou s'abstient de les signaler aux autorités locales. Et comment il ne bouge qu'à partir du moment où ces affaires commencent à fuiter et risquent d'abimer l'image de marque de l'entreprise. L'enquête et les révélations du WSJ sont tout à fait édifiantes, consternantes, accablantes, et révoltantes. En voici juste quelques exemples.
Un cartel mexicain qui recrutait des tueurs à gage ? Ses comptes Facebook et Instagram sont restés ouverts malgré le signalement des équipes de Facebook. Certaines pages ont fini par être fermées suite à la publication de photos de scènes de crime sanglantes et d'individus attachés et battus à mort, mais il aura fallu attendre parfois plus de 5 mois pour les fermer, 5 mois après le signalement par les équipes de Facebook.
Des groupes armés en Ethiopie appelant à la violence contre des minorités ethniques (notamment les Tigréens) ? Certaines pages ont été fermées, d'autres sont restées ouvertes. L'une des raisons remontées en interne ? "Nos classificateurs [technologies de traitement automatique du langage] ne fonctionnent pas, et nous sommes largement aveugles aux problèmes sur notre site." Il avait fallu à Facebook plusieurs longues années avant de reconnaître à demi-mot une vague forme de responsabilité dans le relai et l'audience accordée aux discours appelant, sur sa plateforme, au génocide des Rohingyas en Birmanie, mais il refuse toujours officiellement d'en faire de même pour les exactions commises contre les Tigréens en Ethiopie, avec là encore le relai actif de la plateforme (et sa passivité dans l'incapacité à modérer ces discours de haine exprimés dans différents dialectes).
Et concernant la traite d'êtres humains ? L'esclavage ? Là aussi l'histoire est … dingue :
"L'équipe d'enquêteurs de Facebook spécialisée dans l'exploitation des êtres humains (…) a rassemblé des preuves de la traite des êtres humains. En examinant les produits Facebook, ils ont découvert des réseaux criminels qui recrutaient des personnes originaires de pays pauvres, coordonnaient leur voyage et les plaçaient en situation de servitude domestique ou de travail sexuel forcé aux Émirats arabes unis et dans d'autres pays du golfe Persique. Les produits Facebook facilitaient chaque étape, et les enquêteurs ont suivi les communications entre les plateformes pour identifier les auteurs et les victimes.
En 2018, Facebook n'avait pas de protocole pour traiter les posts de recrutement pour la servitude domestique. En mars 2018, des employés ont trouvé des profils Instagram dédiés au trafic de domestiques en Arabie saoudite. Un mémo interne indique qu'ils ont été autorisés à rester sur le site parce que les politiques de l'entreprise "ne reconnaissaient pas la violation.""
Ce n'est que lorsqu'après d'autres fuites Facebook comprend que l'impact médiatique risque d'être catastrophique pour l'entreprise qu'il se décide enfin à bouger :
"Dans un autre mémo, l'expert polonais en trafic a écrit que 18 mois après avoir identifié le problème pour la première fois, Facebook n'avait pas mis en place de systèmes pour trouver et supprimer les posts de trafic. La BBC et Apple ont signalé des problèmes en 2019. La menace ayant des "conséquences potentiellement graves pour l'entreprise", écrit l'expert en trafic, Facebook a commencé à agir plus rapidement. Un balayage proactif utilisant les recherches antérieures de l'équipe d'enquête a trouvé plus de 300 000 cas de violations potentielles et a désactivé plus de 1 000 comptes."
Mais même à ce moment là, même sur ce sujet là, la question principale que Facebook se pose est celle de la meilleure manière de dissimuler les revenus publicitaires associés à ces trafics :
"Au cours de l'année écoulée, Facebook a engagé un consultant externe pour le conseiller sur les risques liés à la poursuite du trafic de personnes sur ses sites. Selon les documents, le consultant a recommandé que, si des revenus étaient tirés des publicités relatives au trafic, Facebook devait élaborer une politique, comme celle de les donner, pour éviter de les ajouter aux coffres de Facebook."
Pourtant, en 2018, la numéro deux de la firme, Sheryl Sandberg, déclarait devant une commission sénatoriale :
"Nous n'opérons dans un pays que lorsque nous pouvons le faire dans le respect de nos valeurs."
Tout est là. Un cynisme galactique. Une éthique entièrement soluble dans le maintien de marges de croissance suffisantes au bon plaisir de l'actionnariat. Une pure démence se réfugiant derrière de faux alibis technologiques pour masquer sa propre impéritie et sa complète faillite morale.
Too Big to Fail ? Really ?
Entre les enquêtes du WSJ, le scandale Instagram en train de monter (voir l'article dédié du WSJ), et toute une série d'autres révélations tout aussi fracassantes sur le cynisme et la fourberie de l'entreprise qui n'hésite par exemple pas à fourguer de fausses données aux chercheurs dans le cadre de programmes de lutte contre la désinformation sur la plateforme, et après la séquence médiatique sur Trump et l'envahissement du Capitole, il semble que jamais l'image publique de l'entreprise n'ait été aussi écornée mais pourtant pas encore suffisamment pour atteindre ses marges commerciales. Ce qui nous renvoie à la fois à notre propre impéritie dans la régulation de ces platefourbes (c'est comme une plateforme mais en plus fourbe) et au couplage structurel qui s'opère dans la manière dont les formes les plus abouties de capitalisme entretiennent et font prospérer les formes les plus cyniques d'inconduite morale.
Will Oremus le faisait remarquer sur Twitter, le cycle de vie de Facebook est finalement assez simple :
- Construire des systèmes problématiques
- Rechercher leurs failles et trouver des problèmes sérieux
- Enterrer les résultats pour éviter la mauvaise presse
- Obtenir une presse encore plus mauvaise lorsque les résultats finissent par fuiter
- Ne rien changer de ce qui pourrait enrayer la machine à cash
- Continuer de faire du profit
Too Big To Fail ? Nous en sommes vraiment là aujourd'hui. A nous poser la question de ce que l'effondrement d'une telle plateforme aurait comme conséquences systémiques potentiellement désastreuses sur nos liens sociaux (probablement minimes) et sur l'économie des médias (probablement gigantesques). Au-delà de la doctrine du Too Big To Fail, peut-être que Facebook est aujourd'hui simplement devenu … Too Big To Be.