Facebook est bloqué en Chine depuis 2009, date où de violentes émeutes avaient eu lieu dans le nord du pays. Instagram est également bloqué depuis 2014. Il parle aujourd'hui d'y faire son retour.
(Source : Technology Review)
Fin Janvier 2006, sur son blog officiel, Google justifiait en ces termes son installation sur le marché chinois :
"Filtrer nos résultats de recherche compromet notre mission. Ne pas offrir de possibilité de chercher sur Google la compromet encore davantage."
Je vous avais raconté cette histoire dans ces 2 billets (1, 2). Presque 10 ans plus tard jour pour jour, c'est au tour de Facebook de résoudre le dilemme cornélien de l'installation sur un marché colossal au prix d'une censure d'état. Dilemme que Mark Zuckerberg résoud en ces termes :
"It’s better for Facebook to be a part of enabling conversation, even if it’s not yet the full conversation". Traduction : "Le mieux pour Facebook est de rendre possible les conversations, même si ces conversations ne sont, pour l'instant, pas entières."
Pour les mal-comprenants, une "not full conversation" est une conversation censurée.
Google 2006, Facebook 2016.
Les mêmes enjeux commerciaux, le même marché gigantesque, le même régime communiste, la même rhétorique de l'acceptation de la censure parée des atours d'une vertu plus que bancale.
Le prix à payer pour ce marché. Alors que toutes ces sociétés, Facebook en tête, sont à la recherche du "next billion", du prochain milliard (d'utilisateurs), il est là, il leur tend les bras, il leur suffit d'accepter de "coopérer" avec le gouvernement chinois. Et là au moins c'est pratique, pas besoin d'aller balancer des drones ou des ballons-météo pour irriguer de Wifi des zones difficilement accessibles, pas besoin de déployer un internet au rabais comme en Inde, il suffit de signer le petit papier qui autorise le gouvernement (chinois) à jeter un oeil sur ce qui se dit sur la Facebook (chinois), à s'engager auprès de lui à censurer certaines informations, et éventuellement à lui promettre de lui livrer les noms de méchants dissidents. Simple on vous dit.
Comme le faisait remarquer un Twittos dont j'ai oublié le nom :
"Pour Facebook, supprimer les news fakes, c'est compliqué, en revanche censurer les vraies c'est possible …"
Google avait finalement choisi de se retirer du marché chinois en 2011 mais il ambitionne désormais de s'y réimplanter, mais par le biais de son magasin (Google Play) plutôt que de son moteur.
Toutes les grandes firmes technologiques avec des services en lien avec l'accès à l'information qui ont choisi de s'implanter en chine, de Google à Facebook en passant par Yahoo! ou Microsoft, n'ont jamais eu d'autre choix que d'accepter la censure du régime. Toutes l'ont accepté avec plus ou moins de scrupules et ont mis en place cette censure avec plus ou moins de zèle. D'un côté par exemple, Google et désormais Facebook et leur rhétorique du "mieux vaut des résultats un peu censurés que pas de résultats du tout", et de l'autre, Microsoft et Yahoo! notamment, qui collaborent pleinement avec le régime chinois depuis plus de 10 ans, mais l'on pourrait également citer LinkedIn et tant d'autres.
Si la question de l'implantation de Facebook en Chine est un peu "différente", cela tient d'abord à la nature du site, une "version post-moderne de la Stasi" pour reprendre les termes de Julian Assange.
Final Cut.
Cela tient ensuite à la technologie même de Facebook qui, y compris dans des pays parfaitement démocratiques, maîtrise parfaitement les logiques d'affichage ou de non-affichage de certains contenus. Littéralement, l'Edgerank est un algorithme de "cut", de "coupe" : là où un moteur de recherche se doit d'être (ou de paraître) exhaustif, l'ingénierie d'un réseau social (l'argument vaut aussi pour Twitter) repose d'abord sur sa capacité à filtrer certaines informations, à éliminer certains contenus. On se souviendra ici de ce qui était arrivé lors de l'affaire des caricatures du prophète en Une de Charlie Hebdo, lorsque Mark Zuckerberg avait cédé à la pression du gouvernement Turc qui menaçait de bloquer l'accès au site si ces caricatures étaient visibles pour les utilisateurs turcs. Facebook est donc "naturellement" capable de filtrer ou de censurer tout type d'information en fonction de n'importe quel type de critère ou d'injonction politique. Et cette réalité qui, dans des pays démocratiques, pose déjà un très grand nombre de problèmes, devient nécessairement très préoccupante quand on raisonne à l'échelle de régimes autoritaires ou dictatoriaux, a fortiori lorsqu'on y ajoute le nombre de données et d'information "personnelles" collectés par la plateforme.
Obfusquer et s'offusquer.
Appliquant la censure du gouvernement chinois, la requête Tien An Men sur le moteur de recherche Google Images renvoyait uniquement des images de jeunes filles en costume traditionnel sur la place du même nom sans jamais montrer la photo de cet étudiant se tenant devant des chars qui avait fait le tour du monde. La censure principale de Google tenait donc essentiellement à sa capacité d'obfuscation. Si Facebook n'a de son côté pas besoin d'injonction de régimes autoritaires pour censurer des photos historiques comme récemment celle de la petite Kim fuyant les bombardements au Napalm, la censure de Facebook n'est pas limitée à une simple obfuscation technique mais s'étend à la manière dont les interactions au sein de la plateforme, si elles sont délibérement orientées par choix "politique", peuvent devenir un puissant vecteur de propagande au regard de laquelle nos débats occidentaux sur les "bulles de filtre" paraissent bien inessentiels.
Censure préventive. Facebook, dans de nombreux pays, bloque déjà quotidiennement des milliers de contenus après qu'ils ont été publiés. Mais son implantation en Chine, comme le rappelle le New-York Times, radicaliserait cette censure en visant non plus à supprimer des contenus une fois publiés mais à empêcher la publication de toute une série de contenus : empêcher des contenus d'apparaître plutôt que de supprimer des contenus existants. Techniquement c'est un "partenaire chinois" qui s'occuperait de la modération en amont de l'ensemble de News Feed et des "popular stories" pour décider de celles qui méritent de s'afficher sur le mur des utilisateurs chinois. On mesure ici à quel point le mode de publication sur Facebook est – indépendamment de la question chinoise – contrôlé et "décalé temporellement", le genre de décalage temporel qui permet précisément d'appliquer toute forme de filtrage (ou de censure donc) et parfaitement à l'opposé de la logique propre du web qui ne peut s'accomplir que dans l'instantanéité et l'absence de tout processus de contrôle ou de filtrage dans l'activité de publication. Mais Facebook n'est pas le web.
Facebook s'installera en Chine. Et se pliera à la censure. Impossible de passer à côté d'un marché qui lui permettrait presque instantanément de doubler son nombre d'utilisateurs actif (1,4 milliard d'habitants, dont 720 millions d’internautes et 560 millions d’utilisateurs de smartphones). La rhétorique pour convaincre l'opinion est déjà prête :
"It’s better for Facebook to be a part of enabling conversation, even if it’s not yet the full conversation".
Et Facebook se retirera de Chine quelques années plus tard. Comme le fit Google. Puis il y reviendra. Facebook s'implantera en Chine en sachant parfaitement qu'il s'en retirera quelques années plus tard pour y revenir ensuite. Voilà le scénario plus que probable de cette affaire. Cette 1ère implantation est un test grandeur réelle qui poursuit plusieurs objectifs :
- gagner un marché et voir s'il lui est possible de faire ce que ses concurrents dans d'autres secteurs n'ont jamais réussi à faire, à savoir tailler des croupières aux parts de marché des entreprises chinoises (aucun moteur de recherche, même Google, n'a ainsi réussi à faire basculer l'hégémonie de Baidu)
- tester l'impact de sa rhétorique dans l'opinion et évaluer les dégâts en termes d'image
- tester la "censuro-compatibilité" de sa plateforme et s'en servir comme argumentaire commercial pour négocier avec d'autres régimes autoritaires ou pour faire évoluer les censures déjà négociées et actives.
Censure performative.
A propos du rôle joué (ou pas) par Facebook dans l'élection de Donald Trump, j'évoquais l'autre jour la question des régimes de vérité spécifiques à chaque plateforme. Et j'écrivais ceci :
"Facebook est une machine à produire de l'engagement. Google est une machine à produire de la popularité. Ce qui veut dire que le régime de vérité de Google est celui de la popularité. Est "vrai" dans l'écosystème Google, au regard des critères de l'algorithme de Google, ce qui est populaire. Wikipédia dispose elle aussi d'un régime de vérité, différent. Le régime de vérité de Wikipédia est celui de la vérifiabilité. Est "vrai" dans l'écosystème Wikipédia ce qui est vérifiable. (…) Le régime de vérité de Facebook est celui de l'engagement. Du "taux d'engagement". Est "vrai" dans l'écosystème Facebook ce qui permet de produire de l'engagement, d'être "atteint" (le fameux "reach") et, par effet de bord, de "porter atteinte". Peu importe que cela soit "vérifiable", peu importe que cela soit "populaire" (effet de l'illusion de la majorité), il suffit, dans le régime de vérité de Facebook, que cela produise de l'engagement."
En amont de cette réflexion, j'ai souvent, sur ce blog, évoqué la question des régimes de performativité qui étaient à l'oeuvre sur le web et notamment tenté de démontrer que l'essor des interfaces vocales avait ceci de redoutable (et de redoutablement efficace) qu'il érigeait cette performativité en dogme d'efficience :
"Avec l'essor désormais certain des technologies vocales comme interface, il ne s'agit pour l'instant pas encore vraiment de navigation ; la voix comme interface est d'abord celle de l'injonction ("trouve ceci", "cherche cela", "téléphone à mon dentiste"), de la convocation ("dis à Marie de me rejoindre au bureau"). Un web performatif. Au service de l'action"
Quand dire c'est faire. Du clic.
La performativité ou "quand dire c'est faire" pour paraphraser Austin, est au croisement de l'ingénierie et de la philosophie "politique" de Facebook. Puisque son régime de vérité est celui de l'engagement, et puisqu'il n'y a pas d'engagement possible sans énoncés performatifs. "Quand dire c'est faire … du clic."
Pour être un peu plus précis (et un peu plus pervers), la force du régime de vérité de Facebook est d'arriver à produire de la performativité y compris sur des énoncés, des contenus "constatifs".
<petite précision technique> Dans la théorie des actes du langage d'Austin, s'opposent les énoncés constatifs (qui décrivent le monde) et les énoncés performatifs (qui accomplissent une action) </petite précision technique>
Et la censure dans tout ça me direz-vous ?
Et bien disons qu'indépendamment de son audience, la "nature" performative de Facebook, l'empilement d'énoncés constatatifs, son algorithme de "coupe" et la particularité de son régime de vérité où seul ce qui produit de l'engagement fait foi, sont les quatre raisons majeures qui, indépendamment des questions de censure politique chinoises, doivent nous amener à scruter et à continuer d'interroger avec la plus grande vigilance le positionnement de cette plateforme sur l'échiquier géopolitique mondial mais également à l'échelle de chacune de nos vies minuscules.
Pour le dire autrement, le rapport que Facebook entretient au quotidien avec différentes formes d'éditorialisation hélas trop souvent assimilables à de la censure pourrait renverser totalement le constat et la – brillante – démonstration dressée par Zeynep Tufekci :
"Comment Internet a facilité l'organisation des révolutions sociales mais en a compromis la victoire."
Et pose la question de savoir comment Facebook pourrait, in fine, surtout compliquer l'organisation des révolutions sociales et assurer la victoire des censeurs.