Bienvenue dans le World Wide Face. La société dévisage.

"Il fallait bien qu'un visage 
Réponde à tous les noms du monde."

Paul Eluard

Au commencement était un visage jeune et masculin fait de 0 et de 1. Le site s'appelait alors "The Facebook" et n'était ouvert qu'à quelques grandes universités américaines. Nous étions en 2004. 

Thefacebook

Le premier visage que l'on voit aujourd'hui en arrivant sur le livre des visages est une absence de visage. Treize absences exactement. Dont 6 hommes et 7 femmes à supposer que la longueur des cheveux permette de différencier les sexes. Treize portraits en buste sans visages. Parce qu'il faut bien qu'un visage réponde à tous les noms du monde. 

Fb-visage

Le second visage que l'on voit est le sien propre quand on choisit ce qui sera notre photo de profil. Ou celui de nos amis. Visages qui après avoir longtemps été carrés, parce que cadrés, sont récemment devenus ronds. Visages en médaillons comme autant de pièces de monnaie. Près de deux milliards et demi de pièces de monnaie.  

Monnaie

Le troisième visage que l'on voit est également rond. C'est celui de ces émoticônes : joie, étonnement, tristesse, colère. Quatre visages qui surgissent comme surgissent nos sentiments et nos émotions. Les visages du surgissement.

Emoji

Comme Google le fut en son temps pour toute activité de recherche et de navigation, Facebook est aujourd'hui à lui seul une puissante métonymie désignant l'ensemble des usages sociaux de l'internet et du web. Même si, précisément, Facebook n'est ni l'internet ni le web. Son adoption massive et ses stratégies invasives de colonisation (grâce au bouton "like" disséminé un peu partout) l'ont placé au centre de tous les débats qui agitent aujourd'hui nos sociétés. 

Il a été le paradigme et le déclencheur d'un changement d'axe de rotation de la planète web et de l'ensemble de son économie, des documents d'hier aux profils d'aujourd'hui. 

Le visage, les visages, ses visages, nos visages sont désormais au coeur d'une nouvelle mutation d'une écosystème dont le web n'est que l'un des composants. Nous sommes entrés dans le World Wide Face. 

Bienvenue dans le World Wide Face. 

La question des visages est une question centrale pour nos sociétés, pour leur économie comme pour leur police. Le visage est une monnaie. Le visage est une économie autant qu'une valeur boursière. Comme lorsque le Zimbabwe vend à la Chine le visage de l'ensemble de ses ressortissants. Le visage est une arme. Le visage est présenté comme une preuve. De la physiognomonie à cette physioalgorithmie qu'est la reconnaissance faciale il n'y a qu'un pas. Mais les faux visages et la spéculation faciale complexifient considérablement l'établissement d'une valeur de preuve. La surveillance des visages n'a d'ailleurs jamais été "une preuve idéale". Le visage est donc un risque. Celui des faux-positifs. Le visage est aussi un projet politique. Celui de la reconnaissance faciale. Celui de la biométrie. Celui du capitalisme de surveillance dans l'héritage de Foucault. Celui du "social credit score" mis en place en Chine. La Chine qui étend les systèmes de reconnaissance faciale pilotés par des "intelligences artificielles" aux vaches et aux cochons pour doper les seuils de productivité de son agriculture. Elle y ajoute même de la reconnaissance vocale (toujours pour vaches et cochons), technologie fournie par le géant Chinois Alibaba, afin de mieux détecter, en tout cas officiellement, des animaux en danger ou malades. Et donc possiblement improductifs. Aucune aberration ne nous sera épargnée, aucune publicité non plus. Puisque tout est, précisément, en-visageable. 

Si l'enjeu n'était pas celui des dérives de la surveillance de masse, si en plus des espaces publics déjà hyper-scrutés ces questions ne se déclinaient pas dangereusement à l'intérieur même des établissements scolaires, si Nice n'était pas la ville laboratoire d'un 1984 à la française, on pourrait presque être tenté de rire à la lecture de ce titre : "Reconnaissance faciale : des tests auront lieu à l'occasion du Carnaval". Reconnaissance faciale à la fête des masques. Si Ubu est roi, Estrosi demeure son impérissable bouffon. 

Le visage est un art. Aussi. De celui, immémorial, du portrait, à celui, contemporain, du portrait de données. 

ArtfaceShu Lea Cheang, Avatar of the artist, 2019.
Courtesy: the artist and Taiwan Pavilion, Venice Biennale 2019.

Mais quoi que nous en pensions, que nous nous y soumettions ou que nous tentions de nous y soustraire, nous sommes dans une société dévisage. Ces derniers jours une histoire tourne en boucle : celle d'un individu qui aurait "aspiré" des tonnes de vidéos pornographiques et y aurait fait tourner des technologies de reconnaissance faciale. Pour ensuite aspirer pareillement des tonnes de profils sur les réseaux sociaux. Et qui aurait croisé les deux. Avec l'ambition de permettre de "retrouver" des femmes ayant déjà tourné des vidéos pornographiques. D'après le message posté sur Weibo, l'individu aurait ainsi pu identifier plus de 100 000 femmes. Tout bien sûr dans cette histoire est écoeurant. La finalité, les moyens, les risques. Tout est écoeurant. Mais la question que pose cette histoire n'est pas une question morale mais une question technique. Cela est-il faisable ? Ce croisement entre deux bases de données (Pornhub et Facebook pour faire simple) est-il possible ? Ces technologies de reconnaissance faciale assez aisément accessibles peuvent-elles donner des résultats (même erronés) ? Tout cela est-il réalisable à une échelle artisanale et sans disposer de moyens ou de connaissances techniques qui sont celles d'un service de renseignement d'état ou d'un hacker chevronné ? La réponse à toutes ces questions est "oui". Et si nous ne pensons pas cette accélération technique, toutes nos considérations morales seront vaines. 

Bien sûr cela n'est pas une bonne nouvelle. Surtout au moment où la biométrie et la reconnaissance faciale sont inscrites à l'agenda politique et mises au service de fonctions régaliennes, des plus anecdotiques (la biométrie pour accéder à la cantine scolaire) ou d'apparence triviales (les portiques équipés de caméra à l'entrée des lycées) au plus élaborées (déploiement de vidéo-surveillance et usages policiers dépassant le cadre du seul maintien de l'ordre).

Penser l'urgence n'est pas penser l'accélération. De partout on nous presse d'accepter des systèmes d'identification biométriques que l'on nous dit bénéfiques pour chacun en refusant de voir que toute automatisation est d'abord celle des inégalités, que toute identification est d'abord celle de nos concitoyens désignés comme les plus faibles. S'agissant des exilés par exemple, des "migrants", "l’informatique poursuit proprement le travail que fait mal la police à la vue de tous : éloigner, effacer." Toute identification est d'abord une désignation. Et toute désignation est d'abord une assignation. Une fixation. Un enregistrement. Qui pour l'essentiel ne produira qu'une forme de résignation supplémentaire chez ceux qui se verront ainsi désignés.

Il nous faut refuser cette urgence de choisir (et d'accepter) pour commencer à penser l'accélération que ces systèmes et ces choix produisent. Car si l'on n'a que l'urgence alors on oublie  que les outils d'administration des populations ont toujours, toujours, un sens politique. Et qu'une époque où s'affirme la menace de régimes autoritaires d'extrême droite au sein d'un très grand nombre de démocraties européennes, doit être l'occasion d'un ralentissement et d'une réflexion plutôt que d'une accélération dans la course à l'identification. Non seulement les outils et les technologies d'administration des populations ne doivent pas être pensées en dehors d'un projet politique, mais certains projets politiques ont une inclinaison naturelle pour les technologies d'administration des populations et ces projets politiques là sont hélas ceux du fascisme et du totalitarisme.

Un mois avant les élections européennes, le parlement de Strasbourg votait la mise en place du "CIR", le "Common Identity Repository", à terme l'une des plus grosses base de donnée biométriques de la planète. Bien sûr il s'agit de fluidifier les échanges entre pays membres et de faciliter la vie des ressortissants de l'UE pour la délivrance, par exemple, de visas. Bien sûr il s'agit aussi de mieux identifier les criminels dans un cadre de coopération européenne. Bien sûr pour le reste et ce qui concerne la vie privée il nous faudra nous contenter de la promesse de "garanties appropriées". Précisément le genre de promesses et de pseudo-garanties que les états sont les premiers à dénoncer quand c'est Facebook ou l'un des GAFA qui tient ce genre de discours vaseux. Et bien sûr les risques politiques au regard, par exemple, des politiques migratoires et de la représentation politique de l'extrême-droite au parlement, sont absolument considérables. 

Nous devrions nous imposer, à l'échelle de la société tout entière, politiques, ingénieurs, citoyens, de ne penser les systèmes techniques d'identification, de biométrie, de reconnaissance faciale qu'à l'aune de leurs dérives possibles plutôt qu'à l'ombre circonstancielle et artificielle de leurs bénéfices supposés. 

Pourtant le front uni entre police, états et GAFAM sur les questions de reconnaissance faciale semble commencer à se fissurer. Que Google, Facebook, Amazon et Microsoft soient sous le feu des critiques de certains de leurs utilisateurs ou de chercheurs et de militants n'est pas nouveau. Récemment encore, en Avril 2019, près de quatre-vingt chercheurs se fendaient d'une lettre ouverte à Amazon pour réclamer un moratoire sur sa technologie Rekognition. Une technologie … totalement flippante. Mais depuis maintenant deux ans, ce sont leurs employés qui se trouvent en première ligne pour dénoncer les atteintes à la vie privée, les collaborations à des programmes militaires, ou la vente de technologies de reconnaissance faciale à des états. Comme ces employés d'Amazon dénonçant la vente de la technologie Rekognition aux services de police et d'immigration de l'administration Trump. Les mêmes services d'immigration (I.C.E.) dont le Guardian a révélé qu'ils utilisaient de faux profils Facebook pour piéger et ensuite poursuivre en justice des immigrants. Au total ce sont près de 7000 employés d'Amazon qui ont interpellé directement les actionnaires de la firme, notamment pour obtenir leur soutien dans l'interdiction de la vente du programme Rekognition à des gouvernements. Une demande qui a recueilli l'accord de … seulement 2% des actionnaires. A.S.A.B. All Shareholders Are Bastards. Amazon pourra donc continuer de vendre sa technologie, avec l'aval de son actionnariat.

Mais au regard de l'ampleur des polémiques, et au regard des preuves scientifiques des biais de ces technologies, certains élus commencent à avoir le courage de les dénoncer et de les interdire partiellement. C'est le cas de huit des neuf membres du conseil municipal de San Francisco qui viennent d'adopter un texte n'interdisant pas mais limitant la portée de l'utilisation des technologies de reconnaissance faciale

"La propension de la technologie de reconnaissance faciale à mettre en danger les libertés civiles surpasse substantiellement ses bénéfices supposés, indique le texte adopté mardi 14 mai. La technologie va exacerber les injustices raciales et menacer notre capacité à vivre libres de la surveillance permanente du gouvernement."

Comme rappelé par l'article du Monde

"La circulaire sur « l’arrêt de la surveillance » adoptée à San Francisco ne s’applique qu’aux services municipaux et à la police – qui a cessé de tester la reconnaissance faciale depuis une vague de protestations en 2017. Elle ne concernera pas le secteur privé ni l’aéroport où la sécurité est du ressort de l’Etat fédéral. Mais elle requiert un processus d’information et de contrôle public pour l’acquisition de technologies de surveillance telles que les lecteurs automatisés de plaques minéralogiques."

Mais pour une municipalité qui refuse ce sont au moins deux autres qui acceptent : ainsi Detroit et Chicago

Mais partout progresse l'idée qu'il ne faut pas simplement mettre en pause ces technologies mais les bannir et les rendre hors la loi.

L'idée de confier à des algorithmes le soin de reconnaître des visages est assez ancienne. J'évoquais plus haut la physiognomonie et ses errances. Une technologie devrait toujours être pensée en gardant présent et vivace le souvenir de ses fautes originelles. Pas de nucléaire sans Hiroshima. Pas de reconnaissance faciale sans associer l'image d'un couple afro-américain à celle de … gorilles.  

6a00d8341c622e53ef01b8d1330352970c-800wi

Un peu partout on nous explique, y compris récemment (en 2018) et même lorsque les taux d'erreur (les faux-positifs) sont de 92%, qu'il s'agit d'un problème contextuel lié tantôt à la qualité de l'image, tantôt au volume de visages scannés en temps réel. Comme si cela n'était jamais la faute de la technologie elle-même mais celle de paramètres extérieurs à la technologie elle-même. 

Depuis 2015 la technologie de reconnaissance faciale a en effet beaucoup progressé. Est-il pour autant possible de garantir que ce genre "d'erreur" ne se reproduira plus ? Non. Cela est impossible. Cela est impossible car il ne s'agit pas d'une erreur mais d'une finalité. La finalité des technologies de reconnaissance faciale est d'inférer des ressemblances. Quitte à forcer le trait. Si l'on cherche des coupables dans une foule de 100 000 personnes on trouvera forcément quelques dizaines de personnes "ressemblantes" aux coupables recherchés. Si l'on étend les critères de ressemblance pour s'assurer d'obtenir des résultats, alors personne n'est capable de donner la marge d'augmentation après laquelle tout personne afro-américaine aura autant de chances de ressembler à un gorille que toute personnes indo-européenne en aura de ressembler à un ours polaire, ou qu'un Chihuahua à un muffin, et autres caniches à des nuggets ou chiens de berger à des serpillères, ou des chouettes à des pommes.

Muffin

D8EAhRHXsAExmRe

Sociologiquement, culturellement, philosophiquement, moralement, l'ensemble des technologies de reconnaissance faciale sont dans l'héritage mortifère de cette pseudo-science qu'est la physiognomonie. Et elles se déclinent sur le mode d'une pathologie, la prosopagnosie, dont elles sont le miroir : là où le prosopagnosique peut voir sans reconnaître, les technologies de reconnaissance faciale prétendent reconnaître sans voir. Le reste n'étant qu'une prosopopée technique où l'on peut faire dire ce que l'on veut à ces visages mathématisés et extrapolés.

Ce modèle de l'extrapolation est aussi celui de l'inférence informatique, calculatoire, statistique, qui s'est généralisée avec le numérique et qui est la boîte de Pandore de toutes les dérives possibles. C'est pourquoi Zeynep Tufekci rappelle qu'il faut des lois pour réguler ces inférences

"Nous avons aussi besoin de faire voter des lois qui viendront directement réguler l'usage des inférences informatiques : qu'autorisons-nous à être inféré, sous quelles conditions, au regard de quels critères de responsabilité ('accountability'), de transparence, de contrôles et de sanctions en cas d'abus ?"  

Si l'on multiplie  d'un côté les dispositifs de surveillance et de reconnaissance faciale, si ces dispositifs abondent des bases de données biométriques elles-mêmes interopérables à disposition d'états ou d'organismes de police, et si dans le même temps on fait de la dissimulation du visage un délit pénal validé par le conseil constitutionnel (dans le cadre de la loi dite "anti-casseurs"), alors on ouvre consciemment la porte à tous les autoritarismes et faisant le pari qu'ils s'arrêteront au seuil du totalitarisme. Ce pari ne peut être que celui de fous.  

Dans l'excellentissime documentaire "Une contre histoire de l'Internet" on voit John Perry Barlow, le père de la déclaration d'indépendance du cyberpespace et l'un des fondateurs de l'EFF (Electronic Frontier Foundation), expliquer (à partir de 17'59) : "je connais bien la NSA, de l'intérieur, et je peux vous dire que leur despotisme est amoindri par leur incompétence. Ils peuvent enregistrer tout internet, mais ils n'ont aucune idée de quoi faire de ces données, et plus ils en ont, et plus ils sont confus." Nous étions alors en 2013. La différence fondamentale, depuis les révélations d'Edward Snowden, est qu'aujourd'hui les différents services de renseignement et de police ont gagné en compétence, et surtout qu'ils savent parfaitement quoi faire de ces données. Et si vous en doutez, allez voir les 4'42 de vidéo sur cette page de Human Rights Watch sur la manière dont la Chine croise d'immenses gisements d'information pour criminaliser n'importe quel type de comportement et déporter dans des camps de travail la minorité musulmane Ouïghoure. Pendant longtemps les projets politiques totalitaires ont attendu et espéré les technologies leur permettant d'accroître encore leurs stratégies de répression et d'oppression. Aujourd'hui les technologies numériques n'attendent plus que les projets politiques autoritaires de leur mise en oeuvre. Il est à craindre qu'elles n'aient pas à attendre longtemps.  

Bonus Track.

Depuis bientôt 15 ans, dans l'immensité bavarde des presque 3000 articles d'Affordance, j'essaie d'isoler quelques temps forts, sans souci ni besoin d'exhaustivité, comme autant de repères me permettant de poursuivre mon propre travail d'analyse des dynamiques et des tensions qui traversent internet, le web et les plateformes. Revoici quelques-uns de ces temps forts. 

1990 : Bienvenue dans le World Wide Web (web des documents)

2005 : Bienvenue dans le World LIVE Web (web du temps réel, notamment via Google News et l'essor des blogs)

2007 : Bienvenue dans le World LIFE Web (web des profils)

2013 : Bienvenue dans le World Wide WEAR (web des objets, des vêtements connectés et du corps-interface)

2014 : Bienvenue dans le World Wide ORWELL (sur l'urgence d'une éthique de l'automatisation) 

2015 : Bienvenue dans le World Wide PUSH (internet des objets et surtout des boutons de commande)

2018 : Bienvenue dans le World Wide BRAIN (interfaces neuronales et ondes cérébrales)

2019 : Bienvenue dans le World Wide FAKE (à propos des Fake News, des Deep Fake et des architectures techniques du faux)

Je n'ai pas trouvé le temps d'en faire un texte court mais vous trouverez ici des éléments pour composer vous-même un "Bienvenue dans le World Wide VOICE".

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut