J’ai participé ce Jeudi au colloque de l’Observatoire de la surveillance en démocratie. Le thème de mon intervention a tourné autour de l’idée suivante : « Peut-on dé-surveiller ? » (le colloque qui se poursuit ce matin peut être suivi en visio). Un très grand merci à Nicolas P. Rougier pour son invitation, ainsi bien sûr qu’à toute l’équipe de l’Observatoire de la surveillance en démocratie.
Le texte ci-dessous liste une série de points d’analyse que j’ai mobilisés dans le cadre de mon intervention lors d’une table-ronde. A la suite de ce texte je vous joins également le support de présentation que j’ai utilisé.
Je ne sais pas si vous l’avez remarqué mais les mots « surveillance » et « surveiller » n’ont pas d’antonymes directs. Ou alors des antonymes relativement faibles sur un plan sémantique, par exemple « délaisser ». Mais « ne pas surveiller » n’est pas pour autant « délaisser ».
Je précise en introduction que s’il est compliqué de « désurveiller » (c’est l’objet de cette communication), on peut heureusement combattre la surveillance et ses dispositifs à l’échelle individuelle et militante. Geoffrey Dorne l’a remarquablement documenté dans son ouvrage « Hacker Protester : guide pratique des outils de lutte citoyenne« . La furtivité (telle que réfléchie par Damasio dans son roman éponyme, « Les Furtifs »), le secret, l’évitement, l’obfuscation, le sabotage, la cryptographie, le chiffrement, la rétro-ingénierie et le retournement du stigmate pour surveiller les surveillants, sont autant de possibilités qui restent mobilisables pour déjouer la surveillance.
Ce qui m’intéresse aujourd’hui c’est de réfléchir aux difficultés d’imaginer collectivement et de réaliser concrètement des sociétés « désurveillées ». A minima du point de vue de mon domaine de recherche, c’est à dire le web et les grandes plateformes de médias et de réseaux sociaux.
« On ne peut pas ne pas communiquer« . Mais peut-on ne pas surveiller ? Chez Paul Watzlawick le refus de communiquer est un acte de communication. On ne peut pas dire que le refus de surveiller soit un acte de surveillance. Il faut donc se poser la question différemment : a-t-il déjà existé des sociétés sans surveillance ? Sans que les adultes veillent ou surveillent les plus jeunes ? Sans que les gens surveillent leurs proches pour y être attentifs ? Sans que les riches surveillent les pauvres ? Sans que les hommes surveillent les femmes ? Nos sociétés, à toutes les époques ont toujours tissé des formes complexes et plus ou moins relâchées de « surveillance », des formes liées à des paramètres culturels eux-mêmes souvent dépendant du milieu et de l’environnement dans lequel ces sociétés évoluent ainsi que de leur stade d’évolution technique et politique. On peut donc considérer qu’il est ou qu’il fut en tout cas possible de ne pas surveiller tout en restant attentif, simplement en « veillant ».
En restant à l’époque contemporaine dans ce qu’elle comprend d’environnement numérique et politique, et en liant la question de la surveillance à celle du contrôle, on peut en revanche considérer que tout comportement prend pour tout témoin valeur de message. Y compris l’absence de comportement, ou la dissimulation d’un comportement. A ce titre la question n’est pas tant de savoir si l’on peut ne pas surveiller que de savoir s’il est possible de ne pas être surveillé. Et aujourd’hui il n’existe pas en ligne de comportement, d’interaction ou d’expression qui soit « sans témoin ». Chacun de nos clics, de nos messages, de nos mails, chacune de nos navigations est tracée et sinon observée, du moins observable.
Et l’un des nouveaux problèmes de cette surveillance, est sa fréquence. De la même manière que l’on parle de « High Frequency Trading » sur les places de marché boursières, il existe une « High Frequency Surveillance » sur les marchés comportementaux et discursifs (cf capitalisme linguistique). On n’y observe plus des valeurs boursières mais des individus, des comportements, des opinions.
D’autant qu’à chaque phase ou évolution significative du champ social, politique et surtout technologique, se manifeste un effet cliquet qui empêche tout retour en arrière. On le voit par exemple avec la vidéo-surveillance dans l’espace public, on le voit aussi avec l’arrivée de l’IA et de la vidéo-surveillance dite « intelligente ». A quoi tient fondamentalement cette impossibilité de revenir en arrière ? Est-elle, et dans quelle proportion, liée aux politiques publiques ? Aux infrastructures ? Aux enjeux de citoyenneté ? A des effets de conformité sociale ?
Cette surveillance est-elle inscrite dans le code informatique (« Code Is Law ») ? Tient-elle principalement aux infrastructures (« infrastructures are politics ») ? J’ai moi-même (avec d’autres) théorisé ce que j’appelle des architectures techniques toxiques pour décrire et documenter les modalités d’organisation des grandes plateformes, réseaux et médias sociaux.
Et quelle est la « nécessité » de cette surveillance et de l’ensemble des formes qu’elle revêt aujourd’hui ?
Longtemps en démocratie les modalités de surveillance étaient totalement différentes, elles étaient « différées » et principalement rétroactives (on faisait des contrôles administratifs principalement rétroactifs et des contrôles de police là aussi le plus souvent rétroactifs si l’on omet les flagrants délits). Dans une perspective que l’on pourrait qualifier de cybernétique, ce processus de Feedback permettait un ajustement des politiques publiques de police et de maintien de l’ordre. Aujourd’hui le feedback est essentiellement un prétexte au déploiement d’architectures et d’infrastructures de surveillance de plus en plus massives, intrusives et la justification commode d’un abandon des politiques publiques qui pourraient limiter l’impact de la surveillance dans l’espace public.
Tous ces points interrogent les conditions de production d’une (supposée) nécessité de surveillance. Et les intérêts qu’elle sert. Les politiques de surveillance contemporaines (en démocraties comme dans les régimes autoritaires) ont presque toujours été des politiques de la catastrophe. « Quand on invente l’avion on invente le crash » comme l’écrivait Paul Virilio. « Le progrès et la catastrophe sont l’avers et le revers d’une même médaille (…) Inventer le train, c’est inventer le déraillement, inventer l’avion c’est inventer le crash (…) il n’y a aucun pessimisme là-dedans, aucune désespérance, c’est un phénomène rationnel (…), masqué par la propagande du progrès. »
Historiquement c’est dans les années 1980 que le Royaume-Uni est le premier à généraliser la vidéosurveillance suite aux attentants de l’IRA. « En 2006 le Royaume-Uni abritait 4,2 millions de caméras de vidéosurveillance (dans la rue, sur les autoroutes, dans les trains, les bus, les couloirs du métro, les centres commerciaux, les stades). Et un Londonien pouvait être déjà filmé jusqu’à trois cents fois par jour. » (Source Wikipedia. Videosurveillance). L’attentat contre les tour jumelles aux USA fut également l’occasion de graver dans le marbre du Patriot Act des mesures toujours en vigueur et très éloignées de la lutte contre le terrorisme (« 11 129 demandes de perquisition dans le cadre du Patriot Act en 2013, seuls 51 avaient trait au terrorisme ; les demandes concernaient pour l’essentiel le trafic de drogue (9 401) » Le Monde).
Au final, et comme l’écrivait Armand Mattelard dans son ouvrage « La globalisation de la surveillance : aux origines de l’ordre sécuritaire », ce que nous observons c’est l’avènement de « (…) l’âge technoglobal, avec l’essor d’un système mondial d’identification et la métamorphose du citoyen en suspect de l’ordre sociopolitique. »
Autre effet cliquet d’importance, c’est l’ancrage de cet âge technoglobal avec le capitalisme de surveillance, ou plus précisément l’effet d’amorçage et d’accélération que le capitalisme de surveillance offre à cet âge technoglobal.
Le capitalisme de surveillance, voici comment Soshana Zuboff le définit dans cet article notamment :
« Cette architecture produit une nouvelle expression distribuée et largement incontestée du pouvoir que je baptise : « Big Other ». Elle est constituée de mécanismes inattendus et souvent illisibles d’extraction, de marchandisation et de contrôle qui exilent effectivement les personnes de leur propre comportement tout en produisant de nouveaux marchés de prédiction et de modification du comportement. Le capitalisme de surveillance remet en question les normes démocratiques et s’écarte de manière essentielle de l’évolution séculaire du capitalisme de marché. (…) Le rôle de la surveillance n’est pas de limiter le droit à la vie privée mais plutôt de le redistribuer. »
Pour le dire sans ambages et plus brutalement : la fin de la surveillance ne peut pas être posée sans poser celle de la fin ou en tout cas de la sortie du capitalisme. Car il est établi (voir notamment Christophe Masutti, « Affaires privées : aux sources du capitalisme de surveillance« ) que les projets de contrôle à grande échelle des populations aux moyens de traitement massifs et automatisés de l’information, sont à l’origine davantage conçus pour créer les conditions de schémas organisationnels « profitables » que pour devenir des instruments de pouvoir. La surveillance est en quelque sorte une rétro-ingénierie d’un capitalisme essentiellement spéculatif. C’est parce que l’on met en place les conditions infrastructurelles d’une maximisation des profits à court terme que l’on se trouve en situation de collecter des données liées à une activité qui peut se définir comme de la surveillance. Ce n’est que plus rarement que l’on met en place des infrastructures de surveillance pour se trouver en situation de contrôle ou de rente capitalistique.
L’évolution de nos sociétés dans leur capacité à traiter, technologiquement et moralement, chaque individu comme un « corps documentaire » décomposé en faisceaux de prédictibilités, couplée à la multiplication exponentielle des balises de surveillance et de contrôle dans l’espace public, privé et intime, revient à spéculer sur des comportements pour lesquels les profits maximaux possibles seront toujours liés à l’amplification de certaines dérives, et à l’exacerbation de certains affects. A une exacerbation de nos vulnérabilités.
Si l’on veut dé-surveiller, cela implique de penser des discontinuités là où toute l’histoire des régimes de surveillance contemporains s’est efforcée de bâtir et d’installer des régimes de continuités. Continuité entre nos espaces d’expression publics, privés et intimes (initialement en ligne et désormais autant en ligne que hors-ligne), et continuité dans les dispositifs de captation et de mesure de nos comportements et de nos mots. Ainsi les micros et les caméras de surveillance sont autant dans nos rues que dans nos maisons (domotique et autres enceintes ou dispositifs connectés) et dans nos poches (smartphones évidemment). C’est ce que j’appelle « l’anecdotisation des régimes de surveillance », c’est à dire le postulat que leur dissémination conjuguée à leur dissimulation permettra de consacrer leur acceptation et empêchera de les identifier comme des objets de lutte, des objets que l’on peut combattre et refuser.
Je date le début de cette anecdotisation des régimes de surveillance à deux événements essentiels. Le premier c’est en 2007 avec l’invention de l’iPhone. Et le second c’est en Janvier 2014 lorsque Google annonce le rachat de l’entreprise qui fabrique des thermostats connectés « Nest ». Par-delà les enjeux relavant de la domotique, ce rachat est l’avènement de ce que je qualifie de « domicile terminal » parce qu’avec lui c’est le dernier espace non-numérique relevant de l’habitation, de l’intime, qui est investi. J’écrivais alors : « plus qu’une simple intrusion sur le secteur de la domotique, Google ambitionne de faire de chacun de nos domiciles, un data-center comme les autres. » (et cela après avoir fait de chaque être humain un document comme les autres). Tout va ensuite aller très vite : sonnettes connectées « Ring » par Amazon (et collaboration avec la police, notamment avec la police de l’immigration), enceintes connectées qui vous écoutent et vous enregistrent même éteintes, aspirateur cartographe Roomba (amazon encore), etc.
A l’échelle du design de ces dispositifs de surveillance et pour favoriser cette anecdotisation, le paradigme de la surveillance technologique se compose de plusieurs axiomes fondamentaux :
- il doit s’activer au plus près de l’initialisation, de la mise en marche du dispositif (et si possible rester actif y compris lorsque ledit dispositif est désactivé)
- il doit sans cesse s’efforcer de descendre vers les couches basses de l’interface, de l’architecture logicielle (software) ou de l’architecture machine (Hardware)
- il doit être « maximisé par défaut » (règle de l’opt-out, c’est à dire que c’est à vous de trouver comment désactiver telle ou telle option de traçage activée « par défaut »)
- il doit être réinitialisé le plus souvent possible (et donc à chaque fois venir écraser les réglages de l’utilisateur pour, de nouveau, être maximisé par défaut)
Surveillance et vérité. Le résultat de tout cela c’est qu’il existe des régimes de surveillance sur le même mode que celui décrit par Foucault pour l’existence des régimes de vérité.
« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.«
On peut ainsi littéralement paraphraser Foucault :
« Chaque société a son régime de surveillance, sa politique générale de la surveillance : c’est-à-dire les types de surveillance qu’elle accueille et fait fonctionner comme nécessaires ; les mécanismes et les instances qui permettent de distinguer les surveillances subies ou choisies, la manière dont on sanctionne les unes et les autres ; les techniques et les procédures qui sont valorisées pour la propagation de la surveillance ; le statut de ceux qui ont la charge de dire ce qui doit être surveillé.«
La surveillance en question et en équation. La surveillance est aussi une question arithmétique qui se joue dans le rapport entre le nombre d’individus que l’on souhaite mettre sous surveillance et le nombre d’individus assignables à cette tâche. Nombre de surveillants divisés par le nombre de surveillés. L’arrivée du numérique et des formes de surveillance échappant (pour l’essentiel) à l’appareil d’état au sein des plateformes de médias sociaux, vient bien sûr casser toute forme de proportionnalité dans ce rapport. Une seule personne est en capacité d’en surveiller plusieurs centaines de milliers ou centaines de millions, à condition de déléguer cette fonction de surveillance à un tiers, en l’occurence un algorithme (avec l’ensemble des problèmes posés, y compris celui des faux-positifs et ou des ingénieries qui maximisent par défaut la collecte de données). « Dé-surveiller » implique donc de nécessairement désalgorithmiser le monde et de s’en remettre à la force du Droit plutôt qu’à celle du calcul, à celle du juridique plutôt qu’à celle du numérique. »
Surveiller … mais après ? Un des grands enjeux de la surveillance est de savoir ce qu’elle produit sur le plan interrelationnel et social. Produit-elle de la confiance ou de la défiance ? Et envers qui ? Les institutions ? L’appareil d’état ? La police ? Certains groupes ou minorités ? Il faut également s’interroger sur ce que la surveillance produit sur le plan documentaire. D’un point de vue systémique pour plateformes de surveillance, si chaque individu est en effet « un document comme les autres », la surveillance produit autant de néo-traces documentaires qu’elle en collecte et en agrège. Et ces traces restent à catégoriser et oscillent souvent entre différents indicateurs et métriques, mais n’en constituent pas pour autant des preuves.
Les voies de la surveillance sont très pénétrables. Du point de vue de l’axe scientifique qui est le mien, c’est à dire les sciences de l’information et de la communication, la question de la surveillance est donc une question « documentaire » qui a fait de chacun de nous des « documents comme les autres » (monétisables, indexables, surveillables, etc) et qui interroge sur la nature des traces documentaires qui nous produisons, tout autant que sur la manière et les finalités pour lesquelles elles sont captées, et qui pose la question de l’inflation exponentielle de ces traces et néo-traces. Inflation palpable autour de la question absolument fondamentale de la copie. Je fais une incise sur ce dernier point, la stratégie de Google fut établie dès 2006 et alors qu’ils réfléchissaient au lancement de Google Drive qui aura lieu en 2012 et où ils affirmaient que « En nous rapprochant de la réalité d’un « stockage à 100% », la copie en ligne de vos données deviendra votre copie dorée et les copies sur vos machines locales feront davantage fonction de cache. L’une des implications importantes de ce changement est que nous devons rendre votre copie en ligne encore plus sûre que si elle était sur votre propre machine. » L’idée de cette « copie dorée » (Golden Copy) de nos documents initialement, mais de l’ensemble de nos vies, de nos opinions, de nos interactions et de nos comportements, est absolument déterminante si l’on veut comprendre l’enjeu et l’histoire des logiques actuelles de surveillance. Car cette « copie dorée » est également la voie dorée de l’ensemble des protocoles et routines de surveillance. Pour le dire plus simplement peut-être, « oui nous sommes surveillés », mais où est la copie « dorée » des traces documentaires de cette surveillance et qui y a accès, et dans quel cadre ? Etc.
En nous dépossédant de la possibilité de copier (j’appelle cela « l’acopie ») et en déplaçant la copie « maître » au sein même d’infrastructures de stockage distantes de la matérialité de nos possessions, nous avons laissé se fabriquer avec notre consentement les conditions de production d’une société de surveillance totale. Pour « désurveiller» il nous faut déplacer cette copie dorée de nos vies et la remettre à portée de (nos) mains.
Nos Futurs. Au vu des points présentés il semble difficile aujourd’hui de « dé-surveiller » ou même d’imaginer une désescalade des processus de surveillance et de contrôle. D’autant que l’actualité géopolitique est a minima inquiétante et pas uniquement aux USA (TMZ, Trump, Musk, Zuckerberg), qu’avec l’adoption de l’IA Act par la commission européenne, « la fuite en avant techno-solutionniste peut se poursuivre » comme l’écrit la Quadrature du Net et avec l’appui et le soutien déterminant de la France comme le révèle la dernière enquête de Disclose.
Il est probable qu’il ne soit donc pas possible de « dé-surveiller », de sortir de la surveillance sans sortir du capitalisme. Et comme cette sortie semble hélas encore relativement lointaine, il nous faut a minima agir sur le levier de notre auto-aliénation (en nous orientant vers des structures et des architectures qui nous y aident, donc essentiellement décentralisées et vectrices de frictions), et il nous faut également inverser les logiques du design, pour lui permettre d’à nouveau être conforme à son étymologie :
« Le mot provient de l’anglais « design », qu’on emploie depuis la période classique. La langue anglaise l’emprunte au terme français dessein. L’ancien français « desseingner », lui-même dérivé du latin designare, « marquer d’un signe, dessiner, indiquer », formé à partir de la préposition de et du nom signum, « marque, signe, empreinte » et qu’il « désigne »
Être conforme à son idéologie, c’est à dire qu’il mette en évidence l’ensemble des dispositifs de surveillance disséminés tout autour de nous et dans nos interfaces numériques. Au mouvement dit de la « privacy by design » il faut ajouter une désignation claire des dispositifs de surveillance. Il ne suffit plus de réfléchir à des objets / interfaces qui, par défaut, protègent notre vie privée, mais il faut aussi inventer des objets / interfaces qui désignent tout ce qui en permanence nous observe pour les sortir de cette anecdotisation qui vaut acceptation. Il est au moins aussi important de désigner clairement la surveillance que de « designer » [diza:né] des interfaces respectueuses de notre vie privée.
Il y a longtemps, Antonio Casilli écrivait « la vie privée est une affaire de négociation collective » (in « Contre l’hypothèse de la fin de la vie privée« ). La surveillance l’est également.
En conclusion autant qu’en résumé on pourrait donc considérer que pour « désurveiller » il nous faudra tout à la fois nous efforcer de sortir du capitalisme (bataille économique), de désalgorithmiser le monde (bataille technique), de réinstaller des discontinuités (bataille sociale et politique), de se réapproprier nos traces (copies) dans la matérialité de leur possession (bataille documentaire), et de sortir de l’anecdotisation par la désignation de ces dispositifs pour ce qu’ils sont (bataille sémiologique et linguistique).
Diaporama avec quelques (petits) trucs nouveaux par rapport au texte ci-dessus
(et réciproquement)
Bonus Tracks.
Eléments de réflexion en vrac qui n’ont pas trouvé de place structurante dans la réflexion précédente mais que je consigne ici … en bonus 🙂
Open surveillance.
Dans le mouvement dit de l’Open Access (et qui désigne le fait de mettre en accès libre les résultats de la recherche scientifique) on distingue différentes voies et modalités qui, si on les décline à l’échelle des questions de surveillance, permettent de produire une typologie intéressante pour mieux caractériser les possibilités de sortir de ces régimes de surveillance.
La voie verte de l’Open Access c’est celle de l’auto-archivage. La voie verte et de la surveillance c’est celle de l’auto-surveillance, c’est à dire de l’acceptation. Nous acceptons de donner nous-même, l’ensemble des éléments permettant à d’autres (plateformes, algorithmes, « amis ») de nous surveiller. C’est essentiellement cette voie là qui a permis l’amorçage de tout un pan de ce capitalisme de surveillance duquel il est aujourd’hui si difficile de sortir (effet cliquet).
La voie dorée de l’Open Access c’est celle où ce sont les revues éditrices qui rendent leurs articles directement et immédiatement accessibles mais avec des frais qui peuvent être pris en charge par les chercheurs via leurs laboratoires ou leurs institutions. La voie dorée de la surveillance c’est celle où ce sont les plateformes qui vont, à leur propre bénéfice, forcer toutes les logiques de surveillance sans nous laisser d’autres choix que de les accepter (ou en tout cas le fait de les refuser implique un coût technique ou cognitif très élevé). C’est lorsqu’elles « obligent » à donner certaines informations de manière déclarative, c’est lorsqu’elles utilisent toutes les ressources de la captologie et des « Dark Patterns » pour collecter des strates informationnelles et comportementales toujours plus fines, etc.
Il existe d’autres voies dans le mouvement de l’Open Access (voie diamant notamment) mais je m’arrête là pour la comparaison. La réponse à la question de savoir si l’on peut « dé-surveiller » est donc différente selon que l’on envisage la voie verte ou la voie dorée de la surveillance.
Pour la voie verte, nous sommes encore souvent en capacité et en maîtrise de refuser d’alimenter et de nourrir certaines logiques et fonctions de surveillance. Sachant que ce qui rend ce refus compliqué c’est la nature toujours ambivalente socialement de la fonction de surveillance qui est aussi perçue et présentée comme une fonction de réassurance : c’est précisément parce que l’on vous surveille et que vous acceptez que l’on vous surveille, que l’on peut aussi (parfois) vous rassurer (on le voit par exemple en cas de catastrophe naturelle ou d’attentat quand il s’agit de savoir si ses amis ou ses proches sont en sécurité, cf les épisodes du « Safety Check » de Facebook par exemple). La question qui se pose alors est la suivante : est-ce aux plateformes de médias sociaux d’endosser cette fonction politique de réassurance ?
Pour la voie dorée qui est, vous l’aurez deviné, la plus présente dans les plateformes centralisées, l’idée même de « dé-surveiller » est une aporie. Il n’est simplement pas possible de se soustraire aux logiques de surveillance de Facebook, de X, d’Amazon, etc. dès lors que nous en sommes utilisateurs et utilisatrices. Ce n’est pas possible parce que cela tient simultanément à leur infrastructure (architecture technique toxique), à leur modèle économique (« si c’est gratuit vous êtes le produit), au gigantisme choisi de ces plateformes et aux impossibilités de modération rationnelle que cela implique, et à la manière dont l’ensemble des cheminements algorithmiques sont imaginés et pensés pour servir l’ensemble.