La tactique du gendarme.
Dans sa célèbre chanson, Bourvil nous disait :
"La taca-taca-ta-tactique du gendarme
C'est de bien observer sans se faire remarquer
La taca-taca-ta-tactique du gendarme
C'est d'avoir, avant tout, les yeux en face des trous"
La technique de l'algorithme.
Depuis quelques jours, à l'occasion du nouveau projet de loi anti-terroriste déjà dans les tuyaux mais que la sordide actualité de l'assassinat du commissariat de Rambouillet à remis à la une, il est un élément de langage qui revient à longueur de plateaux radios et télé :
"la technique de l'algorithme."
Comme la tactique du gendarme on comprend que "la technique de l'algorithme" sera de bien observer sans se faire remarquer et d'avoir avant tout les yeux en face des trous. Mais les algorithmes n'observent rien pour la bonne raison qu'il n'ont pas d'yeux. Ni d'yeux ni maître entend-on d'ailleurs souvent les algorithmes chanter.
Plaisanterie mise à part, cet anthropomorphisme, cette personnification installée comme nouvel élément de langage n'est bien sûr pas innocente. Outre le soupçon d'incompétence, il s'agit de masquer la nature humaine de la surveillance. Gérald Darmanin (et l'ensemble du gouvernement) nous explique que "ce sera l'algorithme" qui se chargera de détecter les activités suspectes. Que "c'est encore l'algorithme" qui vérifiera que vous ne regardez pas trop de vidéos de décapitation ou que vous ne faites pas trop de recherches en lien avec des mots-clés liés au terrorisme. Tout cela c'est "la technique de l'algorithme".
"L'algorithme" nous dit-on ne s'intéressera pas au contenu, il n'y aura pas accès (sic) mais servira simplement à détecter des "mises en relation". Un peu à la mode Facebook, il s'agirait principalement de savoir qui (monsieur 1) interagit avec qui (monsieur 2) et si l'un des deux interagit lui-même avec des cibles déjà sous surveillance (monsieur 3), alors on remonte et on les surveille (monsieur 1 et monsieur 2). Mais tout de suite après nous avoir expliqué que "l'algorithme" n'avait pas accès au contenu et qu'il fallait ensuite une requête motivée auprès d'un service dédié, les mêmes nous expliquent que par exemple quelqu'un qui fait fréquemment des recherches sur des mots-clés comme "décapitation" ou "terrorisme" mérite qu'on s'y intéresse. Admettons (même si le risque de faux-positifs est … très élevé …) mais dans ce cas "l'algorithme" s'intéresse bien au "contenu" et pas simplement aux "mises en relation". Bref tout cela est a minima très confus.
L'autre argument du gouvernement c'est d'expliquer que "les GAFAM et leurs algorithmes regardent en permanence ce que nous faisons, donc le gouvernement peut aussi le faire tant qu'il s'agit de lutter contre le terrorisme". Après tout. Et là encore on nous renvoie aux algorithmes omnipotents. Ce mercredi matin sur France Inter, Gérald Darmanin expliquait que "même le Bon Coin" le faisait. Difficile d'être contre puisqu'il s'agit de lutter contre le terrorisme. Qui ne voudrait pas lutter contre le terrorisme ? Il faut cependant rappeler à Darmanin que "la technique de l'algorithme" va également permettre à son gouvernement de faire tout à fait autre chose que de lutter contre le terrorisme, dans le domaine, par exemple, de la fraude fiscale en scrutant nos différentes publications sur les réseaux sociaux à l'aide d'outils de Data Mining et, en effet, d'algorithmes. Alors bien sûr tout le monde est également d'accord pour lutter contre la fraude fiscale. Mais la question de la proportionnalité des moyens d'enquête au regard des risques d'entraves à la vie privée comme aux libertés publiques doit être posée comme préalable et non comme vague horizon de ce que l'on nous présente comme une expérimentation devant durer au moins trois ans et concernant … l'ensemble d'entre nous. C'est la doctrine du "si vous n'avez rien à vous reprocher, alors vous n'avez rien à cacher" et autres "la vie privée est une anomalie" qui s'installe inexorablement et son corrélat mortifère du "vous êtes possiblement coupable tant que l'on ne peut pas prouver que vous êtes innocent". Heureusement nous explique-t-on, il y a "la technique de l'algorithme" pour nous aider à remettre un peu d'ordre dans tout ça.
Mais c'est qui cet algorithme ?
Cette personnification de "l'algorithme" n'est pas nouvelle. Il y a de cela trois ans je publiais un article illustrant à quel point la publicité était friande depuis longtemps de cet anthropomorphisme : "l'algorithme ce héros". L'algorithme permettait alors de trouver un CDI, un travail, ou l'amour. L'algorithme pilote même des voitures qui l'on dit "autonomes". Il permet maintenant de trouver des terroristes. C'est sa technique. La technique de l'algorithme.
Pourquoi cette personnification pose-t-elle un problème ? Principalement parce qu'elle fait croire que la traque, que le regard porté sur l'activité de quelqu'un et que la décision de l'interpréter comme suspect ne reposent sur aucune subjectivité et que seul "l'algorithme" et sa supposée neutralité "technique" vont faire le boulot.
Or comme l'écrivait Antonio Casilli dans la préface de ce chef d'oeuvre, "il n'y a pas d'algorithme, il n'y a que la décision de quelqu'un d'autre."
Un algorithme c'est une suite d'instruction. Ce n'est que une suite d'instructions. Ces instructions sont données par quelqu'un : le ou les développeurs de l'algorithme ; qui à leur tour mettent en oeuvre les directives qui leurs sont données par différents décisionnaires. Ce n'est pas "l'algorithme" mais ce sont les officiers de police, les décisionnaires des services du ministère de l'intérieur qui disent aux programmeurs ce que l'algorithme doit chercher ou rechercher. "L'algorithme" fait ensuite le travail dans sa dimension opérationnelle. Il collecte ces signaux qu'on lui a demandé de collecter. Et. C'est. Tout.
Pour en faire quoi ? C'est bien sûr toute la question. Les algorithmes sont pris dans de plus vastes ensembles qu'on appelle les "programmes" et qui peuvent faire tourner un ou plusieurs algorithmes simultanément ou successivement. Ces mêmes algorithmes et ces mêmes programmes ont besoin, comme d'une sorte de carburant, de données, accessibles via des techniques de fouille (Data Mining) mobilisant elles-mêmes d'autres algorithmes et d'autres programmes, parfois d'ailleurs avec des finalités différentes.
Pour le dire rapidement, ce qui interroge principalement dans ce qu'on nous présente comme "la technique de l'algorithme" derrière cette loi antiterroriste c'est principalement la question de la surveillance "globale" des échanges et donc des libertés publiques : le numérique, je l'ai souvent expliqué et documenté ici, renverse définitivement la charge de la preuve et la question de l'archivage et de l'analyse de corpus, et donc de la surveillance également. Il faut d'abord tout prendre (ou en tout cas le maximum de choses) pour ensuite et ensuite seulement, "nettoyer", filtrer et ne garder que ce qui fera sens au regard de l'objectif fixé. Pour le dire plus trivialement – c'est en tout cas l'argument du gouvernement – si l'on veut surveiller les terroristes, il faut surveiller tout le monde. Ou plus précisément, il serait non pas impossible mais extrêmement difficile de surveiller des terroristes potentiels sans pouvoir … surveiller tout le monde.
Laissez-moi prendre le temps d'un exemple sur un sujet a priori très différent. Il y a quelques années, la bibliothèque du Congrès (LoC) aux Etats-Unis s'était lancée dans le projet un peu dingue d'archiver la totalité des tweets publics. La raison était simple : il se passait sur ce réseau tout un tas de choses avec une incontestable valeur patrimoniale, c'est à dire dignes d'être conservées et documentées pour les générations futures. Mais comme il était impossible de prévoir qui et à quel moment allait dire des trucs intéressants ou importants en dehors d'événements très particuliers et ciblés (par exemple les périodes électorales où il était évident qu'il fallait archiver les comptes des principaux candidats), il n'y avait alors d'autre choix que de tout prendre, de tout surveiller, et de faire le tri … plus tard. A rebours de la collecte massive initiale. Cette pratique a duré plusieurs années, sept très exactement, avant que pour différentes raisons tant contractuelles (avec Twitter) que de stockage et d'évolution des perspectives sur cette conception totalisante de l'archive, la bibliothèque du Congrès ne décide finalement de revenir à un archivage "classique" en identifiant et en sélectionnant, en amont, les comptes qu'elle souhaitait suivre, surveiller, conserver et archiver.
Vous y êtes ? Voilà. L'enjeu de "la technique de l'algorithme" en lien avec la loi anti-terrorisme c'est de déterminer s'il est nécessaire de surveiller tout le monde tout le temps pour détecter une menace a posteriori (c'est à dire une fois la collecte et la surveillance de tout le monde déjà opérationnelle) ou s'il faut continuer d'avoir des actions ciblées de renseignement, c'est à dire circonscrire "la technique de l'algorithme" à des cibles et des périmètres spécifiques et … et lesquel(le)s …
Comme souvent sur ces sujets, la première question est celle, éternelle, du PFH, le fameux … "Putain de Facteur Humain". En plus des questions de proportionnalité des moyens de surveillance, ce qu'il faut déterminer – si possible collectivement et sous le regard d'un juge … – c'est la part qui sera faite à l'analyse et à la part décisionnelle humaine dans les résultats fournis par les techniques de recueil algorithmiques comme dans les choix de ciblage (ou de non-ciblage pour récolter le plus large possible). De manière très prosaïque : qui sont les gens qui vont "régler" l'algorithme chargé d'analyser les réseaux en quête de terroristes potentiels ? A partir de quelles données ? Quels sont les critères qu'ils vont retenir ? Et surtout, surtout, qui pourra – et à quelle fréquence et de quelle manière – aller voir ce que font ces gens là, auditer les critères qu'ils auront choisi de retenir, et en cas de dérives ou de questions, interpeller le législateur et les différentes instances garantes de nos libertés publiques et individuelles ?
Je ne suis certainement pas un expert de l'anti-terrorisme et je me garderai donc bien d'émettre un avis sur le fond de la loi. Ce qui m'intéresse en revanche c'est ce que l'explicitation politique – et sa transcription médiatique – de la partie concernant la surveillance numérique de cette loi dit d'une logique et d'une conception plus globale de la surveillance des populations à l'aide d'outils numériques. Et de l'acceptabilité de ces mesures à l'échelle des populations concernées. A ce titre et outre l'incompétence manifeste de certains, le recours à l'élément de langage de "la technique de l'algorithme" est, pour les politiques, une manière tout à fait idiote et malvenue de tenter de se dédouaner de toute responsabilité tout en installant et en légitimant l'acceptabilité de la nécessité supposée d'un régime de surveillance globale des populations au moyen et par le biais des plateformes numériques ; c'est aussi un risque majeur de continuer d'entretenir des confusions coupables autour des objets et plateformes techniques que nous fréquentons chaque jour et qui sont une part essentielle de nos sociabilités plutôt que de permettre, par un discours clair, de les inscrire dans un champ social partagé, délibératif, sincère et authentiquement public.
La technique de l'algorithme c'est comme la tactique du gendarme, elle ne vise rien d'autre qu'essentiellement et constamment, être "à cheval sur l'règlement."
Merci !
Bon article. Stratégie éculée…mais éprouvée sur le troupeau, cf. le fameux « le froid a encore tué » ou le « c’est pas nous, c’est l’Europe ».
Article très intéressant, merci!