Cet article est la version longue d'une tribune parue hier sur le site de Libération.
======================================================================
C'est donc la dernière nouveauté de l'incursion du numérique dans le champ politique (français) : Emmanuel Macron va utiliser des technologies issues de l'ingénierie linguistique pour analyser les "verbatims" récoltés lors du porte à porte effectué par ses soutiens, et s'en servir pour "poser un diagnostic", repérer les thèmes les plus présents, et ensuite s'efforcer de les articuler avec son programme, et réciproquement. Wesh.
Algorithmisation de la parole et de l'action publique.
Après les réseaux sociaux comme relai de campagne (1ère élection d'Obama), après Nation Builder et les plateformes sociales ayant vocation à transformer la politique en terrain de jeu (2ème élection d'Obama), après la ludification de la campagne d'Hilary Clinton, à côté des turpitudes digitales de Les Républicains pris une fois de plus la main dans le pot de magouilles nnumérico-électoralistes, et avec en trame de fond l'ombre pesante d'un vote électronique parfaitement destructeur pour la démocratie, c'est donc au tour d'Emmanuel Macron de s'agenouiller sur l'autel du Big Data et de l'analyse de corpus. Pourquoi pas.
Le problème c'est que ce systématisme dans "l'algorithmisation" de la parole publique (détection d'opinion, analyse de sentiment, etc.) associé à une inéluctable ludification présentée comme le remède à la désertion des urnes, aura l'effet inverse de celui escompté : il achèvera de délégitimer une parole politique qui n'avait pas besoin de ça tant elle s'efforce elle-même de faire la plus grosse partie du boulot (de délégitimation). Car les algorithmes feront le boulot bien mieux et bien plus efficacement que n'importe quel politique. Mais de quel boulot s'agit-il vraiment ?
Les technologies d'analyse de corpus, d'ingénierie sémantique, sont mûres et souvent redoutablement efficaces. De la même manière que sont mûrs depuis belle lurette les différents automatismes et programmes qui permettent à des pans entiers de nos industries de fonctionner. La question n'est donc pas celle de la "fiabilité" de ces technologies, même si l'accident, le "bug", reste un horizon non seulement toujours possible mais plus fondamentalement inéluctable en termes de programmation.
On pourrait même presque se réjouir de voir des outils si puissants prendre le relai de communicants et autres spin-doctors qui ont achevé de transformer la vitalité du débat démocratique en un simulacre de batailles d'égos dont la tartufferie le dispute en permanence à la la vacuité du spectacle médiatique dans lequel il se vautrent complaisamment.
Mais entre faire tourner un algorithme pour analyser des corpus de textes ou d'immenses bases de données de recueil de paroles dans le cadre d'études sociologiques, littéraires, ou économiques, et utiliser ces mêmes algorithmes pour prétendre poser un diagnostic et bâtir un programme politique, il y a un fossé.
Silicon programme.
A l'échelle politique, l'utilisation d'algorithmes aussi robustes et propriétaires que complexes (et donc doublement non transparents) présente au moins deux dangers : le premier est celui d'une soumission au "diagnostic" posé et à une méconnaissance des faux-positifs qui seront immanquablement générés, conforté par la prophétie auto-réalisatrice dans laquelle ils nous entraînent. Le second est celui de la "valeur de preuve" que l'on est nécessairement tenté de leur accorder. C'est bien connu, les algorithmes ne se trompent pas, les mathématiques ne mentent pas. Mais ces algorithmes sont également de redoutables "armes de destruction matheuse", capables de creuser les inégalités et de saper la démocratie comme le rappelait récemment Cathy O'Neil. Les algorithmes ne se trompent pas, ne sont pas racistes, ne sont ni de gauche ni de droite, mais les algorithmes peuvent aussi et surtout être programmés pour se tromper, pour être racistes, pour être de gauche ou de droite. Refuser d'entendre cela est aujourd'hui devenu un risque majeur pour nos sociétés démocratiques. Car leur robustesse et leur fiabilité supposée, si tant est qu'elles puissent être vérifiées, ne suffiront jamais à compenser leur opacité et leur manque de transparence à l'inspection.
Emmanuel Macron s'entoure donc à recruter d'ingénieurs, de linguistes, de data-analystes et autres spécialistes du Big Data. C'est son droit. Mais le programme politique qui sera bâti sur ces algorithmes sera à leur exacte image : il sera de silicone. Et comme les augmentations mammaires du même nom, une fois que l'effet de séduction aura opéré, c'est au mieux un immense désenchantement qui suivra, et au pire un effondrement total. Difficilement réparable.
La bulle de crainte.
Pour regagner le crédit qu'elle a perdu, la parole politique fait chaque jour davantage le pari du "matching", de la "correspondance" : il faut que les pratiques militantes "correspondent" aux pratiques sociales constatées sur les réseaux sociaux, il faut que les logiques de prosélytisme "correspondent" à l'expérience de ludification à laquelle nous nous adonnons quotidiennement au travers de différentes applications, il faut que les logiques de définition des thèmes et des programmes de campagne "correspondent" à l'analyse sémantique de verbatims publics. Faire ce choix c'est se condamner à se priver d'une vision – "watching", d'une vue sur le monde à laquelle est supposée s'atteler l'expertise politique. Faire ce choix c'est également prendre le risque de ne faire émerger que les "patterns", les motifs attendus et déjà connus des craintes, des peurs, des angoisses et des espoirs déçus, le risque de générer une bulle de crainte se superposant à la bulle de filtre algorithmique décrite par Eli Pariser. Et de n'y trouver rien d'autre qu'un nouveau gadget de légitimation d'une parole politique coupée de toute vision.
Pour l'instant on nous affirme bien sûr qu'il ne s'agit là que de procédés utilisés en seconde intention et que l'on est soucieux de séparer la base des "réponses" de la base des adresses collectées pour respecter le droit à la vie privée. Pour l'instant.
Comme le rappelle Antoinette Rouvroy dans l'article de Rue89 sur la stratégie Big Data d'Emmanuel Macron :
"Les discours des citoyens doivent être transcrits sous forme de signaux a-signifiants mais calculables. Ce que les gens disent est fragmenté sous forme de données métabolisables par les machines. Cela signifie notamment que le discours soit expurgé de son contexte d’énonciation, qu’il ne tienne pas compte des circonstances ni de la relation humaine nouée au moment de la rencontre. Enregistrer des données, ce n’est pas encore écouter la personne."
A force de "cibler" à grands renforts de Big Data, à force d'analyser des ressentis et des opinions à grands coups d'algorithmie, on finira pas se convaincre que la stratégie politique en général, la stratégie de vote en particulier est, elle aussi, essentiellement prévisible, prédictible. Se retrouvant ainsi dans l'exacte et dramatique situation de la nouvelle, Le Votant d'Asimov, dans lequel on super-ordinateur est capable de choisir le citoyen le plus "représentatif" et de faire reposer sur lui et lui seul l'issue d'un vote à l'échelle d'une nation tout entière.
A l'instar du tout puissant "Multivac" de la nouvelle d'Asimov, combien de personnes sont capables d'auditer les algorithmes utilisés par Proxem (la boîte en charge de l'analyse sémantique pour la campagne d'Emmanuel Macron) ? Et parmi ces personnes combien de responsables politiques ou de leurs conseillers ? Les algorithmes sont aujourd'hui présents à chaque étape de la chaîne des séquences politiques qui mènent de l'émergence d'un candidat au processus de l'élection en passant par le façonnage et l'élaboration de son programme et de ses stratégies militantes de campagne et de recrutement.
Ce n'est pas, ce n'est plus de science-fiction qu'il s'agit. Des technologies sont aujourd'hui capables de prédire l'issue d'un vote, de la modifier également (Search Engine Manipulation Effect).
Ces technologies ne devraient pas avoir le droit de cité dans l'espace de l'action publique*** tant qu'elles n'offrent pas les trois garanties suivantes : être transparentes à l'inspection, prévisibles pour ceux qu'elles gouvernent, et robustes contre toute manipulation, ce qui est aujourd'hui très – très – loin d'être le cas. Prétendre le contraire est une faute politique qu'aucun enjeu du marketing comportemental qui sert de base à l'application de toutes ces stratégies de campagne ne permettra jamais de racheter.
La politique n'est pas un jeu. Aucun algorithme n'est capable de bâtir un programme. Penser l'avenir de nos sociétés à l'heure de bouleversements numériques majeurs nécessite davantage de hauts débats que de haut-débit.
*** Parmi d'autres exemples édifiants, et alors que l'on se remettait à peine de l'utilisation pour le moins controversée du logiciel Admission post-bac et du fiasco du prétendu rendu public de son algorithme, on apprend que c'est désormais un autre logiciel et un autre algorithme (Affelnet), qui devrait être utilisé pour les affectations en collège afin, nous dit-on, "de recréer de la mixité sociale". Dans l'un des articles qui en rend compte on lit ceci :
"la répartition aléatoire confiée à l'algorithme a réuni 83% d'élèves boursiers dans un seul et même établissement : le lycée Turgot. Ainsi, le logiciel qui devait enrayer la ségrégation sociale l'a précisément recréée involontairement."
Aucun algorithme ne remplacera jamais les manques ou les carences d'une politique publique. Cela nous le savons déjà. Mais aucun Homme politique ne devrait mettre un algorithme en situation de la faire, ou valider, de manière tacite ou explicite, l'idée qu'ils en soient capables. Ce combat là reste aussi essentiel à mener.
Pas suffisamment de temps pour répondre, mais pour une fois (incroyable) je ne suis pas totalement d’accord. Si je partage toutes tes préventions, les systèmes (et pas seulement les algorithmes, qui sont une dénomination réductrice), sont de plus en plus les moyens de mettre en oeuvre les politiques pour les distribuer à tous. Reste à ce que ces systèmes soient ouverts, auditables, opposables, inspectables, améliorables… qu’ils soient discutés et améliorés. Que ceux qui sont fermés soient rejetés, que leur critères soient compréhensibles, interprétables, pénétrables… Que les systèmes d’alerte et de médiation qui les accompagnent soient en place… Mais il me semble difficile de souhaiter revenir aux fiches cartonnées. L’utilisation des programmes permet d’améliorer et d’ajouter des critères… pour autant qu’ils soient clairs, lisibles, ouverts, et donc d’affiner les politiques publiques.
Salut Hubert, tu vas être déçu mais on est d’accord 🙂 Ce que je dénonce et que j’appelle à bannir du champ de l’action publique ce sont les systèmes / algorithmes QUI NE SONT PAS « ouverts, auditables, opposables, inspectables, améliorables ».
Reste un autre problème qui est (ou sera) celui de l’alibi algorithmique dans la manière dont la classe politique aura de se saisir de ces outils.