Aucun algorithme jamais, ne pourra défendre la démocratie.

Je republie ici pour archivage (et avec quelques commentaires en fin de billet) la tribune parue le 17 Septembre sur Libération.

Texte également disponible en version anglaise

====================================================================

Aucun algorithme jamais, ne pourra défendre la démocratie.

(Mais n'importe lequel d'entre eux opérant au sein d'architectures techniques toxiques à large échelle est capable de la corrompre.) 

Le 4 septembre 2018, Mark Zuckerberg a publié sur le Washington Post une tribune intitulée "Protéger la démocratie est une course aux armements. Voici comment Facebook peut nous y aider". Dix jours plus tard c'est sur sa plateforme qu'il annonce "se préparer pour les élections" : il liste les risques, les biais, les détournements, les logiques d'influence et de manipulations qui ont déjà mis en danger l'équilibre démocratique et l'organisation de scrutins. Et il annonce, une fois de plus, qu'il va essayer de corriger tout cela. Il n'y parviendra pas. 

Comment avons-nous pu nous retrouver au début du 21ème siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de "protéger la démocratie", principalement à grands coups "d'algorithmes" et "d'intelligence artificielle" et affirment que cela sera une de leurs principales "missions" au sein de leur entreprise et à l'échelle du monde ? 

En 2011 deux théoriciens de l'intelligence artificielle traitant des problèmes éthiques qu'allaient poser les algorithmes écrivaient que : 

"Les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu'ils restent transparents à l'inspectionprévisibles pour ceux qu'ils gouvernent, et robustes contre toute manipulation." (Bostrom et Yudowski, "The Ethics of Artificial Intelligence")

Aujourd'hui, "les algorithmes" dont nous parlons se déploient au sein d'architectures techniques toxiques englobant des millions ou des milliards d'utilisateurs. 

Aujourd'hui, "les algorithmes" dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques.

Aujourd'hui, "les algorithmes" dont nous parlons sont explicitement développés pour se doter d'un niveau d'autonomie (ou "d'apprentissage") qui rend leur "comportement" et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes.

Aujourd'hui, "les algorithmes" dont nous parlons interagissent en permanence avec d'autres algorithmes, d'autres jeux de données et d'autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d'incertitude.

Voilà pourquoi aujourd'hui pour l'ensemble de ces raisons il est absolument impossible de garantir qu'ils soient transparents à l'inspection, prévisibles pour ceux qu'ils gouvernent et qu'ils soient, surtout, robustes contre toute manipulation. 

Pendant les 10 dernières années, le combat principal d'activistes, de journalistes, de défenseurs des libertés numériques, fut celui visant à limiter l'impact de l'empreinte algorithmique sur nos vies privées et intimes. Ce combat là est terminé, obsolète et, pour l'essentiel, perdu. C'est un autre combat qu'il nous faut aujourd'hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C'est le combat pour limiter l'impact de l'empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu'il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l'auditabilité complète et pérenne des processus à l'oeuvre.

Il est urgent et impératif que le développement d'un modèle universel de portabilité de l'ensemble de nos données** soit une priorité des états, et qu'il soit imposé à  l'ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quelqu'en soient la nature, le volume et l'usage.  

(** le projet SOLID porté par Tim Berners Lee pourrait en être une première approche)

Il est urgent et impératif que les entreprises qui captent aujourd'hui l'essentiel des données et des flux numériques (en gros les GAFAM, NATU et autres BATX) soient taxées à la hauteur réelle de leur volume d'affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s'arrogent le droit de défier la puissance publique et l'intérêt général dans la levée de l'impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.

Il est urgent et impératif qu'un régime de communs informationnels soit défini positivement dans la loi et qu'il puisse inclure les algorithmes et le code mobilisables dans le cadre de toute action publique. 

Enfin il est urgent, impératif et vital que tout ce qui touche directement au processus démocratique (comme le vote, l'élection, le processus de dépouillement) soit sine die placé hors de portée de toute forme d'assistance, de guidance ou de suppléance algorithmique (à commencer par les "machines à voter"). Le "vote électronique" doit être considéré pour ce qu'il est : une menace rigoureusement et définitivement incompatible avec le respect de la confidentialité du vote et donc de la démocratie. 

L'enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la "désintermédiation" des 20 dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d'être envisagées sereinement.

Hors l'ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d'industrie se piquent d'être les gardiens protecteurs de nos démocraties mais qu'ils soient effectivement les seuls encore en position de l'être, tout en n'ayant eux-mêmes qu'une idée très vague et très approximative de la manière de s'y prendre et des chances d'y parvenir.  

Il ne s'agit pas simplement de Fake News et de libre arbitre. Il ne s'agit pas simplement de la liberté de l'information ou de la liberté de la presse. Il ne s'agit pas simplement d'algorithmes, de plateformes, d'états et de nations. Il ne s'agit pas simplement d'intelligences humaines et d'autres "artificielles". Il s'agit de la liberté des peuples. Il s'agit de la liberté tout court. 

=============================================

A la suite de cette tribune, quelques amis ou personnes dont j'apprécie le travail m'ont fait deux "reproches".

Le premier est celui de continuer de "croire" au catéchisme de Mark Zuckerberg. En effet ce n'est pas parce que Mark Zuckerberg annonce qu'il va protéger la démocratie qu'il est réellement en situation de pouvoir le faire. Tout au plus se met-il en situation et en scène pour que nous lui accordions la capacité de le faire, ou "pour nous faire croire que". Admettons. Mais le fait est que je crois sincèrement que la vitalité d'une démocratie se construit (et peut donc se déconstruire) essentiellement au travers de la pluralité d'un espace médiatique de circulation et de fabrique des idées (et conséquemment de l'opinion et du rapport à la vérité ou aux "régimes de vérité") et d'un espace social interpersonnel. Or indépendamment de l'ego jupitérien de Zuckerberg (et de la plupart des autres grands patrons de la Silicon Valley) s'il est aujourd'hui un écosystème capable de contrôler et d'arbitrer simultanément les deux espaces précités, il me semble que c'est bien Facebook. Mais comme précisé dans le sous-titre que j'ai ici rajouté à ma tribune initiale et conformément à l'idée que je développe sur ce blog dans de nombreux billets, ce ne sont pas tant "les algorithmes" qui constituent le danger mais les architectures techniques toxiques dans lesquels ils opèrent. 

La seconde critique concerne la partie de la tribune sur le combat "perdu" de la protection de notre vie privée. J'assume. Mais là encore le format "tribune" oblige à y aller un peu à la hache et de manière parfois provocante. Mais j'assume quand même. Ceux qui me lisent savent que sur le sujet de la vie privée et des données personnelles je partage à 200% l'analyse d'Antonio Casilli selon laquelle la vie privée est désormais avant tout une affaire de négociation collective (avec les grandes plateformes). Mais quand j'indique que ce combat est pour l'essentiel perdu et obsolète je le fais de la même manière que Yochai Benkler sur le droit d'auteur quand il indique

"Il y a 15 ans, on avait l'impression que les batailles autour du droit d'auteur étaient les plus importantes. Elles continuent à l'être : c'est essentiel de permettre aux individus d'être créatifs, de permettre aux communautés de toucher, de sentir, et de participer à l'élaboration du contexte culturel dans lequel elles évoluent. Mais aujourd'hui, la démocratie fait face à une menace tellement profonde qu'il est difficile de maintenir la même attention au sujet des droits d'auteur à l'ère numérique. Il y a 15 ans, on pouvait imaginer que la menace provenait d'Hollywood, et de la manière dont l'industrie du cinéma pouvait contrôler l'environnement culturel. Aujourd'hui, Facebook et Google accumulent tellement de données sur nous et peuvent effectuer tellement d'expériences sur les individus que le débat autour de la vie privée et du marketing comportemental me semble immensément plus urgent.

Donc en gros là où Benkler explique que l'urgence du débat sur la vie privée et le marketing comportemental prime absolument sur le combat pour le droit d'auteur, j'essaie d'expliquer, certes abruptement et donc maladroitement, que l'urgence du débat sur les architectures techniques toxiques et la transparence algorithmique prime absolument sur le combat pour le droit à la vie privée. Bref pour moi : 

La question des architectures techniques toxiques et de la transparence algorithmique > droit à la vie privée et marketing comportemental > droit d'auteur et financement de la création  

Ceci étant posé, à l'évidence et naturellement les 3 combats restent essentiels et surtout bien sûr étroitement liés (pour les deux premiers au moins).

Lionel Maurel notamment (dont j'admire profondément le travail, et encore c'est un doux euphémisme que de le dire comme ça), Lionel Maurel donc me faisait remarquer sur Twitter que :

"OK, mais l'ouverture de l'algo de FB n'aurait pas empêché par exemple le scandale Cambridge Analytica, qui s'ancre bien dans l'usage illicite des données. Ces problèmes sont indissociables. Perdre sur un tableau, c'est perdre sur l'autre."

Oui. Perdre sur un tableau c'est perdre sur l'autre. Mais – à mon avis en tout cas – on ne gagnera pas le combat contre les architectures techniques toxiques en attaquant par celui pour la défense de la vie privée. Alors que l'inverse me semble encore possible : on peut gagner le combat pour la défense de la vie privée en attaquant par celui contre les architectures techniques toxiques. Enfin en gros.  Et pour rebondir sur l'argument de Lionel et rester sur l'exemple de Cambride Analytica je citerai Cory Doctorow : 

"le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter"

Bien sûr que sans captation indue de données personnelles, rien de tout cela n'aurait été possible et donc bien sûr que perdre sur un tableau c'est perdre sur l'autre. Mais le problème de "corruption" qu'identifie Cory Doctorow me semble relever en priorité de l'architecture technique toxique qui a valeur de "politique". En d'autres termes, la maîtrise de la collecte des données peut permettre une forme de "contrôle des esprits" (enfin en tout cas de l'opinion), mais la corruption est celle de la gouvernance liée à l'architecture technique toxique. 

Et pour le reste, de toute façon une tribune est faite pour susciter le débat. Donc merci aux débatteurs 🙂

3 commentaires pour “Aucun algorithme jamais, ne pourra défendre la démocratie.

  1. Bonjour Olivier,
    Je viens commenter sous ton blog (ce que je fais trop peu) pour développer un peu plus mon propos que je n’ai pu le faire en quelques tweets.
    Désolé, mais même après tes explications, je trouve que c’est un tort de proclamer dans une tribune de presse que “nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée”. Comme je le disais sur Twitter, il y a une douzaine de recours collectifs en cours lancés en Europe contre les plateformes pour violation du RGPD, notamment celles de Max Schrems et de la Quadrature du Net. Les moyens soulevés sont tout sauf anodins et si ces décisions aboutissent, elles peuvent avoir des incidences non négligeables sur le fonctionnement des plateformes.
    Affirmer comme tu le fais que le combat pour la vie privée serait devenu subitement “has been” est 1) faux sur le fond et 2) un peu symptomatique d’une course “d’influenceurs” qui cherchent à être les premiers à dénicher LE combat qui vaudrait la peine à lui seul de lâcher tous les autres séances tenantes. Désolé de le dire un peu abruptement, mais je pense que ton texte relève un peu de cette facilité…
    De mon point de vue d’acteur engagé à La Quadrature du Net depuis 10 ans, les choses ne se passent pas du tout comme ça. Les différents sujets sont tous intrinsèquement liés entre eux et méritent d’être suivis dans le long terme. Mais par contre, comme le dit Benkler, nous sommes obligés d’opérer des hiérarchisations et des priorités, mais principalement parce que nos moyens sont réduits (et pas parce qu’un sujet serait intrinsèquement plus fondamental que l’autre).
    D’ailleurs, tu as lu un peu vite Benkler, parce qu’il dit explicitement que le sujet du droit d’auteur n’est pas une bataille perdue, ni qu’il ne faudrait pas continuer à la livrer. Il procède juste à une hiérarchisation de priorités, sans appeler à abandonner le terrain du copyright.
    C’est d’ailleurs ce que l’on constate du côté de l’EFF aux Etats-Unis. Après l’affaire Snowden, ils se sont fortement investi dans les dossiers surveillance et privacy, mais sans lâcher pour autant le dossier Copyright sur lesquels ils restent très actifs (ils ont plus de moyens que La Quadrature…).
    Sur la hiérarchisation que tu fais entre la protection des données et les infrastructures toxiques, je pense que tu commets une erreur de perspective que je vais essayer de résumer ainsi. Si tu dois te battre contre un char d’assaut, tu peux essayer de briser sa structure avec des obus, mais il est également possible de le priver de carburant.
    Avec nos recours collectifs sur le RGPD, nous sommes en train d’essayer de priver les plateformes de carburant (et c’est pourquoi il reste crucial aussi de se battre sur le règlement ePrivacy, qui est presqu’aussi important que le RGPD). Mais l’axe de lutte que tu suggère, à savoir celui de la transparence et de l’ouverture des algorithmes, est également pertinent. Mais juste complémentaire.
    Ceci étant dit, un petit doute me prend quand même quant à la pertinence de ce que tu proposes. Tu paraît penser qu’il serait possible de “réparer” Facebook en lui demandant d’ouvrir ses algorithmes. Or c’est éminemment contestable. Au point où nous en sommes arrivé, je doute fort que l’on puisse réparer Facebook et c’est pourquoi, il me semble beaucoup plus judicieux de le priver de carburant à la source.
    Ce que tu proposes ressemble en fait plus à une résignation qu’à un combat et cela me pose franchement problème. Surtout que tu ne mentionnes même pas une autre voie qui consiste à défendre et promouvoir les alternatives libres, neutres et décentralisées (combat qui, pour nous à La Quadrature, a toujours été et reste l’enjeu prioritaire). Je préférais pour le coup quand tu parlais de l’index indépendant du Web…
    Bref, on peut dire aussi “Dieu est mort”, mais l’histoire est en général assez cruelle avec ce type de constat péremptoire…

  2. Salut Lionel, merci d’avoir pris le temps de cette réponse. Je suis certes le plus mal placé pour plaider ma cause mais ne me fais pas l’offense de penser qu’une tribune de 8 paragraphes résume ou remplace les combats et les causes que je défends sur ce blog depuis plus de 10 ans 😉 Ceci étant dit tu as raison je crois que pour le coup, on a un vrai point de divergence mais cette divergence porte – heureusement – comme j’essaie de l ‘expliquer dans mon billet, uniquement sur la hiérarchisation des combats et en aucun cas sur le fait que ces combats soient bien sûr tous liés. Et justement, en termes “d’opinion” ou de “ménagère de moins de 50 ans” ou de “primo-accédants au numérique”, je pense – mais je peux me planter – qu’il faut désormais changer de registre et que ce qu’il faut porter dans l’espace public pour contraindre les politiques à s’en saisir c’est la question des architectures techniques toxiques. De la même façon que hier la quadrature et d’autres acteurs ont permis de porter dans l’espace public celui des données personnelles, et qu’avant hier encore ce fut celui du droit d’auteur. Et que grâce au boulot constant de ces acteurs on a en effet pu obtenir le RGPD et plein d’autres avancées. Quand à ne pas se résigner et à continuer de défendre et de promouvoir les alternatives libres, neutres et décentralisées … je te confirme que c’est également mon pain quotidien et que ce n’est pas prêt de cesser 🙂 Et puis bon c’est toujours risqué de filer les métaphores mais bon, concernant le char d’assaut disons qu’au-delà du fait de le priver d’essence (les données personnelles), je crois qu’il faut aussi et surtout l’empecher de pouvoir tirer des obus (en contrôlant son architecture technico-mécanique toxique).

  3. Pour sortir de la métaphore, on doit pouvoir résumer les deux démarches à : (1) tenter d’interdire une chose et (2) tenter d’en réduire les effets négatifs.
    Sans surprise, l’option 2 est toujours la plus facile à exposer au grand public, car c’est le discours dominant qui a toujours accompagné l’apathie politique : il faut réguler le capitalisme, il faut de la transparence pour les entreprises, il faut éduquer les gens au numérique, blablabla.
    Dire qu’il faut interdire et détruire, c’est s’opposer aux puissances établies, le public y est moins habitué et y est moins réceptif. C’est moins simple.
    Mais ce n’est pas du tout un argument pour devenir moins radical et se résigner à tenter d’encadrer au lieu de vouloir interdire. Si c’est l’oreille du public qu’on cherche, il faut rendre nos positions radicales plus audibles, moins troublantes, plus amusantes, ok. Mais pas moins radicales.
    Cette question de réceptivité du discours est tout à faire dépassable. Dire que vouloir interdire la collecte de données sauvage est devenu obsolète, c’est accepter qu’on est pas assez bons, nombreuses et motivés pour vaincre. C’est super démobilisant – et un discours démobilisant peut être plus facilement entendu, c’est vrai, mais à quoi sert-il encore ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut