Des datas, des GAFAs, et (peut-être) de l’emploi (France Culture)

J'étais ce lundi soir (18h20-19h) l'un des invités de l'émission "Du grain à moudre" sur France Culture sur le sujet : "Big Data : pierre philosophale du marché de l'emploi ?"

(Podcast réécoutable par ici)

J'ai déjà pas mal écrit sur le sujet et comme je savais que je n'aurais probablement pas le temps de tout dire (c'est confirmé), je voulais donc juste ici consigner 3 axes qui me semblent essentiels pour ce débat. 

D'abord celui de la "croyance" algorithmique.

Il existe un "imaginaire" sociologique et culturel qui fonctionne en accordant aux algorithmes une capacité prédictive assimilée (souvent à tort) à de la résolution de problème. De fait les algorithmes sont capables de résoudre certains problèmes et de prévoir certaines situations. Mais. Mais ils le font en se basant sur des "habitus", ce qui veut dire que leur capacité "prédictive" est en fait une capacité à anticiper statistiquement la reproductibilité de situations et de comportements déjà actés.

Du coup on confond – dans cet imaginaire – la capacité de prédire des situations nouvelles avec la capacité de prédire la reproduction de situations anciennes. La "prédiction" n'est le plus souvent qu'un postulat de reproductibilité.

L'exemple type est celui de la "police prédictive" pour laquelle un algorithme est bien incapable de "prédire" où et quand vont être commis des crimes et délits, mais qui, en analysant statistiquement l'historique des crimes et délits, indique – et postule logiquement – qu'il y a davantage de chances que certains endroits à certains moments soient davantage le théâtre desdits crimes et délits. Dans la mesure où cette croyance est bien installée puisqu'elle fonctionne comme une sorte de réassurance confortable, la tentation d'une prophétie auto-réalisatrice peut être forte et donner lieu à d'autres dérives ou conduire renforcer la stigmatisation de certaines populations, par exemple en fonction de leur origine ethnique ou de leur couleur de peau (cf "algos racistes et IA fascistes").

D'autre part, la résolution de problème ainsi produite entretient l'idée (dangereuse) qu'il existerait une puissance algorithmique (= mathématique et statistique) plus efficiente que celle de la puissance publique, délégitimant ainsi le rôle de ladite puissance publique avec à court terme le risque de justifier de nouvelles baisses de moyens et de vision à long terme. D'autant que les grands leaders de cette société algorithmique sont des entreprises privées bâties sur une idéologie libertarienne assumée dans laquelle le rôle de l'état et de la puissance publique est d'abord vu comme un empêchement et une entrave. Pour ces entreprises, il ne s'agit pas de "travailler avec" la puissance publique ou l'état pour permettre d'en pallier certaines carences, mais il s'agit d'opérer en termes de substitution de service par le biais de leur(s) plateforme(s).

Ensuite celui de la redevabilité ("accountability") algorithmique.

"A qui", "devant qui" et "de quoi" les algorithmes sont-ils redevables ? Parmi les innombrables questions soulevées se pose celle du "façonnage" d'une culture commune (autour de référents, de traits culturels, mais aussi de croyances, d'opinions confortée ou entretenues par les logiques de filtrage et de personnalisation). Se pose aussi et surtout celle d'un "audit" possible de ces fonctionnements algorithmiques. Se pose enfin la question des valeurs (Code Is Law) qui sont au coeur de ce système. Se souvenir que la dernière grande crise boursière fut en partie due à des (dys)fonctionnements algorithmiques (High-Frequency Trading).

En d'autres termes il s'agit une nouvelle fois de souligner l'importance des travaux de Bostrom et Yudowsky (théoriciens de l'intelligence artificielle), notamment cet article de 2011, "The Ethics of Artificial Intelligence", qui rappelaient que  :

"Les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu'ils restent transparents à l'inspection, prévisibles pour ceux qu'ils gouvernent, et robustes contre toute manipulation."

Problème du "One size fits all". Nous avions jusqu'ici des algorithmes variés qui tentaient – et parvenaient parfois – à exceller dans la détection de "patterns", de "motifs" sur des corpus gigantesques, mouvants et dynamiques, à la fois pour en fournir des résultats exploitables (matching) mais aussi pour nourrir leurs propres logiques économiques (personnalisation, mise en avant de leur propre écosystème, capitalisme cognitif). Nous entrons dans un âge plus normatif, où quelques algorithmes "cadres" reposant – notamment – sur des technologies de Deep Learning et capables d'exploiter la richesse du Big Data sont en situation et en capacité de "normer" les actions qui relevaient jusqu'ici du croisement d'un projet politique et d'une action de la puissance publique.

Dans ce contexte, la "redevabilité" est essentielle et nécessaire. Or on n'est "redevable" de rien dans l'instantanéité du calcul et des boucles d'inférence associées. On n'est redevable (devant des tiers, des pairs, la société civile) que dans le temps long, dans la capacité à auditer une action mise en place et à entendre les acteurs responsables des choix de telle ou telle action. Prenons l'exemple du sang contaminé : si c'est un algorithme qui avait "fait le choix" de mettre en circulation des poches de sang contaminées, qui en aurait été responsable ? La labo pharmaceutique disposant des poches de sang ? La société ayant établi l'algorithme ? Les médecins et soignant ayant administré les poches de sang ? Et y'aurait-t-il encore eu une place pour l'action publique (ministère de la santé) ? Les mêmes questions se posent actuellement avec, par exemple, les voitures "sans chauffeur". En cas d'accident, qui est responsable ? Les algorithmes, eux, sont déjà prêts (diapos 13 à 16).

Enfin celui de l'extension du domaine de la lutte (pour ou contre les algos).

Que des algorithmes permettent d'améliorer la recherche d'emploi, la santé, les transports, etc … c'est un fait. Comme c'est un fait qu'une fois admise cette prémisse, il faut en admettre une seconde : les algorithmes comportent et véhiculent des "valeurs".

On connaît – hélas déjà – de nombreux exemples de "manipulation" des chiffres du chômage. La manipulation dont il est ici question a ceci de "rassurant" qu'elle ne relève "que" d'une interprétation tronquée de la statistique publique, c'est à dire que l'on choisit de présenter certains chiffres concernant certaines catégories et l'on choisit délibérément d'en omettre d'autres (chiffres ou catégories). Ce qui est "rassurant" là-dedans c'est qu'il est assez aisé de démontrer cette manipulation (avec du fact-checking). Mais si c'est un algorithme qui contient des "valeurs" manipulables, qui sera capable d'exercer ce droit démocratique au fact-checking ? Qui en aura la compétence ? La responsabilité ?

Donc quand on réfléchit à la question des algorithmes sur le marché de l'emploi, le problème n'est pas de savoir si ça va marcher (ça va marcher), ni quand (bientôt). Le problème c'est de savoir comment ça marche.

Et à partir du moment où un ou plusieurs algorithmes permettront de "réguler" le marché du travail, ce sont ces algorithmes qui devront répondre à la question :

  • vaut-il mieux licencier 300 personnes tout de suite ou attendre 5 ans avec le risque d'en licencier 3 fois plus ?

Et qui seront aussi en capacité de répondre à notre place à la question suivante :

  • vaut-il mieux accepter une baisse de salaire (ou des heures supplémentaires non payées) ou risquer de perdre son emploi ?

Les mêmes algorithmes qui produiront à la demande des réponses aux questions de la puissance publique sur :

  • "vaut-il mieux augmenter ou diminuer la durée légale du travail".

Les algorithmes libéraux répondront qu'il faut l'augmenter, les algorithmes sociaux-démocrates qu'il vaut mieux la diminuer. Mais qui, oui, qui donnera à ces algorithmes les "valeurs" libérales ou socio-démocrates nécessaires à leur fonctionnement ? De quelles données se nourriront-ils pour "apprendre" et produire des modèles utiles ? Sur quels présupposés et quelles valeurs reposeront les modèles mathématiques et statistiques qui seront utilisés ?

"Si nous pouvons construire une voiture qui évitera automatiquement la collision avec un bus rempli d'enfants, y compris au risque de mettre en danger la vie du conducteur, faut-il donner au conducteur la possibilité de désactiver ce réglage ?" Tom Chatfield.

C'est l'approche connue depuis longtemps en logique mathématique et en informatique, que l'on appelle l'approche "conséquentionnaliste". Mais cette approche logico-mathématique ne prend en compte aucune considération éthique. Et elle est elle-même soumise à un grand nombre de biais. Avons-nous besoin d'algorithmes conséquentionnalistes pour régler la question du chômage, qui, on le sait, est étroitement liée à des paramètres sociaux, de formation, qui répond à de nombreux biais sociologiques, économiques, etc ?

A quelques mois des premières primaires républicaines et peut-être socialistes, quelques candidats suggèrent déjà de "privatiser pôle emploi." N'étant candidat à rien je crois plutôt qu'il est urgent de nationaliser (certains) algorithmes si l'on veut éviter qu'ils ne deviennent avant tout des armes de destruction matheuses (Weapons of Math Destruction).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut