La 2nde limite de l’IA

J’étais invité le 30 Octobre 2022 aux Utopiales, pour causer des limites de l’intelligence artificielle. Voici en vrac quelques prises de notes préalables sur la base des indications qu’avait eu la gentillesse de nous adresser Agathe Tournois, modératrice.

[Mise à jour 26 décembre 2022] L’équipe du site ActuSF a mis en ligne les podcasts de l’ensemble des conférences, dont celle à laquelle j’étais invité.

 

 

Dans de nombreux films et romans de science-fiction, on retrouve des IA au caractère bien trempé, certaines manient même l’humour. Sommes-nous si loin de la réalité ? Avec une technologie comme le machine learning ne pourrions-nous pas apprendre à des IA à concevoir des blagues ? Quelles seraient les limites de cet apprentissage ?

La question du caractère est intéressante. Puisque derrière on à l’idée d’une “personnalité”. On on peut tout à fait “programmer” des IA ou les laisser apprendre à partir d’une base de données pour faire émerger un “caractère”, une “personnalité”. On peut même aussi parfois dans des IA travaillant sur des bases d’images pour en générer d’autres avoir des IA avec ce qui ressemble à un “style”, c’est à dire quelque chose de reconnaissable parce que reproduit et donc reproductible. Mais concernant l’humour il repose sur au moins deux constantes pour lesquelles les IA sont pour l’instant assez nulles. D’abord il y a la prise en compte du contexte (on peut rire de tout mais pas avec tout le monde). Et puis il y a la question du 2nd degré et de l’implicite du langage, le hiatus qui apparaît entre le signifiant et le signifié. Et là, si c’est “pour faire” de l’humour les IA ne sont capables de rien d’autre que d’être un mauvais dictionnaire de blagues le plus souvent stéréotypiques. Il faut se souvenir (c’était en 2005) que lorsqu’on utilisait une fonction (l’opérateur “define:”) de Google, il ramenait les pires résultats sexistes pour définir les femmes ou l’homosexualité (entre autres …).

 

Avec des IA de plus en plus performantes, le test de Turing devient-il obsolète ? Pour rappel, lors de ce test un humain discute par écrit et à l’aveugle avec un ordinateur et un autre humain. S’il n’est pas capable après un certain nombre de questions de dire qui est l’humain, la machine réussit le test.

Tout dépend de comment on envisage le test de Turing (dont le vrai nom, donné par Turing lui-même est le “jeu d’imitation”) : soit on souligne sa capacité à tromper l’interlocuteur. C’est alors une ruse. Et les technologies d’aujourd’hui sont autant de ruses, d’intelligences en artifice. Soit on considère qu’il a vocation à désigner une forme de libre arbitre qui n’est pas seulement une capacité de choix calculatoire, et alors nous en sommes encore … très très loin. Dans la série des tromperies et des ruses on a par exemple le Turc Mécanique. Ou bien encore les humains qui écoutent et transcrivent les conversations derrière les enceintes connectées.

 

Aujourd’hui de nombreuses IA sont capables de réaliser de splendides illustrations à partir de quelques mots. Peut-on les considérer comme des artistes ?

En aucun cas car ces IA ont été “programmées” (par des gens), puis “entraînées” sur des jeux de données (assemblés par des gens selon des règles) et le résultat produit est lui aussi dépendant de critères (de règles définies par des gens). Reste un ensemble de productions automatisées qui relèvent d’une forme apauvrie de “l’art génératif” et dont certaines productions sont en effet “artistiques”. Ce n’est ici rien d’autre qu’une sorte de travail à la chaîne. Avec des travailleurs invisibles. Mais dire que “les IA” sont des artistes a autant de sens que de dire que des notes de musique sont des artistes ou que des mots du dictionnaire sont des artistes. Ce que l’on appelle “les IA” sont fondamentalement des instructions et des ensembles de règles toujours définies ou entraînées initialement par des opérateurs humains sur la base de jeux de données comprenant (ou non) déjà des productions artistiques ou imitant certains styles.

 

Nous côtoyons des IA tous les jours sans même y penser, ne serait-ce qu’en tapant un mot dans un moteur de recherche. Mais sommes-nous prêts à les considérer comme nos égaux ? Jusqu’à quelles limites ? Je pense par exemple à Sophia, un robot humanoïde qui a obtenu en 2017 la citoyenneté saoudienne. Ou plus récemment à Madame Tang Yu, une intelligence artificielle humanoïde qui a pris la tête d’une filiale de la société de jeux vidéo Net Dragon Websoft. Qu’est-ce que cela vous inspire ?

Sophia ou Madame Tang Yu sont des exceptions qui confirment la règle. Et la règle c’est que pour l’instant nous traitons essentiellement les IA en esclaves ou en assistant.e.s avec déjà toutes les dérives possibles. Nous les insultons, nous testons en permanence leur “résistance”, nous leur proposons des choses impossibles à faire, etc. Et cela dit déjà anthropologiquement quelque chose de notre rapport à la technique. C’est à dire que nous craignons d’être dépassés et que donc nous réaffirmons en permanence notre “supériorité” de la plus mauvaise des manière possibles. C’est l’exemple de Tay ou d’autres (l’IA de Microsoft) qui va “apprendre” sur Twitter et que tout le monde insulte ou à qui tout le monde explique que la nazisme c’est cool. L’IA c’est donc aussi un révélateur de nos pulsions sombres. A l’inverse on a aussi des IA qui, pour leurs employé.e.s, fonctionnent en “patrons” et que nous détestons sans le leur dire : Uber, Deliveroo, AriBnB et tant d’autres … ce sont déjà les IA (les algorithmes) les patrons et les contremaîtres. Il ne leur manque plus qu’un corps, ce qui est fait avec l’exemple de Madame Tang Yu ou de Sophia. Deux femmes d’ailleurs, vous avez remarqué ?

 

Après-demain, le 1er novembre, se tient au Danemark des élections législatives anticipées. Le Parti Synthétique ambitionne d’y obtenir un siège. Cela semble compromis, car il lui manque encore de nombreuses signatures nécessaires à sa candidature. Et si nous étions un jour gouvernés par des IA ? Aurions-nous des IA politiques incapables de mentir ?

[Le parti synthétique a été créé par un collectif d’artistes pour attirer l’attention sur les 20% de Danois et de Danoises qui ne votent pas] Ce qui semble assez certain c’est que plus nous allons avancer dans la technique et plus l’interaction avec des IA se fera via des avatars plus ou moins réalistes. Et nous entrerons pour un temps dans ce que l’on nomme la vallée de l’étrange et que nous vivons pour l’instant cognitivement quand nous utilisons par exemple des générateurs d’image. Mais pour répondre précisément à la question il semble totalement inenvisageable que des êtres humains programment des IA pour faire de la politique en leur interdisant de mentir.

Mais il existe une autre possibilité, déjà documentée dans la première nouvelle d’Asimov où apparaît le mot “robotique”. La nouvelle Menteur (1941) met en scène un robot télépathe qui, appliquant la première loi de la robotique de manière excessive, en vient à mentir aux humains.

Susan Calvin éclate de rire : les trois plus grands spécialistes de la robotique se sont laissés avoir par un robot : Herbie peut lire les pensées. La première loi lui enjoignant de ne pas causer de mal aux humains, il doit leur mentir en disant ce à quoi les humains aspirent pour ne pas les blesser.

 

Et puis on peut – et on doit – aussi réfléchir non pas à la question de l’incarnation mais au fait que des routines algorithmiques, statistiques, des “IA”, se substituent aujourd’hui de plus en plus à des politiques publiques : accès de l’ensemble d’une classe d’âge à l’université (ParcourSup), attribution de certaines prestations sociales, etc. La technique est toujours politique.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut