Bon tout le monde en a déjà parlé ou est en train de le faire donc je vous la fais courte. On cause d'intelligence artificielle.
Intelligences artificielles : et pourtant, elles rêvent.
Au travers d'algorithmes complexes (deep learning) de recherche d'images et d'identification de motifs (patterns) les "intelligences artificielles" que sont les algorithmes capables "d'apprentissage" sont désormais capables de produire des oeuvres au caractère artistique qui, je l'avoue, m'ont laissé scotché et que j'accrocherais bien dans mon salon.
(extrait de la galerie photo "inceptionniste" du programme d'IA de Google)
Prenez un enfant, allongez le dans l'herbe, laissez-le regarder les nuages et demandez-lui ce qu'il voit. C'est le jeu des nuages. Prenez un programme informatique, donnez-lui des milliers d'images de nuages, et demandez-lui d'y reconnaître des formes. Il vous dessinera alors un "poisson-chien" ou un "cochon-escargot".
La paréidolie transférée aux algorithmes, doublement dans le cloud.
From Dream Machines to Machines That Can Dream.
En 2015 on nous présente donc des "intelligence artificielles" qui "rêvent". Après les rêves en réseau, le réseau qui rêve. 40 ans plus tôt, en 1975, Ted Nelson publie l'ouvrage intitulé "Dream Machines". Une vision "humaniste" des ordinateurs et de leur potentiel. 1975 : des machines de rêve. 2015 : des programmes qui rêvent.
Dream Machines. Un ouvrage sur la couverture duquel on peut lire : "New Freedoms Through Computer Screens – A minority Report". Il y a 40 ans. Déjà. Minority Report.
(Source)
Un ouvrage dans lequel la "créativité" joue un rôle majeur :
Je reproduis cet extrait de l'une des recensions de l'ouvrage :
"The other half of the book, Dream Machines, is primarily an introduction to computer graphics, as a way of organizing ideas and expanding one's creative powers – a topic of intense personal interest to the author. Some useful introductory material on display terminals, film output (and computer art), halftone image synthesis and shading and smoothing objetcs is included here."
Et un ouvrage dans lequel on trouve quelques illustrations d'une autre forme d'art, d'une autre forme de "rêve", l'art ASCII.
40 ans séparent cette image d'art ASCII des images générées par le programme d'intelligence artificielle de Google. Technologiquement, c'est un abîme. Culturellement, c'est un complet changement de paradigme. Artistiquement, c'est une continuité presque logique. Presque prévisible.
L'intelligence d'un nourrisson mais qui disposerait, pour son apprentissage, de l'accès à une base de données de 6 milliards de parents. Mais demeurerait orphelin.
En termes "d'intelligence artificielle", c'est comme pour le reste. Une image vaut mille mots. Cette "production artistique inceptionniste" est en fait comparable aux premiers programmes de génération automatique de textes. Sauf que là c'est du visuel, et que c'est effectivement "joli". Naturellement, rien "d'inception" ou du robot qui rêvait d'Asimov là dedans. On en est encore au stade de la comptine enfantine. IA qu'un cheveu sur la tête à Matthieu.
Mais tout de même. Tout de même. Il y a plus de 20 ans naissaient les premiers programmes de génération automatique de texte. Eux-aussi restèrent longtemps au stade de la comptine ou de la lubie d'universitaire. Mais. Mais aujourd'hui c'est sur ces bases que des "bots" sont capables – encore très imparfaitement et uniquement pour certaines catégories d'information – de rédiger des "articles" à peu près aussi bien que des journalistes. Il faut s'en souvenir lorsque l'on contemple les premiers "rêves" de cette IA.
Les machines nous écoutent, les machines nous parlent, et derrière cette écoute et ces voix, se joue en effet quelque chose qu'il serait dommage de ne pas considérer à la hauteur du petit prodige technologique, statistique et mathématique qu'il constitue.
D'autant que les mêmes IA du même Google commencent aussi à discuter. C'est expliqué dans cet article. Oui oui, à discuter. Pas simplement à répondre à des questions mais à discuter. De la vie en général, du sens de la vie. Pas uniquement en "matchant" (to match) une réponse pré-établie en fonction d'une liste de questions également pré-déterminée mais à discuter. Alors bien sûr là aussi il ne faut pas s'emballer. Le test de Türing n'est pas encore passé. Mais quand même. Elle discute.
Et à lire le compte-rendu de ces discussions, comme ici par exemple, on ne peut pas s'empêcher de frissonner un peu. De s'en vouloir aussitôt d'avoir frissonné, gros bêtas que nous sommes, nourris d'un imaginaire de science-fiction qui nous fait prendre de bêtes programmes pour d'artificielles intelligences. Mais quand même.
"Human: What is the purpose of life?
Machine: To serve the greater good.
Human: What is the purpose of living?
Machine: To live forever.
Human: Where are you now?
Machine: I’m in the middle of nowhere.
Human: What is the purpose of dying?
Machine: To have a life.
Human: What is the purpose of emotions?
Machine: I don’t know."
Cette "intelligence artificielle" là, ce "chatbot" a principalement été nourri de dialogues de film pour enrichir sa base lexicale. Ailleurs c'est une autre IA qui "apprend à lire" à partir des bases de données de CNN et du Daily Mail. Demain d'autres IA disposeront d'une base lexicale faite de l'ensemble des textes numérisés de l'humanité, de l'ensemble des films produits, de l'ensemble des images et photographies existant sous forme numérique. Qu'auront-elles alors à nous dire ? C'est fascinant. Et nous, qu'aurons-nous à leur dire ? C'est troublant.
La plupart des géants du numérique travaillent aujourd'hui sur les programmes d'intelligence d'artificielle. C'est notamment le cas de Facebook et de Google pour ne citer que les 2 plus avancés – au moins en terme de marketing 😉 – ou ceux qui y mettent le plus de moyens (humains et financiers), mais Microsoft ou Baidu ne sont pas en reste. Les enjeux sont multiples : ces "IA" sont autant de programmes protéiformes destinés à "dialoguer" avec nous dans le cadre des dispositifs de synthèse vocale, à "piloter" nos véhicules automatiques, à "être" les assistants personnalisés installés en surcouche applicative de nos smartphones, à alimenter les "robots" qui demain seront au coeur de nos vies et à rendre la reconnaissance faciale aussi naturelle que la recherche de mots-clés.
Le test de Rorshach avant celui de Turing.
Mais à côté de tout cela il y a la trivialité du bug. Celle de l'application stricte de boucles algorithmiques et de bases de connaissances non-contextuelles. A côté de la féérie de couleurs des programmes qui rêvent, et alors même que ces "intelligences artificielles" se développent notamment aux côtés des technologies de reconnaissance faciale (comme la nouvelle application "Moments" de Facebook), il y a rapidement le cauchemar, celui de la photo d'un couple afro-américain identifiés par l'algorithme de Google Photos comme un couple de … gorilles.
L'algorithme n'est pas raciste. Pas davantage que celui qui l'a programmé. C'est la question du grand moment de solitude. Celui de l'enfant qui croise pour la 1ère fois de sa vie un homme ou une femme noire et qui demande à son père : "pourquoi la dame elle est toute coloriée en noir ?" L'enfant non plus n'est pas raciste. Mais le fait que l'adulte qui lui répondra le soit ou ne le soit pas, changera souvent définitivement la vision que l'enfant aura des noirs. Pour l'instant les algorithmes et les programmes de reconnaissance faciale sont des enfants. Des enfants qui ont comme "parents" des programmeurs, pas des éducateurs. Voilà d'ailleurs probablement un métier d'avenir lorsque les intelligences artificielles auront franchi un nouveau pallier : conseiller en guidance parentale algorithmique. Pour apprendre aux programmeurs à "éduquer" leurs algorithmes.
Au final, tous les rêves ne se valent pas. Tous les imaginaires non plus. Souvenez-vous de Google cachant des juifs. Relisez le fait divers ci-dessus dans lequel un programme informatique identifie la photo d'un couple afro-américain comme celle d'un couple de gorilles et écrivez la dystopie du 22ème siècle. Vous avez 2 heures. A moins que vous ne préfériez que ce soit un robot journaliste qui le fasse à votre place.
Pour la plupart des algorithmes de reconnaissance faciale, le monde est un immense test de Rorschach. Si un homme associe la 1ère planche à un papillon et si un autre l'associe à un diable tirant la langue, à quoi une intelligence artificielle alimentant un algorithme de reconnaissance faciale l'associera-t-elle ?
Syntax Error ou bug moral ?
J'ai récemment vu le film "Ex-machina", énième mais remarquable et – relativement – subtile variation autour de l'intelligence artificielle et du test de Turing. Depuis que j'étudie les technologies et les usages que mettent en place lesdits GAFAM, une phrase m'accompagne sans cesse, celle du fondateur du (vieux) moteur AskJeeves, Apostolos Gerasoulis qui s'interrogeait en regardant défiler les 10 millions de requêtes quotidiennes déposées sur son moteur :
"Je me dis parfois que je peux sentir les sentiments du monde, ce qui peut aussi être un fardeau. Qu'arrivera-t-il si nous répondons mal à des requêtes comme "amour" ou "ouragan" ?"
C'était en 2005 dans un entretien publié par le journal "Die Zeit". Autant dire à la préhistoire. Ce fut – à ma connaissance – la première fois que le créateur d'un algorithme exprima publiquement et de manière si claire une considération "morale". C'est probablement ce jour-là, bien avant de m'interroger sur la nécessité d'une "éthique de l'automatisation", c'est probablement ce jour-là que j'ai compris que cette réflexion éthique, que cette approche "morale" de l'algorithmie deviendrait, de toute manière, essentielle. Et qu'un jour les lois de la robotique d'Asimov cesseraient définitivement d'être de la science-fiction.
L'autre constante qui a – pour moi en tout cas – constitué un déclic, fut la formule de John Battelle, en 2003, le 1er à énoncer clairement l'idée d'une "base de donnée des intentions" : ce qui intéresse les GAFAM et la totalité des entreprises de la Silicon Valley, au travers des services proposés et de la collecte de nos données personnelles, est de bâtir une "base de données des intentions." Or la notion "d'intentionnalité" rejoint les considérations "morales" exprimées par Apostolos Gerasoulis.
Dans le film Ex-machina, l'inventeur de cette intelligence artificielle incarnée dans une femme – forcément très belle – est un génie de l'informatique qui a commencé par développer un moteur de recherche baptisé "Blue Book", improbable hybride sémantique se référant probablement à la fois à "Deep Blue", le superordinateur d'IBM ayant battu des champions d'échecs et à "Google Books", le programme de numérisation de Google. J'évite de spoiler et ne vous en dis pas plus mais voilà ce que le scénariste lui fait dire autour de la 38ème minute du film, lorsqu'il (le génie de l'informatique) doit expliquer comment il a utilisé "son moteur" pour créer "son intelligence artificielle" (je souligne) :
"C'est curieux, les moteurs de recherche. C'est comme trouver du pétrole avant l'invention du moteur à combustion. De la matière première à ne plus savoir qu'en faire. Mes concurrents, eux, se sont fait du fric via les ventes en ligne et les réseaux sociaux. Pour eux, les moteurs de recherche reflètent les pensées des gens. En réalité, ils reflètent leur mode de pensée. Impulsion. Réaction. Limpide. Imparfait. Structuré. Chaotique."
Je ne crois pas, même dans un futur proche, que les programmes, si artificiellement intelligents qu'ils soient, puissent être capables de rêver. Mais il ne faudrait pas commettre la même erreur que les concurrents de Blue Book en considérant que les algorithmes ne font que refléter l'intelligence des gens (ou leur bêtise / racisme comme dans les débats autour des suggestions associées aux noirs et aux juifs dans Google). En réalité, ils n'ont jamais été aussi près d'imiter leur manière de développer leur intelligence (ou leur bêtise donc …).
Je répète : "Pour eux, les moteurs de recherche reflètent les pensées des gens. En réalité, ils reflètent leur mode de pensée". Les 1ères formes d'intelligence artificielle que nous voyons aujourd'hui émerger des laboratoires de Facebook ou de Google sont également en passe de franchir cette nuance essentielle. Tout est contenu dans cette nuance. Qui autorise tous les fantasmes. Qui légitime tous les espoirs. Qui cristallise toutes les craintes.