Algorithmophobia

On connaissait les "technophobes" et les les néo-luddites. On connaissait les nomophobes, phobie contemporaine capable de déclencher des crises d'angoisses à l'idée d'être séparé de son smartphone. On connaissait la FOMO (Fear Of Missing Out), qui n'est pas – encore – une phobie mais à tout le moins une crainte de passer à côté de quelque chose d'important, et l'on connaissait également les stratégies de remédiation mises en place par les acteurs technologiques (Wywa : While You Were Away).

On sait que les algorithmes occupent une place de plus en plus centrale dans nos vies. Et que cette place centrale ne fera que croître. Les 10 algorithmes qui contrôlent nos vies seront demain une vingtaine et s'étendront, via l'internet des objets notamment – à des domaines régaliens jusqu'ici encore hors de leur champ d'influence (santé, éducation, travail, assurance, etc.).

On sait que les rapports entre la loi et le code vont s'avérer de plus en plus tendus, de plus en plus complexes à l'échelle d'une population entièrement connectée. Et l'on hésite entre désespérance et haussement d'épaule navré quand on lit le niveau de bêtise et d'ignorance dont font preuve certains élus pour prétendre se saisir de cette question centrale.

Agaaa

On sait également que l'intelligence artificielle ou "assistée" effectue de significatifs progrès (notamment grâce au Deep Machine Learning) et que de pourtant très technophiles esprits (Bill Gates, Stephen Hawking, Elon Musk, Steve Wozniak) commencent à prendre régulièrement position pour nous avertir des dangers d'un point de singularité se calculant désormais sur le moyen terme. On le sait d'autant plus que les premiers "brevets" concernant, je cite "le développement d'une personnalité chez des robots" commencent à être déposés, et qu'ils le sont notamment par … Google. Nous ne sommes cette fois-ci plus très loin de l'indécidable légèreté des algorithmes de l'excellent "Her" de Spike Jonze.

Robotperso

On sait aussi que la réalité virtuelle s'annonce comme le prochain marché de masse et que la vision de Gibson dans Neuromancer ou celle des frères Wachowsky dans Matrix (ou celle des Deschiens dans un autre genre), du moins du côté de l'expérience sensible, ne relèvera bientôt plus uniquement du délire fictionnel.

On sait enfin qu'il n'est de données que de la servitude volontaire et que le coeur de tout cela est lié à nos requêtes dans un monde où il n'y a pourtant déjà plus que des réponses. Quelques chiffres : Google doit gérer plus de 3,5 milliards de requêtes par jour. Facebook en gère de son côté environ 1 milliard. Et (à titre de comparaison mais aussi pour attirer votre attention sur cet excellent article), Pornhub en gère 300 millions.

Algorithmophobia. La phobie des algorithmes.

Voilà maintenant plusieurs années que j'ai particulièrement en tête cette phrase d'Apostolos Gerasoulis (le papa du moteur de recherche Ask Jeeves) qui s'interrogeait en regardant défiler les 10 millions de requêtes quotidiennes d'Ask Jeeves :

"Je me dis parfois que je peux sentir les sentiments du monde, ce qui peut aussi être un fardeau. Qu'arrivera-t-il si nous répondons mal à des requêtes comme "amour" ou "ouragan" ?"

Ask Jeeves n'existe quasiment plus comme moteur, mais cette question, cette interrogation est devenue, en 5 ans, absolument vertigineuse, absolument fondamentale.

Dans le New-York Times, un article, "If Algorithms Know All, How Much Should Humans Help" rappelle que :

"Les méthodes et les corpus de la science des données (data-science) s'étendent à d'autres secteurs de l'économie et de la société. De grandes entreprises et une foule de start-ups commencent à utiliser ces technologies dans des champs décisionnels comme le diagnostic médical, la prévention du crime ou la délivrance de prêts bancaires. L'application de cette science des données à de tels secteurs soulève la question de savoir à quel moment une supervision humaine rapprochée devient absolument nécessaire dans le cadre de résultats algorithmiques."

L'article rappelle ensuite qu'un nouveau "champ" d'études universitaires a d'ailleurs vu le jour pour s'intéresser spécifiquement à ces questions, un champ connu – outre-atlantique – sous le nom de "algorithmic accountability", la "responsabilité algorithmique" (pour un aperçu de l'étendue de ces problèmes à la fois éthiques et techniques de responsabilité algorithmique on pourra relire mon article sur "le jaguar et le bus scolaire", ou bien encore ce diaporama "De l'homme-document au corps-interface : vers une éthique des interactions" – notamment les diapos 13 à 17).

Comme le rappelle également l'auteur de l'article, un algorithme est un modèle mathématique et "un modèle mathématique est, d'une certaine manière, l'équivalent d'une métaphore, c'est à dire une simplification descriptive. Qui parfois éclaire mais qui parfois distord la réalité."

Citant enfin un expert de l'intelligence artificielle, l'auteur indique que la clé de l'acceptation sociétale de ces décisions algorithmiques sera celle du story-telling :

"The key thing that will make it work and make it acceptable to society is story telling." Not so much literal story telling, but more an understandable audit trail that explains how an automated decision was made. “How does it relate to us?” Mr. Hillis said. “How much of this decision is the machine and how much is human ?"

La question d'Apostolis Gerasoulis posée plus haut deviendrait alors :

"Qu'arrivera-t-il si nous ignorons le ratio entre la part d'humanité et la part de calcul qui permettent de répondre au mot amour ou ouragan ?"

Et elle est tout aussi vertigineuse.

Comme un ouragan qui passait sur moi, l'amour l'algorithme a tout emporté.

En parallèle de cette nouvelle "science" de la responsabilité algorithmique, de plus en plus d'études, notamment dans le champ de la psychologie, s'intéressent à notre "ressenti" algorithmique, et plus précisément à la manière dont de plus en plus de gens font état d'une crainte ou d'une aversion déclarée aux algorithmes et à leur emprise sur nos vies. Algorithmophobia.

Une peur qui ne repose plus uniquement sur l'angoisse d'un Big Brother mais sur la capacité prédictive desdits algorithmes. Si la peur d'un Big Brother était tournée vers la maîtrise du passé, les nouvelles peurs algorithmiques sont clairement liées à la maîtrise vers le futur. En même temps me direz-vous, "He who controls the past controls the future." …

Voici le résumé de l'un de ces articles : "Algorithm Aversion : People Erroneously Avoid Algorithms After Seeing Them Err.", dont on trouvera une chronique ici.

"La recherche montre que les algorithmes décisionnels ("evidence-based algorithms") sont capables de prédire le futur avec plus d'exactitude que ne le peuvent des prévisionnistes humains. Cependant, quand des prévisionnistes doivent choisir entre utiliser un prévisionniste humain ou un algorithme statistique, ils choisissent le plus souvent le prévisionniste humain.  Ce phénomène, que nous appelons l'aversion algorithmique, est coûteux, et il est important d'en comprendre les causes. Nous montrons que les gens sont particulièrement réticents aux prévisions algorithmiques après les avoir vu "en action", et ce même s'ils ont pu constater qu'ils surclassaient les prévisionnistes humains. La raison est que les gens perdent beaucoup plus rapidement confiance envers un algorithme qu'envers un être humain après les avoir vu commettre les mêmes erreurs. (…)"

Les raisons de ce manque de confiance ou de cette plus forte intolérance à l'erreur algorithmique qu'à l'erreur humaine vient, selon les auteurs de l'article, du fait que les gens pensent que les humains sont meilleurs pour détecter des "exceptions", pour trouver (dans le cadre d'un processus de recrutement) des candidats intéressants mais "atypiques", mais aussi pour apprendre de leurs erreurs et pour s'améliorer avec la pratique (ces deux derniers points sont précisément ceux visés par le Deep Machine Learning). Autre résultat souligné par l'étude, le fait que les erreurs humaines peuvent être expliquées de manière plus nuancée et avec la possibilité, une nouvelle fois, d'éviter qu'elles ne se reproduisent. On le voit, notre "aversion algorithmique" repose donc pour une large part sur des discours qui relèvent souvent de la simple "croyance". 

Donc, version courte, les algorithmes se trompent (remember la logique du "bug"), mais les algorithmes se trompent beaucoup moins que n'importe quel prévisionniste avisé, et les algorithmes paient beaucoup plus cher chacune de leurs erreurs en terme de confiance accordée. Trivialement c'est le vieux débat du café du commerce autour des prévisions météo, des prédictions satellitaires calculées et du "y'a plus de saisons ma pôv'dame, et leurs photos de satellite c'est n'importe quoi, z'avaient annoncé de la pluie et il fait beau". C'est à dire la subjectivation accommodante qui nous permet de distordre la réalité dans le sens qui nous convient le mieux ou dans celui qui permet de servir au mieux nos propres croyances et opinions, en les renforçant à chaque fois que c'est possible.

Saut que là on ne parle effectivement plus de météo ou de débats politiques (magnifiques exemples de subjectivation accommodante), mais de prêts bancaires, de diagnostics médicaux ou de prévention du crime. Et qu'en fond sonore commence à se faire clairement entendre le discours suivant :

Primo : Les algorithmes sont mieux que nous capables de prévoir le crime, de détecter la capacité de remboursement d'un emprunteur, voire, dans certains cas, de poser un diagnostic. Et quand j'écris "capables de prévoir", je veux dire, "font moins d'erreur que nous dans leurs prédictions". Ce qui ne veut pas dire qu'ils n'en font pas. Donc. Donc ils prévoient mieux que nous mais.

Mais – deuxio – nous leur faisons moins confiance "en général" et à chaque fois qu'ils se plantent le peu de confiance restante est en chute libre.

Donc – tertio – nous devons faire le choix d'une injonction paradoxale, c'est à dire choisir entre "faire davantage confiance aux algorithmes qui – c'est prouvé – se plantent beaucoup moins que nous", ou alors "faire confiance aux êtres humains c'est à dire accepter qu'il y ait beaucoup plus d'erreurs – et donc d'inégalités possibles – dans la lutte contre le crime, dans certains diagnostics – et donc traitements – médicaux, dans l'obtention de prêts bancaires, etc …"

Et ce raisonnement est tout moisi. Tout pourri. Car il nourrit autant le discours iréniste des plus technophiles d'entre nous (l'intelligence artificielle va nous sauver, on pourra enfin passer nos journées à glander sur les internets, on vivra plus longtemps, on pourra reprendre 2 fois de la purée à la cantine) que le discours catastrophiste des plus technophobes d'entre nous (l'intelligence artificielle va nous tuer, nous prendre nos emplois, augmenter l'espérance de vie des plus riches uniquement et nous empêcher de reprendre deux fois de la purée pour entretenir notre indice de masse corporelle).

Plus sérieusement, ce discours algorithmophobe qui commence à occuper une place centrale dans le débat public risque de déboucher sur de violents bouleversement sociétaux dont on a d'ailleurs déjà une idée assez précise de ce qu'ils pourraient donner.

Ludd

A défaut d'avoir pu, comme nous y incitait Lessig dès Janvier 2000, prendre part aux délibérations qui président à l'élaboration du code, nous en serons réduits collectivement à n'avoir d'autre recours que de nous en prendre "physiquement" aux codeurs eux-mêmes. Lesquels codeurs se dédouaneront de plus en plus facilement – et légitimement – en indiquant qu'eux-mêmes ne contrôlent plus qu'à la marge les algorithmes concernés, nous renvoyant une nouvelle fois à notre responsabilité individuelle et collective en la matière, que nous continuerons probablement de nier ou d'atténuer pour continuer de faire des algorithmes (et/ou des robots et/ou de ces nouvelles "intelligences artificielles/assistées) de nouveaux boucs-émissaires.

Opaques abaques.

Une abaque est le nom donné à "tout instrument mécanique plan facilitant le calcul". Pris isolément un algorithme n'est rien de plus qu'une abaque numérique. Mais la propagation de ces abaques, les buts et les finalités qui sont assignées à ces calculs, leur dissémination dans notre environnement et leur centralité dans nos modes d'accès à l'information ont permis l'émergence d'une nouvelle forme d'intelligence opaque.

Derrière cette peur des algorithmes, derrière cette "algorithmophobia" se dessine en fait une nouvelle forme de mélancolie. Celle qui précède l'existence d'un grand changement, d'une grande révolution. Le même genre de mélancolie que celle explorée par Lars Von Trier dans son film Melancholia, le pressentiment d'un tremblement. Cette mélancolie est dangereuse car au-delà des arguments dont plusieurs champs de recherche commencent à s'emparer pour les ramener du côté de la raison et de l'analyse, elle véhicule son cortège de craintes, d'incertitudes et de doutes, selon une méthodologie hélas déjà connue.

Elle est aussi la mélancolie que l'on trouvait, jadis, dans la peinture des vanités. Celle qui à chaque nouvelle promesse de nous maintenir en vie plus longtemps nous rappelle d'abord que nous sommes mortels. Celle qui derrière chaque nouvelle avancée calculatoire donne à lire la triviale insignifiance de nos données que jamais, pourtant, ne semble pouvoir épuiser leur exploitation marchande et marketing.

Dürer en son temps avait réalisé une magnifique gravure sur cuir de la mélancolie.

Voici l'original.

Diapositive2

Et voici la copie.

Diapositive1

 

<Mise à jour> Forcément, Hubert avait déjà relayé les études sur l'aversion aux algorithmes. Forcément c'est Hubert. Moitié homme, moitié algorithme. De publication forcené. </Mise à jour>

Un commentaire pour “Algorithmophobia

  1. Merci pour cet article riche d’idées et très intéressant.
    Je me demandais tout de même si l’on ne pouvais parler de « masques numérique » plutôt que d’abaques numérique?
    Puisque par nature, les algorithmes ne sont pas exempts d’erreurs (amoindrie certes mais dont un % reste toujours présentes), ceux-ci auront tendance à modifier constamment notre perception du réel ?
    Je me faisait un petit « recap » de l’avènement de la 3D, née d’un algorithme, elle-même née d’un mathématicien travaillant sur les fractals(http://www.wikiwand.com/fr/Fractale#/Objets_fractals_dans_la_nature), ce qui m’a fait penser à tout cela…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut