Google, idéologue du populaire ou opium du peuple ?

<Mise à jour du lendemain> Des lecteurs/trices (merci) me signalent la récente sortie d'un film intitulé "Denial" et qui met en scène l'histoire de Deborah Lipstadt, une vraie historienne spécialiste de l'holocauste, qui avait démontré le caractère révisionniste des écrits d'Irving, ce pour quoi ledit Irving la poursuivit en diffamation et lui fit donc un procès. Cette "actualité" (le film est sorti en 2016 aux Etats-Unis mais début 2017 au Royaume-Uni) explique en effet la raison pour laquelle c'est le nom de David Irving qui est suggéré en premier par Google. Comme j'essaie d'en faire la démonstration dans mon article, Google s'illustre donc à la fois par sa capacité calculatoire à se faire l'écho d'une actualité, tout en neutralisant et en masquant des éléments de contexte hors desquels l'interprétation de tout résultat se trouve nécessairement – et parfois dramatiquement – biaisée. </Mise à jour du lendemain>

Cela a recommencé. Une nouvelle fois. Lorsqu'on a demandé à Google le nom des historiens de l'holocauste, le moteur a renvoyé le nom de David Irving. Non seulement David Irving n'est plus historien, non seulement David Irving est révisionniste, mais en plus David Irving est le "chef de file" du courant négationniste, il en est la figure de proue, il est l'un des plus "populaires". 

Holo

Is It a Bird ? Is It a Fake ? No, it's just a Mess.

Une nouvelle fois donc Google à donné le nom d'un négationniste quand on lui demandait celui d'un historien de la Shoah. Google ne s'est pas "trompé" puisqu'en posant la question ainsi "Holocaust historian", et compte-tenu de ce qu'est la logique de l'algorithmie et le régime de vérité du moteur, Google ne pouvait pas faire autrement que de sortir le nom d'un personnage effectivement très "populaire" dans le sens ou chacune de ses thèses et de ses sorties médiatiques sont amplement polémiques et donc amplement commentées. Et donc amplement populaires. 

Aujourd'hui Google a donné le nom d'un négationniste quand on cherchait celui d'un historien de l'holocauste.

Hier Google remontait exclusivement des sites négationnistes quand on lui posait la question de savoir si l'holocauste avait vraiment existé.

Avant-hier Google cachait des Juifs, ou plus exactement il associait le mot "juif" à n'importe quelle personnalité plus ou moins connue. 

Avant-hier encore Google considérait que les noirs puaient et qualifiait les afro-américains de "gorilles"

Dans l'Antiquité (du Search) un homme s'interrogeait pour savoir ce qu'il se passerait si le moteur qu'il avait créé répondait mal au mot "amour" ou "ouragan". Avant lui déjà, à la préhistoire, en 1985, une femme, Marguerite Duras, en quelques minutes fulgurantes, avait parfaitement décrit ce monde dans lequel il n'y aurait plus que des réponses, ce monde où les réponses seraient partout. Et ce que nous risquions d'y perdre : notre capacité de questionnement.  

Alors quoi ? Le web ne serait-il que stéréotypique ? Racistes les algorithmes ? Fascistes les intelligences artificielles ? Faut-il tondre tout ce petit monde à la libération ? Eric Sadin est-il le fils caché d'Alain Finkielkraut ? Je me suis déjà efforcé de répondre à l'ensemble de ces questions (sauf la dernière) sous les liens précédents. 

Sous les pavés la plage, sous les liens les pages, sous les mots les idées.

"Sous les liens", justement. "Lorsqu'on a demandé à Google le nom des historiens de l'holocauste, le moteur à renvoyé le nom de David Irving." En écrivant cette phrase, et en fonction du segment de phrase que je choisirai pour établir le lien hypertexte vers l'article dans lequel j'ai découvert cette info, je serai moi-même co-constructeur et co-responsable du régime de vérité de Google : si ce lien démarre à "historien de l'holocauste" pour se terminer à "David Irving" alors l'algorithme "ajoutera" un lien de corrélation forte entre ces deux entités nommées, entre ces deux groupes nominaux, "historien de l'holocauste" d'une part et "David Irving" d'autre part. Alors que le sens de ma phrase est justement d'expliquer l'inverse. J'aurai contribué à créer ce lien. Coupable de complicité de sémantique négationniste aux yeux devant le tribunal du calcul de la grande monarchie algorithmique.

Ce qui se joue dans un simple lien hypertexte, entre ces deux balises que sont <A> et </A> est un écheveau fascinant et complexe de construction d'une énonciation plurielle et polyphonique : le lien lui-même, son ancre et sa destination, les mots et syntagmes qui le composent, leur sens, la densité sémantique des autres mots qui les entourent dans la page, les entrées d'index auxquels ils correspondant dans le cache du moteur de recherche, l'organisation même de l'énonciation propre au moteur lorsque nous interrogeons non pas le web mais la manière dont sa base de donnée rend compte de la totalité du web, les mots que nous allons choisir pour accéder à d'autres mots que nous sommes incapables d'écrire puisque cette incapacité est précisément ce qui fait que nous les recherchons ailleurs … et bien d'autres choses encore. 

Mais globalement les algorithmes ne comprennent pas. Ils calculent. Des distances. Des proximités et des éloignement. Sémantiques le plus souvent. Mais reconnaître le "sème" d'un mot n'est pas en comprendre le sens. Alors les algorithmes établissent des liens sans savoir s'il s'agit de corrélations ou de causalités. Résumer n'importe quel type de texte, par exemple, est une tâche encore aujourd'hui presque totalement irréalisable efficacement pour un algorithme même si régulièrement, de nouveaux progrès significatifs sont annoncés. Par ailleurs les algorithmes répondent toujours. Parce qu'il y a un business derrière. Ils répondent toujours et à toutes les questions, même les plus improbables. Bien sûr il n'y a pas de complot des algorithmes. Les algorithmes s'efforcent toujours de bien répondre ; de nous donner sinon les bonnes réponses, du moins ce qu'ils considèrent être "les meilleures". Mais les algorithmes ont toujours préféré mal répondre plutôt que de ne pas répondre du tout. C'est peut-être là d'ailleurs, que tout à commencé à partir en sucette. Surtout qu'ils se sont en plus efforcés de toujours répondre mal plutôt que de ne rien répondre du tout à des questions que nous ne leur posions même pas, que nous ne leur posions même plus ; qu'ils ne nous laissaient même plus le temps de leur poser. 

Donc un négationniste est intronisé historien de l'holocauste, et l'holocauste lui-même n'a possiblement jamais existé. Alors même que les derniers survivants de l'holocauste sont en train de nous quitter. Alors même que chaque jour Google devient le référent central de l'accès à l'information et, de manière bien plus signifiante, le référent structurant de la construction d'un imaginaire et d'une culture commune. Google. 21ème siècle. Pas un fossé mais un abime. Moral. Historique. Soci(ét)al.

Lutter contre le racisme et l'antisémitisme ou lutter contre Google ?

J'ai repris l'idée d'un autre et depuis longtemps insisté sur le fait qu'en dehors de la mise en oeuvre d'un index indépendant du web nous ne pourrions jamais apporter de solution efficace à ces problèmes qui vont bien au-delà du simple pataquès algorithmique. D'autres que moi et des plus illustres, Frank Pasquale par exemple, ont depuis longtemps listé d'autres mesures nécessaires pour endiguer ce mal calculatoire : 

  1. supprimer les contenus susceptibles de blesser ou de causer du tort et qui n'ont pas d'intérêt public pour trouver un équilibre (ô combien délicat) entre l'anarchie et la censure 
  2. repérer, marquer, suivre, et expliciter les résultats de recherche manipulés par des logiques de haine ou d'incitation à la haine
  3. permettre à des organisations non-gouvernementales d'être les gardiennes de l'intérêt public tel qu'il est susceptible d'être remis en question au travers de résultats de recherche, en autorisant ces ONG à auditer un certain nombre de données et de fichiers logs détenus par les grandes plateformes. 
  4. bannir certains contenus (sites Nazis par exemple, dont Frank Pasquale souligne qu'ils sont interdits en France et en Allemagne mais bien sûr pas aux Etats-Unis au nom du premier amendement)
  5. embaucher beaucoup plus de modérateurs humains pour intervenir et juger les cas conflictuels

A grands renforts d'ingénierie et de technologies immensément puissantes, nous sommes en train de redécouvrir les évidences les plus fondamentales à savoir que nous ne créons pas des monstres mais bien des enfants, qui héritent de nos vues, de nos biais, de nos idéologies. Que travailler sur le langage, travailler sur la compréhension du langage, apprendre à un artefact technique ou technologique ce que parler veut dire en espérant qu'il soit un jour en capacité de comprendre ce qu'il nous dira, cela s'appelle simplement l'éduquer. Ce que l'on nous annonce comme du "Deep Learning" ou du "Machine Learning" est fondamentalement une tentative d'éducation de la machine, d'éducation du programme. Mais une éducation sans autre éducateur que les technologies elles-mêmes, c'est à dire précisément l'inverse de ce qu'éduquer veut dire.

Google est un enfant de 20 ans. Avec un (très) gros syndrome d'Asperger.

Maintenant nous allons devoir faire face à un autre problème. Autrement plus sérieux. Google est né en 1998. Il a donc aujourd'hui presque 20 ans.

Comme technologie de l'ingénierie linguistique et comme économie ayant permis de fonder le capitalisme linguistique, voilà presque 20 ans que cet "enfant" grandit et se nourrit de mots sans que personne jamais n'ait pris soin de veiller à son éducation, sans que personne n'ait simplement posé la question de son éducation. Vingt ans plus tard, aujourd'hui donc, nous commençons à peine à parler à cet enfant autiste Asperger supérieurement intelligent, supérieurement rapide, qui a grandi à nos côtés depuis 20 ans en nous régalant de ses tours calculatoires. Et qui, à l'âge de 20 ans, nous livre désormais sa vision du monde. La vision de ce monde qu'il a appris, presqu'entièrement seul, au travers du langage, au travers de nos mots dans lesquels il lui était bien impossible de distinguer les innombrables travers qui les parsemaient car il n'avait à sa disposition qu'un parser insuffisant pour lui servir de tuteur.

Et sans surprise les réponses qu'il nous donne sont à l'image de la pathologie dont il souffre et de la logique calculatoire d'isolement, de discrétisation, dans laquelle il a appris et grandi : dans le monde de cet enfant de 20 ans la terre est plate et le "grand remplacement" théorisé par la droite ultra-nationaliste et néo-fasciste est une théorie avérée, parmi d'autres exemples collectés par Numérama à l'occasion de la sortie de l'interface française du Google Assistant. L'enfant Asperger de 20 ans qu'est Google ne "croit" pas que la terre soit plate pas plus qu'il ne "croit" au grand remplacement. Quand bien même y croirait-il d'ailleurs que le problème majeur ne serait pas celui-là. Il ne s'agit pas de réfléchir à ce qu'il croit mais à ce qu'il nous dit. 

On peut bien sûr dénoncer "l'irresponsabilité" algorithmique et plaider pour leur responsabilité, pour une responsabilité algorithmique. "Accountability" en anglais. Accountability (Angl.) = Responsabilité (Fr.). 

Il y a le mot "count", en français "compter", dans l'anglais "accountability", en français "responsabilité". Un algorithme responsable serait donc un algorithme sur lequel on pourrait compter. Et pour compter sur lui il faut qu'il sache compter, qu'il sache calculer. Mais comme on vient de l'expliquer, ce genre de savoir calculatoire est précisément la cause du problème de responsabilité. C'est parce que les algorithmes savent compter et calculer bien mieux et bien plus rapidement que nous, que nous nous retrouvons comme des couillons à nous poser la question de savoir si nous pouvons leur faire confiance, si nous pouvons compter sur eux ; sur eux qui nous comptent depuis déjà tant d'années sans jamais se poser la question de savoir s'ils peuvent compter sur nous. 

On touche au but. 

Du point de vue d'un algorithme, nous ne sommes pas responsables. C'est à dire que nous sommes irresponsables. Irresponsables quand nous affirmons que la terre est plate, que le grand remplacement existe, que l'holocauste n'existe pas, et toutes ces sortes de choses. Cela aucun algorithme ne l'a encore jamais dit. Mais cela tous les algorithmes nous entendent le dire depuis déjà trop longtemps sans que jamais ils n'aient reçu l'éducation leur permettant de comprendre que tous les discours et tous les régimes d'énonciation n'étaient pas équivalents.

Dans ce qu'un algorithme voit, sait et compte de nous, c'est à dire dans les mots que nous utilisons sur les moteurs de recherche pour ne parler que d'eux, dans ce qu'un algorithme voit, sait et compte de nous, nous sommes irresponsables, "unaccountability", nous sommes in-comptables, irréductibles au calcul, à la mise en nombre. Nous mais pas nos mots. Alors la responsabilité de l'algorithme, celle qui nous lui désignons, celle qui nous lui avons laissé prendre, alors la responsabilité de l'algorithme est de désigner nos irresponsabilités en tenant seulement le compte de nos mots.

Aujourd'hui donc, cet enfant Asperger qui a grandi de nos mots sans jamais les comprendre autrement qu'en les calculant, celui qui n'a du langage qu'une compréhension probabiliste et statistique, aujourd'hui il nous parle. Il ne nous donne plus à voir "des résultats", mais il oralise, il vocalise un résultat. Celui qu'il estime être le meilleur. L'oralité s'insinue partout. Dès maintenant nous pouvons "discuter" avec le Chatbot de Bing autour des résultats qu'il nous propose

Infobot-bing-bot

Dans ces dialogues, dans ces échanges, pour l'instant triviaux, souvent approximatifs et largement déterministes et pré-déterminés, avec qui parlons-nous vraiment ? Est-ce l'algorithme du moteur qui s'exprime ? Celui du Chatbot associé ? Un peu des deux ? Et au nom de qui parlent-ils ? Qui les a éduqués ? Et de quelle vision du monde sont-ils les porteurs ? Des quelles valeurs sont-ils nourris ? Quel est l'égo-rythme de ces algorithmes ? 

Il est vital de répondre à ces questions. Car déjà dans nos smartphones, entrent désormais dans nos salons, dans nos maisons, des assistants vocaux omniprésents et omnipotents avec qui la seule interface sera la voix, qui ne nous laisseront pas d'autre choix que celui d'être sans voix puisque les réponses qu'ils nous donneront seront tout sauf des choix. 

Sois sage Ô ma douleur.

Les noirs sont des gorilles, la terre est plate, l'holocauste n'a pas vraiment existé et David Irving est un historien. Voilà nos mots. Si pour cela il faut vouer Google aux Gémonies, sachons également le remercier d'ainsi nous mettre face à nos mots, à nos maux, préparant l'anomie.

"Algo-" en Grec signifie douleur. Ce n'est bien sûr pas là l'étymologie d'algorithme. Même si l'algorithme aussi, est une mesure de la douleur ; peut-être l'exacte mesure de la douleur que les mots peuvent causer aux hommes, lorsque les noirs sont des gorilles, que la terre est plate, que l'holocauste n'a pas vraiment existé et que David Irving est un historien. 

"Sois sage Ô mon algo, et tiens-toi plus tranquille."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut