Trump, Google, l’idiot utile, les architectures techniques toxiques et le meilleur des algorithmes possibles.

Sundar Pichai est la PDG de Google. C'est lui qui préside aux destinées algorithmiques de ce qui est bien plus qu'un moteur de recherche. Et comme nombre de patrons et responsables des GAFA ces derniers temps, il était auditionné devant le Congrès américain. Avec en ligne de mire le projet DragonFly (installation du moteur en Chine), la responsabilité (ou pas) dans la diffusion de fausses nouvelles, la question des biais politiques, le sujet des données personnelles, et encore possiblement bien d'autres sujets.

L'idiot utile.

Lors de cette audition une sénatrice démocrate lui demanda pourquoi c'était la photo de Trump qui apparaissait quand on tapait "Idiot" dans Google Images. Sa réponse fut que Google traitait chaque année plus de 3000 milliards de requêtes (dont 15% d'inédites chaque jour), que tout était automatisé, que c'était une question d'échelle ("large scale"), que plus de 200 critères était à chaque fois pris en compte pour extraire et classer les bonnes pages depuis leur base d'index et que de toute façon …

Manually

"Nous n'intervenons pas manuellement sur les résultats de recherche". 

Au milieu des arguments récités par Sundar Pichai, la sénatrice démocrate se permit une petite blague en mode "Ah bon ce n'est pas un petit bonhomme en coulisse qui fait tout cela à la main ?" Evocation qui convoqua immédiatement chez moi le souvenir du Turc Mécanique, célèbre canular du 18ème siècle où un marionnettiste caché donnait l'impression qu'un automate jouait (fort bien) aux échecs. Nous y reviendrons.

"Nous n'intervenons pas manuellement sur les résultats de recherche".

Cette phrase est une phrase quantique. Elle est à la fois vraie et fausse. C'est pas une phrase, c'est le chat de Shrödinger. Voici pourquoi.

D'abord, bien sûr, c'est vrai que Google n'intervient pas à la main sur chaque résultat de recherche pris isolément (3000 milliards de requêtes par an dont 15% de nouvelles chaque jour … ça ferait du taff). Ni d'ailleurs sur des résultats de recherche pris globalement. En fait ni Google ni aucun moteur de recherche n'intervient "à la main" sur des résultats de recherche. C'est même précisément cela le principe des "moteurs de recherche" et ce qui fait qu'ils ont remplacé les … "annuaires de recherche" où les sites étaient uniquement classés à la main et rangés à la main dans des catégories elles-mêmes faites à la main.

Et en même temps … il est bien sûr vrai que Google intervient manuellement sur les résultats de recherche. L'algorithme de Google et les 200 critères évoqués par Sundar Pichai sont déterminés, choisis, pondérés et appliqués non par par une quelconque entité divine en mode "Deus Ex Technica" mais par les ingénieurs de Google qui, à ce titre, ont la responsabilité (intellectuelle sinon manuelle) des résultats qui apparaissent suite à une requête. Ils sont semblables au manipulateur caché qui permettait à l'automate de jouer aux échecs dans le Turc Mécanique que j'évoquais plus haut. A ceci près, accordons-leur pour filer la métaphore, qu'ils ne manipulent pas chaque coup mais qu'il supervisent les choix tactiques de l'ensemble de la partie. Sachant que de toute façon :

570f367962ecb4e4L'algorithme de Google est donc "manipulé" pour autant que "manipuler" implique de hiérarchiser des critères et des opérations permettant d'aboutir à la résolution rapide d'un problème, ce qui est la définition d'un algorithme comme rappelé ici.

Le doigt qui clique et la main invisible.

Et c'est là où la technique s'arrête de réfléchir et où l'on a besoin d'autre chose que de décortiquer du code informatique pour comprendre ce qui est véritablement en jeu. Car cette "manipulation", ce réglage ou plutôt ces "200 critères pondérés" qui entrent en jeu à chaque fois qu'il faut afficher et classer des résultats, cette manipulation donc, installe une vision du monde qui repose sur des croyances et des présupposés qui sont sa propre grille d'analyse.

Pardon de m'auto-citer mais il y a 14 ans (en 2004) avec un collègue nous écrivions ceci :   

"Quand nous consultons une page de résultat de Google ou de tout autre moteur utilisant un algorithme semblable, nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente. Derrière la liste de ces résultats se donnent à lire des principes de classification du savoir et d'autres encore plus implicites d'organisation des connaissances. C'est ce rapport particulier entre la (re-)quête d'un individu et la (re-)présentation d'une connaissance qui était présente dans les bibliothèques de la Haute-Egypte, pour en être évacuée avec l'arrivée des principes de classement alphabétiques.
 
Une nouvelle logique se donne à lire. Moins « subjective » que les principes classificatoires retenus par une élite minoritaire (clergé, etc.) elle n'en est pas moins sujette à caution. Les premières étaient douteuses mais lisibles, celles-ci le sont tout autant parce qu'illisibles, c'est-à-dire invisibles."

En fait l'algorithme de Google c'est un peu comme la main invisible du marché d'Adam Smith, en tout cas dans son interprétation la plus courante, c'est à dire cette "force qui fait de l'intérêt de l'un, l'intérêt des autres".

De Leibnitz au Google Bombing.

Je vais essayer de m'expliquer en prenant un exemple simple et déjà très documenté, celui du Google Bombing. Quand Brin et Page inventent l'algorithme du Pagerank dans lequel (je fais la version vraiment très simple hein) ils présupposent qu'un lien hypertexte vers une page correspond à un vote "pour" cette page et qu'il suffit donc de compter tous ces votes pour voir quelles pages sont les plus pertinentes, ils s'appuient sur un postulat d'optimisme semblable à celui de la Théodicée de Leibnitz telle que reprise et raillée dans le Candide de Voltaire, à savoir que nous vivons dans le meilleur des mondes possibles. Comme le résume très bien Wikipédia (je souligne) : 

"Les Essais de Théodicée ont pour objectif de résoudre le problème du mal : comment admettre d'une part l'existence d'un Dieu bon, omniscient et omnipotent, et d'autre part l'existence du mal ? La réponse de Leibniz est que le monde tel que nous le connaissons est le meilleur des mondes possibles".

Du point de vue de Google et de Sundar Pinchai, leur algorithme est vu comme le meilleur des algorithmes possibles à l'échelle du meilleur des mondes possibles. Il est ce "Dieu algorithmique" bon, omniscient et omnipotent qui ne peut empêcher l'existence du mal ou le fait que Trump soit un idiot.

Idiot-possible

Ni Brin ni Page ne conçoivent leur algorithme pour un monde dans lequel des gens vont s'appuyer sur ses principes pour décrier ou moquer ou ridiculiser des personnalités publiques comme ce fut le cas pour Georges W. Bush ce misérable crétin, pour Nicolas Sarkozy ce trou du cul, et pour tout un tas d'autres plus ou moins illustres. A ce titre, la croyance, le postulat, le présupposé qui permet à l'algorithme de fonctionner à l'image de ce pour quoi il a été conçu est celui d'une bienveillance la plus partagée possible. Ou en tout cas d'une absence de malveillance qui serait communément la plus partagée. Si le critère d'établissement d'un lien change de nature, s'il ne s'agit plus de pointer vers une page "remarquable" au sens premier, mais de dénigrer ou de moquer ou d'insulter, alors se produit un détournement technique qui peut être précédé ou suivi d'effets de manipulation de l'opinion.

Donc l'algorithme Pagerank de Google, tout comme l'algorithme Edgerank de Facebook et tout un tas d'autres algorithmes de tout un tas d'autres sociétés sont des algorithmes Leibnitziens. Ils ne fonctionnent qu'à l'échelle du meilleur des mondes possibles. Et nous en sommes souvent les Candides. Or c'est cette conception même qui pose aujourd'hui problème.

La main dans le pot de l'algorithme.

Par ailleurs, dans des cas de Google Bombing comme dans d'autres cas de suggestions de recherches à caractère raciste, Google a mis la main dans l'algorithme, soit pour nettoyer la cible du Google Bombing (depuis Juin 2007, via un réglage à la main de l'algorithme), soit pour supprimer certains mots-clés associés dans des suggestions de requête

Ces algorithmes ont été pensés et conçus (et vendus) pour un monde théorique bâti sur le postulat qu'il serait – le monde – le meilleur de ceux possibles. Et de fait, le principe de base du Pagerank envisagé comme indice de citation dans la lignée des travaux de Garfield en bibliométrie, demeure à ce jour le meilleur des algorithmes possibles pour rendre compte d'effets de popularité à l'échelle du volume de contenus qu'il est supposé hiérarchiser et auquel il souhaite donner accès.

Le problème ne vient pas tant de l'algorithme que de l'architecture technique toxique dans laquelle il opère. 

Lorsque ces algorithmes opèrent dans des espaces qui sont ceux d'architectures techniques toxiques (parce qu'elles amplifient certains biais cognitifs, parce qu'elle valorisent la viralité au détriment de la véracité ou de vérifiabilité, parce qu'elles n'ont pour objectif que la spéculation sur nos données et sur les espaces discursifs qui les rendent exploitables, etc.), alors le principe selon lequel s'appliquerait "la force qui fait de l'intérêt de l'un, l'intérêt des autres" cesse d'être opérant car gangréné par une logique spéculative principalement incarnée par la rentabilité publicitaire.

1 Marx et ça repart.

Le problème ce n'est pas le travail algorithmique capable de tourner indéfiniment sur les ressources qu'il cible. Le problème est que ce travail algorithmique est au service de l'exploitation d'un capital linguistique qui n'est pas infini et que l'on astreint à des formes de rentabilité et de spéculation totalement incohérents avec l'horizon des communautés discursives et linguistiques qui en disposaient jusqu'ici depuis quelques millénaires dans un cadre non-marchand, dans un cadre "hors-marché". Le problème est que ce capital linguistique est également un capital social ; c'est même le premier d'entre eux. Or la logique spéculative qui l'exploite et l'use, finit également par corrompre le capital social et culturel de ceux qui tentent, simplement, d'y avoir accès en le mettant en mots. 

Voilà pourquoi le fait que Google ne remonte que des sites négationnistes quand on lui pose la question "L'Holocauste a-t-il vraiment existé ?", voilà pourquoi cela est un problème majeur pour l'ensemble de nos sociétés. Non pas parce que l'algorithme a failli ou a été manipulé mais parce qu'il déconstruit ostensiblement un capital social et culturel sans lequel nous ne sommes plus capables de comprendre l'histoire et donc de faire société. Parce qu'il remplace les mots qui ont un sens par les mots qui ont un prix. 

Just a Fool, perdu dans la foule.

Dans un article récent j'essayais de comprendre comment nous étions passé en quelques années de "la sagesse des foules", de cette idée d'une intelligence collective mesurable et observable dans les processus de publication et de partage, sagesse sans laquelle l'algorithme de Google ne valait rien, à une forme de folie des foules, remplie de "raids numériques", d'opérations de lynchage, de harcèlement, d'insulte et d'incitations à la haine. Tout en rappelant que ces derniers phénomènes demeuraient marginaux en nombre mais que leur toxicité finissaient par pourrir l'image que nous nous faisions de l'écosystème en entier, j'avais expliqué ceci

"Laisser se déployer la volumétrie des logiques de harcèlement, ou refuser de prendre les mesures nécessaires pour les stopper rapidement et efficacement, équivaut, aussi trivialement que cyniquement, à entretenir la spéculation linguistique sur des logiques de haine, de détestation, de stigmatisation, de colère, etc.  Et quand on est une plateforme qui repose sur un triptyque capitaliste (capitalisme linguistique, cognitif et "de surveillance"), on ne combat jamais la spéculation : on l'entretient, on crée les conditions de son existence, on la rend possible, on la facilite."

Sur cette logique spéculative, lorsqu'elle se décline dans des architectures techniques toxiques se nourrissant de promiscuité et de mensonge et qui sont pensées pour invisibiliser et rentabiliser des actions de manipulation et d'influence, le meilleur des algorithmes possibles cesse d'entretenir un idéal d'intelligence pour se ranger au service de la bêtise du plus offrant et du moins bien disant. 

Et là vous pourriez me dire : "Ok mais au-delà d'un certain seuil, d'une certaine immensité de contenus, de gens et/ou d'interactions, une architecture technique peut-elle être autre chose que "toxique" ?"

Oui c'est possible.

Prenez une architecture technique à très large échelle, tant par le nombre de contenus gérés et générés, que par les serveurs lui permettant de les mettre à disposition et à jour. Prenez également des millions d'utilisateurs qui chaque jour publient et interagissent des millions ou des milliards de fois. Faites-y tourner différents algorithmes ("bots") pour effectuer un nombre ahurissant de modifications pour ou moins substantielles sur l'ensemble des contenus produits et accessibles. Faites en sorte que chaque action ou modification, c'est à dire au final que chaque décision puisse être documentée et rendue accessible pour n'importe qui. Appuyez-vous sur un espace public, un espace réellement public de publication et de partage. Evacuez totalement le paramètre publicitaire de votre modèle économique. Je répète : évacuez totalement le paramètre publicitaire de votre modèle économique.

Et voilà. Vous y êtes. Vous avez assaini totalement une architecture technique qui touche pourtant quotidiennement des millions de personnes, qui est pourtant modifiée quotidiennement par d'autres millions de personnes – et de bots -, et qui nécessite pour tourner des milliers de serveurs partout dans le monde. Vous avez inventé Wikipédia.

Wikipédia est la preuve qu'il n'y a pas de fatalité toxique pour une architecture technique à large échelle. Il est possible, parfaitement possible, à l'échelle qui est celle des grandes plateformes comme Google ou Facebook, de déployer une architecture technique non-toxique. Mais pas en gardant leur modèle économique actuel.

La lune, l'idiot, le sage, le doigt et l'algorithme.

Des gilets jaunes au printemps arabe, de Bush en crétin à Trump en idiot en passant par Sarkozy en trou du cul, la question n'est pas celle du calcul algorithmique qui favoriserait ceci ou cela, permettrait l'émergence de telle révolte ou de telle autre. La question c'est celle de l'érosion d'un capital linguistique et culturel au laminoir d'architectures techniques toxiques qui ont accepté et fait dogme du fait que leur succès soit conditionné à l'épuisement de nos ressources linguistiques, culturelles et attentionnelles. 

Oui le rôle de ces architectures techniques toxiques est aujourd'hui déterminant dans la formation de l'opinion et chaque jour qui vient, à chaque échéance politique nouvelle, il le sera davantage.

Oui il existe aujourd'hui un risque clair et évident que ces architectures techniques toxiques interfèrent avec l'espace public de la démocratie sans que nous ne soyons aujourd'hui capables d'en prévoir l'issue ni même d'en juger les motivations.

Oui il existe un risque clair et évident que dans le paysage actuel de l'accès à l'information et aux connaissances, des biais "techniques ou algorithmiques" soient en capacité de faire naître, d'entretenir ou de commanditer des actions d'influence et de lobbying invisibles des états contre qui ils pourraient être lancés. 

Et non, non, et non, nous ne disposons d'aucun garde-fou démocratique (législatif, institutionnel, médiatique ou politique) pour nous en prémunir efficacement ou à tout le moins pour être en capacité d'identifier le problème et de quantifier son potentiel de nuisance autrement qu'a posteriori (comme ce fut le cas avec Cambridge Analytica dans l'élection de Trump ou le vote pour le Brexit). 

C'est cela qui est idiot. Et rien d'autre. C'est pour cela qu'il est urgent de répondre à la question du "statut" et de la responsabilité juridique et pénale de ces grandes plateformes. Et comme il est peu probable qu'elles renoncent à la toxicité avérée de leur modèle économique, nous n'aurons d'autre choix que celui d'un démantèlement … ou d'une nationalisation 😉

Sans basculer dans l'affolement mais avec une observation rationnelle de ce qui est en train de se jouer à la lisière de l'espace public démocratique et de sa captation par des plateformes privées, faute d'une vraie réflexion de fond sur ces sujets, nous risquons de nous réveiller dans un monde entre Kafka, Orwell et Idiocracy. Et ce réveil pourrait avoir lieu bien plus tôt que nous ne l'imaginons aujourd'hui.

Et à chaque fois que nous aborderons ces questions, déterminantes, gardons en tête le vieux proverbe chinois : 

"Quand le sage montre la lune l'architecture technique toxique, l'idiot regarde le doigt l'algorithme."

Un commentaire pour “Trump, Google, l’idiot utile, les architectures techniques toxiques et le meilleur des algorithmes possibles.

  1. Quand le sage montre la lune
    celui qui a atteint la réalisation (Satori)
    comprend que l’astre existe par
    la présence du doigt.
    [Et ici
    la mani-pulation est bien
    un travail des doigts]
    —-
    Sage lune doigt
    931 000 résultats (0,37 secondes)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut