"l’algorithme n’est pas tant un objet utile, tel qu’une voiture, un parapluie, ou un cure-dents, qu’une façon différente de penser." Bernard Chazelle.
Le détournement algorithmique est un art. Et quand les algorithmes sont partout, il devient une nécessité. Qu'il relève du bricolage collaboratif ou de l'initiative individuelle, sa possibilité même est à elle seule une respiration suffisante pour s'extraire au moins momentanément de la gangue de prédictibilité (des algorithmes qui) nous gouverne(nt).
Après l'heure de gloire puis le déclin programmé du Google Bombing (cf ces billets), deux exemples viennent illustrer magnifiquement ce propos.
Le premier est récent et s'intitule :
Random Shopper.
Voici la description du projet :
"Comment un code de programmation peut-il transformer radicalement nos habitudes de consommation en contournant les « modes opératoires » imposés par le marketing ?
Concepteur talentueux de jeux vidéo, Darius Kazemi est aussi un expérimentateur capable de programmer des processus à visée sociale. Son « Random Shopper » (« acheteur aléatoire ») est un robot informatique qui choisit un mot au hasard, l’introduit dans Amazon et, avec un budget déterminé, achète ensuite le premier livre (c’en est souvent un), CD ou DVD proposé. Le consommateur, qui ne découvre cet achat qu’en recevant et en ouvrant son paquet, passe tour à tour par le stade de la devinette, de la surprise et finalement de l’égarement ou de la joie devant le livre reçu. Ce processus relativement simple est capable d’ébranler les stratégies fétiches les plus basiques du marketing, qui visent à connaître le plus intimement possible la personnalité du consommateur pour titiller à volonté ses désirs (comme l’illustrent à merveille les suggestions « Recommandations pour vous » d’Amazon Livres). Le culte de la consommation est ainsi battu en brèche par ce que l’on peut appeler l’ « effet paquet-cadeau », l’émotion déclenchée par un « cadeau » choisi par un tiers (quand bien même celui-ci est une machine).
L’algorithme élaboré pour épier le moindre de nos gestes en ligne et détecter nos appétits les plus insatiables se trouve donc neutralisé par un logiciel simple et correctement programmé." (Source)
Un projet dont le blog est ici.
Et le second est beaucoup plus ancien et s'appelle (toujours) :
GWEI
GWEI comme acronyme de Google Will Eat Itself. Le projet date de 2005 et fut présenté lors du festival Ars Electronica. En voici l'objet :
"L'objectif, ambitieux, n'est autre que de racheter Google, grâce aux fonds générés via Adsense, le propre outil publicitaire du moteur de recherche. Google will eat itself (GWEI) comporte un site Web www.GWEI.org qui a tout l'air d'un magazine sérieux d'information sur le web marketing et l'e-business. Sa priorité n'est cependant pas d'informer les gens mais de capter le plus grand nombre de visiteurs à la recherche d'information et de les amener à cliquer sur les publicités textuelles placées automatiquement par le programme Adsense de Google. Lorsqu'un site web s'inscrit à Adsense (l'une des principales sources de revenus de Google), le programme affiche sur le site affilié des annonces ciblées. L'avantage, c'est que chaque clic sur une publicité est rémunéré par Google, qui verse un micropaiement au site hébergeur.
Par conséquent, chaque fois que quelqu'un clique sur une pub, GWEI reçoit une somme qui sera ensuite réinvestie automatiquement dans l'achat d'actions Google. (…) A long terme, le plan est de prendre Google et de redistribuer les actions à la communauté des internautes via le site GTTP «Google to the people» . Un plan machiavélique qui a failli tourner court, Google ayant résilié son contrat pour le site GWEI.org dès qu'il a eu vent du projet. Ce qui n'a pas empêché les hacktivistes de continuer leur action sur d'autres sites tenus secrets." (Source)
Il ne reste plus aujourd'hui que 202 345 117 ans avant que GWEI n'ait racheté la totalité de Google. Cela peut certes paraître énorme, mais il y a 8 ans, en février 2006, il fallait compter 3 443 287 036 années. Je vous laisse tracer vous-même la courbe de Gauss qui va bien 🙂
Prédiction et prévarication sont dans un bateau programme.
Ce qui est fascinant dans ces détournements algorithmiques, c'est lorsqu'on les replace dans le contexte d'un web principalement "agi", (mal)"mené" par des robots (bots), cf les 3 derniers paragraphes de ce billet.
GWEI, Random Shopper et avant eux le Google Bombing sont tous trois emblématiques du détournement par itération et insistance, dont le principe consiste à s'appuyer sur les règles de base de l'algorithme pour en faire le coeur du détournement.
Contre les algorithmes prédictifs se lèvent les programmes solitaires (Random Shopper) ou collaboratifs (Google Bombing) de prévarication : du point de vue de Google / Amazon / Facebook / etc. nous sommes les détenteurs d'un mandat stéréotypal qui présuppose qu'à tel acte (d'achat par exemple) correspondra tel autre acte (d'achat toujours, et toujours par exemple). L'algorithme (essentiellement statistique) ajuste alors, par inférence, les obligations supposées de ce mandat. Exemple : si nous achetons fréquemment sur Amazon des ouvrages de science-fiction, nous sommes supposément "obligés" d'être intéressés par d'autres suggestions liées à la S.F. La prévarication permet alors de se soustraire à ce mandat, à refuser d'en assumer les obligations liées. Le problème étant que, toujours dans l'exemple de l'acheteur de S.F., les recommandations de S.F. seront pour lui effectivement intéressantes. On est donc contraint de confier à un programme (typiquement l'approche de Random Shopper) le soin de porter cette prévarication au coeur de l'algorithme prédictif, de contraindre l'algorithme prédictif à traiter du cas de l'individu qui achète de la S.F. mais n'est pas intéressé par la S.F. Et voir ce qui adviendra.
Aléas jacta sunt.
Entre itérations par l'absurde et détournement d'inférences, deux mondes algorithmiques s'affrontent. David contre Goliath. Il ne s'agit pas pour les David de Random Shopper ou de GWEI de terasser le géant mais de ré-instrumentaliser ses routines les plus profondes dans une perspective artistique (Random Shopper) ou Hacktiviste (GWEI). Il se pourrait même qu'au final, a contrario, de tels projets ne fassent que renforcer les capacités prédictives des algorithmes visés, algorithmes qui comme le rappelait Milad Doueihi travaillent l'aléatoire comme une constante récursive :
"Prenons par exemple la lecture industrielle, c’est-à-dire tous les moteurs ou algorithmes de recommandation et de suggestion édifiée pour nous guider vers des choix de plus en plus pertinents. Ces outils relèvent également de l’impertinence, car dans leurs suggestions, se glissent très souvent un ou deux éléments qui sortent exprès de l’expectation.
En effet, les algorithmes ont été modifiés de manière à suggérer des éléments qui surprennent l’internaute, ces éléments inattendus s'avérant souvent achetés ou consultés. L’algorithme modifie donc le paradigme même de la pertinence dans le poids de la répétition et le cumul des informations."
Et Bernard Chazelle d'expliquer, dans sa leçon inaugurale au Collège de France :
"La plupart des grandes découvertes récentes en complexité algorithmique ont mis en valeur le rôle unique joué par l’aléa, la troisième grande ressource algorithmique après le temps et l’espace. Les non-initiés auraient tort de ne pas être surpris. Bien sûr, l’aléa est au cœur des sondages d’opinion et des protocoles cliniques en médecine, donc son utilité en informatique ne devrait faire aucun doute. Mais curieusement, l’aléa est indispensable là où on l’imagine accessoire et inutile là où on le juge nécessaire ! (…) Curieusement, bien qu’accessoire comme ressource de calcul, la randomisation est un outil conceptuel indispensable. Elle est aux algorithmes ce que la visualisation est à la géométrie. L’imagination la réclame, et on ne compte plus le nombre d’algorithmes optimaux découverts d’abord sous forme probabiliste pour être plus tard dérandomisés, c’est-à-dire débarrassés de tout vestige d’aléa."
Agir global, penser aléa local.
Si les détournements aléatoires de Random Shopper ou de GWEI sont in fine susceptibles de renforcer les capacités prédictives des algorithmes visés, c'est au nom de ce que Bernard Chazelle définit comme "l'un des concepts les plus fondamentaux de l'informatique : la localité du calcul."
"Une démonstration est une chaîne linéaire d’implications logiques. Tel un fleuve qui coule, elle progresse d’étape en étape et ne peut donc être lue que dans le « sens du courant ». Cette intuition est profondément fausse. Toute preuve mathématique formelle peut être lue et vérifiée dans n’importe quel ordre (par exemple, en marche arrière) de la même façon que la validité d’un calcul d’une machine de Turing peut être testée dans un ordre arbitraire. La raison tient à un des concepts les plus fondamentaux de l’informatique : la localité du calcul. Toute étape d’une preuve ou d’un calcul n’implique que la lecture d’un état et d’un petit nombre de caractères : tant que chaque étape a accès à l’information dont elle a besoin, leur ordre n’a aucune importance."
Ainsi donc, dans le cadre de notre programme de recommandation "made in Amazon" et de son détournement par le "Random Shopper", la "localité" algorithmique peut suffire à désamorcer le risque de voir ledit Random Shopper venir fausser la prédictibilité des résultats de l'algorithme de recommandation.
La dichotomie des Big Data et de la "gouvernance algorithmique" est entièrement articulée autour de cette propriété fondamentale : il faut aux programmes informatiques une immense quantité de données pour asseoir et bâtir leur capacité prédictive (et prescriptrice) de comportements, mais il ne faut aux algorithmes que la lecture d'un état et d'un petit nombre de caractères (= de données) pour l'exercer, pour la rendre opératoire. C'est ce qui fait qu'ils sont si délicats à leurrer. Ce qui fait qu'ils peuvent encore l'être parfois. Au prix du contexte. Un contexte lisible dans les données du programme, imprescriptible dans l'exercice de l'algorithme.
L'expression "politique des algorithmes" prend ici tout son sens car elle dispose des mêmes marqueurs que l'action politique proprement dite : écologie, finance, éducation, etc., toutes les données contextuelles sont disponibles en diachronie mais la nature de l'action politique semble pourtant presqu'uniquement consister à choisir de les instancier, de les rendre opératoires sur la base de la lecture d'un (seul) état et d'un petit nombre de variables circonstancielles.
Les Big Data sont un horizon d'explicitation (statistique) du contexte là où l'algorithme produit son propre contexte sous forme de routines conditionnant nos choix individuels et collectifs, routines qui peuvent alors parfois entrer en collision avec le contexte statistique global, se surimposer à lui, le modifier dans l'instant de l'interaction, du choix, et dont rétroactivement remodeler et modifier le contexte statistique brut des données collectées. Une contradiction qui n'a rien d'apparente et dont l'un des exemples les plus frappants est peut-être le débat autour des "tendances" de Google associées à l'analyse de la propagation de la grippe. Donc :
C'est pas parce que c'est indécidable que c'est imprévisible. Et réciproquement.
La fin de l'histoire pourrait donc être déterminée par 2 questions essentielles : celle du contexte (et du droit à la décontextualisation) et celle de la capacité de mise en oeuvre d'une détermination algorithmique auto-référentielle (le phénomène que je décrivais dans ce billet), détermination auto-référentielle qui me semble plus probable à court terme que la thèse holistique de la singularité défendue par Kurtzweil. Deux questions essentielles donc, mais à leur tour dépendantes de l'avenir d'un mode opératoire algorithmique qui s'affirme chaque jour davantage comme un paradigme fondateur d'une nouvelle ère d'alinéation / d'addiction technologique, je veux parler du High Frequency Trading, déclinable en High Frequency Documenting, en régimes d'Algorithmes à Haute Fréquence.
"L’autoréférence confère aux algorithmes leur puissance en leur donnant accès à la récursivité et au point fixe. Comme je l’ai déjà évoqué, c’est la forme syntaxique qui permet au fini d’exprimer l’infini. Le moteur de recherche de Google, PageRank, est un mode d’emploi fini pour un objet (la Toile) quasiment infini. Soit, mais quelle est la pertinence de l’indécidabilité dans un monde informatique forcément fini ?" Bernard Chazelle.
Les projets indiqués : GWEI, Random Shopper… ressemblent à des astuces potaches, au regard de cette interprétation de la stratégie de Google exposée par Laurent Alexandre : http://www.youtube.com/watch?v=kKwZmwmz_Zc.