Passer d'un monde contrôlé par une trentaine d'algorithmes (10 + 10 + 10) à un monde sans algorithmes. Ou à tout le moins arriver à habiter le réel, dans la sphère intime, personnelle, dans notre travail, dans nos loisirs, en parvenant à s'extraire de toute forme de guidance et/ou de déterminisme algorithmique que nous n'aurions pas choisi, dont nous ne serions pas conscients et dont l'intentionnalité réelle nous demeurerait obscure.
Éviter qu'un jour peut-être la dysalgorithmie, ce "trouble de résistance algorithmique où le sujet fait preuve d'un comportement ou d'opinions non-calculables", ne devienne une pathologie reconnue.
Sauf à vivre dans une déconnexion totale, est-il possible de s'abstraire de ces formes de guidage algorithmique aussi sourdes que constantes ?
Plusieurs phénomènes sont en train de se produire et concourent à créer un moment inédit à l'échelle de l'emprise que les GAFA ont sur l'écosystème numérique depuis une quinzaine d'années. D'abord la "crise" réputationnelle et d'image que traversent successivement les grandes plateformes. En ce moment c'est au tour de Facebook mais avant lui Google avait également connu ses annus horribilis. Ensuite la crise éthique des ingénieurs et l'essor du "Design ethique", de la "privacy by design" et autres labels "Time Well Spent", même si tout cela est en train d'être récupéré par les mêmes GAFA et qu'il nous faut l'observer avec circonspection. Et enfin l'arrivée d'un cadre réglementaire opportun – le RGPD – et qui pourrait être le point de départ d'un nouveau cercle plus vertueux que vicieux.
(C'est un fameux) Trois mâts de la navigation de demain.
La conjonction de ces 3 phénomènes ne va bien sûr pas nous ramener à l'utopie de la déclaration d'indépendance du Cyberespace mais elle va probablement être l'acte fondateur d'un nouvel embranchement tripartit.
D'un côté nous aurons le maintien d'une navigation carcérale (où nous serons en permanence traqués et observés) dans laquelle l'expérience utilisateur pourra être considérée comme "dégradée". Une expérience déjà vieille de presque 10 ans … On connaît l'antienne : "Si c'est gratuit c'est toi le produit".
De l'autre une navigation dans les mêmes services mais où nous paierons pour avoir un semblant de garantie que notre vie privée sera respectée et que notre expérience utilisateur ne sera pas en permanence interrompue par de la publicité. Là encore l'idée n'est pas nouvelle mais elle paraît aujourd'hui inévitable. Ce sera l'avènement d'un web "assurantiel" dont chaque nouveau scandale, chaque nouvelle dérive a contribué à renforce le storytelling pour mieux nous y préparer. En quelques semaines et sans que cela ne choque désormais plus personne nous sommes ainsi passés de "Facebook sera toujours gratuit" à "Il y aura toujours une version gratuite de Facebook". Et donc une version payante également, sans publicités, comme je vous l'avais déjà annoncé depuis longtemps et comme l'a encore confirmé Bloomberg récemment. Et comme vient encore de le confirmer le lancement du test d'un accès payant aux groupes Facebook.
On a aussi, dans une autre genre de course à la monétisation, les énièmes fonctionnalités et outils de monétisation lancés par Youtube ces dernières semaines (avec encore tout récemment l'annonce pour les chaînes de plus de 10 000 abonnés de la possibilité de proposer des abonnements à des contenus premium pour 4,99 dollars par mois). De manière générale, nombre de contenus et de services hier gratuits au sein même des plateformes sont et seront toujours davantage payants avec un modèle d'abonnement, modèle qui va permettre de faire taire la colère des créateurs tout en renforçant leur assignation à résidence attentionnelle, et qui permettra aux plateformes, mais dans un second temps, soit de prélever une commission substantielle sur ces abonnements, soit, hypothèse la plus probable, de présenter une offre de type "bouquet" dans laquelle vous paierez directement à la plateforme pour l'accès à un certain nombre de chaînes ou de services, à charge pour la plateforme d'en reverser ensuite une (toute petite) part aux créateurs et aux auteurs.
Et puis bien sûr se développera également une branche de logiciels libres – il faut en tout cas au moins autant le souhaiter que le soutenir – avec des modes de gouvernance s'apparentant à des communs et où les circuits courts de la connexion seront à l'écologie de l'esprit ce que le "bio" est à l'écologie tout court. Avec le devoir de s'interroger dès aujourd'hui sur les moyens de garantir l'indépendance des communs.
Vous pourrez m'objecter que cela n'a rien d'inédit : depuis sa création ou presque, le web a toujours été traversé par des services gratuits, d'autres payants et tout un ensemble de protocoles ouverts et interopérables qui pouvaient d'ailleurs indistinctement être au mis service d'environnement gratuits ou payants.
Mais les usages ont changé.
Smartphones et applications sont aujourd'hui l'usage premier de connexion, et quelques vortex attentionnels géants, tous ou presque liés à l'un des GAFAM, de Youtube à Facebook en passant par Instagram, Snapchat ou Twitter, concentrent l'essentiel de notre temps connecté pour couvrir des besoins qui vont de l'information au divertissement en passant par la gestion de notre quotidien dans ses aspects les plus triviaux comme les plus fondamentaux.
Et derrière ces usages, des rentes elles aussi inédites se sont constituées. Pour les grands écosystèmes du web, la gratuité, c'est terminé.
Nous en parlions plus haut, une version payante de Facebook n'est plus un tabou. Du côté de Google Maps la bascule s'est faite ce 11 Juin 2018.
Mais revenons à la question initiale du "guidage" ou de la "guidance" algorithmique.
Et la possibilité de s'en abstraire (ou pas).
Au commencement de cette guidance et des formes d'aliénation qu'elle produit, au commencement était la catégorisation. La clé c'est de catégoriser. Pour pouvoir guider, proposer, conseiller, prescrire, il faut commencer par ordonner, trier, classer et donc catégoriser. Ce n'est d'ailleurs pas un hasard si les premiers outils – grand public – qui ont permis de trouver de l'information sur le web ressemblaient à ça :
Des annuaires de recherche. De l'information catégorisée, hiérarchisée selon une arborescence thématique et alimentée par des humains (salariés). La préhistoire. Et puis progressivement – je ne vais pas vous refaire l'histoire des moteurs de recherche – la fin des annuaires remplacés par les "moteurs". Fin des annuaires mais pas fin de la catégorisation.
Catégorisation catégorique et catégorielle.
Voilà au moins 15 ans que l'on laisse les algorithmes catégoriser. A l'époque du moteur de recherche Altavista, qui fut l'un des pionniers sur ces questions (avec "Live Topics" développé notamment par François Bourdoncle ensuite parti fonder Exalead), on parlait alors de "Clustering" pour désigner ces effets de catégorisation automatique. Et on a cru qu'ils seraient meilleurs que nous pour le faire. De fait ils sont immensément plus rapides. Mais les algorithmes ont de la catégorisation une approche qui est assimilable à celle de la topologie, science mathématique dans laquelle "une tasse à café est identique à une chambre à air, car toutes deux sont des surfaces avec un trou". En d'autres termes, ce qui est logique de leur point de vue (mathématique, statistique et objectivé) n'est pas nécessairement rationnel de notre point de vue (subjectivé et contextuellement mouvant).
Sans même parler de "compréhension", sur la plupart des sujets qu'ils traitent, les algorithmes sont incapables de simplement "prendre en compte" le contexte autrement que par l'historique de recherche ou les proximités sémantiques littérales. D'immenses budgets sont d'ailleurs investis en recherche et développement par les GAFA pour parvenir à une compréhension fine qui permette d'éviter d'étranges et problématiques rapprochements entre certains contenus. Mais l'éditorialisation algorithmique est un mécanisme encore très confus et biaisé, y compris même pour ceux qui tentent de le contrôler, dès lors qu'il dépasse la dimension de la simple recommandation transactionnelle. Savoir que "quelqu'un qui a regardé, consulté ou acheté ceci" est statistiquement susceptible de "regarder, consulter ou acheter cela" ne veut pas dire que l'algorithme est capable de comprendre la logique et la motivation de la consultation : il traite "simplement" sa linéarité et son historicité.
C'est probablement ce manque de "compréhension" qui est à l'origine des incessantes polémiques autour de recommandations pour le moins problématiques y compris au sein de biotopes informationnels dont on ne peut pas supposer qu'ils manquent quantitativement ou qualitativement de données. Ainsi la plateforme Youtube for Kids qui faisait une nouvelle fois la Une de l'actualité en Mars dernier (nous y reviendrons plus loin).
L'algorithmisation systématique à des fins de recommandation a fini par créer des boucles de prescription quasi-incontrôlables car elles reposent sur des motifs (patterns) contextuels faussés aussi bien dans les contenus eux-mêmes** que dans la logique de visionnage qui les accompagne***.
** Une vidéo de dessin animé dans laquelle Donald Duck envoie ses neveux travailler à la mine peut déboucher sur la recommandation d'une vidéo très violente sur les conditions de travail des enfants dans certains pays.
*** je regarde une vidéo terroriste mais personne ne peut savoir si c'est pour me radicaliser ou pour m'informer car je suis journaliste ou chercheur.
La nécessaire désambigüisation entre un contenu et une requête, si elle était – relativement – facile à dissiper à l'échelle sémantique d'un mot ou d'une expression historicisée (dilemme du jaguar) devient extrêmement complexe et bien trop multifactorielle dans le cadre de la diversité actuelle des usages de consommation en ligne de contenus.
Et quand je dis extrêmement complexe, je ne fais pas référence à la même complexité que celle évoquée par Benoît Hamon au sujet des recommandations Netflix 😉
"Un coup de dé jamais n'abolira le hasard".
Et aucun algorithme jamais ne parviendra à opérer un traitement éditorial contextuellement assez fin ou élaboré qui soit l'équivalent de celui opéré par une intelligence humaine. Croire le contraire est, au mieux, le signe d'un anthropomorphisme candide, et au pire celui d'un transhumanisme radical (ou d'une Benoît Hamonade donc).
Des programmes, des algorithmes et des données peuvent permettre de "choisir" des contenus ciblés à proposer, mais aucune machine, aucun algorithme et aucun jeu de données ne sera jamais capable de savoir qu'elle est en train de choisir, ni d'opérer un travail réflexif critique sur la nature de ce choix ; or ce sont là les deux conditions nécessaires pour parler d'éditorialisation véritable.
Sans cette approche réflexive et critique dynamique, l'éditorialisation tourne à vide : elle n'est plus un arbitrage documenté mais un arbitraire automatisé.
Retour vers le futur.
De manière assez troublante et paradoxale nous sommes en train d'assister au retour des annuaires de recherche. Ben oui. Le retour de … ça.
Je m'explique. Quand j'écris "Nous sommes en train d'assister au retour des annuaires de recherche" je veux dire que nous assistons au retour d'une approche catégorisée, catégorique (qui ne souffre pas de discussion) et surtout – et ça c'est inédit et très problématique – catégorielle (au sens sociologique) de l'organisation et de la mise à disposition des contenus.
A ceci près que ce ne sont plus des humains mais des algorithmes qui effectuent le travail de catégorisation, qu'ils le font en effet sans que cela ne souffre de discussion (c'est catégorique), et que cette catégorisation catégorique repose sur des données catégorielles (souvenez-vous de Facebook détectant notre classe sociale). La "bulle de filtre" d'Eli Pariser ne fait finalement que décrire cette approche catégorielle de l'accès à l'information, une approche où chaque "catégorie de travailleur" (Digital Labor) se voit proposer une navigation limitée aux quelques "rubriques" les plus aptes à restreindre toute forme de dissonance cognitive dans un contexte de tâche donné ou dans une historicité située de requêtage et de recherche.
Une version non-algorithmique de Youtube.
Suite aux nouvelles polémiques – la dernière datait de Novembre 2017 avec Peppa Pig et ses amitiés flippantes – autour de la plateforme Youtube for Kids qui "suggérait" des vidéos traitant du suicide et du cannibalisme ou de diverses théories conspirationnistes, la société mère (Google / Alphabet) annonçait en Avril que l'application Youtube Kids allait être "non-algorithmique".
"Une version non-algorithmique de Youtube". C'est quand même dingue non ? C'est un peu comme si on disait, je ne sais pas moi, par exemple, "Une version de gauche de la politique d'Emmanuel Macron", ou alors "Une version humaine et humaniste de Gérard Collomb." C'est fou.
C'est fou mais c'est quoi "une version non-algorithmique de Youtube" ? C'est l'idée que tous les diffuseurs seraient vérifiés (à charge pour eux de ne pas faire n'importe quoi avec leurs contenus …), et que les parents auraient la possibilité de désactiver les "suggestions". Une version également dénommée "Whitelisted" c'est à dire fonctionnant avec une "liste blanche" de contenus et de diffuseurs "autorisés" (et donc une liste noire de contenus et de diffuseurs interdits).
Célèbre version non-algorithmique du moteur de recherche Google.
Que Google, même en se limitant à l'application Youtube Kids, annonce ainsi une version "non-algorithmique" alors même que pendant deux décennies l'ADN et la culture de l'entreprise fut celle du tout algorithmique et du "zéro intervention humaine sur les résultats de recherche" suffit à acter l'évolution des questions d'éditorialisation à l'échelle des GAFA. D'autant que ce mouvement de "désalgorithmisation" (et donc du renforcement de la modération humaine ou des "listes blanches / noires de contenus") est loin d'être isolé chez les GAFA.
Le même Google, avec cette fois l'arrivée du RGPD a là encore été le premier à annoncer l'arrivée de publicités sans personnalisation alors que, là aussi, il fut pendant 15 ans le chantre et le leader incontesté de la personnalisation publicitaire. Annonce qui a bien sûr généré quelques réactions assez tendues dans le monde des requins, des vautours, des comment on dit déjà, ah oui, des annonceurs qui semblent découvrir le niveau de leur aliénation à cette régie craignant ce qui – au-delà de l'abus de position dominante de ladite régie – ne devrait être qu'un salutaire assainissement.
Et ce n'est là qu'une étape car Google vient d'annoncer la refonte totale de ses outils publicitaires. L'affaire est présentée par Google comme un choc de simplification visant à déployer une sorte de guichet unique d'accès aux fonctionnalités publicitaires proposées par la firme. "Google Adwords" devient "Google Ads". Comme si les mots ne suffisaient désormais plus. Comme si cette ressource naturelle qu'est la langue et qui lui avait permis de bâtir son empire ne méritait même plus le mot la qualifiant.
En 2018, c'est donc Google qui deviendrait le chantre de la désalgorithmisation et de la dépublicitarisation du monde. Voilà qui est assez croquignolet non ?
Désalgorithmisation et éditorialisation sont dans un bateau.
Comme l'explique depuis longtemps Marcelo Vitali-Rosati, l'éditorialisation c'est :
"l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel."
J'ajoute donc, pour être cohérent avec ce que je racontais plus haut, que cet acte de production du réel doit opérer simultanément un travail réflexif critique sur la nature des éléments qu'il produit. Sans cela il s'agit en effet simplement d'algorithmisation qui pourrait alors être définie comme :
L'ensemble des automatismes liés à des infrastructures techniques qui permettent la sélection et la catégorisation de contenus répondant à différentes expériences de navigation plus ou moins volontairement dégradées ou stéréotypiques afin d'être mises en cohérence attentionnelle avec un modèle économique (le plus souvent dit "publicitaire"). A ce titre, l'acte de production du réel de l'algorithmisation opère principalement par polarisation (renforcement des opinions) et par essentialisation.
L'un des combats qu'il va nous falloir mener va être de permettre aux processus d'éditorialisation authentiques d'offrir une résistance naturelle aux processus d'algorithmisation tournant en tâche de fond dans la plupart de nos interactions sociales et marchandes connectées ou non.
Algorithmisation et éditorialisation sont aussi miscibles que l'eau dans l'huile.
Voilà d'ailleurs probablement la vraie "nature" du phénomène qualifié de bulle de filtre par Eli pariser dans son ouvrage éponyme. A l'échelle des grandes plateformes et de l'expérience de navigation qu'elles proposent, du point de vue du régime d'internalités dont elles se nourrissent, la part de l'algorithmisation subie semble (tout au moins pour Facebook) largement supérieure à celle de l'éditorialisation choisie. Mais à l'échelle d'une navigation "trans" et "hors" plateformes la nature du mélange change sensiblement et l'algorithmisation subie peut être cantonnée au tracking publicitaire (retargeting notamment) et laisser place à davantage d'éditorialisation choisie grâce à ce vieux truc qu'on appelle les liens hypertextes (entre autres) et aux errances qu'ils autorisent.
Huile de la bulle de filtre algorithmisée non-miscible dans l'eau de l'éditorialisation à l'échelle du web.
Huile de la bulle de filtre éditorialisée non-miscible dans l'eau de l'algorithmisation à l'échelle des plateformes.
Ce que j'essaie de dire au travers de ces deux MVM (métaphores visuelles moisies) c'est que nous sommes toujours pris, dans le numérique comme hors du numérique, dans des logiques cognitives de polarisation. Nous "penchons", naturellement ou artificiellement toujours davantage d'un côté de l'échiquier politique, sociétal, culturel, etc. Du fait de notre éducation, de nos lectures, etc … Or le numérique n'est pas, n'est plus, un "milieu" ou un écosystème homogène. Il est traversé par une ligne de fracture claire entre d'un côté des biotopes fermés et propriétaires (les plateformes) et de l'autre une multitude rhizomatique de contenus et de services "ouverts".
Or les logiques de polarisation numériques ne sont pas entièrement assimilables ou comparables aux logiques de polarisation non-numériques. Parce que la question de la "concurrence" ne s'y pose pas dans les mêmes termes, parce que les autorités de régulation et de contrôle y sont plus diffuses et moins présentes, et surtout parce que les logiques d'usage sont radicalement différentes et souvent antagonistes de celles du monde analogique. Pour le dire plus simplement (et plus caricaturalement), le monde analogique ne dispose pas de média – au sens littéral – capable à la fois de nous informer, de nous divertir, d'interagir avec nos amis, de nous permettre de publier du contenu, etc … Or c'est précisément cette approche holistique qui nous piège souvent dans l'analyse des phénomènes à l'oeuvre dans les plateformes et des enjeux qu'ils soulèvent.
Si, dans une société, il est nécessaire d'interroger la manière dont se fabrique l'opinion, à l'échelle de nos sociétés et de nos sociabilités "numériques", l'opinion en 2018 se fabrique principalement dans les biotopes fermés (Facebook notamment), des biotopes qui ne tiennent que par la densité des échanges du régime d'internalités qu'ils orchestrent algorithmiquement. Voilà pourquoi les questions d'algorithmisation et d'éditorialisation sont absolument centrales car elles sont les seules qui permettent de penser certaines problématiques comme les Fake News pour ce qu'elles sont et non pour ce que l'on aimerait qu'elles soient au titre d'une diversion médiatique servie par une incompétence politique (et réciproquement) : c'est à dire simplement des symptômes et non la cause du mal.
Dans l'expérience que nous aurons demain, du numérique en général au web en particulier, au travers de leurs instances renouvelées (interfaces vocales, internet des objets, génomique personnelle …) et dans les nouveaux modes d'organisation sociale produits (partage et fragmentation du travail, nouvelles formes de précariat …), la grande question sera celle du ratio, de l'équilibre entre des logiques d'algorithmisation et d'éditorialisation. Sur le Big Data, sur les questions de "Privacy", mais plus globalement sur tout un ensemble de questions sociales et politiques il nous faudra faire des choix forts d'un côté ou de l'autre. Et les choix que nous ferons collectivement devront prendre en compte les choix qui seront faits, plus ou moins explicitement, plus ou moins sous la contrainte, par les plateformes qui règnent pour l'instant sur l'essentiel de nos vies connectées.
Si cet équilibre déjà fragile et mouvant entre éditorialisation et algorithmisation venait à se briser, à l'échelle d'un secteur (la santé, l'éducation, etc.) ou d'un enjeu sociétal, politique ou culturel majeur (migration, politique familiale …), le risque est que des formes de déterminismes techniques catégoriels remettent en cause la part de libre-arbitre et d'imprévisible qui, tant à l'échelle individuelle que collective, empêche les sociétés humaines de basculer dans des formes douces de totalitarisme ou de guidance libérale toxique (la fameuse main invisible du marché ayant trop souvent tendance à se transformer en main bien visible dans la gueule des plus pauvres).
Le cas ParcoursSup.
Je prends juste un exemple avec Parcours Sup et les différents algorithmes dits "d'affectation" dans l'enseignement. Le problème que pose ParcoursSup (comme l'ensemble des algorithmes d'affectation) est précisément celui du ratio entre l'éditorialisation qui est liée à une volonté politique et la manière dont l'algorithmisation est un moyen de l'assumer, de la dissimuler ou de la biaiser. Plus métaphoriquement on pourrait signaler que "l'affectation" doit être prise dans sa double acception : à la fois le déterminisme mathématique programmable et la dimension de "l'affect" qui devrait elle aussi être un déterminant primordial. A ce titre par exemple la fin de la hiérarchisation des voeux dans ParcoursSup est une décision aberrante car elle nie justement toute forme "d'affect" et sur-pondère le déterminisme mathématique en lui ôtant ce qui aurait dû rester l'un de ses critères essentiels de lisibilité sociale (Bourdieu pardonne-leur) et ce qui devrait conditionner sa finalité.
Et donc on fait quoi gros malin ?
Il nous faut parvenir à développer ce que l'on pourrait qualifier de pensée intersticielle du numérique. C'est à dire injecter dans chaque rouage algorithmique ou calculatoire, dans chaque boucle déterministe, à la fois les garanties qu'elle sera auditable et compréhensible par des tiers ("accountability") mais aussi les fenêtres démocratiques garantissant que l''éditorialisation présidant aux choix effectués restera lisible de tous et pour tous. Et que de cette lisibilité garantira l'auditabilité du processus algorithmique et calculatoire qui la rend opératoire à l'échelle du tissu social collectif et des parcours individuels qui en forment la trame.
Là encore pour reformuler en termes plus clairs, nous avons, me semble-t-il, aujourd'hui davantage besoin "d'ouvrir" et de rendre transparents les processus de décision politiques plutôt que les algorithmes qui les servent, les masquent, ou les exonèrent de leur responsabilité.
La question que je posais au début de cet article était la suivante :
"Sauf à vivre dans une déconnexion totale, est-il possible de s'abstraire de ces formes de guidage algorithmique aussi sourdes que constantes ?"
La réponse est oui, si et seulement si nous parvenons collectivement à réaffirmer la primauté de l'éditorialisation sur l'algorithmisation du monde. Il nous faut pour cela renouer avec le rhizome, avec les agencements collectifs d'énonciation qui fabriquent de la dissonance plutôt qu'avec ceux qui n'appellent qu'à des formes triviales ou élaborées et dissimulées de résonance. Ce qui implique de disposer d'architectures techniques le permettant.
Cela tombe bien. Il en est une qui est parfaitement fonctionnelle depuis déjà près d'un quart de siècle et que l'on appelle … le web.
Bonjour, c’est la deuxième fois que je tombe sur votre site via d’autres liens …
Dommage que vos flux atom et rss soient très mal formatés, sinon je viendrai vous rendre visite plus souvent …
https://validator.w3.org/feed/check.cgi?url=http%3A%2F%2Faffordance.typepad.com%2Fmon_weblog%2Fatom.xml
https://validator.w3.org/feed/check.cgi?url=http%3A%2F%2Faffordance.typepad.com%2Fmon_weblog%2Frss.xml
Étonnant ! Je vois bien cet article dans NetNewsWire — grâce au flux RSS fourni dans la page…
Excellent article, un grand merci.