Bon je m'étais pourtant promis de ne pas en rajouter une couche sur toute cette histoire de bulle de filtre et de rôle des algorithmes / réseaux sociaux / faillite de la presse dans l'élection de Donald Trump qui, pendant qu'on discute du rôle de Facebook dans son élection et de la manière dont il gère son compte Twitter est en train de nommer tranquillou des suprémacistes comme conseillers stratégiques sans que ni la valeureux Barak ni la non-moins valeureuse Hilary ne s'en émeuvent outre-mesure. Bref.
(Source)
Je ne voulais plus en parler de cette histoire de bulle de filtre mais que voulez-vous voilà plusieurs jours que ma bulle de filtre ne me renvoie que des articles sur la bulle de filtre prouvant donc ipso facto l'existence d'une bulle de filtre (en tout cas de la mienne).
Alors bien sûr, les algorithmes trient l'info (c'est même un peu pour ça qu'ils ont été inventés) et permettent donc d'accéder à certaines infos car comme il y a trop d'infos il faut bien se résoudre à choisir.
Alors bien sûr les plateformes sociales et les moteurs de recherche sont des outils qui sont en capacité de fabriquer l'opinion. Cela ne veut pas dire qu'ils le font systématiquement, de manière toujours consciente, ni qu'ils le font plus, moins, en pire ou en mieux que les anciennes plateformes médiatiques, cela veut dire qu'ils sont en capacité de fabriquer l'opinion, point barre.
De mon côté il y a longtemps que je plaide pour qu'on identifie clairement ces phénomènes d'éditorialisation algorithmique et qu'on se donne les moyens de les rendre plus transparents. J'ai même proposé des solutions permettant d'y parvenir.
Mais à force de débattre sur la bulle de filtre on en vient à oublier de rappeler comme éléments de contexte déterminants, deux ou trois choses essentielles.
Primo il existe des gens, des groupes, des médias dont le métier, le business ou la compétence est précisément de biaiser les algorithmes : cela s'appelle la fachosphère ou la gauchosphère, mais c'est également la stratégie de groupes ou de médias constitués (de Politico à l'infâme Breitbart). Ces gens / groupes / médias sont plus ou moins puissants, efficaces et opérationnels mais surtout ils y passent toutes leurs journées. Donc forcément leur "stratégie" sera toujours plus efficace pour biaiser l'algorithme dans le sens qui leur convient que le réflexe que nombre de collègues ou commentateurs nous incitent actuellement à essayer à l'échelle individuelle, c'est à dire sortir de notre bulle de filtre en choisissant des amis ou des pages qui pensent différemment de nous.
Deuxio, les plateformes et les algorithmes qu'elles mettent en oeuvre sont avant tout des services. Des services qui sont au service de leurs usagers, certes, mais également et avant tout au service des intérêts (politiques, économiques, idéologiques) des gens qui les dirigent ou qui occupent une place centrale dans l'actionnariat desdites plateformes. Le fait de dire (à tort ou à raison mais à mon avis toujours à tort) qu'un algorithme peut être "neutre" ne doit pas oblitérer le fait que la conception du service au sein duquel cet algorithme opère s'inscrit, elle, dans une finalité qui n'est jamais exempte d'une forme d'idéologie ou en tout cas au service d'une "cause", "cause" par ailleurs souvent soluble dans son modèle économique.
Je prends deux exemples que j'espère parlants.
Google. Google ne veut pas "trier l'information par ordre de popularité" (ça c'est son algorithme qui s'en charge), Google veut "organiser l'information à l'échelle de la planète". La "valeur", au sens presque "moral" que véhicule l'algorithme est donc avant tout et par dessus tout celle de la popularité. Dans le débat actuel on questionne beaucoup la manière dont l'algorithme trie l'information mais beaucoup moins la "mission" de Google.
Facebook. De la même manière, Facebook ne veut pas "afficher des informations qui correspondent à vos centres d'intérêts établis en fonction de vos interactions dans ou en dehors de sa plateforme" (ça c'est son algorithme qui s'en charge), Facebook veut "constituer une audience segmentable à volonté au service d'intérêts d'annonceurs". Et il a pour cela besoin de contenus suscitant de "l'engagement". La "valeur" transmise et appliquée par l'algorithme de Facebook est donc celle de l'engagement.
Ce que fait un algorithme et ce que veut une société commerciale, ce n'est pas du tout la même chose. Parce qu'un algorithme ne se nourrit, si l'on peut dire, que d'itérations et de boucles de rétroaction qui renvoient à la logique interne de sa programmation mathématique (= if this … then that), alors que le "projet" ou la "mission" de Google ou de Facebook sont nécessairement nourris de choix tour à tour ou simultanément sociaux, politiques, économiques, etc.
Facebook est une machine à produire de l'engagement. Google est une machine à produire de la popularité. Ce qui veut dire que le régime de vérité de Google est celui de la popularité. Est "vrai" dans l'écosystème Google, au regard des critères de l'algorithme de Google, ce qui est populaire. Wikipédia dispose elle aussi d'un régime de vérité, différent. Le régime de vérité de Wikipédia est celui de la vérifiabilité. Est "vrai" dans l'écosystème Wikipédia ce qui est vérifiable. <Remarque> si Twitter continue de peiner à se trouver un modèle économique c'est aussi probablement parce que la spécificité de son régime de vérité est difficile à établir. </Remarque> Quel est le régime de vérité de Facebook ? Le taux d'engagement. Est "vrai" dans l'écosystème Facebook ce qui permet de produire de l'engagement, d'être "atteint" (le fameux "reach") et, par effet de bord, de "porter atteinte". Peu importe que cela soit "vérifiable", peu importe que cela soit "populaire" (effet de l'illusion de la majorité), il suffit, dans le régime de vérité de Facebook, que cela produise de l'engagement.
Se souvenir une nouvelle fois de Foucault quand il écrivait ceci :
"Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai."
Si Zuckerberg est dans le déni, comme le démontre une nouvelle fois magistralement Zeynep Tufekci, c'est aussi parce qu'il s'obstine à nier le régime de vérité spécifique de sa plateforme. Si l'on faisait un instant abstraction de toute considération commerciale, le "bon" régime de vérité de Facebook à l'échelle du média qu'il est aujourd'hui devenu et de l'audience qu'il permet d'atteindre, devrait être celui de Wikipédia, c'est à dire celui de la vérifiabilité. Il lui faudrait pour cela se doter d'un circuit de modération et de contribution qui soit l'équivalent – y compris dans ses travers et sa complexité – de Wikipédia. Mais cela n'entre naturellement pas dans son projet politique.
Pour bien saisir la complexité de ces régimes de vérité, y compris à l'échelle d'une plateforme unique, il faut prendre en considération le fait que co-existent plusieurs cercles décisionnels, tous en charge de définir, à différents niveaux, quel sera le régime de vérité de la plateforme et comment il s'appliquera.
Le premier cercle c'est celui de la "décision algorithmique", et c'est celui-ci qu'on n'arrête pas de questionner depuis l'élection de Trump, comme si le boulot de Mark Zuckerberg était celui d'un ingénieur lambda chargé de mieux régler l'algorithme, comme s'il s'agissait de visser ou de dévisser un boulon.
Mais il y a aussi un deuxième cercle, celui du "Board" de Facebook et des décisions qu'il prend pour servir son projet, décisions en fonction desquelles les ingénieurs décident ensuite (et non avant) de modifier tel ou tel critère, tel ou tel réglage dans l'algorithme.
Et puis il y a un troisième cercle, tout aussi déterminant sinon davantage, qui est celui de l'actionnariat de Facebook et de ses sources principales de financement. En très exactement 35 tweets, Malicia Rogue nous raconte l'histoire de Peter Thiel**, fondateur de Paypal et principal investisseur de Facebook. Et l'histoire de son rapport "aux médias" et à la presse "d'opinion". C'est aussi édifiant qu'instructif. La vraie bulle de filtre est d'abord celle-là : celle d'un actionnariat au service d'un projet politique et visant par-dessus tout à préserver ses propres intérêts, à faire valoir ses propres valeurs. Un projet dont l'algorithme est au mieux le reflet et au pire l'instrument.
Pour résumer, le problème central n'est donc pas que tel ou tel algorithme privilégie telle ou telle information, ou qu'il relaie des hoaxs et des informations non-vérifiées. Le premier problème est qu'il soit impossible de déterminer clairement et publiquement les logiques propres à chacune de ces éditorialisations algorithmiques. Le second problème est celui du "régime de vérité" propre à chacun de ces écosystèmes médiatiques qui concernent quotidiennement le quart de l'humanité et la moitié de la population connectée. Et le troisième problème, le gros problème, bien plus important, crucial et déterminant pour nos sociétés démocratiques, est le même que celui de la presse et des médias "non-algorithmiques", c'est à dire qu'ils soient pour l'essentiel aux mains de quelques oligarques milliardaires.
**A propos de Peter Thiel, Arrêt sur Images vient de publier un portrait très … intéressant.