Très vieux débat. Le web nait en 1989, Google en 1998 et Facebook est lancé en 2004. Progressivement, les algorithmes ne se contentent plus de rendre accessible et de hiérarchiser le chaos des pages web mais ils guident de plus en plus nos choix. En 2011, Eli Pariser publie son livre "The Filter Bubble: What the Internet Is Hiding from You" et développe sa théorie de la bulle de filtre et de l'enfermement algorithmique. Le débat est lancé. Il ne fera que se complexifier et s'épaissir sans qu'aucune étude scientifique ne parvienne réellement à trancher le noeud gordien suivant : nous faisons des choix, les algorithmes font des choix, les choix que nous faisons se font dans un cadre algorithmique qui modifie ces choix en retour en en favorisant certains et en en minorant d'autres. Qui est la poule ? Où est l'oeuf ?
Je ne suis pas un numéro. Je suis un homme libre.
Avec les logiques de personnalisation toujours plus poussées et plus opaques, avec la prégnance des réseaux sociaux dans notre accès à l'information, sociologues, idéologues, gourous, experts plus ou moins auto-proclamés, universitaires variés et autres spécialistes de l'information s'affrontent, les uns défendant la théorie de Pariser, les autres plaidant pour minorer l'importance du filtrage et des choix algorithmiques.
En 2015, alors que l'essentiel des "infos" (au sens américain de "news") sont accessibles et accédées par le biais des réseaux sociaux ou d'une recherche Google, le coeur du débat est de savoir si le "panorama" informationnel et conversationnel que nous fournissent aujourd'hui les moteurs et les réseaux sociaux contribue à nous "ouvrir" sur des idées, des personnes et des informations "différentes" de nos propres vues et opinions, ou si, à l'inverse, ils contribuent à la fois à renforcer nos propres croyances et à "lisser" les formes classiques de "diversité culturelle". Et qui est à l'origine de cette ouverture ou de cette fermeture, est-ce nous ou est-ce l'algorithme ?
Je ne suis pas une poule. Je suis dans l'oeuf algorithmique.
En 2012, Facebook publiait une étude (la 1ère du genre à cette échelle et de cette ampleur) sur le rôle des réseaux sociaux dans la diffusion de l'information. Une étude que j'avais looooonguement commentée ici, tant sur le fond que sur la forme.
Il y a quelques jours, fin Mai 2015, Facebook publie une nouvelle étude intitulée : "Exposure to diverse information on Facebook". Egalement disponible sur Science (mais en accès payant). Les données (datasets) sont par contre accessibles ici. En voici les principaux résultats (je traduis) :
"Nous avons trouvé que les gens ont des amis qui se réclament d'un bord politique opposé au leur, et que le contenu du Newsfeed reflète bien cette diversité d'opinion**. Alors que la surface des contenus du Newsfeed a tendance a légèrement refléter la propre idéologie et les propres opinions d'une personne (parce qu'elle repose sur les actions de cette personne dans Facebook), le choix de devenir ami avec quelqu'un et celui de cliquer sur un contenu jouent un rôle plus important que le Newsfeed dans la diversité des contenus auquel cet utilisateur sera exposé."
**Jusqu'ici, Facebook ayant horreur de la friction, la plupart des études scientifiques existantes avaient au contraire montré que les principales raisons "d'unfriending" tenaient à l'expression d'opinions politiques ou religieuses contraires aux nôtres. Ce qui n'est d'ailleurs pas en soi une réelle contradiction, il est tout à fait possible que les deux réalités coexistent : on peut à la fois – et à l'échelle du milliard et demi d'utilisateurs du site – constater que les utilisateurs sont amis avec des gens ne partageant pas nécessairement leurs opinions politiques ou religieuses et constater également qu'exprimer des vues politiques ou religieuses opposées aux nôtres soit la cause principale d'unfriending. Cela confirmerait d'ailleurs une autre particularité de l'écosystème numérique de la publication et de la "tyrannie des agissants" : tant que nos amis aux vues politiques et religieuses opposées aux nôtres sont relativement "silencieux"ou "discrets" on les garde comme amis, mais s'ils se mettent à faire un peu de prosélytisme, si leur activité de publication devient trop "ostentatoire" ou "dédiée", on sera davantage tenté de les virer de nos contacts / amis.
Bref, moralité des résultats de la dernière étude de Facebook : oui la bulle de filtre algorithmique existe – presque nécessairement – mais nous n'en sommes pas "prisonniers" et demeurons "libres" de l'essentiel de nos choix, lesquels choix sont les premiers responsables de la diversité ou de la non-diversité des opinions auxquelles nous sommes exposés.
Ou comme le résument très bien Hubert Guillaud sur Internet Actu et Claire Richard sur Rue89 :
"Selon les chercheurs (qui ont publié leurs données), l’algorithme de Facebook élimine bien certains contenus transversaux (c’est-à-dire d’un autre bord politique que le leur) mais cet effet est plus faible que l’homophilie (c’est-à-dire la tendance à s’associer à des personnes qui ont les mêmes opinions que nous) ou que le comportement des utilisateurs qui les poussent à cliquer sur les contenus les plus conformes à leurs vues. Nous avons plus tendance à favoriser notre propre bulle que les algorithmes."
L'homophilie étant par ailleurs le point pivot de l'ensemble du "système" : nous sommes homophiles, les algorithmes le sont également sur certains points et dans certains contextes (pour éviter la friction et faire remonter les contenus les plus consensuels), notre homophilie "personnelle" est "itérée" dans des boucles algorithmiques elles-mêmes essentiellement homophiles. Bref la conjugaison de ma propre homophilie "sociologique" et de l'homophilie algorithmique aboutit donc à une homophilie au carré.
Des poules, des oeufs, et des chats.
Les deux mêmes articles (Hubert Guillaud et Claire Richard) font également le tour de la volée de critiques qui n'ont pas manqué de suivre la publication de cet article – dont celle d'Eli Pariser - et je vous incite vraiment à aller lire l'un de ces deux articles car toutes les critiques soulèvent des questions passionnantes. Je ne vais ici en retenir qu'une seule, celle du sociologue Nathan Jurgenson :
"Toute cette affaire de chercher à séparer conceptuellement l’influence de l’algorithme des choix individuels méconnaît volontairement ce que sont et ce que font les algorithmes. Les algorithmes sont faits pour capturer, analyser et réajuster les comportements individuels de manière à servir à des fins particulières. Le choix individuel est en partie le résultat de la façon dont l’algorithme nous renseigne et l’algorithme lui-même est un code dynamique qui réagit aux changements individuels. Ni l’algorithme ni les les choix individuels ne peuvent être compris l’un sans l’autre."
La poule et l'oeuf. Une nouvelle fois. La bonne question, la seule qui vaille, est en effet celle de la "finalité" présidant aux choix des individus comme à ceux des algorithmes. Et de même que nous rechignerons toujours à avouer que "ben oui, je préfère me retrouver avec des gens qui pensent comme moi ou qui auront tendance à me donner raison" au profit d'un plus socialement valorisable "j'adore me confronter à des points de vue différents", de même Google ou Facebook auront toujours du mal à affirmer clairement que "ben oui, notre objectif est de lisser au maximum les conflits possibles pour entretenir un état d'esprit favorisant le partage d'informations et de contenus à faible potentiel de friction, installant l'internaute dans des dispositions susceptibles d'entretenir sa consommation et de lui faire dépenser du pognon pour entretenir notre modèle de régie publicitaire" préférant le discours d'une "neutralité" ou d'une "objectivation" algorithmique mâtinée de "personnalisation" dont la seule finalité serait d'améliorer notre "expérience utilisateur."
Or si l'on évacue la question de la finalité (humaine ou algorithmique) qui préside à l'établissement des règles qui à leur tour guideront nos choix ou ceux des algorithmes, on se condamne à constater que les poules pondent des oeufs et que des oeufs sortent – parfois – des poules. Des poules ou des chats de Schrödinger tant le point de vue de l'observateur influe également sur les résultats observés.
Plutôt la paille du Newsfeed que la poutre dans l'oeil de nos voisins.
Parmi les premiers à repérer l'étude de Facebook et à la commenter (sur Facebook, jolie mise en abîme), Dominique Cardon, de mon point de vue "la" référence française incontournable sur le sujet. Et qui dispose également d'un joli sens de la formule 😉
Parce que oui, la question de l'éditorialisation algorithmique, c'est mon dada. A mon avis la seule qui permette à la fois de plumer la poule et de se faire une bonne omelette sans casser trop d'oeufs décisionnels. Et comme je l'écrivais et vous l'expliquais notamment ici :
"Il faut "forcer" les plateformes à "ouvrir" ou à "dévoiler", sinon au grand public ou aux états, à tout le moins à des tiers partenaires (les éditeurs de presse par exemple …) la partie du code, de leur algorithmie s'apparentant à des processus classiques d'éditorialisation. Je m'en étais déjà expliqué en détail ici ou là : "Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs «ouvrir» complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation."
De la même manière, chaque acteur devrait, à l'instar de ce que propose Google avec sa fonction "verbatim" ou "mot à mot" permettre un accès qui gomme l'ensemble des paramètres dits de "personnalisation" ou de correction automatique pour ne s'en remettre qu'à un affichage et à une hiérarchisation de l'information qui repose uniquement sur les critères algorithmiques standards.
Dompter l'algorithme ou s'y soumettre ? #les2
Le 26 Mai, Robert Scoble publiait un billet qui ne cesse depuis de tourner et d'être repris pour nous permettre d'améliorer et de reprendre la main sur le contenu de notre Newsfeed. Je le traduis ci-après (partiellement et sommairement) :
- "Partagez trois posts de quelqu'un qui parle de choses qui vous intéressent (…) et vous verrez plus de ces choses qui vous intéressent sur votre mur.
- Ecrivez 5 posts originaux sur le même sujet. Vous verrez davantage de posts sur ce sujet dans votre newsfeed.
- Ouvrez les paramètres de confidentialité autant que vous le pouvez. En particulier laissez vous suivre plutôt que de devenir ami avec vous. Postez alors des contenus ouverts à tout le monde. Vous découvrirez une audience que vous ne soupçonniez pas. La plupart du temps vos réglages sont trop privés. Cela ne vous empêchera pas de partager des photos privées avec votre famille : chaque publication a ses propres réglages de confidentialité.
- Mettez tout le monde soit dans la liste "amis proches" soit dans la liste "connaissances". Cela améliorera grandement votre newsfeed.
- cessez d'être ami avec des gens qui ne postent jamais rien ou ne commentent jamais les publications des autres : vous verrez que vos propres publications atteindront un taux d'engagement inédit.
- Likez, commentez et partagez les contenus des autres. Cela apprend à Facebook ce que vous voulez voir dans votre newsfeed.
- Masquez les publications que vous ne voulez plus voir (chaque publication a un item "je ne veux pas voir cela"). Par exemple j'ai masqué toutes les publications avec des Selfies, des citations, des mèmes (…) et Facebook m'en propose maintenant beaucoup moins.
- Cessez de suivre les gens qui font trop de bruit. Même s'il s'agit de vos vrais amis ou de votre famille. Votre newsfeed principal s'organisera mieux et vous pourrez toujours voir ce qu'il postent en cliquant sur la liste dans laquelle vous les avez mis.
- Vérifiez tous vos réglages une fois par mois en vous assurant qu'ils restent les mêmes, notamment sur l'application de votre smartphone.
- faites-vous au moins 400 amis. Les gens qui en ont moins sont nazes.
- la plupart des contenus qui vous intéressent ne viendront pas tout seuls. Si vous voulez en voir plus de personnes que vous avez repérées, visitez leurs profils au moins une fois par semaine et likez, commentez ou partagez leurs contenus. Votre newsfeed principal vous affiche uniquement les contenus les plus populaires de ces profils. Vous devez visiter et interagir régulièrement avec ces profils si vous voulez en voir davantage.
- Sur mobile notamment, laissez la géolocalisation activée pour profiter de contenus adaptés.
- préférez la publication native depuis le site ou l'application officielle de Facebook. Les posts et status republiés depuis Twitter ou une autre application (buffer, hootsuite …) ont tendance à bénéficier d'un plus mauvais taux d'engagement.
- Likez et commentez vos propres commentaires comme ceux des autres : cela encouragera les autres à commenter et à interagir davantage et vous aurez une meilleure audience.
- Considérez Facebook comme un bon repas. Vous ne serviriez pas des pâtes sans sauce ? Si vous avez uniquement un newsfeed avec des photos de vos enfants, c'est comme un plat de pâtes sans sauce. (…) Assurez-vous de rendre vos amis plus intelligents et montrez-leur que vous avez plusieurs centres d'intérêt."
Nous sommes notre propre bulle.
Suivant à la lettre les préceptes de Scoble, mon camarade André Gunthert publiait le 2 juin le message suivant sur son compte Facebook :
Suscitant un certain nombre de réactions et de sympathiques et taquines polémiques, dont la mienne 🙂
L'internaute en "Serial-cliqueur condamné à se faire bouffer par le lion s'il veut pouvoir profiter de la cage." Au-delà de mon goût de la formule donc, la vraie question posée par (Robert) Scoble et parfaitement illustrée par André (Gunthert) se décline comme suit :
- pouvons-nous "apprendre à l'algorithme" à mieux nous connaître et donc à nous proposer des choix plus pertinents ? (nous le pouvons)
- cet apprentissage relève-t-il d'une adaptation à l'outil, voire d'un détournement utile, ou bien n'est-t-il qu'un simple leurre ?
Pour le dire autrement, cette manière d'apprendre ou d'asservir la routine algorithmique – une sorte de Google Bombing constructif – relève-t-elle de la figure du "braconnage" dont parlait De Certeau et faut-il s'en contenter et s'en satisfaire, ou permet-elle d'entrevoir une plus profonde remise en cause du panoptique algorithmique dans lequel elle s'inscrit (et qui la circonscrit) ?
Braconnage culturel par ailleurs sans cesse mouvant, constamment négocié, et balançant au rythme aléatoire de l'affrontement entre le code et la loi, entre la puissance normative des CGU et les innombrables crapauds fous qui tentent de s'en extraire en ouvrant de nouveaux chemins.
Braconnage aristocratique.
Mais au-delà de cette possibilité de braconnage il faut ici rappeler un point essentiel : toutes les études d'usage attestent que plus de 50% des utilisateurs de Facebook se contentent de "consulter" les informations qui défilent sans jamais publier eux-mêmes et donc sans jamais d'aucune manière que ce soit être en situation ou en capacité de dompter ou de cesser de subir les choix algorithmiques. Ce braconnage culturel est donc réservé à une petite aristocratie de publiants qui s'intéressent et qui maîtrisent un certain nombre de codes algorithmiques. Et la "fable de Big Brother" aimablement moquée par le camarade André concerne a minima la moitié de la population connectée soit près de 750 millions d'individus … Ah ça ira ça ira ça ira, les aristocrates de la publication à la Bastille algorithmique.
Quelle citoyenneté algorithmique dans la grande nation de l'attention ?
Comme l'écrit Bruce Schneier dans le Guardian :
"Certes, aucun d’entre nous n’est obligé d’utiliser Google, Facebook ou Apple. Mais peut-on dire aux gens que s’ils ne veulent pas que leurs données soient collectées, ils ne devraient pas utiliser d’e-mail, de boutiques en ligne, Facebook, un téléphone mobile ou même se rendre sur un site web ? Le choix ne peut pas être un choix entre être surveillé ou ne pas utiliser l’internet. Les données sont le pouvoir et ceux qui disposent de nos données ont tout pouvoir sur nous. Pour que cela change, il est temps que les gouvernements interviennent et rééquilibrent les choses."
"S'ils ne veulent pas que leurs données soient collectées", et pourrait-on ajouter, s'ils ne veulent pas que l'algorithme dicte leurs choix.
La poule. Nous ne sommes donc heureusement pas complètement "prisonniers" de cette bulle algorithmique, nous avons donc encore la possibilité de garder l'initiative de nos choix, et il est de surcroît possible – tout au moins pour quelques aristocrates éclairés – de braconner en terre algorithmique.
Et l'oeuf. A l'inverse et réciproquement, les algorithmes n'ont de cesse de nous proposer des choix "orientés" en fonction de critères que nous sommes loin de toujours maîtriser ; les mêmes algorithmes raisonnent par inférence sur la base de nos choix initiaux pour nous proposer des contenus et des choix qui finissent par rétro-agir avec nos propres choix jusqu'à pouvoir les influencer de manière parfois déterminante y compris à l'échelle d'un scrutin démocratique ; enfin, si le braconnage reste possible, il l'est dans des limites de plus en plus restreintes, de plus en plus complexes, et de plus en plus coûteuses cognitivement.
La question de la bulle de filtre n'a pas pas davantage de réponse définitive que celle de savoir si un programme informatique (un algorithme) peut être "neutre" – il l'est par définition (c'est un programme) et il ne l'est pas par "application", puisque son itération produit un double effet de Feedback, feedback externe par rapport aux clics de l'utilisateur, et feedback interne par rapport aux ajustements faits en fonction desdits choix mais aussi par rapport aux "intentions" de programmation qui président à l'établissement de la finalité dudit algorithme (que choisit-on de retenir ou de ne pas retenir, que considère-t-on comme de l'info prioritaire, en fonction de quel critère, etc.).
Une nouvelle fois donc, impossible de savoir qui de l'oeuf ou de la poule précède l'autre. Le principal problème reste entier et c'est celui de la diversité. Mais pas la diversité de nos choix ou de ceux qui nous sont proposés, la diversité des acteurs qui nous proposent ces choix au sein d'environnements contrôlés. Presse, radio, télé … il y a des journaux "de gauche", d'autres "de droite", nous "savons" lesquels sont de gauche et lesquels de droite. Et surtout nous avons le choix. Il y a du choix. Il y a de la diversité.
L'internaute : cet hémophile cognitif.
Il n'y a pas et il n'y aura jamais de diversité dans les grands écosystèmes qui régentent notre accès au web comme il peut en exister dans les médias "classiques" (presse, radio, télévision). Si l'homophilie est au coeur de nombre de nos comportements sociaux et si elle est également le centre névralgique de l'ensemble des algorithmes et systèmes "de recommandation", l'absence de diversité des acteurs qui captent quotidiennement l'essentiel de notre attention pose le problème d'une hémophilie du clic, d'une hémophilie de la consultation, d'une hémophilie du "défilement". Comme le rappelle Eli pariser lui-même dans son article en réaction à la publication de l'étude de Facebook :
"Le livre "The Filter Bubble" soulevait 2 problèmes principaux : le fait que les algorithmes aideraient les gens à s'entourer de médias qui renforcent leurs propres croyances et opinions, et le fait que les algorithmes auraient tendance à sous-classer ("down-rank") les informations les plus nécessaires dans une démocratie – c'est à dire les articles et les infos sur les plus importants sujets de société.
Si l'étude de Facebook se concentre sur le 1er problème, elle offre également un éclairage sur le second, et les données sont préoccupantes. Seulement 7% du contenu sur lequel les gens cliquent dans Facebook concerne les informations d'importance sociétale ("hard news"). C'est une infime pièce du puzzle et c'est inquiétant. Et cela suggère que les infos "douces" ("soft news") pourraient – au moins jusqu'ici – être en train de gagner la bataille de l'attention sur les médias sociaux."
Aux armes citoyens, formez votre attention.
S'il y a une économie de l'attention (Herbert Simon) qui repose sur sa distribution médiatique individuelle et collective, s'il y a une écologie de l'attention (Yves Citton entre autres) qui étudie les interactions des êtres vivants connectés dans leur "milieu" algorithmique, il faut aussi prendre en compte l'enjeu politique qui sous-tend ces questions de "bulle de filtre" et d'éditorialisation algorithmique", c'est à dire l'enjeu d'une citoyenneté de l'attention.
Il existe désormais une application que vous pouvez installer dans votre navigateur et qui analysera, en fonction des sites que vous consultez, quelle est votre "nationalité algorithmique". Voici la mienne :
Refuser de poser simultanément ces 3 problèmes "attentionnels" – celui de l'économie des données personnelles qui sous-tend l'ensemble, celui relevant à la fois de la sociologie des usages et de la psychologie cognitive qui permet d'étudier ce sur quoi nous cliquons et pourquoi nous le faisons, et celui enfin du type de citoyenneté qui peut en résulter – refuser de poser simultanément ces 3 problèmes attentionnels c'est acter et accepter le fait que l'essentiel de notre consommation "des" médias pourrait de plus en plus ressembler à Jean-Pierre Pernaud présentant le journal de TF1 avec Fox News et Buzzfeed comme salle de rédaction.
"Bonjour à toutes et à tous, tout de suite, les titres de cette édition. Consommation : les 10 choses à savoir sur le Nutella. Société : elle se fait agresser dans le métro, sa réaction va vous étonner ! Culture : les 10 choses à savoir sur Vincent Lindon. Politique : le tweetclash entre Obama et Bill Clinton ! Environnement : il construit sa maison pour moins de 2000 euros !! Environnement toujours : les 10 choses les plus étonnantes sur la sexualité des animaux ! Sports : ce que ce tennisman fait avec sa raquette va vous scotcher !! Musique : il joue du piano tout nu, la réaction de la salle va vous étonner !!"
Fig.1 : Allégorie du journalisme algorithmique choisissant les infos douces de son journal.
Vous trouvez que j'exagère ? A peine.
L'accès à une information "librement choisie" et relativement indépendante des contraintes algorithmiques relève désormais du combat, un combat au coût cognitif très élevé (et donc réservé à cette aristocratie du braconnage dont je parlais plus haut), là où l'effet naturel d'entraînement – et l'intérêt – des principaux GAFA repose au contraire sur un coût cognitif quasi-nul. Autre poule, autre oeuf.
La poule de l'hémophilie du clic (ou de la consultation) et l'oeuf du coût cognitif zéro.
Si la parution de la dernière étude de Facebook a une nouvelle fois créé une cristallisation du débat autour du rôle des algorithmes dans notre accès à l'information, il nous faut porter notre attention non pas uniquement sur les moyens mais sur les finalités des outils et des environnements algorithmiques dans lesquels nous baignons aujourd'hui. Et s'attacher à clarifier et à désambigüiser les processus éditoriaux qui y sont à l'oeuvre si l'on veut que les hémophiles cognitifs que nous sommes devenus puissent regagner un peu de coagulation informationnelle et décisionnelle.