Derrière la grille des programmes : cachez ce contenu que je ne saurais voir.

Il est plusieurs manières de traiter la question de la neutralité des grands écosystèmes informationnels du web (Facebook, Google, Twitter, Amazon, Apple, etc.)

La première est "média-centrée". Elle consiste à les considérer comme des médias "classiques" et ce faisant à accepter les biais nécessaires de l'éditorialisation (même s'il s'agit non plus de "rédactions" mais, soit d'algorithmes – Google et Facebook – soit d'usagers** – Twitter – qui les opèrent), ainsi que les biais nécessaires de leur modèle économique (Le Figaro ne traite pas des affaires de Dassault, TF1 ne va pas lancer une enquête d'investigation sur l'entreprise Bouygues, Jean-Pierre Pernaud passe chaque année d'agréables vacances dans de jolis coins de france, alors n'attendons pas non plus que Google ou Facebook nous permettent de moins consommer ou de le faire plus intelligemment), biais que permet par ailleurs de compenser la "pluralité" desdits médias et autres presses.

** L'idée selon laquelle les tweets que vous voyez apparaître sont publiés par les gens que vous suivez doit, en fait, être très largement nuancée par une récente modification de l'algorithme gérant l'affichage des retweets et de la mise en favoris. C'est là encore, in fine, davantage un algorithme de hiérarchisation de l'info qui décide de l'essentiel des tweets apparaissant dans une timeline. Concrètement, c'est l'algorithme qui décidera de publier sous forme de retweets un certain nombre de tweets mis en favoris (voir ou ). Bref, "garbage in … garbage out in."

La seconde approche est "public-centrée". Elle consiste à prendre en compte le fait que ces "médias" bousculent la hiérarchie des biais précédents en faisant passer le modèle économique (générer du clic pour faire tourner les régies publicitaires affiliées) avant toute forme d'éditorialisation (laquelle, je le rappelle, est exclusivement assurée par différents réglages algorithmiques comportant eux-même de nombreux biais tant "naturels" – il faut bien des critères pour hiérarchiser – qu'économiques – il faut bien faire remonter les liens des annonceurs les plus générateurs de clics). Elle consiste ensuite à remarquer qu'au pluralisme des médias "classiques" (si tu veux avoir une vue objective de la réalité, achète l'Humanité ET le Figaro) ne correspond aucun pluralisme de ces vortex attentionnels (nous y reviendrons plus tard, mais actons déjà le fait que si le journal l'Humanité est l'antithèse du journal Le Figaro, nous chercherons encore longtemps l'antithèse à Google ou à Facebook). Une fois acté le fait que lesdits vortex sont en passe de constituer la principale et parfois même l'exclusive source d'information dudit public – même si les chiffres, selon les pays et les tranches d'âges présentent quelques variantes et sont parfois discutables – la conséquence est que certaines informations risquent tout simplement de n'être jamais "affichées" et que d'autres seront systématiquement "censurées". Ajoutez-y le désormais classique effet de "filter bubble" (Eli Pariser) et celui des "autarcithécaires" (votre serviteur), et vous aurez un tableau assez pessimiste mais, je pense en tout cas, assez réaliste de l'état de notre paysage informationnel au travers du prisme des grands écosystèmes du web.

Médiaplasmes et médiaplasies.

Presse, télé, radio s'adressent – supposément – à cette zone que l'on nomme le cortex. Ils le font au travers de matière, au moyen de figures modelées et façonnées, des "plasmes" dont certains – écrans – plasma. Je propose donc pour la suite de ce billet de regrouper lesdits médias classiques (presse, télé, radio) sous le doux sobriquet de "médiaplasmes".

L'aplasie désigne en biologie un dysfonctionnement des cellules ou des tissus, qui aboutit à l'arrêt de leur développement. Au regard des faits énoncés plus haut et de ceux à venir dans le suite de ce billet, je propose de regrouper les seconds (Facebook, Google, Twitter, Amazon, Apple, etc.) derrière le sobriquet de "médiaplasies".

Revenons maintenant sur quelques exemples de l'actualité "médiaplasmique" et "médiaplasique" récente.

Il y a l'affaire de la décapitation de James Fowley.

Les médias classiques ont "choisi" – en tout cas pour l'essentiel d'entre eux – de relayer l'histoire de la décapitation sans diffuser la vidéo de la décapitation (avec un argumentaire allant de "on ne va pas faire de la publicité à ces terroristes" jusqu'à "c'est vraiment trop gore", en passant par "on pense à la famille"). Ce choix s'est fait en conférence de rédaction (la plupart du temps en tout cas), il a été restitué à l'antenne, et sa restitution a nécessité une explication / explicitation.

Dans le même temps, Twitter a "simplement" suspendu les comptes de ceux ayant relayé ou rediffusé le lien vers la vidéo de ladite décapitation. La justification est simple : elle contrevient aux CGU. De la même manière que l'affichage de l'origine du monde de Courbet contrevenait aux CGU de Facebook. Et ainsi de suite. CGU über alles. C'est l'éternel retour de l'éternel débat sur la responsabilité des hébergeurs. Un débat qui a légèrement évolué avec l'évènement du "Cloud" (nous y reviendrons plus tard), les anciens et littéraux "hébergeurs" ayant fait place à des entités gigantesques qui bien avant de permettre d'héberger des contenus ou des fragments de discours sont d'abord là pour "autoriser" leur diffusion, c'est à dire à la fois la "permettre" mais aussi et surtout plus essentiellement pour s'en voir déléguer "l'autorité" par défaut, une "autorité" qui leur permet ensuite de disposer de ces mêmes contenus au gré de l'évolution de CGU si vagues et englobantes qu'elles demeurent parfaitement et à coup sûr circonstancielles.

Je diffuse et tu dis "fuse".

Si LCI, France2 ou TF1 ont décidé de ne pas diffuser la vidéo de la décapitation, c'est au nom d'une "éthique" ou d'une déontologie journalistique (que l'on pourrait par ailleurs discuter mais ce n'est pas le sujet). Les médiaplasmes ont l'entrave déontologique.

Si un individu décide de diffuser le lien vers la vidéo de la décapitation, c'est au nom de son seul libre arbitre, lui-même mesuré à l'aune de la simple possibilité offerte de le faire, elle-même mesurée à l'aune de l'antériorité de l'acte initial de publication de la vidéo. Bref, un individu n'est pas soluble dans le numéro ID d'une vidéo YouTube. "Je ne suis pas un numéro, mais j'ai le vôtre", pourrait-on dire dans un remake du Prisonnier tourné en Facebookie.

Si Twitter ou Facebook décident … non en fait c'est plus compliqué que cela. Twiter ou Facebook ne décident pas de diffuser ou de ne pas diffuser cette vidéo. La nuance est subtile mais elle est d'importance : Twitter et Facebook décident de suspendre ou de ne pas suspendre les comptes des individus diffusant cette vidéo. Permettez-moi une rapide analogie qui même légèrement capillo-tractée me semble assez essentielle : quelle serait notre réaction si Le Monde, l'Huma ou le Figaro, décidait suspendre l'abonnement d'un lecteur qui aurait diffusé cette vidéo ou aurait émis une opinion contrevenant aux CGU du Monde, de l'Huma ou du Figaro ? Comment réagirions-nous si Tf1, France2 ou LCI décidaient de suspendre le droit d'un individu de consulter le programme de ces chaînes respectives au motif que celui-ci aurait émis une opinion contrevenant à leurs CGU ? Vous m'objecterez que l'idée d'avoir des CGU au Monde ou à Libération est idiote. Vous aurez raison. Au Monde et à Libération les CGU s'appellent la déontologie, nous en parlions justement quelques lignes plus haut. Vous m'objecterez ensuite que l'analogie est foireuse car le modèle médiatique de la presse ou de la télé (top-down, quelques-uns choisissent et diffusent, tous les autres se contentent de lire ou de regarder ou de subir) n'est en rien celui de Facebook ou Twitter (Bottom-up, les gens "produisent" l'information, ils "sont" l'information). Je vous rétorquerai qu'elle ne l'est – foireuse – que tant que l'on considère cet état de fait en dehors du contexte économique qui l'autorise et le sur-détermine d'une part, et, d'autre part, tant que l'on considère également que nous serions tous de supposés producteurs de contenus quand tout le monde sait bien que les contenus générés par des utilisateurs lambdas n'occupent plus qu'une part minoritaire des informations affichées (dans Facebook notamment et demain j'en suis convaincu dans Twitter) et que sur 100 utilisateurs lambdas seul 1 d'entre eux produit rééllement du contenu là ou 9 autres se contentent de le modifier à la marge, de le rediffuser ou de le commenter (cf l'observation en diachronie des échelles participatives). Bref, les médiaplasies n'ont que l'entrave de leurs CGU.

 Il y a l'affaire des émeutes de Ferguson.

Il faut ici rappeler que si Twitter est encore relativement peu entravé par une gouvernance algorithmique des informations publiées, Facebook, à l'inverse, contrôle dans les moindres détails l'ordre d'apparition et la visibilité des informations publiées sur les "murs" de ses usagers (mais si, souvenez-vous). Zeynep Tufekci rapporte ainsi sur Medium que les comptes Twitter de ses "amis" étaient emplis, en temps réel, d'informations, de faits et d'opinions concernant les émeutes de Ferguson consécutives à la mort d'une jeune afro-américain abattu par un policier "blanc", alors que sur Facebook, il avait fallu attendre le lendemain des émeutes pour voir apparaître sur les profils des mêmes amis, une partie seulement des mêmes informations, faits et opinions sur les mêmes émeutes.

Une observation par ailleurs confirmée dans d'autres études relayées dans un autre article du Washington Post et faisant état du fait que "près de la moitié des posts publiés dans le newsfeed ont été publiés dans les jours précédents. Et la majorité des nouveaux posts ne sont pas affichés du tout."

La raison est expliquée dans le billet de Zeynep Tufekci et rappelée et développée dans cet article du Washington Post :

"Ars Technica’s Casey Johnson suggested Facebook’s algorithm also weeds out controversial content — racially charged protests, perhaps? — from users’ news feeds: “There is a reason that the content users see tends to be agreeable to a general audience: sites like [BuzzFeed, Elite Daily, Upworthy, and their ilk] are constantly honing their ability to surface stuff with universal appeal. Content that causes dissension and tension can provide short-term rewards to Facebook in the form of heated debates, but content that creates accord and harmony is what keeps people coming back.”

Johnson backed up her theory with a Georgia Institute of Technology study of how political content affects users’ perceptions of Facebook. She summed up the findings: “The study found that, because Facebook friend networks are often composed of ‘weak ties’ where the threshold for friending someone is low, users were often negatively surprised to see their acquaintances express political opinions different from their own. This felt alienating and, overall, made everyone less likely to speak up on political matters (and therefore, create content for Facebook)."

Je résume : les algos de Facebook pondèrent à la baisse les contenus prêtant à controverse. Si un contenu cause des tensions ou de la dissenssion il peut créer un effet de bénéfice à court terme dans la polémique qui suivra et sera relayée sur le site (dans les commentaires par exemple) mais les contenus qui créent "de l'accord et de l'harmonie" sont ceux qui font que les gens reviennent sur le site. De la même manière, l'effet d'homophilie limite considérablement la chance d'être "ami" avec une personne exprimant des opinions politique trop différentes des notres (souvenez-vous, Facebook n'aime pas la friction).

Tant de cerveaux pour temps de bonheur disponible.

Je me rappelle – mais ne retrouve plus – les articles parus 2 ou 3 ans après la naissance de Facebook dans lesquels on nous expliquait – parfois même scientifiquement – que lesdits réseaux sociaux avaient une influence positive sur notre humeur, qu'ils nous rendaient plus sociables et plus joyeux. 10 ans après la naissance de Facebook on réalise aujourd'hui que ce que l'on croyait être une conséquence est en fait une cause : les réseaux sociaux ne nous rendent pas plus heureux, les réseaux sociaux surpondèrent l'information "joyeuse" pour mieux nous rendre disponibles aux stimulis publicitaires nécessitant un clic enthousiaste. A ce titre ils n'ont effectivement fait que reprendre le modèle dit de "Le Lay" du temps de cerveau disponible. Mais à la différence des médias "classiques" (ou médiaplasmes), les réseaux sociaux (ou médiaplasies) ne sont pas "segmentables", il n'y a pas de "grille de programme" dans laquelle on peut faire le choix d'une émission de divertissement, d'un magazine d'information, ou d'un film à grand spectacle.

Les réseaux sociaux subliment le modèle des médias classiques car ils sont seuls à être en capacité de nous placer littéralement derrière une grille de programmes (informatiques).

Les barreaux de bits de nos prisons algorithmiques comme la confirmation d'explorations réduites à la portion congrue de la consultation, de consultations qui font littéralement office de parloir (comme Flaubert avait son gueuloir) et rythment l'itinéraire du chemin de ronde de nos navigations carcérales. Bref.

<Super-résumé de l'ensemble> Les médias classiques ou médiaplasmes s'appuient sur une grille de programmes. Les médias web ou médiaplasies nous enferment derrière une grille de programmes (informatiques) </super-résumé>

Peut-être que, comme le faisait remarquer Ian Bogost sur Twitter, "la bulle de filtre ultime est de croire qu'internet représente le monde". Mais je ne crois pas. Ou tout du moins, je préfère de loin la conclusion du billet de Zeynep Tufekci que je reprends – et traduis – ici  :

"Mais gardez à l'esprit que Ferguson est également une question qui relève de la neutralité du net. C'est aussi une question qui relève du filtrage algorithmique. La manière dont internet est géré, gouverné et filtré est une question qui relève des droits de l'homme.

Et malgré de nombreux développements lamentables, ce combat est loin d'être terminé, et ses ennemis sont le cynisme et le déni de cette réalité. Ne laissez personne d'autre vous dire le contraire.

Ce qui arrive à #Ferguson impacte ce qui arrive à Ferguson."

Les médias sociaux, c'est pas de la bombe bébé.

Ce que ces affaires nous disent de notre rapport à l'information propulsée, éditée et gérée dans des environnements contrôlés algorithmiquement pour servir des intérêts attentionnels concensuels générateurs de clics, eux-mêmes au service d'intérêts économiques publicitaires dépendant des mêmes clics, ce que ces affaires nous disent, c'est la confirmation que nous avons perdu quelque chose. Oh rassurez-vous, il ne s'agit ni de notre distance critique, ni de notre capacité d'analyse, ni même de notre libre arbitre, n'en déplaise à Alain Finkelkraut. Non.

Ce que nous avons perdu c'est notre capacité à détourner l'algorithme, notre capacité de saboter non pas l'information elle-même mais la manière dont elle nous est servie, et avec elle notre capacité à nous y soustraire ou tout au moins à ne pas être réduits une acceptation abrutissante. Nous avons perdu la capacité de faire du Google Bombing. La vidéo de la décapitation de James Fowley existe. Elle est encore en ligne. Indépendemment de l'intérêt plus que glauque de la chose, et tout aussi indépendamment des débats éthiques ou déontologiques afférents, combien d'entre nous sont en capacité de la retrouver ? Combien d'entre nous sont capables de détourner l'obfuscation algorithmique qui tantôt oblitère le signalement, tantôt suspend la publication des comptes de ceux qui voudraient s'en faire le relai, tantôt ramène dans l'oubli non pas seulement "une vidéo de décapitation" mais avec elle le débat entourant cette première – sordide – "décapitation médiatisée" et avec lui, le fait médiatique d'un journaliste exécuté pour avoir voulu s'aventurer dans des contrées ou l'information n'avait plus le droit de citer ? Par quel cynisme de routines algorithmiques justifées par le seul respect de CGU auto-proclamées se trouve-t-on à s'aventurer dans des jardins fermés où l'information chaque jour se fracasse sur le droit d'être mentionnée, d'être citée, d'être liée ?

Journal d'un ingénieur : la déontologie des CGU.

Croyez-vous que les ingénieurs de Twitter n'aient pas vu la vidéo de décapitation de James Fowley ? Le croyez-vous sérieusement ? Ils l'ont vue. Comme l'ont vue les journalistes des rédactions qui ont ensuite décidé de ne pas la montrer. En suspendant les comptes des usagers diffusant le lien vers cette vidéo, Twitter s'installe dans le régime d'exception qui est celui des rédactions de presse écrite depuis qu'elles existent : quelques-uns décident de ce que les autres peuvent voir et savoir. Pendant que les journalistes s'échinent à singer les ingénieurs (data-journalisme), les ingénieurs aux commandes des algorithmes jouent au journaliste. Mais leur "déontologie" se résume à leurs CGU. Qui plus est, il s'agit d'une "déontologie" a posteriori comme en témoignent différentes affaires, celle de la vidéo de décapitation de James Fowley mais aussi il y a plus longtemps l'affaire des tweets homophobes ou antisémites

Mais si l'entrave déontologique suppose d'être socialement négociée et acceptée pour être reconnue comme telle et produire ses effets "régulateurs" et à leur tour normatifs, l'entrave des CGU ne suppose rien de tout cela. Elle est simplement "réglementaire". Le même genre de réglement intérieur que l'on trouve dans une piscine municipale.

Leak ta mère.

Cette impossibilité de "détourner" les algorithmes peut trouver un intéressant point de fuite dans la multiplication des "leaks", ces fuites de données sensibles ou personnelles orchestrées à large échelle. Dernière en date le "CelebGate" par lequel un jeune homme dont l'avenir judiciaire risque d'être compliqué a rassemblé dans le cloud (celui d'apple) et diffusé sur 4Chan un méga fichier de stars dénudées. Le FBI et Apple sont d'ailleurs sur le coup … Il y a à peine quelques jours, c'étaient cette fois plus de 3000 livres numériques (dont l'essentiel de la future rentrée littéraire) qui se trouvaient mis au cloud (de microsoft cette fois). Documents d'ambassade classés "confidentiel", photos de stars NSFW (Not Safe For Work), prochains ouvrages de la rentrée littéraire, etc … les motivations et la nature de ces fuites sont naturellement diverses et répondent chacune à des logiques différentes. Mais.

Mais devant les filtres toujours plus puissants mis en place par les moteurs et les réseaux sociaux, devant l'impossibilité toujours plus grande d'accéder à certains contenus, devant l'écart de plus en plus grand entre la chronologie des média classiques et l'immédiateté requise dans l'univers réseau, s'appuyant sur l'essor du Cloud Computing et les fuites massives de données qu'il autorise, le recours de plus en plus récurrent à la mise à disposition desdits contenus en mode "leak" peut aussi être vu comme un effet miroir de la frustration générée par l'impossibilité de détourner les algorithmes au profit d'une diffusion de l'information sous contrôle de l'internaute.

Un autre aspect intéressant de ces "massive leaks" est qu'il s'appuient également de plus en plus souvent sur un périmètre patrimonial, libérant, dans le sillage des pionniers comme Internet Archive, des millions d'images et de films avec comme ressort principal le recours au domaine public, le même domaine public qui souvent peine tant à occuper les premières places de résultats des médiaplasmes comme des médiaplasies.

<Mise à jour du lendemain> Concernant les petits malins qui se plaignent de l'espionnage de la NSA et reluquent lesdites photos desdites stars, The Verge dit l'essentiel : "These Men are the detritus of humanity". C'est dit 🙂 </Mise à jour>

Couvrez ce sein.

On ne verra donc pas de lien vers la vidéo de décapitation de James Fowley. On ne verra donc pas, dans Facebook tout au moins, un certain nombre de publications liées aux émeutes de Ferguson. Hier déjà, on ne voyait pas de certaines campagnes publicitaire de lutte contre le cancer du sein qui avaient eu le tort de présenter des tétons contrevenant aux CGU du site. Et les exemples pourraient être multipliés (cf par ici autour de la diapo 11). Chaque jour ce sont des milliers de liens vers des ressources commodémment qualifiées de "pirates" qui disparaissent du moteur de recherche Google parfois pour mieux se transformer en publicité choisie pour ses propres services.

Tant de choses que nous ne verrons pas. Que les algorithmes choisiront de ne pas nous montrer, que les CGU choisiront de nous enlever. Que la doxa algorithmique choisira de ne pas articuler, de ne pas rendre visible, publiable. "La démocratie est toujours liée à une processus de publication, c'est à dire de rendu public", disait Stiegler.

Quel paradoxe dans un monde panoptique fait d'observation permanente de nos comportements. Quel paradoxe dans un monde panoptique nous équipant chaque jour de davantage de prothèses de vision. Quel paradoxe qu'un panoptique qui choisit ce qu'il nous laisse voir, qui sature notre vision du monde et des autres de représentations et de discours que nous ne choisissons plus. Quelle angoissante image que de se représenter l'ensemble comme un panoptique enfoui dans la caverne platonicienne et dans lequel les gardiens sont seuls à dispoer d'une vue globale quand les individus, derrière leur grille de programme, regardent ahuris danser des ombres sur leur mur, ombres que choisit de projeter la tour centrale du même panoptique.

Que je ne saurais voir.

Dans la scène 2 de l'acte III de son Tartuffe, Molière écrit ceci :

Couvrez ce sein que je ne saurais voir:
Par de pareils objets les âmes sont blessées,
Et cela fait venir de coupables pensées.

Couvrez ces contenus que je ne saurais voir. Par de pareils objets, les âmes sont blessées, et cela fait venir de coupables pensées. La question n'est pas de savoir quels sont ces contenus.

Mais qui sont les Tartuffes.

2 commentaires pour “Derrière la grille des programmes : cachez ce contenu que je ne saurais voir.

  1. D’où l’intérêt de cultiver son jardin et d’amasser des terraoctets de favoris plutôt que de s’en remettre à Google ou aux réseaux (anti)sociaux pour (re)trouver un document…
    Quant à la faculté disparue du Google Bombing, permettez-moi de m’inscrire en faux. C’est toujours possible. Reste que dès qu’on aborde l’aspect Politically Correct et les sujets sensibles, cette manipulation de l’algo est beaucoup plus surveillée.
    Mais bref : les média veulent faire croire que l’affaire est pliée d’avance, qu’on a perdu face aux bots et aux algos. Quelle blague… Suffit de regarder les premières pages de résultats Google pour les requêtes les plus concurrentielles (rachat de crédit, comparateur mutuelles, vente de vi**, etc) et de suivre les évolutions sur une semaine.
    Le fantasme de la machine plus forte que l’homme est bien présent, mais on y est pas encore.

  2. Je ne suis pas certain de comprendre le concept de « neutralité des grands écosystèmes informationnels du web ». Il n’y a pas de neutralité en soi. Quand on parle de « neutralité du net » il s’agit de trouver une solution au conflit d’intérêt quand un seul acteur est à la fois émetteur et producteur. Alors en effet on pourrait croire que cela s’applique à Facebook ou Google (je ne sais pas vraiment comment pour ce dernier, peu importe), mais en fait il ne s’agit pas simplement de pluralité ou de pouvoir faire jouer la concurrence mais de comprendre que le net est une architecture horizontale (même si la puissance de calcul et de débit n’est pas équitablement répartie).
    Certains journalistes ont eu sur ce coup-là une idée déontologique sur laquelle personne ne peut intervenir. Je me rappelle personnellement d’un reportage, il y a longtemps, sur la Tchétchénie ou, sans avoir été prévenu, on avait pu voir une tête décapitée, comme ça… bon.
    Sur Facebook on ne verra pas de décapitation, et puis ailleurs on verra si on veut. La déontologie-comme-on-la-sent de nos bons vieux médias verticaux ne fait même pas beaucoup sens… bon, je finis par apprendre qu’il y a une vidéo de décapitation qui circule ici et là, en lisant ce blog : la vidéo aurait-il exister s’il n’y avait pas eu de mass-media pour en parler ? je ne suis pas certain.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut