Le pari de Pascal. De Pascal Zuckerberg.

Aaaaaaah Facebook. A l'occasion de l'élection de Donald Trump tous les médias y vont, avec plus ou moins d'intelligence et/ou de caricature, sur le rôle des réseaux sociaux dans cette élection que personne – en tout cas aucun média "classique" ni aucun éditorialiste politique – n'avait vu venir.

En ligne de mire, Facebook, accusé d'avoir "influencé l'élection américaine". A tel point que Mark Zuckerberg s'est fendu d'une tribune sur le mode :

"vous êtes mignons, mais primo on ne peut pas me soupçonner d'être fan de Donald Trump, et deuxio, vos histoires de bulle de filtre c'est bidon puisque Facebook essaie au contraire de favoriser la diversité des opinions, et que tout mettre sur le dos d'un algorithme c'est oublier un peu vite que ledit algorithme se nourrit d'abord des choix que vous faites, des amis que vous choisissez, etc."

Bref une nouvelle fois l'histoire de la poule de la bulle de filtre et celle de l'oeuf de l'éditorialisation algorithmique.

Loin de moi l'idée d'en rajouter une couche sur ces innombrables tribunes, je crois juste que l'on peut se mettre d'abord sur 3 constats.

3 constats que voilà.

Primo Facebook est un média. Et comme tous les médias, il est une fabrique de l'opinion. Et comme tous les médias, il n'est à lui seul coupable de rien mais il serait idiot de considérer qu'il n'a aucune forme de responsabilité dans ce qui vient de se produire. Un média qui touche plus d'un milliard et demi de personnes, 208 millions d'américains sur les 318 millions que compte le pays NE PEUT PAS nier avoir une part de responsabilité dans une élection présidentielle.

Deuxio, bien sûr qu'il existe une bulle de filtre. Et bien sûr qu'elle a fonctionné dans le cadre de l'élection de Donald Trump. Mais elle a fonctionné de la même manière dans les deux camps, les "pro-Trump" et les "pro-Clinton". Et bien sûr qu'elle n'est ni mieux ni pire que l'autre bulle de filtre, celle dans laquelle les médias "non-sociaux" nous enferment également depuis des décennies.

Tertio, la clé c'est l'illusion de la majorité. Un vote démocratique est toujours, on le sait, hautement multi-factoriel. Mais s'il fallait isoler un critère et un seul qui explique le rôle à tout le moins problématique qu'a joué Facebook dans cette élection, ce ne serait pas, comme tout le monde l'affirme haut et fort, la diffusion de "fausses informations" : oui Facebook en a diffusé, mais n'oublions pas qu'il n'y a jamais eu autant de sites de fact-checking, et que chaque site de fact-checking est, même à son corps défendant, toujours prisonnier de sa propre bulle de filtre éditoriale. S'il fallait isoler un critère et un seul qui explique le rôle à tout le moins problématique qu'a joué Facebook dans cette élection ce serait le phénomène "d'illusion de la majorité", c'est à dire le fait que nous percevons comme une info / opinion / croyance / comme très partagée alors qu'elle ne peut, en réalité "statistique", l'être que très peu. Ce phénomène d'illusion de la majorité est autant une cause qu'une conséquence de la bulle de filtre, mais il participe de la nature structurelle du réseau et du graphe de relations dans lequel nous nous situons, alors que la bulle de filtre est, si l'on peut dire, davantage conjoncturelle. Pour le dire différemment, prenez une conjonction d'opinions et les "noeuds" les plus connectés au sein de communautés "d'amis" qui sont aussi – et peut-être avant tout des communautés d'intérêt(s) – et vous aurez la réponse à la question de la responsabilité de Facebook dans cette élection (et dans les vidéos de chatons) : c'est à dire tout sauf nulle mais tout sauf décisive.

Le pari de Pascal.

Il y a finalement quelque chose de Pascalien dans cet énième débat autour de la bulle de filtre et de son rôle. Une sorte de pari de Pascal technologique ou algorithmique. Comme dans le pari de Pascal, "nous" en tant qu'individus mais également ce "nous" des médias constitués, avons tout intérêt à "croire" dans la toute puissance des algorithmes, car si elle existe elle permet alors de nous dédouaner commodément de notre part de responsabilité dans l'explosion des vidéos de chatons et dans l'élection de pathétiques badernes, alors que si elle n'existe pas c'est une autre main invisible qui prend immédiatement le relai pour nous enfoncer la tête bien profond dans notre inconséquence individuelle autant que dans nos errances collectives.

Puisque c'est la faute de Facebook, virons Donald Trump de Facebook, comme ça on ne pourra plus dire que c'est la faute de Facebook. Ben oui quoi.

Vous vous souvenez peut-être qu'il y a quelques temps de cela des employés de Facebook avaient interpellé son fondateur en lui demandant :

"Quelle est la responsabilité que peut prendre Facebook pour empêcher Donald Trump de devenir président des Etats-Unis ?"

Avant de le virer, ou de l'empêcher de devenir président, on peut par exemple essayer de le tuer. Symboliquement autant qu'algorithmiquement. Et bien Mark à tué Donald. Donald Trump est mort. Facebook a le don de vie et de mort sur Donald Trump comme d'ailleurs sur plein d'autres utilisateurs. La preuve, ce week-end Facebook a, par erreur (?), signalé la mort de millions d'utilisateurs qui ont vu leur page ornée d'un appel à découvrir les fonctionnalités de "mémorial" et à venir déposer un petit mot ou un petit Like sur la page de ces morts qui ben en fait n'étaient pas du tout morts. Et j'avoue que si on rêve tous d'assister à son propre enterrement, le fait de se voir déclarer virtuellement mort est une expérience assez étrange, quand on est encore vivant s'entend :

DeadmeNon mais en fait ça va hein 🙂

AMHA il s'agissait davantage d'une publicité mal ciblée pour leur service de de "mémorial" que d'un bug, mais dans tous les cas, ils ont fini par s'excuser publiquement, donc tout va bien 🙂

Sans titre

<Nota-Bene> c'est quand même aussi rhétoriquement délicieux que cyniquement savoureux cette phrase : "C'était une erreur et le message s'est affiché sur les mauvais profils" … </Nota-Bene>

A ce stade du récit, Facebook est donc en capacité technique de déclarer "morts" autant d'utilisateurs qu'il le souhaite. Du coup il pourrait aussi "tuer" Donald Trump. Enfin il aurait pu le "tuer" pendant la campagne, ce qui aurait peut-être évité d'influencer l'élection (en tout cas pour ceux qui pensent que ça l'a influencé).

Le pari de Pascal Mark.

Une utilisatrice de Facebook (Callan Brown) a posé une question bizarre à Mark Zuckerberg au lendemain de l'élection de Donald Trump. Elle confesse d'ailleurs elle-même qu'elle ne s'attendait pas à ce qu'il lui réponde. La question est simple :

"Combien de Like seraient-ils nécessaires pour virer Donald Trump de Facebook ?"

Moi-même il y a longtemps je m'étais demandé combien il faudrait de Like pour rétablir la peine de mort. Mais là … là Mark lui a répondu. Et ça change tout.

14980813_296651154068412_3169154553739701707_n

 

Donc pour virer Donald Trump de Facebook, il faut obtenir 500 000 Likes + 50 000 commentaires + 20 000 partages. A priori cela peut paraître inatteignable. 500 000 likes, c'est la moitié d'un million, et à peine quelques pages dans l'histoire de Facebook ont réussi à obtenir plus d'un million de Likes. Difficile donc mais pas impossible. Par contre avoir, en plus de 500 000 Likes, 50 000 commentaires et 20 000 partages, cela peut sembler suffisamment compliqué pour que Mark Zuckerberg ne prenne pas trop de risque en fixant ce triple seuil. D'autant qu'on sait – scientifiquement j'entends – que le sentiment qui se propage le mieux sur les réseaux sociaux est la colère, et qu'au lendemain de l'élection de Trump, plein de gens sont … en colère.

Sauf que.

Sauf qu'au moment où je commence à écrire ce billet (Samedi 12 Novembre assez tard dans la soirée) nous en sommes déjà à 667 000 Likes (là c'est bon), 111 597 commentaires (là c'est bon aussi), et … 75 200 partages (donc ben c'est … bon)

Callanbrown

 

Voilà. Il aura donc suffit de quelques heures et d'un seuil, fixé par Mark Zuckerberg, pour virer définitivement Donald Trump de Facebook.

Ou pas.

Le post de Callan Brown est – vraisemblablement – un (très joli) Fake. Auquel je me suis délicieusement laissé prendre. J'ai Liké, j'ai commenté, j'ai partagé. La sainte trinité de la viralité. L'autorité du "Pater" au pouce levé ; le commentaire du Fils, le bavard, qui a besoin de cet espace de parole pour construire sa propre autonomie et s'affranchir parfois de la parole révélée et thaumaturge du père ; et bien sûr le Saint-Esprit du partage 😉 Bref donc j'ai Liké, commenté et partagé ce post de Callan Brown. Et j'ai ce faisant incité nombre de mes amis à en faire de même. Ce que nombre d'entre eux ont fait.

Et puis je suis revenu sur la page Facebook de Callan Brown et j'ai vu ceci :

15073350_297149797351881_5578048379979709840_n

Alors bien sûr j'ai ri.

J'ai ri de ma naïveté. J'ai ri d'avoir pu croire que Mark Zukerberg pouvait vraiment déconner avec une des utilisatrices Lambda de son réseau au 1,5 milliard d'utilisateurs et que même sur le ton de la blague il ait accepté ce genre de défi et fixé ce genre de seuil. J'ai ri du joli tour que Callan Brown avait joué au 667 000 personnes qui ont "Liké" son post (dont moi), aux 111 597 personnes qui l'ont commenté (dont moi) et aux 75 200 personnes qui l'ont partagé (dont moi).

J'ai ri et je me suis posé une question. Combien de ces 667 000 personnes, en rediffusant cette "info", ont eu conscience qu'il s'agissait d'un Fake ? Probablement très peu. Combien de ces personnes, après avoir rediffusé cette "info", ont eu la curiosité de revenir voir le post original, sur la page originale de Callan Brown et ont donc pu, éventuellement constater qu'il s'agissait d'un Fake ? Et comment expliquer la formidable viralité de ce post, somme toute assez improbable, autrement que par un subtil mélange d'envie de partager un sentiment de colère au travers d'un "jeu" qui nous confère le sentiment d'une toute puissance capable, pour le coup, d'influencer Facebook, de dominer la machine algorithmique, de s'introduire dans la brèche ouverte par le pari de Zuckerberg ? Qu'avons-nous à perdre à liker, commenter et partager cela ? Qu'avons-nous à perdre à jouer ce jeu là ? Un pari Pascalien. Au sens premier.

Et puis après j'ai compris. J'ai compris que si j'avais diffusé cette photo c'est parce qu'elle venait de ma bulle de filtre. Parce que j'étais dans ma bulle de filtre. Parce qu'en tout cas ma bulle de filtre me l'avait proposée. Que l'algorithme de Facebook ne l'avait probablement pas "autant" proposée à des partisans de Donald Trump. Dans ma colère (relative). Dans mon envie de la partager. Dans l'illusion d'agir également. Le Slacktivisme tranquille. Que j'avais alors, sans en avoir conscience, joué mon rôle, celui d'un "noeud" relationnel dans un réseau, un "noeud" avec ses propres connexions, sa place et sa structure dans le réseau, et puis j'y ai cru. C'était ça mon rôle. D'y croire. De croire, ne serait-ce qu'un instant, que si nous étions suffisamment nombreux nous pourrions convaincre Mark Zuckerberg de virer Donald Trump de Facebook. Mais c'était, bien sûr, juste une illusion. Une illusion de la majorité

Foucault je vous dise quelque chose.

Dans la petite nouvelle diffusée l'autre jour sur ce même blog, "Le professeur d'Histoire", je concluais avec une citation de Michel Foucault. Une citation de 1976 qui à elle seule montre la vanité et la vacuité du "grand débat" autour de la bulle de filtre. Cette citation disait ceci

"Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai."

Si l'élection de Donald Trump nous apprend ou en tout cas permet de confirmer quelque chose sur le fonctionnement de Facebook et des réseaux sociaux, c'est uniquement cela : que Facebook est une société, et que "Chaque société …"

 

2 commentaires pour “Le pari de Pascal. De Pascal Zuckerberg.

  1. Forcement que c’était un fake, comment vous, un spécialiste de sciences de l’information avez vous pu tomber dans le piège ?
    Si Mark Zuckerberg aurait accepté ce défi, c’était en quelques sorte le meilleur moyen de tuer son produit. Les gens n’auraient plus confiance en un outil ou on peut être exclu du jours au lendemain (sur un coup de tête de Mark Zuckerberg)

  2. Excellente analyse, tant dans la forme (un vrai plaisir de lire) que dans le fond.
    Un article « gratuit » avec autant d’esprit critique et de connaissances, merci Internet.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut