Mark Zuckerberg vient de nous écrire de nouveau. Et il a un plan.
Après sa lettre inaugurale de Mars 2017, après nous avoir annoncé en Septembre 2018 de quelle manière Facebook "se préparait pour les élections" (ou plus exactement comment Facebook se préparait pour ne pas pourrir, influencer ou truquer les élections …), il nous écrit donc en ce 15 Novembre 2018 pour nous proposer "un plan de gestion des contenus et ses modalités de mise en oeuvre" ("A Blueprint for Content Governance and Enforcement")
Plus j'observe et plus j'essaie d'analyser et de comprendre ce qui se joue à l'échelle de Facebook et très sincèrement … moins j'y comprends quelque chose.
Donc revenons aux basiques. Il n'y a pas 36 manières de gérer et d'administrer une communauté "virtuelle" de plus de 2,5 milliards de membres "réels" à l'échelle d'une planète qui compte en gros 3,5 milliards d'internautes pour en gros 7,5 milliards d'habitants.
Il y en a 9.
Soit on fait ça en mode Civilization ou Age Of Empires mais alors ça s'appelle un jeu vidéo. C'était l'option 1.
Soit on décide qu'il n'y a que le chef / PDG / CEO qui décide de tout mais alors ça s'appelle une dictature. C'était l'option 2.
Soit on fait confiance à la capacité de 2,5 milliards de personnes de s'auto-organiser en se respectant mutuellement indépendamment de leurs cultures, de leurs religions, de leurs opinions politiques ou de leur goût pour la pizza à l'ananas mais alors il n'est pas improbable que ça finisse rapidement en grosse soupe de phalange planétaire. C'était l'option 3.
Soit on confie la gestion du bouzin à des algorithmes et à des intelligences artificielles et le truc part en sucette au bout de 10 minutes tellement lesdits algorithmes et intelligences artificielles sont débiles (à l'échelle du mode de raisonnement que l'on aimerait les voir appliquer genre "Oh une photo de petite fille qui court toute nue dont on voit le sexe", "Oh ben non attend c'est la photo qui a gagné le prix pulitzer et c'était pendant la guerre du Vietnam", "Ben oui mais quand même c'est une petite fille toute nue et on voit son sexe", "bon ben d'accord on bloque"). C'était l'option 4.
Soit on colle un salarié derrière chaque utilisateur pour surveiller et éventuellement corriger ce qu'il raconte. C'était l'option 5. (et ça ressemble aussi un peu à une dictature)
Soit on se dit que bon ben si on y colle un peu plus d'intelligence artificielle et un peu plus de modérateurs aux Philippines hé bé ça va le faire. Et là ben en fait ça ne le fait pas mais alors pas du tout. Et si vous pensez que "oh ben si, ça le fait quand même" ben alors allez regarder "The Cleaners". C'était l'option 6.
Soit on vire définitivement de la plateforme les gens qui ne respectent pas la loi, ou alors on leur colle des amendes. Ce serait à la fois très efficace et très rigolo. Mais du coup c'est pas très #StartUpNation ni #Silicon_Valley_Powaaaaa et on va faire fuir les annonceurs et les actionnaires et peut-être aussi un peu les utilisateurs. C'était l'option 7.
Soit on démembre la multinationale façon puzzle et on nationalise ce qui reste. J'avoue que j'aime assez l'idée. Et que je ne suis ni le seul, ni le plus célèbre :-) C'était l'option 8.
Soit on change de modèle économique et on fait payer les gens. C'était l'option 9.
Et pis c'est tout. 9 options. Pas une de plus.
Pour l'instant et depuis la création de sa plateforme, Mark Zuckerberg se contente d'explorer l'option 6. Je rappelle le principe de l'option 6. Elle comporte deux volets.
Volet 1. Aux Philippines donc, des gens payés correctement sur l'échelle des salaires Philippins (donc des gens payés au prix coûtant de la misère) modèrent chaque jour jusqu'à 25 000 images mêlant pédo-pornographie, torture animale, décapitations et actes de barbarie divers et n'ont droit qu'à 3 erreurs par mois s'ils ne veulent pas se faire virer. Heureusement parce que les lois du marché dérégulé sont bien faites le Happyness Business Manager de la boîte leur permet de se spécialiser. Par exemple tu peux choisir on peut te coller uniquement les viols d'enfants ou la torture animale. Comme ça tes journées sont plus cohérentes hein. Pis t'as moins de chances de te tromper hein. Non non, ceci n'est pas une blague.
Volet 2. Pendant ce temps, des algos et des intelligences artificielles modèrent aussi d'autres trucs mais on ne sait pas trop bien quoi. A priori lesdits algos sont aussi en charge de constituer les gros paquets thématiques (paquet thématique "viols d'enfants", paquet thématique "décapitation au couteau de cuisine") qui sont ensuite soumis aux modérateurs humains. Astuce et espièglerie : les algos eux, peuvent se tromper et c'est pas grave puisqu'ils ne risquent pas d'être virés. Non vraiment la vie est bien faite.
Résultat : un tableau de Courbet est toujours réduit à une foufoune en gros plan, une photo qui a gagné le Pulitzer est toujours considérée comme provenant d'un forum pédophile, et le micro-pénis de Donald Trump ne passe pas non plus les filtres quand il est peint par une artiste. Ni les filtres humains ni les filtres algorithmiques. Parce que si l'on ne comprend pas cela on n'a rien compris à la nature de la modération sur Facebook : les algos, l'intelligence artificielle et les règles strictes imposées aux modérateurs sous-traitant aux Philippines sont les putains de même règles débiles. Une foufoune en gros plan est une foufoune en gros plan, qu'elle soit peinte par Courbet au 19ème siècle ou photographiée par Emile Louis au 20ème.
Alors le résultat de tout ce que nous raconte le père Mark Zuckerberg depuis que sa plateforme sert à autre chose qu'à demander des nouvelles de mamie ou à surveiller les fréquentations de sa marmaille, le résultat c'est que :
- Le Wall Street Journal révèle que les chiffres des mesures d'audience publicitaires sur la vidéo (entre autres) sont depuis plus d'un an totalement faussés et artificiellement gonflés.
- l'exode des anciens ingénieurs se poursuite avec perte et fracas, le dernier en date dénonçant notamment des formes de management toxiques
- le New-York Times a sorti une enquête remarquable sur des agissements que l'on pensait jusqu'ici réservés à des boîtes aussi toxiques que Monsanto, Bayer ou quelques autres empafés des Big Pharma. Confronté à des crises de réputation, Facebook se comporte aussi mal que n'importe quelle multinationale en ayant recours à la lie des Relations Publiques et aux pratiques les plus puantes qu'il soit possible de mettre en oeuvre. Vous aimiez la méthode "FUD" (Fear Uncertainty Doubt) vous allez adorer la méthode des 3D "Delay, Deny and Deflect")
- Techcrunch vient de sortir quelques extraits de ces "pitchs" que l'agence de Relation Publiques (RP) préparait pour Facebook.
- Suite à cette enquête certains n'hésitent même plus a carrément demander sa démission.
- C'est désormais rien moins que 8 parlements qui réclament que Mark Zuckerberg vienne s'expliquer devant eux à propos de Fake News et de potentiels risques d'interférence dans des élections passées ou à venir (Canada, Royaume-Uni, Argentine, Australie, Irlande, Brésil, Lettonie et Singapour).
- Et certaines ONG n'excluent pas d'engager une action en justice contre Facebook pour la responsabilité de la plateforme dans le génocide des Rohingyas en Birmanie du fait des "négligences" de sa politique de modération.
Et on pourrait continuer la liste pendant des heures. Ainsi à peine sorti du scandale qui avait révélé que sa régie publicitaire permettait de "cibler" les gens qui "détestent les juifs", ou qui "détestent les nègres" (sic), et après avoir promis d'y mettre bon ordre (c'était il y a plus d'un an, en Septembre 2017), Facebook se fait gauler en train de permettre via sa régie publicitaire de cibler des gens qui croient au "génocide blanc". Tant qu'il y aura de la haine, il y aura des gens pour n'y voir qu'un marché.
Voilà hein. Ajoutez ça au dernières nouvelles du Facebookenstein qui n'étaient déjà pas très reluisantes, et convenez qu'à ce niveau-là de Karma on est entre l'ours polaire à qui on annonce qu'on va quand même lui installer la clim, "juste au cas où", et la youtubeuse fitness qui teste un nouveau siphon à Chantilly.
Le camarade Tristan Nitot parle de "naufrage moral", ce qui me semble assez approprié et relève presque de l'euphémisme.
Mais tout ça Mark il s'en fout. Il s'en fout parce que …
Il est libre Max Mark.
Et puis surtout …
Il.
A.
Un.
Plan.
"Un plan de gestion des contenus et ses modalités de mise en oeuvre." Puisqu'on vous le dit.
J'ai attentivement lu son putain de plan. Dedans il y a une bonne idée. Une seule. Publier tous les trois mois un rapport sur les contenus qui ont été écartés du site (en même temps que les résultats trimestriels). Voilà. J'attends impatiemment la première livraison. Je pense qu'on va bien rigoler. Et qu'il n'est pas sûr qu'il y ait une deuxième livraison. Mais bon ne chipotons pas, une goutte de transparence dans un océan d'opacité reste une bonne chose.
Parce que pour le reste, le plan de Mark consiste à reprendre le plan annoncé il y a un an qui reprenait lui-même le plan annoncé l'année précédente. Les grandes lignes de ces plans étant invariablement les suivantes :
- Admettre à demi-mot qu'on a bien bien bien merdé mais que bon quand même hein vous savez on n'a pas un métier facile.
- Promettre qu'on va donner moins d'exposition aux contenus "sensationnalistes". Promis juré craché.
- Dire qu'on va mieux régler les algorithmes. <insérer ici des rires enregistrés>
- Expliquer qu'on va mettre toujours plus d'intelligence artificielle toujours plus intelligente mais si puisqu'on vous dit qu'elle est toujours plus intelligente.
Et c'est tout ? Oui. C'est tout.
Ah ben non vous avez raison, cette année y'a une nouveauté.
Facebook va créer … une cour d'appel. Oui oui.
Une cour d'appel.
Sans déconner.
"As I've thought about these content issues, I've increasingly come to believe that Facebook should not make so many important decisions about free expression and safety on our own.
In the next year, we're planning to create a new way for people to appeal content decisions to an independent body, whose decisions would be transparent and binding. The purpose of this body would be to uphold the principle of giving people a voice while also recognizing the reality of keeping people safe.
I believe independence is important for a few reasons. First, it will prevent the concentration of too much decision-making within our teams. Second, it will create accountability and oversight. Third, it will provide assurance that these decisions are made in the best interests of our community and not for commercial reasons."
"Je suis arrivé à la conclusion que nous ne devrions pas prendre tout seuls autant de décisions sur le thème de la liberté d’expression ou de la sécurité." (Traduction Le Monde)
"As I've thought about these content issues, I've increasingly come to believe that Facebook should not make so many important decisions about free expression and safety on our own."
"une juridiction de droit commun du second degré. Elle examine un litige déjà jugé, par exemple par un tribunal correctionnel ou un tribunal de grande instance. Lorsqu'une des parties n'est pas satisfaite du jugement, elle « interjette appel » (et non pas « fait appel »). Alors que les juridictions de première instance rendent un « jugement », une cour d’appel rend un « arrêt », qui peut confirmer ou annuler le jugement initial. Après un arrêt de la cour d’appel, il est possible d'exercer un pourvoi en cassation. S'il est recevable, l'affaire n'est pas jugée une troisième fois mais il est vérifié que les règles du droit ont bien été appliquées.
"Les cours d'appel fédérales des États-Unis (United States Courts of Appeals) sont les juridictions d'appel du système judiciaire fédéral américain. Elles connaissent de ce fait de tous les litiges jugés en première instance par les 94 cours de district qui dépendent de leurs juridictions, ainsi que ceux émanant des différentes grandes commissions administratives. Il s'agit de l'avant-dernier niveau du système judiciaire fédéral, avant la Cour suprême des États-Unis."
Voilà.
Une cour d'appel, un comité des sages, et mon cul sur la commode.
Alors vous me dites : mais du coup cette cour d'appel, est-ce que quand même ça ne pourrait pas marcher ? Après tout faut essayer non ? Et là moi je vous dis : "Non".
Deux milliards et demi d'individus. Des médias (chaînes de télé, journaux papier, etc). Et la volumétrie d'interactions, d'échanges, de partages et de rediffusion qui vont avec tout ça. Et une cour d'appel. Ça. Ne. Marchera. Jamais. JA. MAIS.
Si vous n'êtes pas convaincu(e)s, souvenez-vous du projet de Google qui, en 2014, avait annoncé la création d'un "comité des sages" supposé trancher pour des cas particuliers (et des cas "de particuliers") entre ce qui relevait du "droit à l'oubli" et ce qui relevait de la liberté d'information. Figurez-vous que le concept n'a pas marché. Etonnant non ? Ben non.
La "cour d'appel pour contenus controversés" est promise au même avenir radieux que le "comité des sages pour le droit à l'oubli". Et à la même inefficacité.
Et là vous me dites :
Ben alors faut faire quoi ?
Rien. Il ne faut rien faire. En l'état rien ne permettra de limiter significativement le potentiel de nuisance de Facebook et de son architecture technique toxique. Rien parce qu'aucun algorithme jamais ne pourra défendre la démocratie. Rien parce le principal problème de Facebook est extraordinairement simple : il vient essentiellement de son modèle économique et on ne change pas un modèle économique qui rapporte, si toxique et destructeur soit-il.
Donc comme Facebook ne changera pas de modèle économique, comme Facebook continuera de déployer son architecture technique toxique sur des pans de plus en plus essentiels de nos vies et de nos démocraties, comme aucune intelligence artificielle ne permettra jamais de solutionner le problème de l'insondable bêtise de nos comportements grégaires dans des contextes particuliers de communication (numérique ou non), il faut, oui j'en suis convaincu, nationaliser Facebook. Ou le démanteler. Ce qui revient au même.
C'est important et c'est urgent.
Parce qu'il est important et urgent que l'essentiel de ces interactions numériques, de nos interactions numériques, reviennent dans l'espace public. Qu'elles y soient re-situées pour pouvoir mieux y être restituées. Et que s'y appliquent, aussi simplement qu'essentiellement et exclusivement, les seules lois régulant l'espace public de la démocratie.
Tout le reste, c'est de la comm. et des "Relations Publiques". Compris ?