Le sentez-vous l'air du temps ? Il souffle fort contre les GAFAM qui dans l'une de ces si paradoxales formes de consécration ne se sont jamais aussi bien portés, n'ont jamais aussi bien supporté la critique. Mais tout le monde est vent debout. Tout le monde semble avoir compris. Peut-être pas compris la nature exacte du problème, mais compris au moins qu'il y avait un problème.
"Faut-il fermer Facebook ?" titrait récemment Libération alors qu'Usbek et Rika s'interrogeaient pour savoir : "Faut-il démanteler Google ?"
Et ils sont loin d'être les seuls, en France comme à l'étranger, à poser ces questions. Plus rien ne semble tabou, même la question d'une "nationalisation" est posée, et pas que par de dangereuses vermines communistes qui refuseraient de prendre le virage de la start-up nation.
Nationalisez-moi. Mais pas tout de suite. Pas trop vite.
Quelques requêtes Google achèveront de nous convaincre que cette idée d'une "nationalisation" des GAFA est tout sauf neuve (elle court depuis au moins 2012).
En 2012, Jeffrey Rosen publie un article dans une revue scientifique juridique, titré "Keeping Google Good: Remarks on Privacy Regulation and Free Speech", et dans lequel il explique :
"First, and most radically, the government could nationalize Google, as it did AT&T. If Google were nationalized, then it would become a government speaker; because all of its speech would be government speech, it could no longer invoke the First Amendment as a shield."
Et aussi :
On le voit, le premier tryptique d'une nationalisation "possible" ou à tout le moins qui fait son entrée dans le discours critique du rôle joué par ces plateformes, ce triptyque est celui :
- du pilotage stratégique (et si le CEO devenait dingue / raciste / extrêmiste ? … "if Google were controlled instead by Kim Jong-Un") au regard de l'absence de contre-pouvoirs efficaces en interne (autres que ceux d'un actionnariat soumis ou ne voyant que le profit)
- de la vie privée (privacy), et par extension des logiques de surveillance de masse
- de la liberté d'expression, et par extension de la régulation de la parole et des discours de haine ou de stigmatisation.
En 2012 toujours, c'est un autre chercheur, en communication cette fois, Phillip N. Howard, qui publie dans Slate une tribune titrée : "Let's Nationalize Facebook." Il y plaide pour une nationalisation temporaire, le temps, dit-il "de restaurer la confiance du public".
"By “nationalizing Facebook,” I mean public ownership and at least a majority share at first. When nationalizing the company restores the public trust, that controlling interest could be reduced."
Là encore les justifications de cette nationalisation sont :
- les enjeux en termes de vie privée et l'impossibilité (déjà à l'époque) de contraindre Facebook à obéir aux injonctions de telle ou telle juridiction territoriale lorsqu'il contrevient aux lois sur la vie privée
- la question du monopole et des lois anti-trust.
- les enjeux politiques, et par extension ceux autour de la liberté d'expression : l'auteur mentionne différents cas de "censure" brutale, allant des campagnes pour l'allaitement maternel (parce qu'on voyait le téton) jusqu'à la suppression de pages palestiniennes.
Mais Philip N. Howard mentionne également un autre point fondamental : l'idée selon laquelle une nationalisation de Facebook entraînerait mécaniquement la "libération" d'une immense quantité de données, données d'une importance vitale pour la recherche publique dans plein de domaines, mais données qui pourraient également permettre de stimuler comme jamais la création de nouvelles entreprises et favoriser de nouveaux entrants sur des secteurs jusqu'ici sous le joug d'un monopole ou d'un oligopole à frange.
Cela ne vous rappelle rien ? Et oui, c'est très exactement l'argumentaire que j'ai mis en avant en reprenant l'idée de Dirk Lewandowski autour de la nécessité d'un index indépendant du web.
Bien sûr à l'époque, la tribune de Phillip N. Howard suscite nombre de réactions effarouchées et de contre-tribunes dans – notamment – Forbes, où l'on explique que Facebook n'est pas davantage en situation de monopole qu'il n'est ou ne doit être considéré comme un bien public.
Sauf que cinq ans plus tard, Facebook n'est certes pas encore nationalisé mais l'accès à Facebook est devenu un droit constitutionnel.
En 2014 c'est cette fois Richard Eskow, écrivain, consultant, "analyste" et clairement étiqueté "à gauche" (il sera l'un des membres de l'équipe de campagne de Bernie Sanders en 2016) en appelle à son tour à nationaliser Amazon et Google. Il est temps, écrit-il, de "gérer et de réguler ces entreprises comme autant de biens publics" ('public utilities'), et là encore il mentionne :
- la situation de monopole ou quasi-monopole
- leurs stratégies d'évitement de l'impôt
- leurs abus de pouvoir s'apparentant souvent à de la censure
- les menaces que ces sociétés font peser sur notre vie privée
- et les menaces qui pèsent également sur la liberté de l'information
Cet article est important car c'est – à ma connaissance – la première fois que l'idée d'une nationalisation renvoie nommément et explicitement à l'idée de "commun", avec l'idée aussi objectivement factuelle que féconde que c'est un bien commun, une architecture commune, qui a permis l'éclosion de l'ensemble des GAFA et qui leur permet aujourd'hui de prospérer, cette architecture commune étant celle d'internet et du web (je souligne) :
"Big Tech was created with publicly developed technology.
No matter how they spin it, these corporations were not created in garages or by inventive entrepreneurs. The core technology behind them is the Internet, a publicly funded platform for which they pay no users’ fee. In fact, they do everything they can to avoit paying their taxes.
Big Tech’s use of public technology means that it operates in a technological “commons” which they are using solely for its own gain, without regard for the public interest. Meanwhile the United States government devotes considerable taxpayer resource to protecting them – from patent infringement, cyberterrorism and other external threats."
Je ne sais pas vous, mais moi ce dernier paragraphe ça me parle 🙂
En 2015, parmi d'autres, cet article, "Why we whould just nationalize Facebook" en remet une couche.
Et en 2017 on citera notamment cet article du Guardian sur le même sujet :
Mais il n'y a pas que du côté de la gauche américaine que l'idée d'une nationalisation fait son chemin. Pour des prétextes similaires mais pour des finalités totalement antagonistes, ce fut avec Steve Bannon, au tour de l'Alt-Right, d'assumer l'envie de traiter Google et Facebook comme autant de "services publics". Dans la logique de Bannon et de ses compères de l'extrême droite suprémaciste américaine cette "nationalisation" a pour premier objectif de "punir" l'attitude des patrons de la Silicon valley (dont ceux de Google et Facebook) qui avaient assez clairement pris position contre Donald Trump, et l'on voit bien, hélas, l'utilisation qui pourrait être faite de ces plateformes nationalisées aux mains de fous-furieux dans son genre, reposant en miroir la question que soulevait le premier article de Jeffrey Rosen dans un noeud Gordien impossible à trancher : il est aussi dangereux d'imaginer le CEO d'une société privée comme Facebook (ou Google) devenir fan du régime de Corée du Nord ou épouser les thèses suprémacistes, qu'il est flippant d'imaginer de telles sociétés nationalisées aux mains de gouvernements d'extrême droite.
Voilà d'ailleurs pourquoi je plaide davantage pour un index indépendant du web (qui pourrait passer par un versement dans l'espace public de la partie du code algorithmique qui relève de logiques d'éditorialisation) que pour une nationalisation stricto sensu de ces entreprises.
Récemment encore, le 23 octobre 2017, c'est cette fois le Nobel d'économie Joseph E. Stiglitz qui soulignait que l'Amérique avait "un énorme problème de monopole", et à quel point une économie dominée par ces énormes plateformes n'était profitable que pour une infime minorité et appauvrissait l'immense majorité des citoyens et mobilisant des enjeux politiques ne visant qu'à conforter et à défendre les effets de rente ainsi bâtis.
Mais ce qui m'intéresse dans cette très courte histoire de l'idée d'une nationalisation de ces plateformes, c'est de voir que :
- primo, les arguments en sa faveur sont sensiblement toujours les mêmes (monopole, surveillance, vie privée, liberté d'information et d'expression) ;
- deuxio, l'idée est désormais partagée et débattue d'un bord à l'autre de l'échiquier politique ;
- et tertio, plus personne n'a l'air de trouver ça totalement débile ou ne court pratiquer un exorcisme en s'imaginant revenir aux plans quinquennaux de l'ère communiste quand on en vient à l'évoquer.
Une évocation qui devient d'ailleurs de plus en plus systématique. Qui commence à "faire système". Chaque catastrophe naturelle, chaque attentat nous rappelle à quel point ces plateformes endossent le rôle de réassurance jusqu'ici dévolu aux états, et pourraient de fait nécessiter de les considérer comme des biens publics ;
(Source)
De même que chaque tentative d'influence lors d'une élection majeure ou chaque polémique sur des questions de surveillance nous rappelle le rôle déterminant qu'elles jouent dans la conduite de nos démocraties, avec comme horizon celui d'une nation comme un simple fichier-client. Et j'en viens maintenant au véritable objet de cet article car oui ceci n'était qu'une petite introduction 🙂
Ne dites plus "Al-gorithms" mais dites "Ads-gorithms".
Parmi les gens qui parlent clair sur ce sujet (celui du rôle et de la place qu'occupent les plateformes numériques dans nos sociétés), se trouve depuis déjà longtemps la chercheuse en sciences sociales Zeynep Tufekci. A n'en pas douter elle sera avec les danah boyd, Lawrence Lessig, Evgeny Morozov, Dominique Cardon, Lionel Maurel, Antonio Casilli et quelques autres, de celles et de ceux qui auront permis de comprendre avec finesse les transformations numériques que nous vivons. De les comprendre et de les anticiper, pour peu que nous lui prêtions une oreille attentive.
Sa dernière conférence Ted dure moins de 30 minutes et rassemble de manière limpide et accessible les problématiques qui sont celles dont les décideurs politiques et les citoyens devraient se saisir, non pas avant qu'il ne soit trop tard (il est déjà bien trop tard), mais pour qu'un plan B demeure possible devant ce qui ressemble, et cela n'a rien de catastrophiste de l'affirmer, à un gros crash démocratique annoncé.
J'aimerais vraiment que vous quittiez ce blog maintenant et alliez écouter la conférence de Zeynep Tufekci (et après vous revenez hein" :-). Elle est intitulée :
"We're building a dystopia, just to make people click on ads".
C'est d'ailleurs moins un titre qu'un avertissement sans frais : "Nous sommes en train de construire une dystopie, juste en laissant les gens cliquer sur des publicités".
Dans sa conférence, Zeynep Tufekci revient sur bien des sujets que j'aborde moi-même depuis longtemps sur ce blog (et dans ce magnifique ouvrage 😉 Elle reprend, par exemple, l'affaire du ciblage publicitaire anti-sémite sur Facebook, l'enquête de ProPublica, mais elle le fait "à la TED" et à la Zeynep, c'est à dire de manière précise, claire, presque chirurgicale.
Il y a cette phrase, notamment, vers la fin de son intervention :
"Ce qui compte ce ne sont pas les bonnes intentions ou les règlements ("statements") rédigés par les gens qui bossent dans ces entreprises, ce qui compte ce sont les structures qu'ils construisent et les modèles économiques sur lesquelles elles reposent".
Cette phrase et le titre de sa conférence ("Nous sommes en train de construire une dystopie, juste en permettant aux gens de cliquer sur des publicités") dessinent en creux tous les enjeux démocratiques, citoyens, sociétaux, politiques, que posent aujourd'hui ce qu'elle appelle les "architectures de la persuasion" dans un contexte que d'autres, notamment la chercheuse Soshana Zuboff, ont déjà décrit comme un "capitalisme de la surveillance" :
"This architecture produces a distributed and largely uncontested new expression of power that I christen: ‘Big Other.’ It is constituted by unexpected and often illegible mechanisms of extraction, commodification, and control that effectively exile persons from their own behavior while producing new markets of behavioral prediction and modification. Surveillance capitalism challenges democratic norms and departs in key ways from the centuries long evolution of market capitalism."
<Nota-Bene> La formule "architectures de la persuasion" est efficace et prolonge l'analyse déjà un peu datée d'une simple base de données des intentions qui joue aujourd'hui davantage sur le registre émotionnel. Et comme on me le fait justement remarquer sur Twitter, ces architectures de la persuasion sont une déclinaison post-moderne de ce que Chomsky et Herman décrivaient en 1988 dans leur ouvrage, "la fabrication du consentement".
Quant au capitalisme de la surveillance, en 1998, alors que Google venait à peine de se lancer et que nul n'imaginait ce qu'allaient être les "réseaux sociaux", en 1998 donc, à l'époque glorieuse des "live-cam", Paul Virilio écrivait :
"Les technologies de la communication, de l’image et du regard permettent désormais de s’observer et de se comparer sans cesse les uns les autres. Chaque système économique et politique entre à son tour dans l’intimité de tous les autres, interdisant à chacun de s’émanciper durablement de la démarche concurrentielle, compétitive."
Cet article était titré : "Le règne de la délation optique". Il avait déjà compris et explicité l'essentiel, c'est à dire la nature idéologique de ces technologies et le projet capitaliste qu'elles étaient supposées servir. </Nota-Bene>
L'erreur que nous faisons depuis déjà trop longtemps consiste à imaginer que le champ de l'intervention, de la décision et de l'action politique doit se limiter à répondre à la question : y a-t-il un risque que ces architectures de la persuasion se mettent au service de ce capitalisme de la surveillance ? Y'a-t-il un risque de basculement ? Et l'on pense ou l'on veut croire que non. Ou en tout cas que si ce risque n'est pas nul il peut encore raisonnablement être écarté. On veut croire – ou faire croire – qu'il est possible de faire en sorte d'éviter que ces architectures de la persuasion ne servent ce capitalisme de la surveillance. Alors on essaie de réguler, de faire jouer la loi, de plaider la bonne foi et la coopération avec lesdites plateformes. Bref on s'attaque aux architectures de la persuasion plutôt qu'au capitalisme de la surveillance. On traite le symptôme mais pas la maladie.
Contrairement à ce que titrait encore The Economist, non ce ne sont pas "les médias sociaux" qui menacent la démocratie. C'est le capitalisme de la surveillance qui constitue la menace. Faire croire le contraire est dangereux et contre-productif.
D'autant que ce capitalisme de la surveillance est un monstre qui se régénère en permanence et où tout est prétexte à moins d'anonymat pour toujours davantage de surveillance. Et les affaires d'influence russe dans les élections américaines ne fait pas exception à la règle puisque l'on est déjà en train de nous expliquer que le problème, c'est l'anonymat et qu'il faut donc renforcer … la surveillance que permet une authentification permanente. #CQFD #Hélas
Or il est impossible, im-po-ssi-ble, de s'attaquer à la question des plateformes et de leurs "architectures de la persuasion" sans s'attaquer en même temps à la question du capitalisme de la surveillance. Et voilà pourquoi un discours autour de la nationalisation des plateformes émerge et s'étend dans le champ de l'opinion publique ; discours qui, s'il ne déclenche pas – encore – l'acclamation des foules, ne suscite pas non plus de forme épidermique de rejet au titre d'idée appartenant aux siècles passés. Et ce n'est pas rien.
Nous assistons à l'affirmation une forme renouvelée de Soft Power, permettant, classiquement, "d'influencer indirectement le comportement d'un autre acteur ou la définition par cet autre acteur de ses propres intérêts à travers des moyens non coercitifs (structurels, culturels ou idéologiques)", mais en y ajoutant toute la force de frappe du déterminisme algorithmique dans le cadre d'architectures de la persuasion pensées pour répondre en premier lieu aux attentes d'une forme exacerbée de capitalisme de la surveillance. Et si la poésie se fait dans un lit, comme l'amour, et que ses draps défaits sont l'aurore des choses (disait André Breton), le capitalisme de la surveillance se déploie et s'exerce plus aisément dans le lit de ces architectures de le persuasion, dont les draps défaits sont encore chauds de la trace qu'y laissa le capitalisme linguistique décrit par F. Kaplan**
** Si vous ne l'avez pas fait, relisez Kaplan après avoir relu Bourdieu sur le capital et le marché linguistique (dans le recueil "Ce que parler veut dire") et vous aurez alors une explication cohérente et lumineuse de l'installation préparée de ces néo-capitalisme (capitalisme de la surveillance et capitalisme cognitif entre autres).
Publicitarisation du réel et no-go zones algorithmiques.
Et en effet, le seul horizon possible est de remettre de toute urgence du "commun" dans cette "no-go zone" algorithmique, de dépublicitariser pour remettre des infrastructures et des services publics. C'est une urgence. Une urgence absolue.
Car comme le rappelle encore Zeynep Tufekci dans sa conférence, la dernière élection américaine a été gagnée avec un écart de 100 000 voix. Or un seul affichage d'un petit badge Facebook permettant de vous indiquer lesquels de vos amis sont allés voter, un seul affichage de ce badge sur des profils "ciblés" (c'est à dire des gens dont Facebook savait par exemple qu'ils hésitaient à aller voter, puisqu'ils l'avaient … dit sur Facebook), un seul affichage de ce badge a permis d'envoyer aux urnes 340 000 personnes qui sans cela n'y seraient pas allé lors d'élections en 2010 aux USA, expérience reproduite lors des élections de 2012 et qui avait cette fois permis d'amener aux urnes 270 000 nouveaux votants. Tout cela est décrit dans cet article scientifique.
Voilà ce que j'ai en tête quand je parle de "crash démocratique annoncé".
Voilà ce que peuvent produire ces architectures de la persuasion au service d'un capitalisme de la surveillance. Et si vous m'objectez que c'est plutôt bien que Facebook permette à des abstentionnistes d'aller voter, je vous réponds que :
- a/ pourquoi pas
- b/ la bonne question à se poser est plutôt celle de savoir jusqu'où et au service de qui ou de quelle cause, de quel camp politique, cette plateforme est en capacité d'instrumentaliser, comme personne d'autre ne le peut à cette échelle et avec cette acuité, le biais de conformité conjugué à l'effet de simple exposition, et ce que cette instrumentalisation est capable de produire.
Les technologies, c'est connu, ne sont jamais réellement neutres. Mais ces technologies là, ces technologies algorithmiques, parce qu'elles peuvent s'appuyer sur l'immense prévisibilité de l'être humain, et parce qu'elles servent un projet qui n'est pas "d'informer" ou de "mettre en relation des gens" mais de faire en sorte que les gens aient un comportement qui les amènera à cliquer sur des liens fournis par des annonceurs, ces technologies là sont nécessairement en dehors du champ de la neutralité.
C'est d'ailleurs pour cela – à mon avis en tout cas – que Facebook est en train de tester dans 6 pays une mesure ô combien controversée qui consiste à séparer dans des espaces (2 fils) distincts, les infos de nos ami(e)s et celles des pages et marques. Il y est contraint et, même s'il nie pour l'instant avoir prévu de généraliser ce dispositif, il y viendra pour l'ensemble de sa plateforme (à mon avis toujours) pour au moins deux raisons.
La première raison c'est qu'il devient totalement incohérent, dans sa ligne de défense, de nier l'évidence : sur l'histoire des publicités russes ayant possiblement influencé l'élection, Facebook a en effet commencé par nier, puis par reconnaître que oui il y avait eu des publicités mais qu'elles n'avaient touché personne, puis qu'elles avaient touché très peu de personnes, pour finalement avouer que plus de la moitié des américains avaient été exposés à ces publicités (126 millions d'américains). Une stratégie de défense qui ressemble surtout à un aveu et qui est résumée dans ce tweet assassin. Une fois ceci avoué Facebook se trouve alors pris à son propre piège de publicitarisation : soit il admet que cette simple exposition a eu une influence sur les résultats du vote, soit il le récuse et c'est alors l'ensemble de son modèle économique qui s'effondre, car comme le rappelle Chris Hayes sur Twitter :
"Si voir du contenu sur Facebook "n'influence" pas les gens, alors pourquoi faudrait-il payer pour assurer la promotion de quoi que ce soit sur cette plateforme ?"
La deuxième raison est une raison historique. A l'époque de l'explosion des blogs, époque qui, au-delà des aspects techniques, fut une période de libération, de démocratisation et d'émancipation de la parole comparable dans sa nature à ce que fut l'arrivée des réseaux sociaux, à cette époque là donc, Google commença par indexer ces blogs comme il le faisait jusque là avec les pages web habituelles. Mais tant la "nature" que la "fréquence" ou la densité de ce nouveau type de publication rendaient son algorithme quasiment fou et Google décida donc d'isoler la recherche de blogs dans une partie réservée du moteur baptisée "Google Blogsearch", un service lancé en 2005 et qui même s'il cessa de fonctionner aux alentours de 2011 ne fut définitivement fermé qu'en 2016. La question qui se posait à Google à l'époque est pour une bonne partie la même que celle qui se pose à Facebook aujourd'hui : la parole, ou plutôt le régime de publication, le régime documentaire, qui caractérisait ces "blogs" n'était pas du tout le même que celui qui caractérisait les pages web et sur lequel l'algorithme de Google avait fait ses preuves ; il fallait donc l'isoler pour laisser le temps à l'algorithme de comprendre comment le traiter ; de la même manière aujourd'hui, les régimes discursifs de publication qui caractérisent les publications "des gens" et les publications "des marques" n'ont ni la même fréquence, ni le même objectif, ni la même nature, et comme de surcroît la perméabilité de ces deux espaces est également une brèche dans laquelle des messages ("publicitaires") relevant de stratégies d'influence viennent se glisser, il devient urgent et nécessaire de séparer ces deux espaces. Ou en tout cas de tester l'idée.
Et donc on fait quoi ?
Et donc comme je l'ai déjà dit, le seul horizon possible est de remettre de toute urgence du "commun" dans cette "no-go zone" algorithmique, de dépublicitariser nos pratiques, nos "habitus", nos comportements, pour remettre des infrastructures et des services publics au centre et à la périphérie de ce qui nous permet de faire société. C'est une urgence. Une urgence absolue. Une urgence sur laquelle le politique est totalement aveugle (ou aveuglé par le veau d'or du capitalisme de la surveillance …). Totalement. Et les exemples qui suivent n'incitent pas à être optimiste.
L'espace public devient un terrain d'expérimentation privé.
Difficile de rester optimiste en effet, parce qu'en plus de l'annexion programmée des secteurs régaliens comme la santé, l'éducation, les transports et quelques autres, nos villes sont en train de devenir des labos R&D à taille réelle de ces sociétés et que personne je dis bien personne ne leur a donné mandat pour cela dans le cadre d'un processus électoral qui devrait être le seul à pouvoir entériner de telles "expérimentations" : on s'alarme à juste titre du système de notation des citoyens mis en place par le gouvernement chinois, mais personne ne semble s'effrayer d'un projet qui, au Canada, prévoit tranquillou de mettre sous coupe algorithmique réglée 30 hectares d'espace urbain public dans le cadre d'un PPPP (Putain de Partenariat Public Privé) :
"If the initiative proceeds, it would include at least 3.3 million square feet of residential, office and commercial space, including a new headquarters for Google Canada, in a district that would be a test bed for the combination of technology and urbanism.
"Sidewalk Toronto" would represent North America's largest example of the smart city, an urban district that is built around information technology and uses data – about traffic, noise, air quality and the performance of systems including trash bins and the electrical grid – to guide its operation. Access to those systems and the use of that data, in this private-public partnership, will raise novel policy questions for governments about privacy and governance."
Tu m'étonnes que ça va faire émerger de nouvelles questions sur la "gouvernance" et la "privacy" …
Parce que bien sûr on ne pense, nous dit-on, qu'à améliorer la vie des gens et à faire des économies d'énergie pour préserver la planète, et pour ce faire on va donc fliquer et surveiller, pardon, "mesurer" et "observer" en permanence les déplacements des gens. Et bien sûr c'est fascinant. Et bien sûr ça va probablement marcher. Et bien sûr on va étendre cette "expérimentation". Et bien sûr une fois que sera entérinée cette délégation de service public, on se posera, mais bien trop tard, les questions liées à la délégation des responsabilités publiques qui vont avec. Et là ça va piquer. Très fort. Très très fort. Mais ce sera une nouvelle fois trop tard. Bien trop tard. Et sur les 220 pages de la documentation globale de cette expérimentation, il va falloir pour me rassurer bien plus que les deux pauvres pages dans lesquelles on nous explique qu'il y aura de la "privacy by design" …
La propriété c'est le vol. Sauf si c'est Amazon qui a la clé de chez toi.
Il y a urgence parce que dans un autre genre, on vient d'apprendre qu'Amazon allait lancer un nouveau service permettant à ses coursiers d'ouvrir la porte de votre maison pour y déposer un colis. D'ouvrir la porte de votre maison. Pas votre boite aux lettres hein. La. Porte. De. Votre. Maison. Et là aussi bien sûr avec votre consentement ("c'est teeeeeeellement pratique"). Comme le faisait remarquer je ne sais plus qui, le plus flippant dans cette histoire c'est d'imaginer le niveau de pouvoir et de coercition dont Amazon doit disposer sur ses coursiers au regard des risques que ce genre de pratique fait encourir à la firme au sourire.
Si la carte c'est le territoire, alors le territoire c'est d'abord celui de la finance.
Il y a urgence parce que la logique algorithmique, pour autant qu'elle puisse encore être auditée ou que des formes de reverse engineering puissent être mises en oeuvre, la logique algorithmique impacte de manière directe et le plus souvent néfaste la totalité des espaces sociaux, à commencer par ceux qui conditionnent notre habitat. Et à ce titre et puisque l'on parlait plus haut de Smart-Cities j'attire votre attention sur cet autre article édifiant qui démontre la manière dont AirBn'B raréfie l'offre de logements abordables à l'échelle de l'ensemble des métropoles dans lesquelles cette plateforme est installée. Extrait :
"Beaucoup de gens aux revenus modestes qui ont toujours vécu dans une grande ville voient leurs vies bouleversées. Ils ne trouvent plus de logements à un prix abordable ; Airbnb a raréfié l’offre. De plus en plus de propriétaires utilisent exclusivement cette plateforme pour louer leur bien car cela leur rapporte trois fois la somme qu’ils toucheraient avec un locataire classique. Des gens se retrouvent donc contraints d’aller habiter en dehors de la ville, là où les prix sont moins élevés. A Bordeaux par exemple, en un an, le nombre d’annonces Airbnb a augmenté de 135%. Et 83% des logements loués sont entièrement dédiés à cette activité.
On est loin de l’image sur laquelle la plateforme communique, celle de propriétaires qui louent de temps en temps leur résidence principale pour arrondir leurs fins de mois. Airbnb est devenu un business d’investisseurs immobiliers, de gens qui achètent de petits logements, des studios ou des T2, pour les mettre en location via la plateforme et rentabiliser très vite leur achat. La conséquence c’est que beaucoup de jeunes, d’étudiants, de célibataires modestes sont chassés du centre-ville. Il est devenu très difficile de se loger à Bordeaux."
A ma gauche, ce que l'on appelait jadis une politique publique de logement (voire de logement social). A ma droite une plateforme qui publicitarise l'occupation de cet espace public pour favoriser son Business Model, c'est à dire le segment des gros investisseurs immobiliers et un taux de rotation maximal des logements disponibles à la location. Et tout le monde semble désemparé puisqu'en effet, même faire voter des lois pour limiter le nombre de "nuitées" (120 nuitées par an en l'état) ne sert à rien étant donné que l'état et les collectivités locales ne disposent pas des outils de vérification et de contrôle.
Une nouvelle fois …
"Ce qui compte ce ne sont pas les bonnes intentions ou les règlements ("statements") rédigés par les gens qui bossent dans ces entreprises, ce qui compte ce sont les structures qu'ils construisent et les modèles économiques sur lesquelles elles reposent."
Or ces structures sont prédatrices (elles captent toute la valeur en se comportant pour l'essentiel comme autant de passagers clandestins) et les modèles économiques sur lesquelles elles reposent sont toxiques, en tout cas tant qu'ils ont pour vocation principale de nourrir ce capitalisme de la surveillance.
Moralité.
La démocratie est un espace de rendu public. De rendu public qui nécessite une délibération publique. Laquelle délibération publique n'est compatible avec des dispositifs "d'isoloirs" que tant que ceux-ci permettent au corps social d'exercer son libre choix.
Ce qu'il faut comprendre et retenir du discours de Zeynep Tufekci, ce que je choisis d'en retenir en tout cas, c'est que nous devons choisir, ici et maintenant, entre deux modèles de sociétés.
D'un côté nous avons un modèle de société qui fait du rendu public et de la délibération publique un mode de gouvernance qui ne peut être qu'inscrit dans un horizon "commun" et nécessite pour cela de pouvoir s'appuyer sur des infrastructures pleinement "communes" (des services publics si vous préférez). D'où le débat sur la possible nationalisation ou le démantèlement du monopole de ces plateformes.
Et de l'autre un modèle de société dans lequel toute forme de "commun" sera remplacé par un rendu "publicitaire", par une publicitarisation du réel qui est aujourd'hui le premier levier entre les mains de ceux qui créent les conditions d'une société dystopique presque sans le vouloir, presque sans le savoir, presque sans en avoir réellement le pouvoir. Simplement par la force de l'habitude, d'une habitude contrainte, enfermés dans des architectures de la persuasion au service d'un capitalisme de la surveillance qui est leur Credo et leur Confiteor.
Donald Trump, le président de la première puissance économique et militaire mondiale, fait de la géopolitique sur une plateforme privée qui ne bloque pas son compte alors qu'il a pourtant déjà à de nombreuses reprises enfreint certaines des conditions générales d'utilisation de la plateforme. Ses déclarations qui sont autant politiques que pathétiques s'affichent entre deux Tweets sponsorisés. Une autre forme de publicitarisation du réel. Et ses Fake News. Tout le monde rigole. Tout le monde s'en fout.
Il nous faut choisir, et pour choisir il faut savoir. Mais ne nous trompons pas une nouvelle fois. Il ne s'agit pas de prétendre trancher des débats aussi vieux que le web et de décider, comme le gouvernement du Royaume-Uni envisage de le faire, que Google ou Facebook doivent être désormais considérés comme des éditeurs (ce qu'ils ne sont pas vraiment) plutôt que comme de simples hébergeurs (ce qu'ils n'ont jamais vraiment été).
Il s'agit de savoir, et de mesurer, la part exacte de services et de responsabilités publiques que nous souhaitons abandonner. Abandonner non pas simplement à des "sociétés privées" auxquelles il serait toujours possible de les reprendre car nous en aurions collectivement gardé la responsabilité tout en leur déléguant temporairement le service, mais abandonner ces services et ces responsabilités publiques, et le faire définitivement (car il faudrait être bien naïf pour croire que nous pourrons les leur reprendre), les abandonner à des plateformes dont les architectures de la persuasion ne fonctionnent et ne font sens que tant qu'elles sont au service d'un capitalisme de la surveillance.
Il s'agit donc de savoir si "l'état", si la puissance publique, assume que chaque parcelle de responsabilité et/ou d'infrastructure désormais cédée à ces plateformes privées équivaut à un soutien explicite au déploiement de ce capitalisme de la surveillance. Et si les citoyens que nous sommes se satisferont de cette posture, et s'il leur sera encore possible de s'y opposer, et de quelle manière.
Mais il faut aussi cesser d'affirmer ou de laisser entendre que ces plateformes sont, même à la marge, des outils ou des médias "d'information". Ou alors autant affirmer que Patrick Balkany est un honnête homme ou qu'Eric Ciotti a suffisamment d'humanité pour être ému par le sort de mineurs réfugiés fuyant la guerre. Ces plateformes ne sont pas des outils d'information. Elles ne sont d'ailleurs pas davantage des outils ou des médias "d'opinion".
Ces plateformes sont des outils et des médias de persuasion et de publicitarisation du réel***. Ce qui est par ailleurs tout à fait leur droit. Mais leur confier délibérément ou les laisser par défaut prendre la main sur des "espaces" dans lesquels se déploient des politiques publiques est une faute politique majeure. Même s'il est difficile d'attendre autre chose d'un état qui se rêve en simple plateforme au service d'une start-up nation.
*** <Incise> Toutes proportions gardées, nous sommes aujourd'hui en train de nous étonner et de nous interroger sur l'importance qu'auraient joué les Fake News publicitaires d'annonceurs russes sur Facebook dans l'accession de Trump à la présidence. Et tout le monde de sembler découvrir la puissance d'un média. Relisez la première phrase de ce paragraphe en remplaçant "fake news publicitaires d'annonceurs russes" par "reportages sur la violence dans les journaux télévisés", "Facebook" par "TF1" et "Trump" par "Sarkozy". Vous y êtes ? Voilà. Les médias de la persuasion ne sont pas nouveaux. Mais aucun d'eux à aucun moment de l'histoire de l'humanité n'a eu deux milliards de spectateurs ou d'utilisateurs participant à leur propre fichage et livrant avec autant d'enthousiasme les données de leur servitude volontaire. </Incise>
Un grand pouvoir implique de grandes responsabilités.
Mais être "responsive" ne suffit pas à être responsable.
Il s'agit aussi de savoir qui. Qui assumera les responsabilités de ce futur plus que probable crash démocratique ? Car ces plateformes et leurs dirigeants, en tout cas lorsqu'ils daignent se présenter aux convocations des élus de la nation, ont tendance à penser qu'être "responsive" suffit à être responsable.
Un article de Wired publié début Octobre titrait : "Who will take reponsability for Facebook" avec une analogie a priori assez capillo-tractée avec l'ingénieur à l'origine des tours du World Trade Center et à sa dépression suite à l'attentat terroriste qui les avait abattues. Il explique (l'ingénieur) qu'il avait bien sûr anticipé la possibilité d'un crash d'avion et construit les tours pour qu'elles y résistent, mais n'avait pas prévu l'effet que produirait l'incendie du Kérosène sur la structure de la tour. A quel point sa "responsabilité d'ingénieur" peut-elle être engagée dans ce drame ? L'article se conclut ainsi :
"To be sure, unlike on 9/11, there are no mass casualties; there’s no flaming wreckage. But that may only heighten how important it is for Zuckerberg to take responsibility. Because there are 2 billion of us on Facebook. We’re all inside his tower. And, heaven help us, we have nowhere else to go."
Plateformes délinquantes ou algorithmes voyous ?
De fait il est plus que probable qu'une forme de salut vienne des ingénieurs eux-mêmes, de ceux-là mêmes qui commencent à comprendre à quel point les interfaces qu'ils ont appris à construire dans leurs cours de persuasion technologique, à quel point le monde que ces interfaces construisent est potentiellement nocif ou pourrait en tout cas être beaucoup plus vertueux, comment on pourrait arrêter de voler ces millions d'heures à la vie des gens. Les plus connus et les plus médiatiques s'appellent Tristan Harris, ancien "philosophe produit" chez Google ou bien encore Justin Rosenstein, l'un des créateurs du bouton "Like" chez Facebook.
Au sein de ces architectures de la persuasion et dans ce monde régi par ce nouveau capitalisme de la surveillance, ces ingénieurs ont compris que les interfaces qu'ils bâtissaient servaient des "algorithmes voyous" (expression fleurie de Tim O'Reilly dans cette interview, "Algorithms have already gone rogue").
Et ils commencent à être rejoints par nombre de leurs pairs ou il faudrait en tout cas qu'ils le soient, car seuls en effet les codeurs / ingénieurs de la Silicon Valley sont en capacité de diminuer le pouvoir des "Big Tech", ou en tout cas et plus probablement d'être à l'initiative d'une diminution du pouvoir des Big Tech pour autant que la puissance publique joue son rôle d'accompagnement dans cet affaiblissement et que les citoyens se mobilisent aussi autour des enjeux que recouvrent ces notions d'infrastructures publiques et de communs.
En tous les cas, il y a déjà une imagerie de la lutte ou de l'entrée en résistance des codeurs / ingénieurs qui reprend les codes de l'internationale communiste, et ce n'est certainement pas un hasard 😉
De l'index blanc au pouce bleu, il n'est pas impossible que le prochain âge du réseau soit celui d'une nouvelle forme de poing levé. Ce serait en tout cas souhaitable.