Sur Numérama, Guillaume Champeau signale la publication d'un rapport du coordinateur de la commission européenne pour la lutte contre le terrorisme, rapport qui, je cite :
"propose que les Etats tirent profit des conditions générales des réseaux sociaux pour obtenir sans procès la censure de contenus qui ne sont pas illégaux aux yeux de la loi, mais qui peuvent contrevenir aux contrats signés par les internautes."
Guillaume Champeau souligne que :
"il est dit — pour la première fois très explicitement — que les Etats ont la possibilité d'aller plus loin dans la censure des contenus que ce que la loi démocratiquement adoptée permet normalement à l'Etat de faire, en tirant profit des conditions générales d'utilisation (CGU) des plateformes. Car celles-ci sont encore plus restrictives que la loi nationale, et permettent par exemple de censurer les contenus "extrémistes" qui ne sont pas illégaux en vertu de la législation, mais qui violent les contrats privés des plateformes."
Déloyale force de loi.
En d'autres termes, et de manière assez paradoxale, les CGU auraient "force de loi" précisément parce qu'elle n'ont pas besoin d'avoir recours à la loi, une "force de loi" littéralement "déloyale". Situation dangereuse et paradoxale mais qu'il est essentiel de comprendre et de prendre en compte si l'on veut anticiper l'évolution des internets sur un ensemble de sujets bien plus vastes que la seule lutte contre le terrorisme.
Car de fait, nombre de contenus contrevenant à des législations nationales existent "tranquillement" sur certaines de ces plateformes transnationales (nombre de groupuscules néonazis ont par exemple leurs pages Facebook qui regorgent d'incitation à la haine raciale, pour ne prendre que cet exemple).
Car de fait également, les différents biais pour permettre, aujourd'hui, de demander la suppression de ces contenus sont les mêmes que ceux que je listais dans mon récent billet "légalgorithme" (non-conformité aux CGU du site hôte, dénonciation – signalement – par d'autres utilisateurs de la plateforme) qui peuvent aboutir à des procédures de déréférencement, de désindexation et/ou de fermeture du compte et/ou de page.
Car de fait, l'actualité nous rappelle de plus en plus souvent que sur un éventail de sujets de plus en plus vastes, la responsabilité des sites hôtes est manifestement engagée (cf les affaires de hashtag #unbonjuif sur Twitter, les vidéos de décapitation, les émeutes de Ferguson, etc.). Et que nous sommes derrière la grille des programmes.
Car de fait, la politique de "lutte contre la pornographie" de la plupart de ces plateformes relève le plus souvent d'un hygiénisme boutiquier assez fumeux et parfaitement inapte à saisir un certain nombre de nuances ou de codes culturels (affaires Nipple Gate, origine du monde, etc).
Car de fait, et dans la triste actualité de ce début d'année, les états pas complètement démocratiques ou très légèrement religieux, parviennent à jouer d'un très peu subtil équilibre de la terreur – économique – sur le mode : si tu supprimes pas les contenus que je t'indique (en l'occurence les caricatures du prophète), j'interdis aux habitants de mon pays d'accéder à ta plateforme. Très exactement ce qui vient de se passer en Turquie comme le rapport le New-York Times, le gouvernement turc ayant demandé à Facebook de supprimer les pages qu'il – le gouvernement – considérait comme une insulte envers le prophète. Rappelons que d'autres avant Facebook, s'étaient déjà posé ce choix cornélien, Google par exemple en 2006 sur l'air de "vaut-il mieux accepter la censure d'état pour offrir aux citoyens chinois un accès à un internet certes censuré mais quand même moins que les moteurs de recherche du régime, ou vaut-il mieux refuser la censure". Là encore, il n'est de noeud Gordien difficile à trancher qu'à condition qu'il ne soit pas constitué des seuls cordons de la bourse.
De Niro (l'ordre documentaire) négociant le retrait de contenus qui énervent Al Pacino (la loi)
Supprimer ? C'est compliqué.
Au-delà de leurs CGU absconces et léonines, les "plateformes" transnationales que sont Facebook, Twitter, Google, mais aussi dans un autre registre Apple et quelques autres ont patiemment érigé un nouvel ordre documentaire du monde (voir là ou là). Un ordre documentaire qu'elles seules maîtrisent et régulent, un ordre documentaire qu'elles seules sont capables de saisir dans sa globalité ou dans ses détails.
Quand vous voulez indiquer votre situation "relationnelle" sur Facebook, vous avez le choix entre 11 possibilités :
Quand il s'agit de décider du "statut" d'un contenu ou d'une publication, nous avons alors à faire à la liste suivante :
Je rappelle ici la citation de départ de l'article de Guillaume Champeau :
"propose que les Etats tirent profit des conditions générales des réseaux sociaux pour obtenir sans procès la censure de contenus qui ne sont pas illégaux aux yeux de la loi, mais qui peuvent contrevenir aux contrats signés par les internautes."
Reprenons maintenant quelques-uns des exemples sus-cités et ajoutons-en de nouveaux :
- cas n°1, 3 et 5 : Twitter vire les vidéos de décapitation de James Fowley et suspend les comptes ayant partagé la vidéo. C'est le cas n°1 (interdit par les CGU, trop "violent") qui s'applique mais ce sont clairement des questions "d'image de marque" (cas n°5) qui dictent la rapidité de ce choix, indépendamment du fait que cela pourrait est considéré (cas n°3) par certaines législations comme une "apologie du terrorrisme" ou une "incitation à la haine". A noter d'ailleurs que la plupart des clauses des CGU sont édictées pour préserver l'image de marque de la plateforme.
- cas n°2 : bon là y'a trop d'exemples. NippleGate, campagnes de prévention contre le cancer du sein, photos et vidéos d'allaitement, tableau "l'origine du monde", systématisme débile de la politique "no-porn" dans l'AppleStore qui n'empêche pas le même AppleStore d'héberger tranquillement l'application Playboy, Hustler et d'autres tout aussi grivoises, etc.
- cas n°4 : affaire Turquie VS Facebook et caricatures du prophète. Plus tous les cas du suppression de contenus contrevenant au droit d'auteur, comme j'en parlais dans mon dernier billet.
- cas n°6 : celui de feu les Google Bombing. Dont Bush et Sarkozy furent – notamment – les victimes expiatoires. Un petit coup de fil de la maison blanche et de l'élysée, et hop, tout est rentré dans l'ordre (documentaire)
- cas n°7 : celui des hashtags comme #UnBonJuif, affaire dans laquelle Twitter attendit donc la décision de justice (qui fut cette fois assez rapide) pour se plier à l'injonction de communiquer à la justice les infos sur les comptes à l'origine dudit Hashtag. Rentrent aussi dans les catégories 7 et 8 les épineux cas de droit à l'oubli.
La police des "policies".
Dans un vieux billet sur un tout autre sujet (les Google Glasses) je revenais sur l'articulation et la dichotomie entre ce qui relève de la loi (et qui peut et doit donc s'appuyer sur une décision de justice) et ce qui relève du simple réglement intérieur (les CGU). J'en reprends ci-après les points essentiels :
"Il y a d'un côté les normes, celles qui sont édictées "d'en haut", et celles qui, "d'en bas", "par l'usage", finissent par devenir "la" norme (sociale, comportementale, etc.). Il y a la Loi, les lois, qui relèvent de la seule sphère du politique. Et il y a cet entre-deux, ce go-between que constituent les "réglements", les "policies". Règlements le plus souvent "intérieurs", qui s'efforcent tant bien que mal de rester inscrits dans le cadre général de la loi tout en tolérant (ou pas) certains usages les plus souvent non-inscrits ou prévus par et dans la loi.
<PLOUF> Je prends juste l'exemple de la piscine municipale. Une piscine municipale dispose d'un réglement qui interdit par exemple les "shorts de bains" au profit des "slips de bain". Il n'y a pas de loi (à ma connaissance) interdisant d'entrer dans une piscine en short de bain. Ce réglement s'est constitué sur un usage constaté ("ouah l'autre hé il se baigne avec son calbut c'est dégueu") et reste négociable selon les usages (la limite en termes de centimètres entre le short acceptable et non-acceptable peut évoluer et reste parfois négociable). </PLOUF>
Et là vous vous dites : "Non mais qu'est-ce qu'il raconte avec ses histoires de piscine et de slips de bain ?" Je raconte que Google vient, dans le cadre du déploiement de ses Google Glasses, de publier un code de bonne conduite, un réglement donc, accessible ici. Il est pour l'instant assez sommaire, mais je prends le pari qu'il va considérablement s'alourdir en fonction de l'adoption réelle de ce dispositif dans les usages.
Et je reviens au sujet principal de ce billet : le problème de l'action politique sur les algorithmes. La question de la légitimité de cette action, vient précisément de la frontière délicate entre usages, réglements et lois. Pas davantage qu'il n'a le temps ou l'intérêt de légiférer sur le port et la taille des slips de bains en piscine municipale, avec les grands écosystèmes numériques constitués autour d'une panoplie de services disposant eux-mêmes de leurs propres réglements intérieurs, le politique est contraint de naviguer en permanence entre ce qui pourrait relever de la légitimité d'une réflexion législative, ce dont il doit se saisir du fait de l'observation de nouvelles normes sociales de facto constituées sur des usages massifs, et ce sur quoi il ne peut par définition pas intervenir puisque cela relève de la seule compétence intérieure des écosystèmes concernés (leurs "règlements" et autres "CGU"). Mais, et l'exemple du réglement ou code de bonne conduite des Google Glasses est particulièrement parlant, certains usages ne relevant normalement que des CGU et autres réglements intérieurs impactent aussi, de fait, un grand nombre de pratiques sociales qui, elles, doivent être légitimement encadrées par la loi. C'est de cette hybridation que naît la complexité qui permet à la fois aux grands ou petits écosystèmes numériques de naître et de prospérer "à l'abri" des lois, et qui conduit également, à l'autre bout de la chaîne, à des situations ubuesques ou préoccupantes (comme celle des données personnelles, de la sur/sous-veillance, etc.), le jour où lesdits écosystèmes atteignent une taille critique qui les oblige à se confronter à la loi.
L'action politique doit alors se caler sur un credo qui pourrait, à mon avis, se résumer ainsi :
- faire en sorte qu'aucun "réglement", qu'aucune "policy" ne puisse, par la masse des utilisateurs concernés et/ou le volume des données traitées et collectées, se substituer à la loi, ou "faire loi".
- proposer un cadre juridique ouvert à chaque fois que cette situation de bascule est sur le point de se produire, qu'elle semble instituer de fait de nouvelles "normes" sociales avérées, ou qu'elle pointe un manque patent ou une inadaptation flagrante de la loi.
- Partir des usages constatés et non des lois pré-existantes pour proposer une réglementation de l'espace public de diffusion et d'accès aux informations ou aux biens culturels immatériels (l'exemple type étant celui de l'établissement des licence Creative Commons)"
Et je poursuivais plus loin :
"La question de la re-territorialisation de cet espace qu'est le web est une arme à double tranchant (cf ce vieux billet toujours d'actualité). D'un côté, elle installe les grands écosystèmes dominants comme autant de "gatekeepers" contrôlant la circulation, la diffusion et la monétisation de l'ensemble des produits des grandes industries culturelles (livres, TV, cinéma) au gré d'accords commerciaux avec éditeurs et ayants-droits dans tel ou tel pays, à telle ou telle échelle. De l'autre côté, cette territorialisation les expose symétriquement à l'exercice d'un droit de regard et de contrôle lié à une gouvernance politique, qui si elle préfère souvent se soumettre aux mêmes lobbys des éditeurs et ayants droits, ne peut totalement ignorer les aspirations ou les interpellations de la société civile (sur la question des données personnelles par exemple, cf exemple 1 de la CNIL) ou du tissu économique (cf exemple 2, la place des liens "rivaux")."
Dans le domaine des (ayants)droits d'auteur (relire le billet "légalgorithme" et surtout celui de Lionel Maurel, "Droit d'auteur et corruption de la démocratie"), comme dans celui de contenus "sociétaux" complexes, la question que pose Guillaume Champeau à la fin de son billet est en effet essentielle :
"à l'heure où Facebook compte plus de 1,3 milliards d'utilisateurs dans le monde et que les services des géants du web sont de fait souvent incontournables pour être lu ou entendu, est-il encore cohérent que ces plateformes privées ne soient pas soumises aux mêmes standards de respect des droits fondamentaux que les acteurs étatiques ? La question devra être ouverte."
Elle l'est d'autant plus qu'elle peut constituer le cheval de Troie permettant d'inscrire enfin clairement dans l'agenda politique la question de l'ouverture des algorithmes, de leur "rendu public", ou à tout le moins du rendu public de leur fonctionnement dans nombre de phénomènes qui relèvent de l'éditorialisation et de la visibilité de contenus contrevenant à des principes de territorialité juridiques, faute de pouvoir disposer du rendu public de leur critériologie algorithmique complète. Une voie qui serait bien plus féconde et intelligente que celle consistant à invoquer un potentiel démantèlement de Google.
Double délégitimation.
Le cas échéant, si nous ne parvenons pas à rétablir la hiérarchie qui place les lois au-dessus de tel ou tel réglement intérieur de tel ou tel "jardin fermé", si nous acceptons, pour l'ensemble des cas évoqués dans ce billet, de surseoir à une intervention juridique au profit d'une délégation d'intervention cantonnée à la seule discrétion des plateformes, nous nous exposons collectivement à valider l'existence de zones de non-droit planétaires fonctionnant sur un double processus de délégitimation.
Première délégitimation : délégitimation rendant possible d'ignorer certaines lois au profit d'un primat des CGU et donc de conforter la "déloyauté" desdites CGU. Seconde délégitimation : une délégitimation laissant aux seules plateformes le pouvoir de "délibération" sur la suppression de tel ou tel contenu au nom de tel ou tel motif pourtant potentiellement valable dans telle ou telle législation territoriale.
Aliéner la délibération
Et l'urgence est réelle. Car au-delà des seuls phénomènes d'audience (moteurs et réseaux sociaux supplantent progressivement les "vieux" médias que sont la télé, la presse et la radio, c'est à dire qu'ils imposent là encore, leur ordre documentaire du monde, leur éditorialisation algorithmique), au-delà des seuls phénomènes d'audience, les mêmes sont également – et logiquement puisque les deux phénomènes sont corrélés – en train de remporter le match de la confiance.
Pour conclure avec une citation de Stiegler que j'aime bien :
"la démocratie est toujours liée à un processus de publication – c'est à dire de rendu public – qui rend possible un espace public : alphabet, imprimerie, audiovisuel, numérique."
Or après que les algorithmes se sont rendus maîtres de l'essentiel du "rendu public" de nos productions documentaires, les plateformes sont en train de reléguer dans d'obscures alcôves l'autre processus de rendu public démocratique : celui de la délibération, la délibération sur ce qui a légitimité – ou non – à s'inscrire dans l'espace public. Il ne sera pas éternellement possible de s'abriter derrière le fait – et la difficulté – que ces plateformes ne sont précisément ni des espaces réellement publics, ni des espaces réellement privés. A l'ordre documentaire qu'elles ont institué, elles ajoutent lentement mais surement un "ordre moral réglementaire" sur lequel il nous sera très difficile de revenir si nous n'en débattons pas dès maintenant.