From "User Generated Content" to "User Global Culture".
Le monde compte 7 milliards d'être humains. 3 milliards d'entre eux disposent d'un accès internet. Un milliard et demi d'un compte Facebook.
Tous les grands acteurs d'internet, qu'ils soient hébergeurs, fournisseurs, éditeurs, qu'ils fonctionnent sur des modèles gratuits ou payants, qu'ils soient "ouverts" ou "propriétaires", qu'ils s'appellent Google, Facebook, Apple ou Wikipédia sont à la recherche et en attente du "next billion", du prochain milliard d'internautes connectés. Et tout le monde semble unanime pour indiquer que c'est pour très bientôt.
<mise à jour> Microsoft dans une étude prospective table sur 4,7 milliards d'internautes dans 10 ans, en 2025, la plupart en provenance de pays "pauvres".
</mise à jour>
Et chacun y va de ses stratégies. Google veut tapisser le ciel de ballons stratosphériques pour connecter à faible coût des continents et des populations jusqu'ici déconnectés, Facebook lance son projet et sa fondation Internet.org en visant particulièrement l'Inde, Jimmy Wales et la fondation Wikimedia ont lancé le projet Wikipedia Zero pour permettre à de nouveaux utilisateurs, d'accéder, sans frais d'opérateur téléphonique, à l'encyclopédie en ligne.
Je l'ai déjà écrit sur ce blog, le passage au prochain milliard risque d'être … compliqué.
Pas d'ailleurs tant techniquement que culturellement. S'il existe, naturellement, des pays non occidentaux disposant déjà de leur propre accès au réseau, de leurs propres moteurs de recherche et réseaux sociaux, bref s'il existe une géographie et une diversité linguistique des services du web et une géopolitique des infrastructures d'accès, la question culturelle d'une population mondiale entièrement connectée reste encore à écrire.
UGC. User Global Culture.
Après les CGU, les Conditions Générales d'Utilisation, après les UGC, les "User Generated Content" (contenus générés par les utilisateurs), la question du siècle à venir sera celle de l'existence d'une nouvelle UGC, une nouvelle "User Global Culture".
(Droits de l'image : Boll pour Les Echos)
Au-delà du phénomène de diversité linguistique, que peut devenir notre rapport à un ensemble de totems et de tabous qui sont les marqueurs et les traits qui constituent les différentes "cultures" dans un monde entièrement connecté où quelques services, sites et écosystèmes se poseront en autant d'incontournables attracteurs ? Des plus anecdotiques en apparence, comme les patronymes de ces amérindiens qui ne respectent pas les "régles" édictées par Facebook, jusqu'aux plus essentielles, comme le rapport à la mort, le rapport à la sexualité, le rapport à la religion, le rapport à la politique, la manière dont sont diffusées et accessibles les connaissances scientifiques : il ne s'agit là que de quelques-uns des problèmes majeurs qu'il nous faudra envisager à l'échelle d'un internet de 7 milliard d'internautes.
Précisons qu'en l'état et au vu des différents régimes politiques de la planète, il semble improbable que 7 milliard de personnes se connectent effectivement aux même grands écosystèmes dominants. Nombre de dictatures, de pays totalitaires ou même de démocraties autoritaires continueront à ériger différents "firewall", à la fois pour n'autoriser que des outils produits ou validés par le régime en place, et pour s'assurer que leurs populations n'accèderont qu'à un réseau sous contrôle et expurgé d'un certain nombre de pages plutôt qu'à ce réseau de réseaux que l'on appelle Internet. Mais ceci étant posé, et en prenant également en compte la multiplication et la démocratisation en plein essor des outils et techniques de contournement de la censure pour ces différentes populations, il n'est en revanche pas du tout impossible que la prochaine génération soit celle du passage d'une population de 3 à 5 milliards d'internautes. Un saut quantitatif suffisamment important pour modifier la polarisation pour l'instant essentiellement occidentale des grands écosystèmes dominants.
(Source : Le Monde – Juillet 2013)
Prenons trois exemples existants, Google, Facebook et Wikipédia.
La culture en mode Search.
Les versions du moteur de recherche qui domine la planète (même si ses parts de marché, écrasantes en France, sont – heureusement – plus relatives à l'échelle d'autres pays), ses versions sont d'ores et déjà différentes. L'algorithme, sans même avoir besoin d'entrer dans des logiques de personnalisation est déjà capable, par simple itération, d'isoler, pour des versions linguistiques différentes, le rapport qu'un peuple entretient avec sa propre histoire. Ainsi la requête "nazi" sur la version Allemande du moteur donnera des résultats sensiblement différents que la même requête sur la version américaine du moteur. Il semblerait d'ailleurs, pour cet exemple et pour d'autres, parfaitement aberrant d'envisager une seule et unique version "monde" du moteur de recherche, puisque son algorithme est d'abord supposé être est un reflet de l'activité de publication, du rendu public des peuples, et que ce rendu public nécessite d'être ciblé à l'échelle d'une communauté nationale constituée pour être sinon à tout coup "pertinent", du moins assez largement objectivable. Un Allemand ne comprendrait pas qu'une requête sur le nazisme mentionne les sites d'histoire sur la Shoah après ceux des différents partis nazis de la planète, un Français ne comprendrait pas qu'une requête sur la ville de Vichy omette le rappel à l'histoire du "régime de Vichy".
Mais qu'en sera-t-il pour les prochaines générations ? Celles, justement du prochain milliard ? Celles pour lesquelles il n'existera plus aucun témoin vivant de ces atrocités et de ces guerres ? Celles qui n'auront pas grandi à l'époque d'un moteur encore objectivable mais à l'ère de la personnalisation systématique ? Une personnalisation qui, in fine, modifie les rapports individuels à une histoire collective ?
Et dès maintenant d'ailleurs, que devient l'algorithme en tant que reflet de l'activité de publication d'un peuple ou d'un état, en tant que reflet de son Histoire, si l'on lui associe, d'une part, des processus visant à orienter les requêtes (Google Suggest), et d'autre part des logiques de personnalisation tellement ciblées qu'elles rendent presque impossible la production de résultats semblables pour deux individus sur une même requête ? A tel point que Google se trouve "obligé" de proposer en option un filtre permettant de "gommer" les résultats de cette personnalisation pour retourner à un affichage de résultat basé uniquement sur les critères algorithmiques du Pagerank. Filtre toujours accessible mais très peu connu et très peu utilisé dans la fonction "verbatim" ou "mot à mot". Et "verbatim" que Google décrit et justifie comme suit :
"Nous avons écouté (…), avec l'outil verbatim, nous utiliserons les mots exacts que vous avez entré sans réaliser d'améliorations normales (sic) comme :
- Faire des corrections automatiques d'orthographe ;
- Personnaliser votre recherche en utilisant des informations comme les sites que vous avez visité avant ;
- Inclure des synonymes de vos termes de recherches (faire correspondre "voiture" quand vous recherchez "automobile") ;
- trouver des résultats qui correspondent aux termes similaires à ceux de votre requête (trouver des résultats liés à la "livraison de fleurs" quand vous recherchez des "fleuristes") ;
- rendre certains de votre termes optionnels"
Les réseaux socio-culturels.
Par sa nature autant que par sa position dominante actuelle, Facebook est le site qui va se heurter de plein fouet au problème de "l'intégration" de ces nouvelles populations connectées. Cette intégration se jouera probablement autour de nouveaux communautarismes documentaires et, in fine, culturels. On le voit déjà au travers de choix qui permettent de bloquer la diffusion de caricatures du prophète en Turquie par exemple. Mais c'est à l'échelle de ses déclinaisons "territoriales" (le facebook turq, le facebook indien, le facebook chinois, etc …) que les mécanismes d'intégration "algorithmiques" vont inaugurer de nouveaux clivages culturels : ainsi en amérique le cas sus-mentionné des patronymes amérindiens.
A l'échelle de Facebook, et étant donné la nature "sociale" de la plateforme, étant donné également son régime d'internalités (là où un moteur comme Google se nourrit d'abord d'externalités), à l'échelle de Facebook donc, les questions déjà évoquées du rapport à la mort, du rapport à la sexualité, du rapport à la religion, du rapport à la politique, prennent une tournure et revêtent des enjeux considérables du fait même de leur prochaine extension à des populations, des peuples, des nations, des états et des communautés jusqu'ici dé-connectées.
Et ça tombe bien puisqu'au moment même où je suis en train de rédiger ce billet Facebook annonce une clarification et une remise à plat de ses règles communautaires, ses "community standards".
Nombre d'articles se font l'écho de ce changement : BBC News, le New-York Times, Libération avec l'AFP, Rue89 …
Au menu : nudité, discours de haine et contenus violents ou choquants. C'est à la suite des attentats contre Charlie Hebdo notamment que, désormais, les groupes terroristes sont explicitement bannis du réseau social :
"[For example] we now make clear that not only do we not allow terrorist organisations or their members within the Facebook community, but we also don't permit praise or support for terror groups or their acts or their leaders, which wasn't something that was detailed before."
Il sera "intéressant" de voir comment cette mesure sera réellement appliquée, si elle s'étendra également aux groupuscules nazis, et quelle sera la réaction desdits groupes et de Facebook si, comme ce fut le cas pour l'équipe de Twitter et son CEO Jack Dorsey, Zuckerberg et les ingénieurs de Facebook sont à leur tour désignés comme "cibles" pour des "loups solitaires" de Daesh ou de toute autre organisation terroriste. Mais là n'est pas le sujet de ce billet.
Ces changements s'inscrivent dans un contexte particulier qui ne doit pas faire oublier la part d'arbitraire qui ne manquera pas d'entourer ce genre de décision (j'étais longuement revenu là dessus dans plusieurs billets autour de la loi et du code), ni le fait que la géométrie "géographique" desdites décisions risque d'être très variable pour ce qui est de contenus n'appartenant pas ou ne faisant pas directement l'apologie d'actes terroristes mais venant "simplement" heurter les susceptibilités ou les croyances de tel ou tel état (cf l'épisode de la Turquie), bref, quand les plateformes et leurs algorithmes seront non plus sommées de censurer tel ou tel site mais "d'intégrer et de respecter les valeurs culturelles" de tel ou tel état. Les limites de ces "community standards" sont tout entières contenues dans la déclaration de Zuckerberg :
"Nous suivons les lois de chaque pays, mais nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde". Mark Zuckerberg le 9 Janvier 2015.
Y compris même sur la partie rajoutée concernant les organisations terroristes on appréciera le flou sémantique qui entoure le dernier paragraphe :
Dernier paragraphe que je traduis :
"Nous acceptons des discussions et des commentaires d'ordre général sur ces larges sujets, mais nous demandons que les gens fassent preuve de sensibilité envers les victimes de violence et de discrimination."
Où s'arrête la "discussion générale" sur Daesh et où commence l'apologie du terrorisme ? Quel est l'entre-deux acceptable et à partir de quel moment franchit-on un point de non-retour ? Je renvoie ceux qui penseraient qu'il est facile de répondre à ces deux questions aux débats entourant la figure d'un certain Dieudonné.
Les standards communautaires ne sont ni des lois, ni des normes, tout au plus la partie émergée des CGU, de simples règles d'usage qui, sur l'essentiel des sujets culturels, politiques, religieux et sociaux demeurent dans un régime d'arbitraire permanent. Et qui le demeureront car point n'est besoin de relire Bourdieu ou Lévy-Strauss pour savoir qu'il n'est pas de sociologie ou de culture "universelle".
La question n'est donc pas de savoir si c'est à Facebook ou à la loi de décider et d'édicter des règles d'usage sur ces questions, ni de savoir si ces règles auront – ou non – valeur de normes à l'intérieur de la plateforme et tendront à contaminer également l'espace public du web et par effet de bord, l'espace du débat public en général tant il est évident que c'est ce qui se produira et à très brève échéance. La question est de savoir à quel moment le politique et l'ensemble des citoyens préoccupés de l'avenir du "corps social" seront ou non en situation d'aller à l'encontre de ces règles, de faire en sorte, comme le souhaitait Lessig dans son texte "Code is Law" de reprendre la main sur les valeurs culturelles que véhiculent, que construisent et que modifient en permanence les algorithmes et leurs codes.
Pour le dire autrement, il est normal, il est possible et il est heureux que les plateformes se mettent en situation de "réguler" la partie documentée des profils et des discours relevant de l'apologie du terrorisme ou se réclamant d'une barbarie assumée. C'est une régulation certes tardive mais normale et possible car elle est essentiellement de nature documentaire : les documents associés (textes au prosélytisme assumé et autres vidéos de décapitation) ont une valeur de preuve. Leur "régime" documentaire les constitue en autant de preuves. Et ces firmes, qu'il s'agisse de Google ou de Facebook ont la capacité algorithmique d'agir sur la sphère documentaire de ces discours et de ces profils. Mais cette capacité d'agir ne leur délivre pas simultanément une légitimité d'action. A fortiori lorsque l'on sort de cette sphère documentaire unanimiste (décapiter, violer et égorger des gens, c'est mal) pour entrer dans une sphère culturelle beaucoup plus nuancée et "relativiste".
Les biais culturels de l'encyclopédisme d'usage.
Ceux-là sont déjà connus et très bien documentés. Nous savons que les représentations culturelles liées à l'alimentation varient selon les pays, chaque "culture" véhiculant ses propres stéréotypes d'une version linguistique à l'autre de l'encyclopédie. Nous savons que selon la version linguistique que nous consultons, les représentations liées au genre sont également variables. Nous savons que les logiques de "remerciement" entre contributeurs sont également variables selon les cultures et les versions de l'encyclopédie. Nous savons que les cultures de l'Orient et de l'Occident, de l'Est et de l'Ouest, construisent une anthropologie culturelle variable sur une infinité de points, par exemple, comme le prouve cet article, sur la vision qu'ont ces cultures de l'importance des différents "leaders" politiques, religieux, militaires ou scientifiques :
"L'histoire vue par les réseaux sociaux". Ce sont précisément ces traits culturels que Wikipédia permet de souligner, par sa forme autant que par son modèle éditorial, que les moteurs et les réseaux sociaux auront à intégrer ou à dissoudre à l'échelle d'un internet de 5 ou de 7 milliards d'individus connectés.
La culture c'est comme la confiture. Moins on en a … plus on la partage.
A ce stade de mon raisonnement on pourra m'objecter que celui-ci est vain puisque même en passant de 3 à 4 ou 5 ou 7 milliards d'internautes, on se contentera d'avoir "plus" d'internautes qui consulteront la version linguistique dédiée de Google, "plus" d'internautes qui navigueront sur le Facebook de leur pays, "plus" d'internautes qui alimenteront et consulteront "leur" version de Wikipédia. Et que les phénomènes de balkanisation déjà décrits ne feront que s'amplifier mais qu'ils le feront dans les limites déjà posées des écosystèmes envisagés. Hé bien pas nécessairement. Car ce serait négliger deux phénomènes importants. Essentiels même.
Entre 3 et 5 milliards d'internautes, la différence n'est pas uniquement quantitative.
D'abord les régimes actuels de diversité linguistique vont progressivement s'effondrer. Ou à tout le moins se remodeler. Il n'est qu'à prêter une oreille attentive aux progrès de la traduction automatique, à ce babil de Babel pour s'en convaincre. Certes toutes les langues ne disparaîtront pas au profit d'un "global english" mais nombre de barrières ou de frontières tomberont du fait de l'essor des technologies et applications de traduction instantanée, y compris dans le registre conversationnel. De nouvelles créolisations, pour reprendre l'argumentaire de Frédéric Kaplan vont s'imposer, dont nous sommes encore très loin de maîtriser tous les enjeux :
"L’impérialisme linguistique de l’anglais a donc des effets beaucoup plus subtils que ne le laisseraient penser les approches qui n’étudient que la “guerre des langues”. Le fait de pivoter par une langue conduit à introduire dans les autres langues des logiques linguistiques propres et donc insensiblement des modes de pensée spécifiques. Il semble crucial d’inventer de nouveaux outils pour détecter et documenter ces nouvelles évolutions linguistiques.
Notons pour conclure que si l’anglais joue un rôle pivot pour les langues “européennes”, d’autres langues ont sans doute le même effet localement pour d’autres bassins linguistiques (Le Hindi par exemple). À l’échelle mondiale, c’est un réseau de chaines de traduction qui est en train de se mettre en place et qui impose parfois pour traduire une expression d’une langue à une autre de pivoter par une série de langues intermédiaires. Quand nous voyons les effets linguistiques d’un de ces pivots, imaginer des séquences de ces transformations linguistiques laisse songeur." F. Kaplan in "L'anglais comme langue pivot ou l'impérialisme linguistique de Google Translate".
Ensuite, l'essor des interfaces "vocales" et d'un mode d'interaction conversationnel avec des "assistants personnalisés" comme le sont déjà Alexa, Siri ou Cortana, vont avoir pour conséquence directe de nous sortir puis de nous priver de logiques de consultation qui – même biaisées – sont encore garantes de logiques de comparaison, de choix, de mise en perspective et donc de développement d'une forme "d'esprit critique".
<parenthèse historique> L'interface de Google, sa liste de résultat, l'interface de Facebook, son mur de publications, sont, dans leur "déroulement", plus proches du modèle du Volumen que de celui du Codex. Or l'histoire du livre nous apprend que c'est précisément le passage du Volumen au Codex qui permit – entre autres choses – de développer l'esprit critique en autorisant notamment la mise en comparaison de textes. Les modèles actuels nous ramènent vers des logiques de consultation et de lecture plus proches du Volumen que du Codex … </parenthèse historique>
Quand nous consultons une page de résultats du moteur de recherche Google, même si cette page diffère d'un internaute à un autre y compris pour des requêtes parfaitement semblables, nous avons encore "un" choix, et nous visualisons encore une liste constituée d'autant de choix possibles. La simple "vue" de cette liste constitue déjà une réponse à la question que nous posons par l'ouverture qu'elle propose. Le langage de requêtage lui-même, souvent encore fait de la seule apposition de plusieurs termes, autorise l'algorithme du moteur à nous afficher un éventail de résultats qui laissent encore une place – de plus en plus relative – à la diversité, à l'approximation, à l'erreur, à l'interprétation, à la "non" pertinence, précisément parce qu'ils ne peuvent correspondre à une réponse unique et univoque, parce que l'espace de la page et de l'écran de consultation permet encore plusieurs choix.
Mais dans le cadre d'une requête "orale", d'une requête "en langage naturel", nous serons progressivement induits à ne plus poser que des questions "fermées", ou ne débouchant inexorablement que sur des résultats uniques. Pire, nous serons induits, par la nature même de ces nouvelles interfaces et leurs modalités d'interaction, à nous concentrer sur des requêtes relevant davantage de l'opérationnel que du questionnement, s'inscrivant davantage dans l'action que dans l'interrogation. La vidéo promotionnelle du dispositif Alexa d'Amazon est à ce titre parfaitement éclairante : on demande à Alexa de jouer une playlist, on lui demande la définition d'un terme qu'elle va directement lire dans Wikipédia, de lancer telle ou telle action de domotique, d'épeler un mot, de donner l'heure, la météo, etc. La mort annoncée de toute forme de sérendipité. Déjà il n'y a plus que des réponses. La systématisation du "Feeling Lucky" de Google. Le renvoi vers un seul et unique résultat, la privation de l'affichage d'autres options, d'autres résultats, d'autres éléments de comparaison permettant de possibles reformulations, le tout dans l'opacité totale du fonctionnement algorithmique sous-jacent. Feeling Scroogled.
Historicité sans Histoire.
Pour les générations du "prochain milliard", des prochains milliards, sur quoi pourront-elles encore fonder leur organisation collective et leur manière de faire société quand l'ensemble des mécanismes mémoriels, quand l'ensemble des repères historiques, quand l'ensemble des possibilités et des outils autorisant l'analyse et le recul critique ou la simple "comparaison" seront passés sous l'autorité d'un nombre fini de plateformes qui viendront circonscrire les possibilités de lecture et de navigation aux seuls sites, pages et informations directement opérationnelles dans un contexte de tâche donné ?
Nous sommes dans un âge de transition numérique encore globalement impensé : jusqu'à présent et pour l'instant, mais pour l'instant seulement, moteurs et réseaux sociaux se contentent d'être et sont encore le reflet vaguement objectivable de l'activité de publication d'une communauté donnée, quelle que soit l'échelle de ladite communauté (un groupe de quelques dizaines d'utilisateurs, un pays tout entier). Ce reflet est celui d'un graphe à invariance d'échelle, c'est à dire (pour faire simple) qu'un certain nombre de mécanismes "invariants" s'y produisent et permettent d'analyser et de comprendre les phénomènes de partage, de viralité, de relation entre les membres de la communauté envisagée (effet petit monde, attachement préférentiel, loi de puissance, etc.). Ce faisant, même s'ils les limitent et renforcent l'homophilie plus qu'ils ne développent la diversité, ils autorisent encore le croisement de différentes cultures, de différentes représentations, de différentes "mises en mémoire" du monde.
Mais demain, demain moteurs et réseaux sociaux ne seront plus le reflet mais la source de l'activité de publication d'une communauté donnée. C'est cette transition là que nous vivons aujourd'hui et qui explique que nous sommes à la fois troublés et muets devant les mutations faussement anecdotiques de la recherche personnalisée, qui en nous rapprochant sans cesse de l'historicité de nos propres recherches et de nos propres représentations nous coupe progressivement de l'Histoire globale de la communauté à laquelle nous appartenons.
Les internets sont en tension. Tension entre les plateformes et le web. Tension entre l'Histoire et l'historicité. Tension entre des logiques de documentation et des logiques de restitution. Tension entre la source et la destination. Seule compte aujourd'hui la destination, "l'opérationnalisation" des processus de requêtage, d'interrogation, de consultation et de navigation.
Radicaux libres.
Voilà pourquoi à la Balkanisation qui va effectivement s'étendre avec le passage au prochain milliard, va venir s'ajouter un phénomène d'essentialisation lui même vecteur de nouvelles radicalisations. Des individus réduits à quelques-unes de leurs dimensions, des individus dont on recherchera avant tout "la valeur de preuve", une valeur dont l'activité de publication pourra rendre compte dans les plateformes qui s'en serviront ensuite pour délimiter de nouvelles règles, pour édicter de nouvelles normes.
Pour le dire plus simplement : de nouveaux communautarismes mais de moins en moins de communautés. Non pas parce que les gens sont méchants / pauvres / idiots / effrayés / ou que sais-je encore, mais parce qu'il est dans la nature même de ces plateformes de n'avoir d'autre recours que l'essentialisation pour continuer de pouvoir organiser, indexer, hiérarchiser l'ensemble des individus, des contenus et des interactions sur lesquelles elles se fondent, et que la croissance de cette essentialisation ira de pair avec la croissance du nombre d'utilisateurs connectés.
Si l'existence précède l'essence, si l'or noir de notre attention permet l'existence de ces plateformes, il nous faut, au lieu de la redouter, s'empresser d'analyser la nature et les enjeux de cette future probable essentialisation culturelle à l'échelle d'une population mondiale presqu'entièrement connectée. Refuser de le faire, refuser de le voir équivaudrait à se soumettre à une déterminisme technologique dont la radicalité pourrait s'avérer bien plus menaçante que n'importe quelle actuelle radicalisation communautaire.