Back to the Commons

Retour sur le séminaire d'hier, déjà en ligne, avec ces quelques notes et réflexions à la volée, pour ne pas oublier et proposer des pistes complémentaires aux débats d'hier.

Sur la question de la "communauté" des communs.

La "communauté" est une notion fourre-tout dans son utilisation courante, et très largement préemptée par le marketing qui, à l'instar, de Blanhe-Neige et des nains, voit des communautés partout. L'occasion de rappeler que, par exemple sur Facebook ou sur l'essentiel des "réseaux sociaux", on ne s'adresse pas, on ne touche pas des "communautés" mais une "audience". Du coup, en réponse à la question de savoir s'il peut y avoir des "communs" sans communauté, je suis tenté de répondre que ce qui caractérise un "commun", c'est précisément le fait qu'il dispose d'une communauté sans pour autant se chercher une audience. Un commun, c'est une communauté sans audience (ousans contingence d'audience). Une approche définitoire qui peut s'appliquer à l'ensemble des communs et permettre également d'expliciter certaines dérives marchandes : il existe un "bien commun" de la santé, mais si on lui rajoute une audience, ce bien commun devient d'abord un "marché". Idem pour l'éducation et de nombreux autres.

Sur la définition des enclosures "informationnelles".

Je proposais la définition suivante :

"un élément d'information ou de connaissance dont la libre circulation documentaire est entravée, et/ou qui ne peut-être documenté, qui ne peut rentrer dans un processus documentaire (de conservation, d'archivage, de diffusion, etc.) qu'en circuit fermé ou dans des conditions d'appropriation définies par le site hôte et non par le producteur ou le créateur de la ressource."

Mais comme me le firent remarquer certains participants, la définition pourrait aussi s'appliquer aux bibliothèques ou à d'autre systèmes documentaires "classiques". Je propose donc de compléter cette définition de la manière suivante : 

"un élément d'information ou de connaissance dont la libre circulation documentaire est entravée, et/ou qui ne peut-être documenté, qui ne peut rentrer dans un processus documentaire (de conservation, d'archivage, de diffusion, etc.) qu'en circuit fermé ou dans des conditions d'appropriation en contradiction avec la capacité d'une gestion collective et définies par le site hôte et non par le producteur ou le créateur de la ressource."

Sur certaines propriétés des encosures informationnelles.

Nous sommes passés d'une régime d'enclosures fonctionnant principalement sur un principe "d'interdiction" (d'accéder à telle ou telle ressource, de la diffuser, de la visionner, de la partager, etc.) à un système d'enclosure qui fonctionne surtout par "altération" du régime de droits et d'appropriation liés à la ressource.

Les enclosures ont capacité de transformer, de changer radicalement la nature documentaire de certains communs. L'exemple type est celui de Wikipédia, à l'origine un projet encyclopédique collaboratif et ouvert qui, dans le cadre de sa réutilisation systématique par Google, Facebook ou d'autres, "se transforme" en une base de données, en une base de connaissance. Cette transformation n'empêche pas la nature documentaire originale de Wikipédia de persister mais, dans le cadre d'un usage courant "captif" (= dans l'écosystème Google ou Facebook), cette nature se transforme à l'entier bénéfice des sites hôtes qui phagocytent ainsi le projet initial de la Wikipédia.

Pour une sériation des enclosures informationnelles ou documentaires.

Une des limites de mon texte préparatoire au séminaire tenait à l'absence de sériation fine des enclosures documentaires. Sans la proposer aujourd'hui, je voudrais rappeler trois axes qui pourraient permettre de l'établir.

L'axe de l'appropriabilité (cf la définition proposée plus haut).

L'axe de l'indexabilité (cf mes textes sur le dérive des continents documentaires, "l'homme est un document comme les autres", etc.).

L'axe des métadonnées. C'est celui qui est le plus problématique mais qui rend aussi le mieux compte de la nouvelle nature des enclosures en train de se mettre en place. Deux postures sont en effet possibles :

  • dans l'absolu, une ressource documentaire sans métadonnées est plus résistante aux enclosures, qu'elle peut-être moins facilement captée et "enfermée" ;
  • à l'inverse, de manière relative, une ressource documentaire avec des métadonnées produites, ou imposées par le site hôte pourra plus facilement entrer dans un cycle d'enclosures.

<HDR> Or aucune de ces deux postures n'est exacte, puisque, c'est en tout cas l'hypothèse que je formule, les métadonnées disposent d'une très forte sensibilité aux conditions initiales. Et cette sensibilité est directement corrélée à l'environnement dans lequel elles sont initialement produites. Ce qui veut dire que des métadonnées produites ou générées dans des environnements documentaires "ouverts" ou "non-propriétaires" diminueront les possibilités d'enclosures de la ressource concernée et faciliteront son appropriation, alors que les mêmes métadonnées produites dans un environnement propriétaire augmenteront drastiquement et irrévocablement les possibilités d'enclosure associées à la ressource.

Je m'explique au travers de deux exemples.

1. Les ressources documentaires / documentées que constituent nos profils sur les réseaux sociaux nous "imposent" (ne serait-ce que pour créer ledit profil) de renseigner tout un tas de métadonnées (âge, opinions politiques, religieuses, statut marital, lieu d'habitation, etc.). Ces métadonnées seulement exploitables par le site hôte qui, par délégation temporaire, permet aux utilisateurs d'un utiliser certaines dans le cadre d'un processus de recherche pouvant lui-même permettre d'en générer d'autres, ces métadonnées seulement exploitables par le site hôte, disais-je, ont pour objectif de mieux "nous" enfermer dans son écosystème, de rendre "enclose" la ressource documentaire que constituent pour lui nos profils.

2. A l'inverse, un usager appliquant aux ressources qu'il produit des licences creative commons fonctionnant comme autant de métadonnées, ou bien encore une bibliothèque "documentant" des ressources web à l'aide de métadonnées comme le Dublin Core, vont permettre et faciliter l'émancipation des ressources et permettre, indépendamment d'une captation ou d'un hébergement par un site "prédateur" de rendre possible la déportation ou le retour dans un cycle documentaire vertueux la ressource documentaire concernée.

Prescription, confiance, prédictibilité, engagement, monnaie.

Ces 5 notions ont fait l'objet d'échanges fructueux. J'ai longuement insisté dans mon texte préparatoire sur l'importance et "l'info-dominance" des algorithmes de prédictibilité comme nouvelle mue des algorithmes "simplement" prescriptifs. La frontière entre "prédiction" et "prescription" dans ce cadre est souvent assez floue ou en tout cas difficile à expliciter. Le notion "d'amorçage" permet d'y voir plus clair. Les algorithmes et systèmes "prescriptif" ont besoin d'un amorçage fort (reposant notamment sur l'historicité de nos données propres) ; les systèmes "prédictifs" ont vocation à réduire puis à se dispenser d'une nécessité d'amorçage lié au facteur humain en exploitant la volumétrie statistique d'un ensemble de données hyper-segmentées.

L'autre point de débat concerne la nature de la prescription ou de la prédiction. Il faut ici distinguer deux aspects :

  • les systèmes / algorithmes / environnements qui ont principalement vocation à produire du "même", de l'identique.
  • les systèmes / algorithmes / environnements qui ont principalement vocation à produire du  différent, du dissemblable. 

A ce titre, l'ingénierie de recommandation d'Amazon fut l'une des premières à se distinguer précisément par sa capacité à articuler les deux, à produire à la fois du "même" et du "dissemblable", comme le permettent et le permettaient déjà les systèmes classificatoires des bibliothèques. Et à pouvoir s'appuyer sur cette double articulation de la recommandation pour gagner la "confiance" des utilisateurs. Car dès qu'un système produit de manière trop univoque, trop uniforme, trop évidente ou trop systématique uniquement du "même" ou uniquement du "dissemblable", dès que le ratio entre l'identique et le différent se déséquilibre trop fortement, il en résulte une perte de confiance des utilisateurs qui le vivent comme un manque de "crédibilité" dudit système et/ou qui commencent à le soupçonner de partialité dans un sens ou dans l'autre. L'ingénierie algorithmique a donc, depuis déjà de nombreuses années, été amenée à intégrer du hiatus, de la stochastique dans les algorithmes, précisément pour préserver cette part d'aléatoire qui permet de gagner et/ou de conserver la confiance des utilisateurs. Souvenons-nous par exemple du coup de génie que constitua, à la préhistoire des ingénieries de recommandation, la présence du bouton "feeling lucky" au frontispice de Google.

If you pay peanuts you get commons.

Dernier point sur lequel je veux revenir, le noeud Gordien des enclosures informationnelles, c'est à dire la question de l'arbitrage (algorithmique ou d'usage) entre des systèmes fonctionnant et se nourrissant principalement d'externalités et d'autres ayant pour vocation à n'entretenir que des internalités. C'est autour de cette dichotomie entre externalités et internalités que se jouent nombre de questions relatives aux "communs" mais également et plus généralement à la représentation du monde et à la construction de sociabilités numériques.

Historiquement, les moteurs de recherche se sont tous construits sur des externalités nécessaires (= les contenus et pages qu'ils indexent), alors que les réseaux sociaux se sont plutôt construits sur des internalités (il faut s'y inscrire), lesquelles internalités ont d'abord reposé presqu'entièrement sur des couches "conversationnelles" avant d'intégrer textes, images et sons pour devenir des "médias sociaux". Et, historiquement toujours, moteurs et réseaux sociaux ont ensuite convergé vers un modèle hybride qui consiste pour les premiers (les moteurs) à établir des internalités "castratrices" (vous éviter / empêcher d'aller consulter les sites indexés en dehors de l'écosystème de service de Google par exemple) qui équilibrent le régime d'externalités sur lequel ils sont fondés, et pour les seconds (les réseaux/médias sociaux), à nourrir leurs internalités conversationnelles au moyen de la captation d'externalités documentaires là encore phagocytées, découpées, absorbées pour ne plus pouvoir circuler ou être consultées qu'à l'intérieur du réseau social.

Avec ce mouvement d'hybridation, et ce qui ressemble – de mon point de vue – à une tendance globale et stratégique à la prédominance des internalités au détriment des externalités, l'arbitrage de ce choix appartient en partie aux usagers. C'est à eux qu'il appartient (mais pour combien de temps ?) de valider cette tendance ou d'y faire montre de résistance. Mais pour réaliser cet arbitrage, il faut disposer d'une valeur d'échange, c'est à dire d'une monnaie. Une monnaie étant consituée de deux faces, cette monnaie est pour l'instant presqu'exclusivement constituée, pour son côté "pile" par nos "données", et pour son côté "face"  par notre "attention", le fameux "temps de cerveau disponible" ; j'échange des données (mes données) et de l'attention (mon temps d'attention) contre, en vrac, une gratuité de la consultation, d'apparentes facilités de "mise en relation", l'adressage de "prescriptions" plus ou moins personnalisées.

Engagez-vous qu'ils disaient

Frédéric Sultan, autre invité du séminaire, proposa pour contrer les enclosures et faciliter l'émancipation, de travailler sur 3 points : la pédagogie (savoir comment elles fonctionnent, connaître leur cycle documentaire), l'hybridation, et l'engagement. Cette dernière notion me semble opératoire pour servir d'étalon (monétaire) à cette monnaie d'usage.

De fait, dans les environnements dont nous parlons, principalement les réseaux sociaux, l'engagement, le fameux "Reach", constitue déjà le support des transactions monétaires à disposition des régies et stratégies publicitaires affiliées. A condition d'être précisément redéfini pour le dégager de l'ensemble des scories sémantiques du marketing, l'engagement pourrait, dans le cadre d'une réflexion globale sur les communs informationnels, constituer un angle intéressant pour arbitrer et réguler la circulation et l'organisation de ces communs informationnels autour d'une monnaie, d'une valeur monétaire dont il constituerait le côté pile, et dont le côté face serait constitué de métadonnées émises en dehors d'écosystèmes propriétaires. </HDR>

 

 

 

 

 

 

 

 

Un commentaire pour “Back to the Commons

  1. Merci pour ces réflexions d’hier.
    Une aparté : les algos, dont tu parlais, et qui permettraient de faire « revivre » un profil numérique après la mort de son auteur, me rappellent furieusement la série anglaise « Black Mirror (http://fr.wikipedia.org/wiki/Black_Mirror_%28s%C3%A9rie_t%C3%A9l%C3%A9vis%C3%A9e%29).
    Dont l’épisode 1 de la saison 2 traite exactement de cela! (Dans tous les cas, si tu ne connais pas cette série de SF => fonce :-)).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut