La circulation des informations et des biens culturels a toujours (en tout cas depuis les premières bibliothèques) été régie par un ordre documentaire. Dans notre histoire contemporaine s'est imposé un "ordre documentaire antérieur dominé par l’édition qui vend des objets et protège le contenu par la propriété intellectuelle." (Source) Avec le numérique, cet ordre ancien est bouleversé. Quelles sont actuellement, les différentes "variables" du nouvel ordre documentaire inauguré par le numérique ?
Il peut être caractérisé par (au moins) 3 grands régimes :
LES REGIMES LINGUISTIQUES.
Ceux-ci concernent à la fois les ordres lexicométriques (dont l'outil Culturomics et son "n-gram viewer" sont emblématiques et avec eux la question de la maîtrise des corpus), et les ordres linguistiques (mes billets sur l'affaire DSK attestaient, parmi d'autres, des spécificités et des variabilités de ces ordres linguistiques)
LES REGIMES D'AUTORITATIVITE**.
Ceux-ci se caractérisent à la fois par des métriques d'audience et d'autres, de notoriété, 2 métriques se nourissant mutuellement.
** L'autoritativité est à distinguer de "l'autorité". Pour une approche du concept créé par Evelyne Broudoux, voir par exemple ici.
LES REGIMES ALGORITHMIQUES.
Si les deux premiers ne sont évidemment pas spécifiques au numérique, celui-ci, en revanche, le caractérise fortement. Ces régimes algorithmiques comportent à leur tour trois grands types de métriques :
- des métriques computationnelles (= calculatoires) tout d'abord. Elles permettent de mettre en place des ingénieries statistiques (loi des grands nombres) : l'exemple le plus abouti est la fonction "google suggest"
- des métriques du "partage" (= de la rediffusion). Elle reposent sur des ingénieries relationnelles dédiées et "dé-liées", c'est à dire fonctionnant en négation du principe du lien hypertexte : l'exemple le plus abouti est le "like" de Facebook.
- enfin, des métriques de vitesse. Vitesse du partage, vitesse de la suggestion, vitesse de la recherche et de la réponse à des questions non-encore posées : Google instant search est ici l'exemple le plus frappant.
Et le stock devint le flux. Et réciproquement.
Second particularisme de l'ordre documentaire inauguré par le numérique, l'inversion des logiques de stock et de flux. Dans l'ancien monde, les produits (livres, CD, DVD, etc) constituaient le stock ; les régimes médiatiques (publicité) et attentionnels (autorité) très étroitement interdépendants, se chargeant d'y insuffler des logiques de flux (prescription, vente, conseil), logiques conditionnant elle-mêmes les routines de distribution (nombre d'impression, tirages et retirages, etc.).
La logique est aujourd'hui inverse. Le stock c'est l'attention, le flux, c'est le produit. Non que, comme le résume trop souvent et bien trop sommairement la vulgate du web, non que l'information soit devenue un "flux" : c'est là l'une des raisons mais ce n'est pas la raison suffisante. A regarder de près la gestion des entrepôts d'Amazon, une grande partie des produits des industries culturelles résiste encore assez bien à toute fluidification 🙂
Nouveaux gardiens du temple.
Les anciens gardiens de l'ordre documentaire étaient principalement les éditeurs (accompagnés en seconde intention par les bibliothécaires). Les nouveaux gardiens de l'ordre documentaire (moteurs, réseaux sociaux et "grands magasins" de type Apple Store) stockent de l'attention, grâce notamment aux ingénieries statistiques qui leur permettent de travailler – et de prescrire – dans l'instant, mais qui, on l'oublie trop souvent, leur permettent également de travailler sereinement dans la durée des régimes de prescription (et de recommandation : l'exemple parfait étant Amazon). C'est cette attention constituée comme "stock" qui va permettre d'organiser, de documenter, les logiques de flux (quel document, quelle application), qui seront elles-mêmes ensuite à la base des routines de distribution.
Aux deux bouts de la chaîne.
Mais la différence principale entre le nouvel et l'ancien ordre documentaire ne vient pas que de là. Dans le nouvel ordre documentaire du monde ce sont les mêmes qui créent, contrôlent et maîtrisent le stock attentionnel (et qui sont les seuls à pouvoir le faire) que l'on retrouve également en bout de chaîne, en tant de distributeurs (Amazon bien sûr, mais également Apple et l'Apple Store ou plus récemment Google avec GooglePlay). Le dialogue qui existait dans l'ancien monde entre les gardiens (éditeurs) et les marchands (régimes médiatiques), est rompu. Le fragile équilibre obligeant les premiers à prendre en compte les seconds – et réciproquement – n'a plus lieu d'être. D'où un risque évident pour ce que l'on nomme la diversité éditoriale. Un risque qui n'est pas – uniquement ou majoritairement – lié à l'auto-édition ou à tout autre phénomène de babélisation des expertises (n'importe qui peut publier n'importe quoi et se déclarer expert de n'importe quoi d'autre), mais à une désintermédiation inédite à l'échelle des industries culturelles et à un basculement de nature "économique" dans laquelle "nous sommes le produit" (à tout le moins nos régimes attentionnels le deviennent). Les mêmes acteurs étant présent en début et en fin de chaîne, ils ont toute latitude et toute aisance pour contôler également la distribution et le portage, via les mêmes algorithmes. L'architecture du cloud (banque de stockage autant que de production et de distribution) leur fournissant tous les outils d'une nouvelle logistique attentionnelle. Au-delà même de la seule diversité éditoriale, c'est tout le débat autour de la diversité culturelle qui est posé, celui de possibles référents culturels partagés indépendamment des idéologies et des croyances de chacun, celui de la possibilité même d'existence de ces référents culturels (voir à ce sujet les travaux d'Eli Pariser sur notre "Filter Bubble", chroniqué avec d'autres dans l'excellent article "Mind Control & The Internet, tous deux référencés ici).
Antagonisme du social et du médiatique.
Autre problème, les "anciens" régimes médiatiques et attentionnels (radio et télévision) qui faisaient l'interface entre les produits culturels (le stock) et les services (le flux) et participaient à ce titre de manière déterminante (parfois insuffisamment ou à l'excès … mais c'est un autre débat) à la régulation de cet ordre documentaire passé, ceux-là même jouent avec le feu en autorisant un grignotage de leur espace de prescription pour des raisons d'audience (euphémiquement toilettées du motif de "socialisation"), incapables ou refusant de voir qu'elles contribuent ainsi à mettre en place un ordre documentaire dans lequel elles n'auront demain plus aucune place.
L'exemple du match de foot (ou de rugby).
Regarder aujourd'hui un match de foot sur son ordinateur ou sa télé connectée est devenu une stratification de régimes attentionnels extrêmement complexe, qui a peu de chances d'être pérenne, et dont l'issue (= les régimes attentionnels qui subsisteront en étant les plus plébiscités) façonnera les régimes attentionnels de demain en légitimant ceux qui en sont les garants. Je m'explique.
La scène se passe sur le principal média télévisuel prescripteur : TF1. Sur l'écran, un match de foot en visuel. Auquel se surajoute le classique commentaire "audio" des journalises sportifs. Bref, un match à la télé. Auquel se surajoute la transcription écrite – partielle – du commentaire audio. A laquelle se surajoute en bas de l'écran (mais dans un même espace de la page, dans une même "unité de lieu") la transcription écrite des autres matchs se déroulent dans une même unité de temps, transcription multipliée et multipliable à volonté à l'aide des différents onglets disponibles. Pendant ce temps à gauche de l'écran, l'espace médiatique et le régime attentionnel se déplace et change de nature : il s'agit de l'affichage "live" de l'ensemble des commentateurs inscrits sur Facebook et "captés" non par le même média (TF1) mais par le même "spectacle" (le match de foot) sur un autre média (Facebook). Du coup, notre routine attentionnelle est atomisée, fragmentée entre différents stimulus. Elle ne peut en aucun cas se porter de manière égale sur chacun d'entre eux. Ce qui a l'avantage de permettre au spectateur de se déporter vers un autre régime attentionnel lorsque le match devient ennuyeux (un autre match dans les onglets du bas, le "clavardage" sur Facebook, ou la lecture rétro-chronologique des discussions archivées). Et ce qui à l'inconvénient (je le sais, cela m'est arrivé 🙂 de lui faire rater un but ou une occasion de but se produisant sur un "temps faible" du match. Lequel ratage ne devient d'ailleurs plus véritablement un problème puisque des dispositifs de visionnage permettent désormais un "instant replay", c'est à dire la possibilité alors même que le match est en cours de revisionner une action ayant eu lieu depuis son commencement, et ce tout en pouvant continuer de suivre le déroulement normal du match (l'écran du match étant alors divisé en 2 fenêtres).
Bref il y aurait beaucoup à dire tant sur le plan de la médiologie que sur celui de la redocumentarisation sur ce seul dispositif attentionnel de visionnage. Mais ce n'est pas l'objet de ce billet 🙂
Audimat contre Big Data.
Ce que montre, en revanche, ce dispositif, et qui est l'objet de ce billet, c'est que pour la première fois les médias (en l'occurrence TF1) autorisent, au coeur même de leur écosystème, l'irruption de régimes attentionnels (et promotionnels) sur lesquels ils n'ont aucune prise, dont ils ne maîtrisent ni le flux, ni le stock ; des régimes attentionnels et promotionnels qui ne peuvent pas être, même rétroactivement éditorialisés. Bref, l'irruption d'une concurrence directe au sein même d'un espace et d'un temps médiatique fondamentalement anti-concurrentiel : là où jusqu'ici tout concourrait à faire de TF1 une machine a capter de l'audience pour ensuite la "capitaliser" au moment de la pause publicitaire, comment ne pas s'étonner qu'elle prenne elle-même le risque de "casser" cette logique ? Ce me semble être un pari très risqué que de penser que les "nouvelles audiences" ainsi captées lui offriront les mêmes possibilités de rente que celles du spectateur assis devant l'écran de sa télévision ; c'est en tout cas profondément méconnaître le modèle d'économie documentaire qui est à l'oeuvre dans Facebook (puisque c'est ici lui qui joue le rôle de partenaire et d'intrus).
Car dans ce basculement économique et médiatique de la prescription, la spectacularisation (engouement pour la TV-réalité, le sport ou, dans un autre registre, la Trash-TV, l'info continue) participe du seul levier permettant de contrôler l'arrimage de l'audience à un programme, au travers d'une mesure réduite à un dispositif d'engrammation extrêmement basique et très faiblement documenté (les fameuses boîtes noires de l'audimat qui ne détectent "que" les changements de chaîne et en aucun cas la capacité attentionnelle de la ou des personnes devant l'écran). A l'opposé, la spectacularisation n'est plus aucunement nécessaire à des acteurs qui disposent de métriques profilaires et comportementales d'interactivité, de conversation, d'écriture et de lecture extrêmement fines, contextuelles et documentées.
Le crépuscule du spectaculaire. L'aube du vernaculaire.
C'est encore là l'un des effets de bords de la théorie de la longue traîne ou la monétisation "au long cours" peut se faire sur des contenus à faible valeur "spectaculaire" (cf le tombereau d'indigentes vidéos plus ou moins "virales" qui submergent chaque jour nos murs Facebook) mais dont le potentiel attentionnel est dopé par une (re)diffusion aussi ciblée que facilitée et à très faible coût cognitif (le bouton "like" principalement). En simplifiant à l'extrême ces mécanismes de "partage" et de rediffusion, en facilitant toutes les ingénieries de la viralité, les nouveaux acteurs de la chaîne accumulent d'autant plus facilement du capital attentionnel ("stock") qu'ils appauvrissent la valeur informationnelle des documents qui circulent (et qui ne sont que le "flux"). La dimension spectaculaire du produit (= le match, ce qui "est" produit et ce qui est "le" produit) jusqu'ici nécessaire pour capter l'attention dans un régime de surenchère médiatique, s'efface au profit d'une dimension vernaculaire de l'attention pensée comme produit (et stockée comme telle) et pour laquelle la faible valeur informationnelle des documents en bout de chaîne peut être largement compensée (monétisation) par la caractérisation fine et dynamique des régimes attentionnels qui la sous-tendent. Je résume sans les parenthèses :
La dimension spectaculaire du "produit" s'efface au profit d'une dimension vernaculaire de l'attention pensée comme produit (et stockée comme telle) ; l'affaiblissement de la valeur attentionnelle propre au produit/document résultant de ce changement n'est pas problématique, étant largement compensée par la caractérisation fine et dynamique des régimes attentionnels qui sous-tendent sa "distribution".
"Nous" ne regardons plus un événement spectaculaire (ou censé l'être) dans/sur un média, mais, "nos régimes attentionnels" sont scrutés dans leurs divers déplacements (d'un espace à l'autre, d'un média à l'autre).
Politiques algorithmiques.
Je ne vais pas redire ici ce que j'expliquais déjà là ou là. Il est clair que les algorithmes, au travers de leur code spécifique (aspect mathématique), mais également au travers de leurs agents (les fameux "bots") règnent en maître sur la majorité des pratiques et des industries culturelles, de la "lecture" à la "vente" en passant par la prescription et la recommandation. Il est également clair que les mêmes algorithmes ne s'embarasseront pas longtemps des spécificités culturelles de certains régimes linguistiques pour proposer (et imposer) un ordre documentaire qui serve au mieux leurs intérêts ; plus exactement, il est clair que ces algorithmes trouveront comment instrumentaliser au mieux les spécificités culturelles de certains régimes linguistiques. Mais.
Le code et la copie.
Tout empire reposant sur une formule mathématique est un colosse aux pieds d'argile. Et comme ces nouveaux gardiens de l'ordre documentaire du monde, ne peuvent plus, à l'image des anciens, se reposer sur la matérialité d'un trésor (thesaurus) physique, comme leur stock est constitué de la seule matérialité calculatoire (computationnelle) nos régimes attentionnels, quiconque parviendrait à "craquer" leur algorithme les mettrait instantanément à genoux. Si l'info d'un geek ayant réussi à percer les secrets de l'algorithme de Klout et les rendant disponibles en "Open Source" n'était finalement qu'un habile poisson d'avril, elle n'en illustre pas moins la fragilité de l'ensemble du système sur lequel repose cet ordre documentaire. D'où la politique d'opacité entretenue par chacun des acteurs (Google en tête) pour modifier en permanence le coeur de son algorithmie. Des modifications incessantes qui relèvent au moins autant de raisons d'ingénierie (essayer d'améliorer ledit algorithme), d'argumentaire marketing ("regardez comme nous améliorons sans cesse notre moteur"), et peut-être plus fondamentalement de raisons de suprématie économique : il s'agit de s'assurer par lesdits incessants changements que la volatilité ainsi produite rendra impossible toute rétro-ingénierie, impossible toute copie. Comme cela est notamment rappelé ici, "la lecture, en informatique, c'est mécaniquement de la copie." Rendre la copie impossible nécessite donc de rendre toute lecture algorithmique impossible pour des regards extérieurs.
Read/Write Web Attention.
C'est d'ailleurs là une autre des particularités de ce nouvel ordre documentaire numérique : à l'image d'une ingénierie dans laquelle les accès aux biens produits peuvent être rendus disponibles "en lecture" et/ou "en écriture", la maîtrise du nouveau stock de nos régimes attentionnels scinde en deux catégories distinctes les entreprises de ce capitalisme cognitivo-linguistique, de cette "holding" de l'attention :
- ceux qui possèdent un accès en lecture seule au stock : il s'agit là des industries de la notoriété, comme l'emblématique Klout, qui ne peuvent que proposer des outils (et des monétisations) reposant sur des vues matricielles de nos régimes attentionnels.
- ceux qui possèdent un accès en lecture et en écriture au stock : il s'agit cette fois des industries "du document" (le document étant ici entendu dans son désormais traditionnel découpage Vu / Lu / Su) qui ont toute latitude pour déchiffrer autant que pour contraindre la nature, l'étendue, l'horizon et la direction de nos régimes attentionnels.
Canada Dry.
A observer les bouleversements actuels, on remarquera pourtant ce qui pourrait ressembler à un retour en force du document comme stock physique, notamment au travers de la montée en charge de Google Play (les livres arrivent, les films sont déjà là) dans le sillage de l'Apple store. On m'objectera que c'est donc là le retour de l'ancien monde, de cet "ordre documentaire antérieur dominé par l’édition qui vend des objets et protège le contenu par la propriété intellectuelle" et que seule change la plateforme de distribution : YouTube devient notre cinéma, Amazon notre libraire, l'AppleStore notre supermarché. On aura tort. Cela a le goût d'un retour à l'ancien ordre documentaire, cela en a l'odeur mais je maintiens que c'est bien l'installation d'un nouvel ordre documentaire que ces exemples traduisent.
<incise> par parenthèse et commentaire à l'image ci-dessus, on notera que dans ce nouvel écosystème de l'Outer-net, chaque acteur majeur met en place son "center-net" ou "jardin fermé". Soit un double antagonisme avec les logiques de l'inter-net, à la fois sur le fond (Outer-net hyperterritorialisé VS déterritorialisation fondatrice du Net et neutralité du réseau) et sur la forme (center-net VS Web et réticularité des hyperliens) </incise>
On The Cloud. On Demand. Read Only.
Avec l'essor programmé des tablettes qui remplaceront à terme (peut-être sous une forme légèrement modifiée) l'ordinateur de bureau dans l'équipement standard des foyers, avec l'arrivée des télés connectées, avec la montée en charge de la RNT (radio numérique terrestre) qui devient autant un média de l'image et du texte qu'un média du son, avec, surtout, surtout, surtout, (surtout) la déportation massive dans la banque du cloud de ces documents (livres, CD, DVD, apps), avec la négation de tout acte d'achat vécu comme appropriation au profit d'un modèle d'allocation** fournissant un accès en lecture seule (l'accès en écriture étant vérouillé au moyen de DRM), avec la systématisation de la consommation d'une offre culturelle "on demand" … avec tout cela, Google ne vend pas "des objets" en protégeant "le contenu par la propriété intellectuelle". Il s'adresse aux éditeurs pour leur vendre du stock attentionnel sur leurs contenus. La mise en conformité avec la propriété intellectuelle (et la rétribution des éditeurs) est proposée comme l'un des éléments nécessaires de la négociation, mais pour les raisons précédemment citées (vernacularisation notamment, longue traîne accessoirement), elle n'est que provisoire. Google et l'AppleStore ne vendent pas et ne vendront jamais des stocks de documents. Ils vendent aux éditeurs de contenus notre attention, et ils nous (les utilisateurs) vendent des accès qui eux-mêmes augmentent le stock attentionnel disponible.
=============================
**sur le modèle d'allocation, voir ce billet dans lequel j'expliquais : "dans le cadre de l'appropriation marchande (= achat) d'un bien culturel (livre, musique ou film) ce qui nous est présenté comme un acte d'achat impliquant l'usage privatif inaliénable du bien concerné, n'est en fait qu'une location dissimulée, le fichier résident "à distance" et la transaction commerciale se déplaçant à l'unisson, c'est à dire ne désignant plus le bien en lui-même mais plutôt l'autorisation d'accès à distance au dit bien. On ne vend plus un bien, on alloue un accès (cf le modèle de l'a-llocation décrit dans ce billet), on met en place une "souscription" : l'écriture de l'acte commercial, la trace – opposable en cas de conflit – de la transaction, devient, à son tour, une écriture "en-dessous", sub-scribere. Soit l'aboutissement de la logique décrite dans ce billet.)
=============================
La grille de lecture du projet GoogleBooks.
A plus d'un titre, la stratégie de Google dans le monde du livre et de l'édition et l'interminable feuilleton judiciaire qui l'accompagne, constituent une grille de lecture utile pour l'ensemble de l'avenir de la filière des industries culturelles (même si, nous sommes bien d'accord, tout n'est pas transposable). L'enjeu déjà souligné d'une possible fin de toute diversité éditoriale apparaît en ligne d'horizon de ce cercle "vertueux" dont sont progressivement exclus les éditeurs et les médias "classiques" (même si ces derniers résistent davantage). Dans les premiers épisodes du procès GoogleBooks, contre espèces sonnantes et trébuchantes, les éditeurs ont accepté de capituler sur ce qui aurait pourtant dû être le seul élément non-négociable : la constitution, par Google, d'un trésor (thesaurus) sans aucune commune mesure de documents sous droits dont il n'est certes pas (encore) libre de disposer comme il l'entend mais qui pèsera de manière déterminante dans les futures négociations. Dépossédés de leur "stock" physique et ne disposant pas de la compensation attentionnelle nécessaire, les éditeurs n'auront n'autre choix que d'accepter que leur stock devienne un flux parmi d'autres. Aujourd'hui, les premiers à en faire les frais sont le maillon le plus fragile de la chaîne, les libraires, que Google vient de lâcher officiellement. Après les avoir pressurés pour leur imposer ses conditions et les contraindre à se ranger à ses côtés ou à disparaître (en gros hein ;-), et suite à la maturation et au lancement de son offre GooglePlay qui peut s'appuyer sur un catalogue certes encore assez maigre mais surtout sur le formidable vortex attentionnel constitué par le moteur, Google annonce :
"we introduced a multi-faceted approach to selling ebooks: online, on devices, through affiliates and through resellers. One part of that effort — the reseller program — has not gained the traction that we hoped (…) Books will continue to be a major content pillar alongside apps, music and movies in the Google Play store. And — regardless of where they bought them — customers will still be able to access and read their ebooks on the web, phones, tablets and compatible eReaders."
Ita Missa Est. Ayant eux-mêmes, principalement par le biais de leurs représentations professionnelles, très largement contribué à saborder leur force de prescription collective, ne pouvant se reposer que sur un stock qui rebute à prendre le virage du flux (demandez à un libraire ce qu'il pense du livre numérique …), les libraires ne représentent plus rien pour la banque attentionnelle de Google. Seul lui importe, désormais installé sur le navire amiral annoncé comme rival de celui d'Apple, seul lui importe de mobiliser son stock attentionnel pour organiser les logiques de flux ("books, apps, music, movies") multimodales, synchrones et ubiquitaires (web, phone, tablets, eReaders), en vérouillant autant que possible toute possibilité d'écriture (DRM ou téléchargement) au profit d'accès en lecture seule (read-only).
Du côté de la deuxième dimension du document (le "Lu", le "texte"), les intermédiaires sont à l'agonie.
<Incise>Voilà d'ailleurs pourquoi le travail qu'effectue François Bon et son équipe sur Publie.net depuis plusieurs années est visionnaire à plus d'un titre : non pas seulement par le modèle économique auquel on les résume trop souvent (50-50), mais parce qu'en comprenant avant tous les autres ce que l'édition – et la littérature – pouvaient avoir à gagner dans l'investissement du stock attentionnel numérique et des flux croisés de la prescription, tout en ne boudant pas une exposition contrôlée et adaptée sur les grandes banques attentionnelles d'Amazon ou d'Apple et en proposant systématiquement une alternative interopérable aux oeuvres produites, voilà pourquoi le modèle Publie.net semble aujourd'hui être le seul à ne pas prêter ouvertement le flanc à une spoliation en règle de son fonds de commerce (= son stock attentionnel, pas ses bouquins :), et à proposer simultanément un modèle de riposte graduée crédible et pérenne face aux géants qui semblent le cerner. </incise>
<Double incise> Voilà pourquoi également l'initiative de la #copyparty revêtait à mes yeux une si grande importance. Parce qu'en plus d'y "refermer la parenthèse Gutenberg", on n'y est pas venu pour trivialement "photographier des livres", mais pour y échanger et y partager de l'attention aux livres, de l'attention aux oeuvres, et aussi par effet de bord, de l'attention aux autres. </double incise>
Autre exemple celui d'Amazon : "16 of the Top 100 Best-Selling Paid Kindle Books in March Are Exclusive to the Kindle Store" (Source). "Seulement 16%" diront certains ? "Déjà 16%" répondront d'autres, peut-être plus avisés.
Autre exemple du côté, cette fois, de la 1ère dimension du document (le "Vu", la "forme") : là encore fini de jouer avec le stock physique. Tout médiation est vécue comme une perte sèche attentionnelle, une perte de ca$h. Donc là encore, on étrangle les intermédiaires.
Enfin, du côté de la troisième dimension (le "Su") il faut noter l'extraordinaire essor du modèle de l'abonnement (logique de souscription) :
-
"The global number of paying subscribers for music services has grown by 65 per cent, from an estimated 8.2 million in 2010 to over 13.4 million in 2011"
Une hausse de 65% par rapport à 2010, comme le note le rapport de l'IFPI (organisation internationale des producteurs de disque) chroniqué par 20 minutes, principalement causée par l'essor des plateformes "légales" et qui là encore confirme le double mouvement de désintermédiation (suppression des intermédiaires) et de dépossession (suppression de la possibilité du téléchargement, modèle "read-only") engagé. L'abonnement est ici constitué objectivement comme le principal allié d'un modèle économique construit sur du stock attentionnel en ceci qu'il est le seul permettant de contraindre la fréquence, la régularité et l'exposition de nos consommations, de nos souscriptions aux biens culturels proposés, le seul également qui permette de capitaliser sur du stock attentionnel plutôt que sur des produits culturels.
<ça me fait penser que> Le rapport de l'IFPI souligne d'ailleurs le rôle d'Hadopi et plus généralement les divers dispositifs de riposte graduée nécessitant la collaboration des ISP (Internet Service Providers) dans la baisse du "piratage" et l'essor du "téléchargement légal". Cette effet pneumatique (moins de piratage = plus de téléchargement légal) n'a pas lieu d'être contesté, à tout le moins si l'on admet que le besoin de consommation reste constant. Mais la loi Hadopi n'est là que pour renforcer les régimes attentionnels en place, illusoirement au profit des éditeurs d'hier, et plus certainement demain au profit des majors attentionnelles. Il s'agit donc d'une formidable hypocrisie, semblable à celle qui fit à l'époque céder la cinquième à Berlusconi ou TF1 à Martin Bouygues, sur la base d'un cahier des charges visant explicitement à developper la dimension "culturelle" des programmes. Quelques années de régimes attentionnels (et publicitaires) plus tard, on mesure ce qu'il en est advenu. Hadopi ne permettra en rien de mieux financer la "création", de défendre le "droit d'auteur", ou de garantir la "diversité éditoriale" : elle assurera en revanche une situation de rente supplémentaire aux industries qui contrôlent aujourd'hui – et/ou contrôleront demain – l'ensemble de la production culturelle </ça me fait penser que>
"… c'est que vous êtes le produit".
"Quand vous ne voyez pas le service, c'est que vous êtes le produit." (illustration notamment ici) La part des applications et des biens culturels "gratuits" sur ces différentes plateformes atteste bien d'un déplacement de la valorisation du capital qui n'a rien de symbolique.
La stratégie du vérouillage.
Passé l'enthousiasme technophile pour ces nouveaux ordres documentaires, passé le temps des technologies en mutation constante, passée la quête d'un ordre économique stable, les acteurs ont désormais compris qu'il leur fallait franchir une nouvelle étape pour garantir l'alimentation dudit modèle économique, empêcher ou rendre délicate et non-naturelle toute sortie du système, et contraindre les pratiques à l'intérieur même de celui-ci. Cette stratégie du vérouillage va prendre 3 formes différentes.
Pour les sites "magasins" (Amazon, Apple Store, Google Play), l'une des stratégies est celle de la forme : il s'agit de proposer une forme ou une plateforme contrainte, propriétaire, non-interopérable pour tout acte de dépôt attentionnel et de consommation afférente : c'est le Kindle pour Amazon, l'écosystème et les terminaux Apple pour l'AppleStore, la consultation dans le "Google Cloud" pour Google Play.
Pour les sites de réseaux sociaux, il s'agira de s'appuyer sur la dimension du social (le "Su"), de littéralement "retourner" la logique d'externalité du lien hypertexte et d'amplifier les processus de rediffusion au sein d'une communauté d'audience aussi captive qu'étendue.
Mais c'est en analysant les stratégies des "moteurs de recherche" du côté du texte (le "Lu") que se donnent à lire les stratégies les plus complexes et probablement les plus efficaces sur le long terme.
(1er TEMPS) Avec l'arrivée de Google les moteurs se positionnent comme de "simples" indexeurs. Quelques années plus tard, c'est toute une économie de la lecture industrielle qui est en place. (2nd TEMPS) Les moteurs deviennent également des scripteurs capables de s'affranchir du code inscrit par l'auteur, donnant à l'expression "écriture industrielle" tout son sens. Nous sommes aujourd'hui dans le (3ème TEMPS) de leur stratégie : contrôlant au moyen de l'omniprésence de leurs "bots" et du poids du modèle économique d'enchère textuelle qu'ils ont érigé en paradigme indépassable, contrôlant par ces deux moyens la quasi-totalité des stratégies attentionnelles de lecture et d'écriture sur le réseau, il leur reste à modeler, à normaliser dans un sens qui soit celui des spécificités de l'ordre documentaire qu'ils promeuvent, ce qui relève du tolérable, de l'acceptable et de l'interdit. On observe donc, chez Google notamment, un mouvement en deux temps.
"La guerre, c'est la paix, la liberté c'est l'esclavage, l'ignorance c'est la force."
Il s'agit d'édicter ce qui ressemble à des conseils ou des bonnes pratiques sur le coeur même de l'activité d'écriture numérique alors qu'il s'agit en fait d'une norme Orwellienne ("nous savons ce qui est bon pour vous") : le "bad linking" devient un délit en ce qu'il vous prive de tout accès et de toute libre circulation possible dans l'ordre documentaire du monde numérique de Google. Le régime algotithmique du texte devient discrétionnaire : l'édiction de bonnes pratiques ne sert qu'à assurer la définition de comportements déviants qui rendent "légitimes" une action de bannissement, de mise au ban, de dés-indexation.
<Nota bene> il s'agit ici de souligner une dérive observable des pratiques et des régimes documentaires en place (en espérant partiellement la prévenir). Il ne s'agit pas, en revanche, de nier qu'il soit nécessaire de s'armer contre la mise en place d'un ordre documentaire dans lequel primerait une redocumentarisation presque totalement préemptée par les "bots", ni de dénier aux moteurs la capacité et/ou l'intérêt à le faire. Comme en atteste la copie d'écran ci-dessous, l'un des derniers entrants dans le petit monde des "industries du document", Twitter, a d'ailleurs, sur ce sujet, encore beaucoup à apprendre et à faire :
A l'occasion du récent décès de Richard Descoings et du régime attentionnel qu'il instaure de facto, on mesure à quel point le stock attentionnel est phagocyté et détourné par l'appropriation abusive de sites tentant, par l'intermédiaire de leurs bots, de déporter ce stock attentionnel vers leur propre marché (ici celui de l'industrie de la pornographie) </Nota Bene>
Une fois cette ligne jaune édictée on va, progressivement, flouter l'ensemble repères qui permettraient de voir d'éventuels déplacements de ladite ligne jaune, ou de disposer d'une vue directe sur notre propre positionnement au regard des normes énoncées : on restreint les possibilités d'accès aux options de recherche avancée (pourtant seules portes possibles vers une compréhension un peu "fine" des stratégies réticulaires de cette économie du texte), et on "bride volontairement" l'ensemble des commandes qui permettraient de déployer un contre-argumentaire face au réquisitoire de celui (Google) qui se positionne à la fois comme outil de police et de justice du lien. L'exemple de la commande "link:" est particulièrement emblématique, puisque Matt Cutts confie sans sourciller et sans fard :
" (…) ces outils ne sont que quantitatifs et ne font pas la différence entre des liens "de faible qualité" (issus de footers, d'annuaires, de communiqués de presse, etc.) et des liens de bonne qualité comme les apprécie Google. Selon Matt, de très nombreux liens ne compteraient même pas dans l'algorithme du moteur de recherche. Ce n'est donc pas en connaissant le nombre de backlinks d'un site web que l'on peut avoir une idée de la qualité de son référencement. (…)"
Au (haut ?) risque d'un Apartheid documentaire.
Un monde dans lequel il y a les bons et les mauvais (liens), où une autorité centrale décide en toute discrétion de ce qui fait la qualité des uns et le défaut des autres. La même autorité qui a construit l'ensemble de sa suprématie sur la règle algorithmique pourtant simple du "plus une page est citée/liée, mieux elle sera positionnée/référencée" et qui depuis ce temps de l'accession au pouvoir n'a eu de cesse de détricoter cette règle, non pas uniquement pour "améliorer" ou "adapter" le régime en place, mais aussi et surtout pour éviter qu'il ne puisse être, un jour, renversé. Comme je le soulignais plus haut (cf "Le code et la copie") et comme le rappelle encore Olivier Andrieu à la suite de l'interview de Matt Cutts :
"Il est également évident que le fait d'obtenir les backlinks de façon exhaustive pour de nombreux sites web permettrait de simuler des "plans de netlinking" globaux pour des sites concurrents, ce que Google ne désire pas a priori. Tout comme le fait de mieux comprendre l'algorithme du moteur au travers de stratégies de reverse engineering…"
<On notera que> Pour les industries du document et les ingénieries du texte, ledit risque d'Apartheid hypertextuel n'est lui-même que la suite "logique" d'une machinerie déjà ancienne d'eugénisme documentaire ayant contribué pour une bonne part à faire le lit des régimes attentionnels captifs.</on notera que>
ON RÉSUME ?
Que devient donc "l’ordre documentaire antérieur dominé par l’édition qui vend des objets et protège le contenu par la propriété intellectuelle." (Source) Il est probable que l’ordre documentaire de demain sera dominé par la prescription qui vend de l'attention et protège ses stocks par l'algorithmie.
Sur le même modèle et dans la lignée du tableau synoptique proposé ici à la suite de ce billet, voici une vue également synoptique de l'essentiel des points présentés dans ce billet.
(si tu n'y vois rien, tu cliques sur l'image)
Sur un second tableau j'ai simplement ajouté une ligne de démarcation entre l'ordre documentaire d'hier et celui d'aujourd'hui :
Comme on le voit, le point de bascule est le changement de nature entre ce qui constitue le stock et ce qui soncstitue le flux. La suprématie des logiques "d'audience" et l'avènement de la "computation" furent le révélateur et le fixateur de cette bascule, de ce changement de paradigme. Depuis ce changement, les "industries du document" (et les ingénieries qui les sous-tendent) entament une mutation dont les "Big Data" constituent la mesure, en opacifiant à dessein le code propriétaire qui sert d'engrammation aux susnommées Big Data ainsi qu'à leur exploitation dans une logique de renforcement de nos croyances informationnelles ("Filter Bubble") sur la base d'échanges vernaculaires accessibles en lecture seulement ("read-only"), rendant l'idéologie du "partage" du web 2.0 à sa vraie nature : une réaffirmation des logiques mass-médiatiques de rediffusion. Ce nouvel ordre numérique, s'il venait à se confirmer et à se pérenniser, signe la fin de la conception du réseau Inter-net comme réseau ouvert, non-propriétaire, libre de droits et d'accès et à la topologie structurellement a-centrée. Une sortie qui se ferait au profit d'un Outer-Net transitoire et singeant l'hyperterritorialisation du monde, pour préparer l'avènement d'un internet des silos (Center-net), coupés de toute externalité qui pourrait constituer une menace pour les stocks attentionnels dont ils disposent.
Mon cerveau a un peu fondu durant cette lecture, mais il a la force d’émettre cette comparaison Bénédictienne : le but manqué pendant un match à cause de la dispersion de l’attention rappelle la Multiplette de Harry Potter, paire de jumelle servant à observer la finale du mondial de Quidditch, qui permet moult ralentissement, zoom, information sur tel ou tel technique, et fait rater au héros l’action qui se déroule à l’instant. Yup.
merci pour l’incise – quoique échelle microscopique et survie tenant plutôt au jeu du bouchon sur les vagues
un des éléments les plus curieux de la prescription Amazon / iTunes, et surtout Amazon (mais vaut aussi pour Fnac) c’est le régime de pics : un titre peut rester à 0 très longtemps, mais si ventes s’enchaînent alors il y aura un écho retour amplifié dans leurs algorithmes de recommandation prescription, et les ventes s’accumuleront d’elles-mêmes
ce n’est pas très sain ni rationnel, et étroitement dépendant des catégorises « BISAC » idéologiquement totalement organisées selon principe de civilisation US (plus de catégories « religion » que de catégories « fiction ») – d’où stratégies de ces éditeurs qui lancent produit à prix cassé pour lancer le mécanisme d’appel et le remontent ensuite
c’est cela que tu nommes « régime algorithmique » ? – en tout cas merci pour cette analyse, ça aide drôlement la tête – sans compter cet espace toujours plus poreux et malléable entre livre et coyright, où pas possible même pour nous, dans le choix d’une micro-économie de diffusion finalement très traditionnelle, de rester neutre
> J’émettrais une réserve sur cette assertion : « les médias (en l’occurrence TF1) autorisent, au coeur même de leur écosystème, l’irruption de régimes attentionnels (et promotionnels) sur lesquels ils n’ont aucune prise, dont ils ne maîtrisent ni le flux, ni le stock ; des régimes attentionnels et promotionnels qui ne peuvent pas être, même rétroactivement éditorialisés »
Si on regarde le dispositif web mis en place par TF1 pour The Voice, son programme phare à l’heure actuelle, la chaîne de télé éditorialise bien un régime attentionnel : Twitter.
Au centre de la page web, on trouve le programme lui-même et juste en dessous apparaît ce qui ressemble à une timeline Twitter. Mais ici, pas question d’afficher tous les tweets contenant le hashtag #thevoice, non, TF1 sélectionne les gazouillis affichés.
Pas d’éditorialisation rétroactive, mais un contrôle a priori. La chaîne maîtrise donc le stock — l’attention — (le nombre de tweets affichés est « raisonnable » et permet toujours de suivre le programme, contrairement à un suivi du hashtag #thevoice directement sur Twitter qui ne laisse pas une seconde de répit en raison du nombre élevé de tweets par minute) et le flux — le produit (on ne trouvera pas de tweets dézinguant un candidat ou le programme dans la timeline de TF1).
Reste à voir si ce dispositif sera étendu ou pas.