(le titre de ce billet est officiellement en lice pour la grande foire du calembour de Bresse)
===========
Préambule.
===========
Je viens incidemment d'apprendre de Bruno Racine, actuel président de la BnF, clôturait son dernier ouvrage "Google et le nouveau monde", par les remerciements suivants, évoquant :
- "le profit [qu'il a] retiré en suivant, entre autres, le
blog Affordance d'Olivier Ertscheid [ertZscheid en fait mais bon c'est pas grave] qui fournit sur tous ces sujets un point de vue stimulant,
marqué par le souci de décrypter les évolutions et les stratégies du
web –
excellent exemple du nécessaire contrepoint critique qui doit aller
avec le développement du numérique".
Clausule dont je suis honoré et pour laquelle je le remercie, en même temps que je rappelle au service de presse de la BnF, pour le cas où il souhaiterait m'adresser un exemplaire dédicacé, que mon adresse institutionnelle est disponible en ligne 🙂
Bref, n'ayant en guise d'ouvrage que la chronique idoine de ce blog, je me décide à rédiger une nouvelle série de billets pour expurger l'amoncellement de nouvelles au sujet de Google Books.
Le premier de ces billets (que vous êtes en train de lire, bande de petits veinards), sera uniquement consacré au volet "numérisation d'ouvrages du domaine public", autrement dit le programme "Library partners" de Google Books
============================
Google Books : l'état c'est moi.
============================
Côté bibliothèques, il manquait encore à la stratégie de Google deux pierres essentielles, tant pour les "relations publiques" et l'image du projet (de plus en plus malmenée), que pour le précédent que cela permettrait de créer : ces deux pierres sont la signature d'un accord avec une bibliothèque nationale (d'où les négociations, dès l'été 2009 et probablement encore un peu avant, avec la BnF), et celle de la signature avec un état en tant que tel. Or voici donc que depuis le 10 Mars 2010, Google a signé avec le ministère de la culture italien pour la numérisation et la mise en ligne d'un million de volumes, libres de droits (publiés avant 1860).
Coup double et coup de maître, puisque ledit contrat confère à Google un statut de prestataire étatique qui pourrait en inciter plusieurs autres – états – à revoir leur position, et lui donne également accès à non pas une mais bien deux bibliothèques nationales (Rome et Florence). Comme le souligne Le Monde, c'est donc bien d'une victoire politique qu'il s'agit. D'autant que ce nouvel allié politique devrait là encore pouvoir être cité comme témoin dans le procès en cours concernant la numérisation des ouvrages sous droits (et je ne parle même pas des – nouvelles – activités de lobbying ainsi autorisées …)
Modus operandi. Tout comme pour le projet de numérisation de la bibliothèque de Lyon,
Google installera un centre de numérisation en Italie. La numérisation
du million d'ouvrages – pour l'instant – concernés, devrait prendre 2
ans. Sur les aspects concrets de ladite numérisation et les risques toujours actuels de dérive vers un eugénisme documentaire, on sait peu de choses. La dépêche AFP délayée dans Les Echos nous indique que :
- "le moteur de recherche s'engage à fournir aux bibliothèques des copies
numériques de ces livres, "leur permettant ainsi de les rendre
accessibles aux lecteurs sur d'autres plateformes, y compris d'autres
projets européens comme Europeana".
Rien n'est dit sur le type de copie numérique qui sera ainsi partagée, sur son ouverture à l'indexation par d'autres moteurs, sur l'exclusivité – ou non – d'indexation, bref sur l'ensemble des points qui posent habituellement problème dans les contrats signés entre Google et les bibliothèques.
A noter : la déshérance et le désengagement de l'état italien Berlusconien dans le domaine des politiques publiques peut également apparaître comme un facteur non-négligeable à l'explication de cette "première mondiale". Bon par contre on n'a pas réussi à prouver que la Camorra avait infiltrée Google mais bon entre pieuvres … 😉
==========================================
Google Books : l'OPAC ultime en ligne de mire ?
==========================================
Quand on s'interroge sur le "pourquoi Google investit-il à perte dans la numérisation d'ouvrages du domaine public", on dispose de plusieurs niveaux de réponse :
- d'abord – c'est l'argument que je ressasse depuis longtemps – parce que ce projet est tout sauf une danseuse et que Google, après avoir "gagné" la bataille de l'information, a compris – avant d'autres, y compris les états présidant au devenir financier de nos bibliothèques nationales numériques - qu'il devait se positionner sur la bataille de la connaissance. Comme il a avant d'autres compris que l'essence de la bibliothèque, que les enjeux qui la fondent et lui sont indissolublement liés sont d'abord de nature politique. Et que de la maîtrise de cet échiquier politique dépendrait ensuite la maîtrise de secteurs économiques entiers (dont la "chaîne du livre" en tant que maillon – pas forcément faible – des industries de la connaissance)
- ensuite parce que cet investissement lui donne la légitimité (et la compétence) pour s'installer durablement sur le secteur de la numérisation d'ouvrages sous droits (second volet de Google Books)
- et tout un tas d'autres raisons, dont la constitution de la plus grande archive documentaire de corpus multilingue (ceci expliquant peut-être sa suprématie dans le domaine de la traduction automatique …)
Preuve est désormais faite que numériser des livres peut permettre de ramasser un beau pactole et que ces investissements dès le lancement du projet en 2004, l'étaient dans une perspective claire de monétisation. Dans la cadre de la "plateforme" Google Books, il est plusieurs manières de gagner de l'argent :
- pour les éditeurs … ben c'est tout l'enjeu du procès actuel aux Etats-Unis et en France … pour gagner de l'argent avec les éditeurs disais-je, il suffit à Google de casser la chaîne de médiation (en évacuant par exemple les libraires), ou tout au moins de s'y positionner comme un routeur incontournable préemptant au passage des droits de douane qu'il est le seul à fixer (c'est précisément le rôle du Google Books Settlement).
- pour gagner de l'argent avec les auteurs, il suffit d'augmenter leur commission, en se payant sur les commissions que ne touchent plus les éditeurs et/ou les libraires (et je maintiens qu'en Juin 2010, date de lancement désormais officielle de Google Editions, on verra apparaître un outil de micro-paiement à destination des auteurs, construit sur le modèle pay-per-click des publicités Adsense … les paris sont ouverts 😉
- pour gagner de l'argent avec les bibliothèques, c'est à peine plus compliqué : soit on leur propose des contrats léonins jouant clairement sur un abus de position dominante, (voir aussi ce qu'il pourrait en être de l'inaliénabilité du domaine public) mais il est probable que ne ne soit pas entièrement satisfaisant (et un peu risqué) sur le long terme. Soit on leur fait payer l'accès à la copie de l'ouvrage par le truchement de licences monopostes (volet bibliothèque du GoogleBooks Settlement). Soit on prévoit de leur proposer, à terme, un accès – payant – à ce qui ressemble chaque jour davantage à un OPAC planétaire de ressources en texte intégral (les OPAC planétaires classiques s'arrêtant aux seules métadonnées). Il n'est ainsi pas improbable qu'en même temps qu'il lancera Google Editions pour (contre?) les libraires et éditeurs, Google, en s'appuyant sur la masse de documents du domaine public déjà numérisés, en s'appuyant également sur les fonctionnalités de plus en plus "bibliothéconomiques" de l'interface GoogleBookSearch, il n'est pas improbable disais-je que Google propose aux bibliothèques une architecture "full-web" leur permettant – et à leurs utilisateurs – de déporter "dans les nuages" une partie significative des composantes habituellement dévolues aux SIGB (Systèmes informatiques de Gestion de Bibliothèque). Fantasme de mon esprit malade ? Nous verrons bien 🙂
=========================================================================
Google Books : des rapports et des lois … mais pas vraiment de rapport à la loi …
=========================================================================
Après le rapport Tessier (exégèse disponible ici), c'est donc la très sérieuse commission des finances du Sénat qui planche sur le rapport Gaillard : "La politique du livre face au numérique", dont une partie importante est entièrement consacrée à "l'affaire Google". Pas grand chose à signaler dans ledit rapport, si ce n'est qu'il valide les conclusions du rapport Tessier (= la BnF doit signer avec Google en évitant l'exclusivité d'indexation et en se réservant les droits de mise à disposition immédiate auprès de son public). Le prochain rendez-vous est fixé au 28 Avril prochain où la commission de la culture débattra pendant une table-ronde réunissant tous les acteurs de la chaîne du livre des deux points suivants :
- "l’avenir de la filière du livre et l’opportunité de fixer un prix unique au
livre numérique, - la
politique de numérisation pour le livre, selon qu’il est libre de droits ou
sous droits."
Le rapport Gaillard tient tout entier en une phrase clé : "avec les moyens actuels de la BnF, il faudrait environ 750 millions d'euros
et 375 ans pour numériser l'ensemble des ouvrages. Selon M. Bruno Racine, la totalité des fonds de la
BnF pourrait être numérisée en 10 ans par
Google." Ita missa est. Sauf que … Sauf que l'expression même de "numériser l'ensemble des ouvrages" n'a aucun sens bibliothéconomique, Google pas plus que la BnF ne prétendant vouloir (et surtout pouvoir) numériser l'intégralité des fonds documentaires.
La numérisation est d'abord affaire de choix et de priorités définies selon des critères là encore bibliothéconomiques (rareté, ancienneté, fréquence des emprunts, etc …) et prendre prétexte comptable de l'éternel fantasme de la bibliothèque universelle me semble un raisonnement spécieux qui masque les réels enjeux politiques d'un tel projet.
Dernier point intéressant dans le rapport Gaillard, le tableau de la répartition des fonds du grand emprunt entre les différents organismes publics bénéficiaires.
A noter que, nonobstant la procédure toujours en cours (le procès Google Books donc), certaines universités (et pas des moins prestigieuses) déjà parties prenantes lors du lancement de Google Books, n'hésitent pas à apporter publiquement leur soutien à la version "amendée" dudit Google Books Settlement. C'est le cas de Stanford, qui vient donc de resigner avec Google.
A noter encore, et toujours concernant les issues possible du procès en cours, vous avez la possibilité de vous coller un bon mal de crâne prendre la mesure des différents scénarios possibles, en consultant le schéma (pdf) disponible sous ce lien et produit par la très active et lobbyiste Library Copyright Alliance.
Et Europeana dans tout ça ?? Et bien, à parcourir le rapport sur les prochaines étapes de déploiement de ce projet, on est saisi de constater à quel point l'enlisement le dispute à l'atermoiement. Un saisissement que deux paramètres permettent d'éclairer : dans l'urgence et la vitesse à laquelle bougent les choses sur la question de la numérisation patrimoniale (grâce à l'effet de ricochet et/ou d'aspiration de la numérisation commerciale), l'échelon européen ne semble pas être le bon pour articuler un projet "à l'échelle" de Google. L'autre paramètre est naturellement financier, une majorité de bibliothèques européennes, du côté de l'europe de l'Est notamment, s'interrogeant sur l'opportunité de passer du temps à alimenter un portail sans aucune visibilité là où des partenariats avec Google leurs permettraient d'économiser de la logistique, du temps, et surtout de l'argent. A n'en pas douter, la récente signature du partenariat avec le ministère de la culture Italien ne va pas contribuer à mobiliser les acteurs européens dans le sens du développement d'Europeana. Bref, ce qui était et qui demeure un beau projet souffre d'un énorme problème de positionnement, résultant lui-même d'un tout aussi important problème de calendrier et d'une implication parfaitement insuffisante (et insuffisamment répartie) entre ses différents acteurs supposés (soit, en théorie, l'ensemble des bibliothèques nationales européennes).
=============================================
Google Books ou le périmètre des biens communs.
=============================================
Comme l'illustre magnifiquement Asaf Hanuka, le monstre Google continue d'effrayer. Google est méchant. Google s'expose à une liste de plus en plus impressionnante (et documentée) de critiques. Les premiers cris d'effroi passés, il serait dommage de perdre de vue que la principale dangerosité du projet Google Books ne lui est pas intrinsèque. Bien au contraire, elle tient, en ce domaine comme en d'autres, au fait que les avancées de la firme nous obligent (et nos "états" avant nous …) en permanence à repenser la nature et le périmètre de ce qui doit être, devenir ou demeurer un ensemble de biens communs de la connaissance. Ce n'est qu'au prix d'une définition claire et politiquement argumentée desdits biens communs qu'un balisage efficace (efficient ?) de la frontière entre ce qui relève de la sphère publique et de la sphère privée pourra être établi sur la question de la numérisation en particulier, et sur la question de l'accès à l'information en général.
================================
Google Books : "A path to insanity".
================================
Dans l'un de ses derniers essais (repéré sur Techcrunch), intitulé : "For the Love of Culture : Google, copyright and our future", Lawrence Lessig se livre à la meilleure analyse – selon moi … – des dangers que représente Google Books non pas en tant que dispositif, mais en tant que processus d'aliénation de l'accès à la culture, en tant que processus d'industrialisation de la copie** (comme en écho aux lectures industrielles théorisées par Alain Giffard, ces deux-là – Lessig et Giffard – ayant depuis longtemps parfaitement cerné la réelle nature du problème de GoogleBooks). Le texte est un argumentaire absolument limpide et remarquable qu'il conviendrait de citer en entier. Quelques extraits pour vous mettre en bouche :
- "The deal constructs a world in which control can be exercised at the
level of a page, and maybe even a quote. It is a world in which every
bit, every published word, could be licensed. It is the opposite of the
old slogan about nuclear power: every bit gets metered, because
metering is so cheap. We begin to sell access to knowledge the way we
sell access to a movie theater, or a candy store, or a baseball
stadium. We create not digital libraries, but digital bookstores: a
Barnes & Noble without the Starbucks." (…) "In real libraries, in real space, access is not metered
at the level of the page (or the image on the page). Access is metered
at the level of books (or magazines, or CDs, or DVDs). You get to browse through the whole of the library, for free. You
get to check out the books you want to read, for free. The real-space
library is a den protected from the metering of the market. It is of
course created within a market; but like kids in a playroom, we let the
life inside the library ignore the market outside."
C'est ici le problème de la granularité documentaire que pose Lessig. Là où les bibliothèques se posent (parfois un peu trop …) la question de savoir quels types d'unités de connaissance peuvent "faire collection", l'approche de GoogleBooks transforme chaque opération intellectuelle d'indexation, d'extraction, de citation ou même de simple "lecture" en une "copie", rendant toute tentative de collection aussi vaine que la lecture du Livre de sable de Borges. Résultat ?
- "We are about to change that past, radically. And the premise for that
change is an accidental feature of the architecture of copyright law:
that it regulates copies. In the physical world, this architecture
means that the law regulates a small set of the possible uses of a
copyrighted work. In the digital world, this architecture means that
the law regulates everything. For every single use of creative work in
digital space makes a copy. Thus–the lawyer insists–every single use
must in some sense be licensed. Even the scanning of a book for the
purpose of generating an index–the action at the core of the Google
book case–triggers the law of copyright, because that scanning, again,
produces a copy."
Au-delà même des aspects législatifs et réglementaires qui complexifient et rendent monétisables les différentes traçabilités de ces copies (via, par exemple, les DRM "embarqués" dans icelles), la notion même de copie (telle que mise en oeuvre par GoogleBooks et telle que combattue par Lessig), la notion même de copie est dangereuse parce qu'elle brise et révoque l'idée même de toute possibilité de continuité documentaire. Or sans continuité documentaire, toute agrégation, toute collection devient impossible. Sans continuité documentaire, toute culture cède la place à d'éphémères et innombrables acculturations temporaires.
La copie devient ainsi une fin en soi, éternellement "légiférable" et "monétisable" parce qu'éternellement reproductible et déconnectée de la totalité, de la complétude initiale qui lui permet d'exister en tant que telle. La copie devient une fin en soi, en même temps qu'elle cesse d'être l'instrument ou le support d'une pratique de recherche, de lecture, d'étude ou de partage. Elle s'industrialise**.
Lessig conclut son essai de la manière suivante :
-
"I have no clear view. I only know that the two extremes that are
before us would, each of them, if operating alone, be awful for our
culture. The one extreme, pushed by copyright abolitionists, that
forces free access on every form of culture, would shrink the range and
the diversity of culture. I am against abolitionism. And I see no
reason to support the other extreme either–pushed by the content
industry–that seeks to license every single use of culture, in
whatever context. That extreme would radically shrink access to our
past. (…) But this is too important a matter to be left to private
enterprises and private deals. Private deals and outdated law are what
got us into this mess. Whether or not a sensible public policy is
possible, it is urgently needed."
Il y a effectivement urgence. Et cette urgence n'est pas comptable, elle ne se chiffre pas en nombre de millions de volumes numérisables à l'instant "t" ou en millions d'euros nécessaires à une numérisation exhaustive. Google ne fait que laisser se déployer son écosystème informationnel, il ne fait que laisser tourner à plein régime toute la force d'inertie générée par une tyrannie de l'accès à l'information érigée et maquillée en paradigme de l'organisation des connaissances. Mais la faute n'incombe pas à Google. Il n'appartient pas à Google de circonscrire son rayon d'action. Seule compte pour lui la possibilité de l'étendre, ce dont on ne saurait le blâmer tant nous profitons – pour l'instant – des effets de bord de ces incessantes extensions.
C'est aux états et aux théoriciens qu'il appartient de circonscrire le rayon d'action de ces écosystèmes aussi économiquement dérégulés qu'ils sont informationnellement cohérents. Et l'un des meilleurs et des plus sûrs moyens pour y parvenir est de délimiter un régime mondial des biens communs (ce qui n'est pas tout à fait la même chose que de parler de l'accès comme "d'un bien public mondial"). Des biens communs dont le centre de gravité est pour l'instant partout, ou tout du moins à chaque endroit dans ou pour lequel se pose la question d'une appropriation possiblement pérenne ; mais des biens communs dont la circonférence n'est pour l'instant … nulle part.
**sur la notion d'une industrialisation ad libitum de la copie, Ted Nelson au travers du concept de Versioning avait été une fois de plus, parfaitement visionnaire. Dans ses travaux, le versioning désigne : "l’ensemble des manières de gérer,
indépendamment de tout niveau d’échelle, les procédures permettant de
rattacher différentes versions d’un même document à un (des) auteur(s),
tout en permettant à chacun de s’approprier tout ou partie des
documents produits par d’autres ou par eux-mêmes, et en assurant un
suivi des différentes modifications apportées.") Soit le dispositif technique auquel Lessig réfléchit sans le nommer, permettant d'éviter toutes les "insanities" subséquentes à une gestion de la copie dont la finalité serait uniquement de marchandiser l'accès à tout fragment (= à toute copie) généré(e) ou inscrit(e) dans un parcours de lecture ou de navigation. Bon là j'ai pas trop le temps de creuser, mais pour les masochistes souhaitant approfondir la notion de versioning, une (petite) partie de ma thèse lui est consacrée (pp. 203 à 205).
Très intéressant.
Mais « Etat » avec une majuscule svp
Salut Olivier,
Merci pour ce texte. On attend la suite.
Mais je ne te suis pas très bien sur ta défense des «biens communs». Je ne vois vraiment pas comment cela peut éclairer les questions posées par Google, ni résoudre les éventuels problèmes. Cela me parait plutôt un leitmotiv du web bien pensant (cela juste pour chatouiller ton esprit polémique ;-).
Il me semble que, d’un point de vue documentaire, la question se pose ainsi : Google, par son moteur et son économie, a tendance à réduire l’ensemble du patrimoine documentaire à un seul texte. C’est une conséquence des «lectures industrielles». Inversement, les industries traditionnelles de contenu construites sur d’autres bases historiques, économiques et techniques, découpent le patrimoine en documents, verrouillés par le droit d’auteur, qui ne correspondent plus aux besoins de la société et à l’état des techniques.
Reste qu’à moins de refuser le partage collectif du sens, il est nécessaire de trouver un nouvel ordre documentaire, c’est à dire redocumentariser. Là est le défi juridique, économique, sémiotique et social. Cela ne se fera pas en un jour.
c’est un teasing pour le 30 mars ?
Et voila comme prophétisé par Olivier, Google Books devrait fin juin début juillet se transformer en place de marché de livres numériques sous le nom Google Editions, d’après Le Wall Street Journal. cf http://www.clubic.com/livre-electronique/actualite-338920-google-edition-librairie-numerique.html pour une analyse en français