(Titre alternatif de ce billet : "Les oeuvres orphelines ont désormais un père : il s’appelle Google")
Nouvel épisode décisif à plus d’un titre dans la saga Google Books. Pour bien comprendre ce qui suit, rappelons d’abord que Google Books est tout sauf une "danseuse", c’est même un projet consubstantiel à l’existence même de la firme.
Bref rappel des faits :
- Tout commence avec l’accord passé avec des bibliothèques pour la numérisation d’ouvrages dans le domaine public. Numérisation "à fonds perdus" et numérisation initialement garantie sans publicité ni téléchargement.
- Deuxième volet : les ouvrages sous droits. Google passe des accords avec les éditeurs pour ne donner à voir que des extraits choisis des oeuvres sous droits.
- Troisième volet : les oeuvres orphelines : c’est ici (comme ailleurs) la règle de l’opt-out qui est choisie et imposée par Google.
- En 2005 les deux plus grosses associations américaines d’éditeurs (AAP) et d’auteurs (Authors Guild) engagent une action en justice (.pdf) contre Google Books. En gros, elles réclament un système d’opt-in en lieu et place du système d’opt-out pour les ouvrages sous droits ET les oeuvres orphelines.
Depuis 2005 :
- Google continue de numériser dans les bibliothèques, y compris en France.
- Dernier rebondissement : la création du Hathi Trust pour contrer ce qui a tous les aspects d’un monopole avec les risques afférents quand ce monopole est celui d’une société commerciale (changement d’actionnariat, faillite, réorientation stratégique …).
- De son côté la BnF intègre désormais dans son Gallica2 des ouvrages sous droits. Voilà pour le volet bibliothèques / éditeurs.
Et donc depuis aujourd’hui 28 Octobre 2008, un accord vient d’être trouvé dans le cadre du procès opposant Google aux auteurs et éditeurs américains. Les faits en question relatés dans une syntaxe très Maîtréolassienne :
- "recours collectif entamé par des auteurs et éditeurs,
accusant Google d’avoir porté atteinte à leurs droits d’auteurs et à
ceux d’autres détenteurs de droits de Livres et de Hors-textes
(cliquez sur les termes pour consulter leurs définitions), en
numérisant les livres en question, en créant une base de données
électronique et en affichant des extraits sans l’autorisation préalable
des détenteurs des droits d’auteurs concernés. Google nie les faits. Ce
procès est intitulé The Authors Guild, Inc., et alii vs. Google Inc., Affaire n° 05 CV 8136 (S.D.N.Y.)" (Source)
Et donc qu’est-ce qui va changer ?
- Tout est expliqué là en en plus c’est en français. Donc je vais pas recopier. Bon d’accord.
- "Google pourra continuer à numériser des Livres et Hors-textes
soumis aux copyrights ou droits d’auteurs, à développer une base de
données électronique de livres, à vendre des abonnements à ladite base
de données à des écoles, sociétés ou autres institutions, à vendre des
livres aux utilisateurs et à intégrer des annonces aux pages de
présentation de livres." Donc Google continuera de faire ce qu’il a toujours fait, et ce qui jusqu’ici posait justement problème. Sauf que maintenant, ça ne pose plus problème. Et voici pourquoi. - "Google versera aux détenteurs de droits 63 %
des revenus générés par lesdites utilisations, via un registre de
droits sur les livres ("Registre"), qui distribuera ces revenus aux
détenteurs de droits des livres et hors-textes, énumérés dans le
Registre."
Une question d’argent.
- Au final Google déboursera 125 millions de dollars.
- Pour les détenteurs de droits : 45 millions de dollars. "Google versera en outre la somme de 45 millions de USD afin de
résoudre les procès en cours entamés par les détenteurs de droits dont
Google a numérisé livres et hors-textes sans leur permission à compter
de la date à laquelle les membres du recours doivent notifier les
parties s’ils souhaitent se retirer du Règlement de recours collectif
("Date limite d’exclusion")." - Pour mettre en place le fameux "registre" recensant les droits directs et indirects : 34,5 millions de dollars. "Google débourse la somme de 34,5 millions de USD pour l’établissement
du Registre et les autres coûts liés à la gestion du Règlement de
recours collectif. Le Registre permettra entre autres de situer les
auteurs, éditeurs et autres détenteurs de droits et de verser auxdits
détenteurs de droits les revenus générés par les utilisations de Google." - <Update de 5 minutes plus tard> Voir le commentaire aussi malicieux qu’éclairant d’Alain Pierrot </Update>
Préserver l’Opt-out à tout prix.
Tel était l’enjeu principal de ce procès pour Google. Il y a mis le prix. Il a gagné.
- "Les détenteurs de droits auront la possibilité d’interdire à Google
tout usage avec présentation de leurs livres ou hors-textes. (…) Les détenteurs de livres en librairie devront mentionner sur le
Registre s’ils souhaitent que leurs livres soient utilisés par Google
pour l’un ou l’autre de ces usages avec présentation. Les livres
épuisés seront automatiquement inclus dans tous les usages avec
présentation jusqu’à mention contraire de(s) détenteur(s) de droits du
livre."
OK mais CONCRETEMENT pour les usagers, ça va changer quoi ?? Plein de choses. Le billet de Dan Cohen en livre une belle synthèse :
- Plus d’ouvrages (mais lesquels ?). Primo l’essentiel de l’accord porte sur les oeuvres orphelines ("in-copyright but out-of-print books"). C’est à dire sur une part gigantesque d’ouvrages. Et notamment d’ouvrages académiques (universitaires).
- A moindre coût (mais lequel ?). Deuxio : le prix des marchés des "bouquets numériques" en bibliothèque risque de bouger pas mal, vu que maintenant, c’est clair, Google entre sur ce marché : "We’ll also be offering libraries, universities and other organizations
the ability to purchase institutional subscriptions, which will give
users access to the complete text of millions of titles while
compensating authors and publishers for the service. Students and
researchers will have access to an electronic library that combines the
collections from many of the top universities across the country.
Public and university libraries in the U.S. will also be able to offer
terminals where readers can access the full text of millions of
out-of-print books for free." Les éditeurs de la place (Elsevier et consorts) doivent actuellement être en pleine réunion de crise 🙂 Le modèle ne change donc pas : les bibliothèques achèteront un bouquet numérique accessible gratuitement pour leurs utilisateurs. Comme le souligne Dan Cohen, ce qui va changer (mais nul ne sait encore comment) c’est toute la politique documentaire et la politique d’acquisition des bibliothèques et des consortiums les représentant dans ces nouvelles négociations avec ce nouvel acteur de poids … - A une échelle jamais atteinte. Tertio : Google évoque un accès computationnel à l’ensemble de la base Google Books. "In addition to the institutional subscriptions and the free public
access terminals, the agreement also creates opportunities for
researchers to study the millions of volumes in the Book Search index.
Academics will be able to apply through an institution to run
computational queries through the index without actually reading
individual books." En clair : on ne pourra pas LIRE gratuitement tous les livres, mais on pourra gratuitement effectuer des recherches et des requêtes (scientifiques) sur l’ensemble du corpus Google Books. Vertigineux. Je connais des historiens, des linguistes, des informaticiens, des sociologues, des utilomanes qui devant une telle nouvelle, vont sauter au plafond comme des gamins devant une PS3. <Digression mais pas tant que ça> Je vous disais en entame de ce billet que Google Books est consubstantiel à l’histoire de la firme. De fait, à l’époque où ils étaient étudiants, Brin et Page avaient mis au point un projet de recherche pour explorer l’ensemble des ouvrages de leur bibliothèque universitaire. Ils viennent de concrétiser leur rêve à l’échelle de la planète. Je vous disais également dans d’autres billets que si Google Books était – à mon avis – si capital pour la firme, c’était probablement en tant que service-corpus servant de passerelle à d’autres services comme la traduction automatique, ou l’amélioration du requêtage et du ciblage utilisateur. En clair, avec la possibilité offerte aux chercheurs du monde entier de disposer "d’accès computationnels", toutes les requêtes seront adressées "sur" les serveurs Google, qui pourra donc lire à livre ouvert dans une partie significative des projets de recherche de l’ensemble de la planète, et pourra donc naturellement en bénéficier. Une sorte d’espionnage académico-industriel avec l’aval des différentes parties. </Digression>
Une petite analyse peut-être ?
Regardons les choses du côté de ce qu’on appelle la chaîne du livre.
- Libraires = au mieux grands perdants, au pire petits joueurs. L’analyse proposée par Paul Courant me semble très judicieuse. Son billet est intitulé : "De la bibliothèque universelle, à la librairie universelle." Je crois que c’est clair 🙂 Plus globalement, les libraires ont vraiment du souci à se faire. Vraiment. V-r-a-i-m-e-n-t. Mais vous me direz, ça fait longtemps qu’ils sont avertis.
- Bibliothèques : ni gagnants ni perdants. Les bibliothèques en général peuvent se réjouir. Elles peuvent se réjouir sur le fond(s) : il continue d’être numérisé par Google. Et se réjouir sur la forme : les nouveaux services développés, la nouvelle offre numérique ainsi constituée (cf supra), tout cela pourra être offert gratuitement à leurs usagers. Au niveau local (et national avec Gallica), la question est de savoir s’il leur restera encore beaucoup d’usagers vu le fonds et les services que va désormais offrir Google :-(( Bref, elles vont devoir se (re)positionner sur un certain nombre de services numériques et continuant de faire leur boulot ("faire collection") et en négociant avec un nouveau partenaire commercial cette fois : Google. Moralité : le facteur sonne toujours deux fois. La première c’est pour vous faire une offre de numérisation gratuite. Et la seconde, c’est pour vous vendre une offre de numérisation payante.
- Les éditeurs : Gagnants à court terme. Perdants à moyen terme. Y’a pas photo comme disait l’autre. Les éditeurs étaient de toute façon coincés dans leur propre procès. Dès le départ de l’action en justice (2005), ils savaient que Google ne ferait pas machine arrière. Eux-mêmes d’ailleurs n’y avaient pas intérêt. L’accès et la valorisation numérique de Google Books était en effet très vite devenue leur premier rabatteur. Et quand on part à la chasse, on n’attaque pas son rabatteur en justice. Ce procès n’était donc que celui des apparences : faire bonne figure en prétextant défendre les droits des auteurs, et espérer que tout cela finirait par une négociation commerciale avec un gros gâteau pour les éditeurs et une jolie cerise que les auteurs se partageront. Cela prît certes un peu plus de temps que prévu (3 ans donc), mais au final, c’est tout de même 45 millions de dollars qui tombent. Je préfère ne pas savoir combien seront effectivement reversés aux auteurs 🙁 Mais la deuxième victoire des éditeurs est ailleurs : l’état américain étant incapable (au même titre que l’état Français mais pas pour les mêmes raisons) de mettre en place un registre ou une base de donnée des oeuvres orphelines, et les éditeurs n’ayant pas très envie de se coltiner ce sale et surtout coûteux boulot, c’est Google qui va "faire le job". Et c’est tout bénéf’ pour lesdits éditeurs. Sauf que ce que les éditeurs ne mesurent peut-être pas encore c’est que de la même manière qu’en acceptant pour 45 millions de dollars de mettre tous les oeufs de leur numérisation dans le panier Google, en laissant Google mettre en place et gérer le Registre des oeuvres, ils se font dans le même temps déposséder de ce qui demain, leur aurait peut-être permis de gagner leur prochain procès contre la firme. "Quel prochain procès ?!?" Et ben tout simplement celui qui ne manquera pas d’arriver quand après être devenu bibliothécaire et désormais libraire, Google deviendra éditeur. Je lui laisse deux ans. Deux ans maximum.
Il était long ce billet. Intéressant mais long. On se fait un petit résumé ?
Pas de problème. Mieux qu’un résumé, un générique de film. Dans le rôle de la mission régalienne d’établir et d’entretenir un répertoire national et/ou international des oeuvres sous droits : Google. Dans le rôle du libraire : Google. Dans le rôle du bibliothécaire qui fait collection : Google. Bientôt dans le rôle de l’éditeur : Google. Dans le rôle du prestataire commercial venant vendre (bientôt) le plus gros bouquet numérique de la planète : Google.
Le scénario était écrit et connu depuis au moins trois ans. Le film est depuis en tournage et nous en sommes aux toutes dernières séquences. Ce qu’on appelle le climax. Va y’avoir du sang, des larmes, des regrets tardifs, des incompréhensions hypocrites et malvenues. Ce qui est sûr c’est que pour ce film là, il est déjà trop tard pour lui écrire un Happy End.
Mais il n’est peut être pas trop tard pour écrire un autre scénario.
<Update de 10 minutes plus tard et du lendemain …>
Sergei Brin interviewé par le Wall Street Journal : le "registry" des livres n’est qu’une étape. Films et musique sont les prochaines (étapes)
Plein d’infos supplémentaires sur PCMag (mais pas le temps de traduire) :
- "The nation’s 16,500 public
libraries "would be offered a free, online portal to this trove of
books," Aiken said. "Patrons would be able to print an unlimited number
of pages for a reasonable per page fee."" - "When someone purchases access to a book via Google Print, Google will
receive 37 percent and the publisher and author will split the
remaining 63 percent. Authors and publishers will also be charged a
registry administration fee. That fee has not yet been set, but will
likely be between 10 to 20 percent of their 63 percent earnings. Google will share the ad revenue earned from this endeavor in a similar
37-63 percent manner. Ads will be displayed along the side or bottom of
the page, but will not be included in the actual text of the books. Meanwhile, rights holders who agree to leave their books in the
database will receive about $200 per book, though that won’t be paid
out for several years, Drummond said. Institutional subscription fees will be based on usage. Google will
track access to its data anonymously and bill customers accordingly,
but specific details have not yet been announced"
Le prix de la synthèse la plus courte (et la plus claire) est attribué à l’unanimité à Michele Battisti de l’ADBS.
Peter Suber enfonce le clou du monopole étendu.
</Update>
(Sources en plus de celles sous les liens : Bibliobs, Alain Pierrot, Dan Cohen, Paul Courant, Philipp Lenssen, la page grand public sur l’accord en Français, la page plus professionnelle sur le même accord, billet du blog officiel de Google, communiqué de presse, // Temps de rédaction initial de ce billet : 2h15min // … Probables mises à jour à suivre … //)
waaa, tout lu, deux fois pour bien le croire. C’est juste énorme. Google vient de mettre ne oeuvre la première licence légale privée dédiée au livre, et à une échelle jamais atteinte. pfiou.
Attention, il y a une différence entre les œuvres orphelines à proprement parler (orphan works — dont on ne peut trouver les ayants droit) et les livres épuisés/en rupture d’impression sous copyright (out of print) dont on connaît les ayants droit.
Amusant ça : Google affirme que l’accord s’applique aux éditeurs et aux auteurs ‘du monde entier’ (livres numérisés sur le territoire des Etats-Unis). Wait & see.
Il y a confusion entre oeuvre orpheline et tirage épuisé, me semble-t-il.
http://www.cspla.culture.gouv.fr/CONTENU/rapoeuvor08.pdf
Je pense Alain que l’ambiguité va permettre à Google de passer des incunables au dernier Nothomb, en douceur : on ne sait pas donc on peut faire ce qu’on veut ; on n’est pas sûr donc dans le doute on va vous jeter un chèque pour le tout ; on a une meilleure idée, mais comme c’est compliqué on va faire un paquet grossier ; c’est injuste, donc on facture à l’acte ; c’est tellement pratique — pourquoi ne nous laissez-nous pas vous vendre tous les livres ? On fait ça si bien. . .
Je suis obligé d’être d’accord avec Olivier : Google est libraire et bibliothèque à la fois, et le sera complètement dans deux ans. Éditeur, oui et non : la correction et le traitement de texte, c’est déjà fait, et ça ne va que s’améliorer ; le choix, c’est ce que le moteur de recherche permet depuis le début et ça n’est pas dans le genre de la boîte de reproduire la dichotomie publie/refuse ; l’impression, ça sera certainement avec un système différent, probablement à la demande, éventuellement en rachetant Lulu.com — donc, moi qui lis à l’écran, je répondrais : oui, sauf que c’est déjà fait, mais les amoureux du papier ne vont pas attendre longtemps.
Ce qui est beaucoup plus stupéfiant, c’est que Brin vient de déclarer dans le WSJ que les livres, c’est un début et que l’audio et la vidéo arrivent incessement, le temps de finir de tout scanner et de vérifier les virgules dans le contrat avec les producteurs — inutile de dire combien cet accord est en train de servir de levier pour une négociation o combien plus importante.
“Rendre accessible toute l’information du monde”
12 ans, négociation commerciale comprise.
Salut Olivier,
Merci pour cette éclairante analyse. Il va en effet y avoir du mouvement. Les conséquences sont difficiles à prévoir, sinon pour Google de capter un peu plus l’attention des internautes sur ses services.
Mais je crois que tu vas un peu vite parfois sur l’analyse. Elsevier ne se trouve pas sur le même marché (les revues). Les libraires non plus (il s’agit des livres épuisés qui par définition ne sont plus en librairies). Et tu as oublié Amazon. Il y aura sans doute du mouvement dans tous ces joueurs, mais il est trop tôt pour conclure.
@Bertil
Il y a déjà un mécanisme prévu pour cela: le ‘safe harbor’, qui permet de réserver les droits.
Par ailleurs, les éditeurs pourraient aussi voir dans le dispositif une incitation à rééditer des ouvrages du domaine public avec un appareil critique apte à leur donner un copyright sur la nouvelle oeuvre et ‘sortir’ ces titres du domaine gratuit.
À propos de fonctions éditoriales (correction et traitement du texte), c’est à mon sens loin d’être acquis: la plupart des ouvrages scannés par Google exigent un coûteux travail de correction/amélioration pour dépasser le stade de l’identification d’occurrences suite à une requête (suffisant pour la vente d’espace publicitaire ou une forme de PLV) et passer au stade de la commercialisation directe, que ce soit en impression à la demande, en distribution numérique ou en objet de recherche.
@JM Salaun et Olivier
Les périodiques et l’édition de partitions sont explicitement hors du champ du projet de compromis.
D’accord avec JM Salaun pour prendre mieux en compte Amazon et les libraires. N’oublions pas que le système d’affiliation est très efficace. Quand un utilisateur arrive sur un livre via google recherche de livres, il peut l’acheter chez amazon, qui le vend en propre ou le propose via un libraire affilié. Pour les ouvrages encore présents en librairie, c’est un moyen précieux de dynamiser la ventre du fond de catalogue (= longue traîne). Il peut aussi localiser la librairie la plus proche de chez lui, il s’agit d’ailleurs pour cette dernière possibilité d’une intéressante possibilité pour les libraires locaux de retrouver une existence numérique…
Merci Olivier de ce superbe éclairage comme toujours. Google, comme le souligne malicieusement Alain, vient de passer un très bel accord pour pas cher. Surtout, comme tu le dis très bien, il vient de balayer la difficulté qui empêchait ce type de base d’exister, en conservant le principe de l’opt-out. Ce seront aux détenteurs de droits de se faire connaître (et reconnaître surtout). Ce qui dans le domaine de la propriété intellectuelle me semble tout de même une vraie révolution dont les conséquences vont être nombreuses, même – surtout – sur les autres législations qu’américaines.
Les perspectives computationnelles que va ouvrir la base sont effectivement affolantes et stimulantes (notamment comme tu le dis très bien, par exemple, pour servir de base pour améliorer ses algorithmes de traduction, en puisant dans les différentes traductions de mêmes livres).
La création du registre des droits (que Brin envisage déjà de prolonger dans d’autres domaines) est aussi une annonce importante. Voilà longtemps que les éditeurs l’envisage, sans jamais avoir eu le courage de s’y mettre. Souvent les bases de droits reversent aux producteurs ou éditeurs, pas aux ayants-droits directs, pas jusqu’aux individus. S’attaquer à ce problème, aller jusqu’au détail des individus était capital. En même temps, cela va permettre à Google d’accéder à cette base qui était jusqu’à présent cachée derrière le paravent des éditeurs et des producteurs. Google va pouvoir contacter directement les auteurs… C’est bien plus explosif que ça n’en a l’air.
Sur le reste de ton analyse, il est clair que cette offensive éloigne encore un peu plus les libraires de la vente de livres numériques. Pour les bibliothèques, il va vraiment falloir qu’elles tissent des alliances entre elles, mais il sera dur de se battre face aux offres computationnelles de Google. Quant aux éditeurs, voila longtemps qu’ils savent que leur contenus ont une capacité d’exploitation en ligne qu’ils n’ont pas saisit. Comme tu le dis très bien, en construisant son registre, Google prépare le terrain pour devenir éditeur/producteur. Avec le registre, Google se distingue d’Amazon ou d’Apple : la finalité n’est pas la même.
Une petite remarque sur l’idée d’utilisation pour l’algorithme de traduction. Je ne suis pas spécialiste, mais c’est une vieille réminiscence des discussions de Roger.
Je crois qu’il faut faire une différence entre la traduction littéraire (même si tous les livres en question ne relèvent pas de la littérature, ils relèvent d’une lecture-écriture lente) et la traduction utilitaire.
Ce à quoi pourrait servir la confrontation des traductions serait plutôt de transformer le style d’un texte quelconque en un texte «à la manière de..» un auteur (Proust, Victor Hugo, Gabrielle Roy, Boris Vian, pour ne parler que de francophones..) ou un genre (roman d’aventure, sentimental, manuel, livre de cuisine etc..) et ceci dans toutes les langues.
@Hubert
Je ne pense pas que le registre des droits permette à Google d’accéder véritablement aux auteurs : on est en pays de copyright, pas de droit d’auteur, et la recherche de propriété pour la majorité des livres s’arrêtera à l’identification du détenteur du copyright. À charge pour celui-ci de voir ce qu’il fait des redevances reçues au titre de l’exploitation par Google.
Un point qui pose évidemment problème pour l’adaptation de ce compromis dans les pays de droit d’auteur.
Et avant de regarder du côté “édition”, il y a lieu d’examiner en détail le projet de compromis pour la diffu/distribution des ouvrages, et les conditions proposées : Google libraire avant d’être éditeur (sans pour autant oublier les risques pris par Google et son investissement pour la numérisation, une opération de ‘redocumentarisation’ à valeur ajoutée, dont je ne vois pas de revendication éditoriale à première lecture du protocole).
@JM Salaün
Pour la traduction automatique, il s’agit désormais d’une tendance forte en TAL. Le recours à des ‘alignements’ de texte long appuyés sur des corpora gigantesques donnerait apparemment de bien meilleurs résultats que les approches lexiques+grammaires, aussi bien pour la traduction utilitaire que pour des ambitions plus fortes.
Ça donne lieu à de la recherche aussi bien chez Google (+ PARC) que chez Microsoft et ailleurs. (Cf. le lien proposé par Jean Véronis,
http://blogs.msdn.com/translation/archive/2008/10/25/politically-incorrect-machines.aspx .)
@tous: aucune malice soulignée ou non dans mon rappel des montants en jeu et de la portée du projet — ce serait mal me connaître et confinerait à la calomnie de penser que je pourrais être, un jour, ironique!
Il me semble qu’il faut évaluer la situation et ses effet immédiats (là où ils sont mesurables) avant de projeter des intentions et faire une prospective à trop long terme; ou bien il faut procéder méthodiquement à rebours, à partir d’une situation imaginaire (style expérience de pensée) et décliner les facteurs nécessaires à sa viabilité, année par année jusqu’au présent.
Je dis juste bravo à Google…
En tant qu’entreprise, ils se développent qui peut leur jeter la pierre ?
Quand on voit que deux bibliothèques de communes voisines n’arrivent même pas à bosser ensemble… On peut se dire que des projets de numérisation publique auraient pu voir le jour et être vraiment pertinents. De vrais accords auraient pu être signés avec Google…
Le problème c’est que nous sommes dans des professions “frileuses” qui ne savent absolument pas innover mais prennent le train en marche. Ou pire critiquer sans rien mettre en place. Moi je dis une chose :
Je suis pauvre, je n’ai pas les moyens d’acheter candide de Voltaire… Ma bibliothèque à prêté son exemplaire, orphelin depuis des années, à un élève qui découvre ce livre sur son programme scolaire !!!!!!
je lui donne une solution, elle s’appelle google books (mais çà l’usager il s’en fout que ça soit google ou Tartampion qui lui donne, ce qui compte c’est la réponse apportée à sa demande documentaire).
En retour il me sourit et nous sommes tout deux satisfaits.
Dites moi ce qui nous à empêché d’avoir les même projets que Google à part nous même notre frilosité, notre manque d’initiative et j’en passe ???
Celà aurait peut être été judicieux que les “professionnels” se réveillent avant…
Google n’est pas Monsanto et je suis persuadé qu’il y aurait eu des possibilités de négociations et d’aller même beaucoup plus loin que Google grâce à notre expertise professionnelle et notre longue expérience en la matière. Nous n’avons pas su “capitaliser” nos compétences, communiquer sur nos missions, nos moyens …..
Dommage pour nous et tant mieux pour google, leurs actionnaires et salariés. Pour moi ce qui compte c’est les résultats et les actions … Grâce à cette initiative, beaucoup de gens peuvent accéder à des ressources qui ont ainsi gagné en visibilité et surtout en utilité !!! Car à quoi sert le meilleur livre si personne à part un obscur bibliothécaire ne sait comment y accéder ???
La pierre c’est à nous que nous devons la jeter pas à Google, il ne font que leur métier : développer la rentabilité de leur entreprise, qui s’en étonne ? Leur domaine étant la recherche d’infos il me paraît logique qu’ils se développent dans ce sens.
@ A. Pierrot,
Je connais ces projets d’alignement de textes qui ne datent pas d’hier. Les documents de l’Unesco traduits dans de nombreuses langues et librement accessibles ont déjà largement servi à cette fin.
Simplement, la traduction de livres relève d’une pratique différente d’écriture, plus interprétative. Mais je ne suis pas spécialiste, je ne fais que rapporter des débats plus anciens menés au RTP-DOC.
@ bibloroots
«Dites moi ce qui nous à empêché d’avoir les même projets que Google à part nous même notre frilosité, notre manque d’initiative et j’en passe ???»
Dépense de Google pour ses datacenters en 2007 : 2,4 Mds USD
Est-ce un argument suffisant ?
@ biblioroots :
Le Candide, vous auriez pu le trouver sur Gallica aussi 🙂
Comme le souligne JMS, bien peu d’acteurs, privés ou publics, ont les moyens d’engager des campagnes de numérisation à cette échelle industrielle, jamais atteinte jusqu’ici.
En revanche, on peut s’étonner qu’aucune bibliothèque en France n’ait tenté une simple expérimentation pour évaluer le process industriel et le modèle proposé – sauf BM Lyon qui s’est réveillée tout récemment.
Le problème c’est que Gallica, seule la profession connait… et encore, alors que Google à pignon sur Web…
Gallica les gens arrivent à peine à se souvenir du nom … Alors savoir ce qu’on y trouve c’est autre chose !!!!!!
Concernant le cout des data center de Google, pour moi ce n’est pas un argument…
Google c’est une histoire de développement personnel et d’entreprise, google a commencé avec très peu de moyen (certainement pas 120 milliards !) mais beaucoup d’idées, une réelle stratégie de développement et de vraies compétences…
Ceux qui ont des idées innovantes dans “le public” ne sont pas forcément bien perçus, alors que dans le privé c’est un atout qui est recherché… CQFD
Les moyens sont secondaires… Et je ne peux vous apprendre que les projets les plus ambitieux ne se font pas sans unité, sans investissement et surtout sans prise de risque. Ils se construisent sur la durée et on part petit pour arriver grand.
Je rejoins Pierre S qui souligne le fait qu’on a aucune idée du process réelle de ses couts de mise en œuvre etc…
Ce qu’on ne fait pas d’autres le font à notre place et franchement ils ont bien raison, car dans la sphère économique les considérations d’ordre philosophique passe en second, ce qui compte c’est l’efficacité.
On est d’accord ou pas mais c’est un fait…
Nous nous avons le temps de passer des heures à bloger et commenter l’action de “ceux qui agissent”. C’est une posture “luxueuse” que notre statut protégé nous permet.
Beaucoup de choses vues sur le web auraient pu être inventées par la profession, Amazon aurait du être inventé par un libraire par exemple.
Je n’ai qu’un mot : frilosité !!!
Plutôt que d’agir préférez laisser faire les autres et critiquer ensuite !!!!
Y’à que ceux qui ne font pas qui ne se trompent jamais…
Bonjour,
Il y a plein de choses à dire sur cette opération qui me semble un tournant majeur. Je trouverai peut être le courage de m’y lancer, mais aujourd’hui, en marge de ce qui est dit dans le texte et les commentaires, je voudrais ajouter deux petites choses :
1 – l’inscription au registre, c’est en réalité la fin de la Convention de Berne. Je m’étonne que personne ne l’ait dit.
C’est le retour à la Loi US d’avant 1976
C’est aussi ce que préconise, avec par ailleurs pas mal de bon sens, Larry Lessig dans “Free Culture”.
Il y a donc un “débat dans le débat” à mener.
– donner une carte d’identité, c’est assurer le pouvoir.
Pour qu’un produit chimique puisse franchir une frontière, il faut montrer son “Registry Number” afin que le gabelou puisse consulter la base de toxicologie. Un numéro attribué par l’entité privée “Association of Chemical Society” et devenu un sésame non seulement pour la recherche documentaire, dans toutes les bases chimiques et pharmaceutiques, et pas seulement Chemical Abstracts, mais aussi un outil de type “administratif”.
Amazon, qui a enrichi la base de l’ISBN chèrement achetée, autour de son code “ASIN”, a bien du souci à se faire avec l’initiative de Google.
J’ai écrit un article complet sur cette question de la numérotation et les enjeux de pouvoir qui en découlent pour la conférence Documents et Société de 2006… il est disponible dans les actes (aux Editions de l’ADBS)… et peut être en ligne le jour où j’écouterai enfin Olivier et ouvrirai mon site personnel….
On revient sur toute ces questions en direct live lors du prochain Doc-Soc 2008, 16 et 17 novembre au CNAM de Paris.
Hervé Le Crosnier