O.C.A. Open Content Alliance. Un groupement de 40 "partenaires" (dont Yahoo! et l’Internet Archive), "le" projet qui prétendait (et qui prétend toujours) être le seul à pouvoir concurrencer Google Books, et ce avec une stratégie en miroir (Opt-In pour l’OCA – on demande la permission avant de numériser – contre Opt-Out pour Google Books – on numérise d’abord et on vous donne un droit de retrait si vous n’êtes pas d’accord).
Le coeur de ces deux projets, c’est celui de la masse critique à atteindre. Et le nerf de la guerre c’est un peu le même que celui qui conditionne la parution de la feuille de match avant un match de poule décisif (France-Irlande par exemple) : laisser filtrer le moins d’informations possible. Résultat : pour ce qui est de connaître le nombre d’ouvrage réellement numérisés et accessibles dans l’un ou l’autre service, on en est réduit au jeu des devinettes et des approximations. Du côté de Google, on a une visibilité claire du nombre de bibliothèques participant au projet (27), et l’on peut inférer, sur la base des contrats liant les deux parties que la masse à numériser se situe entre 15 et 30 millions d’ouvrages. Quant à la masse aujourd’hui numérisée … mystère. Les estimations les plus répandues font état de quelques millions. Du côté de l’OCA (qui ne communique quasiment plus depuis son lancement en 2005 et dont logiquement personne ne parle donc plus, cf la page "revue de presse" de leur propre site), du côté de l’OCA donc, et hormis l’annonce datée du 20 décembre 2006 indiquant que 100 000 ouvrages étaient disponibles sur les serveurs d’Internet Archive (initiateur et acteur majeur du projet), rien de mieux à se mettre sous la dent, sauf l’évidence qu’ils disposent de moins d’ouvrages que sur Google Books. Et ce n’est pas la dernière interview de Brewster Kahle (en date du 15 Août 2007) qui nous offrira un scoop : on saura seulement que l’OCA compte actuellement 40 partenaires, dispose de centres de numérisation dans 6 villes, et numérise 12 000 ouvrages par mois soit 4 millions de pages (mais depuis quand ont-ils atteint ce rythme de croisière ? Mystère …). Ceci étant, l’article mérite lecture car il offre d’utiles informations notamment sur le chapitre de coûts, et rappelle en la martelant une idée simple : le monopole (ou quasi-monopole, ne chipotons pas) d’une société commerciale sur la numérisation d’un bien commun (= les livres libres de droits) pose problème, et continuera de poser problème tant que ladite société n’aura pas explicité la logique d’exploitation et d’usage qu’elle mettra à terme en place sur ce service, et qu’elle n’offrira pas des garanties sur le long terme pour lesdites conditions d’exploitation. "Oui mais est-ce que ce n’est pas en demander beaucoup à une société qui fait tout de même ça gratuitement ?" Si. C’est en demander beaucoup, mais ce n’est en aucun cas en demander trop.
Au sujet des « garanties à long terme », une analyse claire et précise de la situation est exposée par le CLIR (http://www.clir.org ), avec un appel à commentaires.
Cf. le billet de Jean-Michel Salaün :
http://blogues.ebsi.umontreal.ca/jms/index.php/2007/09/14/325-numeriser-a-grande-echelle