La question de la mesure (qualitative et quantitative) de la science est d’abord celle de la validité et de la fiabilité des instruments de mesure le permettant. Au premier rang desquels les différents indices de citation. En ce domaine, les choses bougent notablement ces derniers temps :
- Thomson lance un forum de discussion pour débattre du facteur d’impact. Etant donné les enjeux économiques colossaux liés au marché de la citation scientifique et étant donné la position de leader de Thomson sur ce marché, on ne s’étonnera guère de pouvoir y lire des avis disons … partisans. Mais l’initiative reste louable et atteste que, lentement mais sûrement, les esprits évoluent et l’aspect monolithique de l’actuel facteur d’impact se fissure progressivement. (Communiqué de presse de Thomson)
- autre avancée significative vers une "science 2.0", le logiciel E-Prints se dote d’un module additionnel permettant aux usagers de commenter les articles scientifiques déposés sur les plateformes tournant sous E-Prints
- Eugène Garfield, le père de l’analyse bibliométrique, a lancé en Octobre dernier sa société et son logiciel baptisé "HistCite", "a bibliometric analysis and visualization software". Une version de démo de 30 jours est disponible gratuitement. Si quelqu’un à le temps d’aller tester et de nous faire un rapide retour … Si l’on croise ce nouveau logiciel avec les initiatives fleurissant du côté de chez Scopus (Scopus Citation Tracker), sans oublier naturellement les principes d’analyse bibliométriques offerts au grand public par Google Scholar, on constate que là encore, les anciens monopoles sont en pleine reconfiguration, que de nouveaux monopoles émergent, et que les pratiques bibliométriques en général sont en voie de démocratisation, ce qui n’est par ailleurs pas nécessairement (uniquement) un bien quand on observe actuellement comment certaines lois tentent de transformer ces indicateurs en autant d’outils managériaux en voulant à toute force, hors contextes disciplinaires, et de manière univoque, transformer en critères de performance des indicateurs qui n’ont de valeur … qu’indicative.
- sur son blog, Enro rappelle à raison l’opacité qui prévaut dans de trop nombreuses bases de données servant à l’établissement des différents facteurs d’impact. Et en ce domaine (opacité des données collectées), Google Scholar n’a malheureusement pas grand chose à envier à Thomson scientific. Mais Google Scholar ne structure pas (encore) un marché (de le citation), ni une économie (de la publication). Thomson scientific … si.
- sur ce même sujet (opacité de Thomson scientific), un récent article de Nature a vu monter au créneau 3 responsables de grandes revues scientifiques. Je n’ai pas lu l’article, mais d’autres l’ont chroniqué.
- Et puis dans la famille déjà évoquée plus haut de la-scientométrie-à-portée-de-tous, le "portail" Scimago (repéré grâce à Christophe Deschamps) propose, en s’appuyant sur les données issues de Scopus différentes visualisations et comparaisons entre différents indicateurs selon différents pays, différents journaux, etc … Si l’outil nécessite quelques minutes de prise en main pour bien "mesurer" toutes ses potentialités, les possibilités qu’il offre sont à proprement parler r-e-m-a-r-q-u-a-b-l-e-s !! (d’autant que vous pourrez récupérer nombre de ces données directement dans un fichier excel)
- Dans tout ce petit monde de la scientométrie, le bouleversement majeur (déjà en cours) viendra nécessairement de l’explosion des titres de journaux en Open Access : parmi d’autres indicateurs de poids, le portail DOAJ (Directory of Open Access Journals) vient d’ailleurs de franchir le cap des 3000 revues open access indexées et accessibles (rappel : les revues Open Access sont des revues avec un comité scientifique et des articles validés par des pairs et tout et tout et tout)
- Et puis dans le vaste domaine des publications scientifiques, il est une "brique" qui tend à occuper une place de plus en plus importante : c’est celle des archives institutionnelles (institutional repositories), qui permettent à une institution de collecter et de rassembler les différentes publications de l’ensemble de ses personnels ("publication" étant ici entendu au sens large : il peut bien sur s’agir de publications dans des revues scientifiques mais également de rapports de laboratoires, d’ouvrages, de thèses, etc, etc…) A ce sujet, Charles W. Bailey vient de diffuser un document court (10 pages) intitulé : "Institutional Repositories. Tout de suite" (.pdf) Ce document est structuré comme une FAQ (foire aux questions) : qu’est-ce qu’une archive institutionnelle ? A quoi cela sert-il ? Qui en possède ? Comment en déployer une ? etc … etc … mais chaque réponse est complétée par des références vers un ou deux articles scientifiques … sur la question. Bref à diffuser massivement (et à traduire …) pour que ce document se trouve rapidement entre les mains d’un maximum de nos présidents d’université et de nos décideurs ministériels.
Merci beaucoup pour ce récpitulatif !
Dans les outils alternatifs et gratuits on peut noter aussi le logiciel trop peu connu « Publish or Perish » de Harzing qui utilise les données de Google Scholar.
http://www.harzing.com/resources.htm#/pop.htm
Je me permets de vous signaler cette approche tout à fait novatrice de la littérature scientifique dont le facteur d’impact est pour l’instant difficile à évaluer proprement : http://www.scientistsofamerica.com
J’apprécie l’article. Etant convaincu du devenir des bases de données scientifiques en open access.
J’utilise assez souvent open-J gate. qu’en pensez vous ?
N’hésitez pas à m’indiquer s’il existe des bdd dédiées aux sciences de l’environnement (eau, air, déchets, pollution, énergie, bruit,….).
A quand les bibliothèques de données intuitives accessibles librement via le net et qui, à partir d’un ensemble de mots clés scientifiques vont permettre l’analyse d’un secteur d’activité voire de déceler les technologies porteuses.
Si vous en connaissez, n’hésitez pas, je suis preneur de toutes les bonnes informations.
à bientôt