« Les rédacteurs des revues vétérinaires devraient connaître les recommandations ARRIVE et REFLECT pour écrire les articles | Accueil | PLOS ONE : toujours en perte de vitesse ? Les auteurs préfèrent-ils retourner vers des revues plus prestigieuses ? »

jeudi 27 mars 2014

Commentaires

Flux Vous pouvez suivre cette conversation en vous abonnant au flux des commentaires de cette note.

Sylavin Bernès

J'ai lu l'article de Casadevall et Fang avec intérêt, car on y apprend des choses. Je ne savais pas que Science est classé 20ème pour son "impact". Je pensais qu’il était dans les cinq premiers. L’acronyme "CNS" doit donc être banni.
Pour ce qui est de la persistance du facteur d'impact, je crois qu'on peut déplacer un peu la question, et s'interroger plutôt sur son succès. Beaucoup a déjà été dit à ce sujet, mais je voudrais signaler deux points:
1) C'est un facteur très simple à calculer, et le résultat est numérique et sans unités de mesure. C'est parfait pour "classer". Trop parfait même, puisqu'au moins un journal a un facteur d'impact infini, et un nombre considérable de revues ont un impact nul. Or, si l'intervalle de mesure est infini, le résultat n'a plus d'intérêt...
2) La dénomination "Facteur d'impact" a énormément joué pour son succès. Je ne sais pas qui, de E. Garfield ou Thomson Reuters, l'a nommé ainsi, mais le résultat est là: le chercheur voit un "impact", un coup de poing, et parfois un coup de poignard dans le dos des collègues (situation extrême, certes, mais qui doit bien se présenter de temps en temps dans les dossiers de promotion). Or, ce critère numérique ne mesure absolument pas l'influence ou le prestige d'un journal, qui sont des notions très subjectives, et difficilement mesurables. Dire que "Nature" est un journal plus prestigieux que "Physical Review" est aussi bête que prétendre que "Le Monde" est mieux que "Pif gadget" (car c’est justement l’inverse. Hahaha !).
Mais le vent tourne. Il y a quelques années, il était amusant de voir les chercheurs essayer de trouver sur internet cette fichue liste des facteurs d'impact, car c'était alors un secret bien gardé par Thomson Reuters, pour des raisons économiques tout à fait louables. Je me souviens en particulier d'un directeur de fac, qui nous envoya triomphalement par email un énorme fichier excel, probablement acquis d'une manière que la morale réprouve, contenant les facteurs d'impact de dizaines de milliers de revues. Un erratum suivit d’ailleurs de près, pour signaler que le fichier était périmé depuis 5 ans. Mais à présent, ce qui compte, c'est le H-index. Et il est tout aussi amusant d'épier les collègues qui suent sang et eau pour essayer de citer le papier qui se trouve juste sous la barre, à H-1 ou H-2, même s'il n'a aucun rapport avec les travaux en cours (ou pire, s'il s'est avéré depuis que le contenu du dit papier se basait sur un artefact, et que les résultats n'ont jamais été reproduits). Mais bon, peu importe la manière, pourvu qu'on incrémente son H d'une unité.
Curieusement, le détournement du H-index va dans le sens opposé de celui qu’on a vu pour le facteur d’impact. Le H-index, prévu initialement pour "indexer" un chercheur, est à présent calculé pour un institut, une université, voire un pays tout entier (si si !).
Et la Science dans tout ça ?

L'utilisation des commentaires est désactivée pour cette note.

Ma Photo

Sociétés de rédacteurs & recommandations