Avec l’arrivée en milieu universitaire de l’idéologie néolibérale adossée aux techniques du nouveau management public avec ses « tableaux de bord », surtout depuis les années 1990, les chercheurs et les administrateurs utilisent de plus en plus souvent les mots « évaluation », « facteurs d’impact », « indice h ». Le monde de la recherche et de l’enseignement supérieur particulièrement en Europe (voir, notamment, Abélard, 2003 ; Charle et Soulié, 2007 ; Schultheis, Escoda et Cousin, 2008 et Brisset, 2009) est ainsi la proie d’une véritable fièvre de l’évaluation. On veut tout évaluer : les enseignants, les professeurs, les chercheurs, les programmes de formation et les universités. Les indicateurs « d’excellence » et de « qualité » se multiplient sans que l’on sache toujours sur quelles bases ils ont été construits. Parmi les outils utilisés pour mettre au point les nombreux « indicateurs d’excellence » qu’une vision gestionnaire de l’enseignement supérieur et de la recherche tente d’imposer à tous comme une évidence, une place de choix est aujourd’hui accordée à la bibliométrie – méthode de recherche qui consiste à utiliser les publications scientifiques et leurs citations comme indicateurs de la production scientifique et de ses usages. Que ce soit pour classer les universités, les laboratoires ou les chercheurs, le calcul du nombre de publications et des citations qu’elles reçoivent sert souvent de mesure « objective » de la valeur des résultats de recherche des uns et des autres. Il est donc important de rappeler, même brièvement, les nombreux dangers que comporte l’usage simpliste qui tend à se répandre de l’utilisation mécanique d’indicateurs bibliométriques censés mesurer de façon « objective » la productivité et l’impact scientifique des chercheurs. Nous nous limiterons ici à analyser les usages des deux principaux indicateurs amplement utilisés tant par les chercheurs que par les administrateurs de la recherche, à savoir le « facteur d’impact » des revues et « l’indice h » des chercheurs. Nous nous pencherons aussi sur les effets pervers des usages simplistes de mauvais indicateurs sur la dynamique de la recherche scientifique, particulièrement dans le domaine des sciences humaines et sociales. Calculé et publié chaque année depuis 1975 par la compagnie Thomson Reuters dans le Journal Citation Reports à partir des données du Science Citation Index (SCI), le facteur d’impact (FI) d’une revue consiste en une simple moyenne arithmétique du nombre de citations obtenues par les articles d’une revue donnée sur une période de deux ans. Le FI caractérise donc des revues, et non pas des articles (Archambault et Larivière, 2009). Ainsi, le FI d’une revue pour 2006 est obtenu en divisant le nombre de citations que les articles publiés en 2004 et 2005 ont obtenues en 2006 par le nombre d’articles publiés au cours de ces deux années (2004 et 2005). Le choix d’une fenêtre courte de deux ans pour évaluer le FI n’est pas anodin. En effet, on a tendance à opposer les FI élevés des revues scientifiques (comme Science et Nature) aux FI très faibles des revues de sciences sociales. Or, cela est en grande partie un artefact dû au fait que la temporalité des sciences sociales est plus longue que celle des sciences de la nature. En effet, il suffit d’augmenter la fenêtre des citations à dix ans pour que les FI de ces disciplines atteignent des valeurs comparables à celles des revues scientifiques (Glänzel et Moed, 2002). Il est évident que les FI des revues de différents domaines ne sont pas comparables entre eux et que leur valeur numérique n’a pas de sens en elle-même, mais seulement si on les compare à des revues du même …
Parties annexes
Références
- Abélard (2003). Universitas calamitatum. Le Livre noir des réformes universitaires. Broissieux, Éditions du Croquant.
- Archambault, É. et Larivière, V. (2009). History of journal impact factor : contingencies and consequences. Scientometrics, 79(3), 639-653.
- Bhattacharjee, Y. (2001). Saudi universities offer cash in exchange for academic prestige. Science, 334(6061), 1344-1345.
- Bourdieu, P. (1996). Sur la télévision. Paris, Raisons d’Agir.
- Brisset, C.-A. (dir.) (2009). L’Université et la recherche en colère. Un mouvement social inédit. Broissieux, Éditions du Croquant.
- Charle, C. et Soulié, C. (dir.) (2007). Les Ravages de la « modernisation » universitaire en Europe. Paris, Syllepse.
- Conseil des académies canadiennes (2012). Éclairer les choix en matière de recherche : indicateurs et décisions. Ottawa, Conseil des académies canadiennes.
- Gallois, N. (2013). Les conséquences des nouveaux critères d’évaluation des chercheurs en science économique. L’Économie politique, 59(3), 98-112.
- Gingras, Y. (2008). La fièvre de l’évaluation de la recherche. Du mauvais usage de faux indicateurs. Montréal, Note de recherche du Centre interuniversitaire de recherche sur la science et la technologie.
- Gingras, Y. (2014, mise à jour 18 juillet). How to boost your university up the rankings. Récupéré le 21 avril 2015 du site : http://www.universityworldnews.com/article.php?story=20140715142345754.
- Gingras, Y. et Mosbah-Natanson, S. (2010). La question de la traduction en sciences sociales : les revues françaises entre visibilité internationale et ancrage national. Archives européennes de sociologie, 51(2), 305-321.
- Glänzel, W. et Moed, h.f. (2002). Journal impact measures in bibliometric research. Scientometrics, 53(2), 171-193.
- Hirsch, J.E. (2005). An index to quantify an individual’s scientific research output. Proceedings of the National Academy of Sciences, 102(46), 16569-16572.
- Pontille, D. et Torny, D. (2012). Rendre publique l’évaluation des SHS : les controverses sur les listes de revues de l’AERES. Quaderni, 77(1), 11-24.
- Saada, A. (2010). L’évaluation et le classement des revues de sciences humaines par l’Agence de l’évaluation de la recherche et de l’enseignement supérieur (AERES). Connexions, 1(93), 199-204.
- Schultheis, F., Escoda, m.R. et Cousin, P.-F. (dir.) (2008). Le Cauchemar de Humboldt. Les réformes de l’enseignement supérieur européen. Paris, Raisons d’Agir.
- Seglen, P.O. (1997). Why the impact factor of journals should not be used for evaluating research. British Medical Journal, 314(7079), 498-502.
- Simpson, W. et Herbert Emery, J.C. (2012). Canadian economics in decline : implications for Canada’s economics journals. Canadian Public Policy, 38(4), 445-470.
- Vanclay, J.K. (2011). An evaluation of the Australian Research Council’s journal ranking. Journal of Infometrics, 5(2), 265-274.
- van Leeuwen, T.N. (2008). Testing the validity of the Hirsch-index for research assessment purposes. Research Evaluation, 17(2), 157-160.
- Waltman, L. et van Eck, n.j. (2011). The inconsistency of the h-index. Récupéré le 21 avril 2015 du site : http://arxiv.org/abs/1108.3901v1.