Abstracts
Résumé
En France, le Hcéres place depuis 2018 la bibliométrie d’impact au coeur du processus d’évaluation des unités de recherche en STAPS. L’objectif de cet article est d’analyser les effets de ce virage en matière de valorisation des productions en sciences sociales, lors des évaluations de laboratoire comme sur les pratiques scientifiques des principaux intéressés. Les rapports d’évaluation de six laboratoires et douze entretiens réalisés auprès d’enseignants-chercheurs montrent que le nouveau guide des produits de la recherche altère en profondeur leur activité. Il est appliqué avec un zèle qui renforce la centralité du Scimago Journal Ranking, devenu outil normatif d’appréciation. Les enseignants-chercheurs concernés élaborent des stratégies duales pour composer avec ces nouvelles exigences tout en se ménageant des espaces d’expression et de reconnaissance alternatifs.
Mots-clés :
- évaluation,
- France,
- recherche,
- sciences sociales,
- STAPS
Abstract
In France, Hcéres has been placing impact bibliometrics at the heart of the evaluation process of sports sciences (STAPS) research units since 2018. This article sets out to analyze the effects of this shift in the valuation of social science productions, during laboratory evaluations as well as on the scholarly practices of the players involved. The evaluation reports of six laboratories as well as twelve interviews with teacher-researchers show that the new guide to the products of research profoundly alters their activity. It is applied with a zeal that reinforces the centrality of SCImago Journal Ranking, which has become a normative tool of appraisal. The teacher-researchers concerned are developing dual strategies in order to cope with these new requirements while also giving themselves alternative spaces for expression and recognition.
Keywords:
- evaluation,
- France,
- research,
- social sciences,
- STAPS
Resumen
En Francia, desde 2018 Hcéres sitúa la bibliometría de impacto al centro del proceso de evaluación de las unidades de investigación de STAPS. El objetivo de este artículo es analizar los efectos de este cambio en materias de la valoración de las producciones en ciencias sociales, tanto en las evaluaciones de laboratorio como en las prácticas científicas de los actores principales. Los informes de evaluación de seis laboratorios y doce entrevistas realizadas a docentes-investigadores muestran que la nueva guía de productos de investigación afecta profundamente su actividad. Se aplica con un celo que refuerza la centralidad del Scimago Journal Ranking, el cual se ha convertido en una herramienta de evaluación normativa. Los docentes-investigadores afectados desarrollan estrategias duales para hacer frente a estas nuevas exigencias, estableciendo al mismo tiempo, espacios alternativos de expresión y de reconocimiento.
Palabras clave:
- evaluación,
- Francia,
- investigación,
- ciencias sociales,
- STAPS
Appendices
Bibliographie
- Andrews, D. (2008). Kinesiology’s inconvenient truth and the Physical Cultural Studies imperative. Quest, 60, 45-62.
- Archambault, E. et Larivière, V. (2010). The limits of bibliometrics for the analysis of the social sciences and humanities literature. 2010 World social science report. Knowledge divides (p. 251‑254). Paris: UNESCO-International Social Science Council.
- Bardin, L. (2013). L’analyse de contenu. Paris: Presses Universitaires de France.
- Berry, M. (2009). Les mirages de la bibliométrie, ou comment scléroser la recherche en croyant bien faire. Revue du MAUSS, 33(1), 227-245.
- Charle, C. (2009). L’évaluation des enseignants-chercheurs. Critiques et propositions. Vingtième siècle. Revue d’histoire, 102(2), 159-170.
- CNRS (2015). Fiabiliser l’analyse des publications scientifiques: vers l’optimisation des choix de bases bibliographiques et d’outils de métrique. Paris: Direction de l’information scientifique et technique.
- Cronin, B. et Sugimoto, C. R. (dir.) (2014). Beyond bibliometrics: Harnessing multidimensional indicators of scholarly impact. Cambridge, MA: MIT Press.
- De Gaulejac, V. (2012). La recherche malade du management. Versailles: Éditions Quae.
- Dejours, C. (2003). L’évaluation du travail à l’épreuve du réel. Critique des fondements de l’évaluation. Paris: INRA Éditions.
- Dejours, C. (2011). La psychodynamique du travail face à l’évaluation: de la critique à la proposition. Travailler, 25(1), 15-27.
- Delgado-López-Cózar, E. et Cabezas-Clavijo, A. (2013). Ranking journals: could Google Scholar Metrics be an alternative to Journal Citation Reports and Scimago Journal Rank? Learned Publishing, 26(2), 101-114.
- Desrochers, N., Paul-Hus, A., Haustein, S., Costas, R., Mongeon, P., Quan-Haase, A., Bowman, T. D., Pecoskie, J., Tsou, A. et Larivière, V. (2018). Authorship, citations, acknowledgments and visibility in social media: Symbolic capital in the multifaceted reward system of science. Social Science Information, 57(2), 223-248.
- Deslauriers, J.‑P. (1991). Recherche qualitative. Guide pratique. Montréal, QC: McGraw-Hill.
- Falagas, M. E., Pitsouni, E. I., Malietzis, G. A. et Pappas G. (2008). Comparison of PubMed, Scopus, Web of Science, and Google Scholar: Strengths and weaknesses. The FASEB Journal, 22, 338‑342.
- Federation for the Humanities and Social Sciences (2017). Approaches to assessing impacts in the Humanities and Social Sciences. Ottawa, Canada. Repéré à https://www.federationhss.ca/sites/default/files/sites/default/uploads/policy/2017/impact_report_en_final.pdf
- Foulley, J.-L., Celeux, G. et Josse, J. (2017) Empirical Bayes approaches to PageRank type algorithms for rating scientific journals. Paris: INRIA Éditions.
- Gingras, Y. (2014). Les dérives de l’évaluation de la recherche. Du bon usage de la bibliométrie. Paris: Raisons d’agir.
- Gozlan, C. (2016). Les sciences humaines et sociales face aux standards d’évaluation de la qualité académique. Enquête sur les pratiques de jugement dans une agence française. Sociologie, 7(3), 261‑280.
- Harzing, A. W. et Alakangas, S. (2016). Google Scholar, Scopus and the Web of Science: A longitudinal and cross-disciplinary comparison. Scientometrics, 106(2), 787-804.
- Herreros, G. et Milly, B. (2004). Les conditions de pérennisation de la qualité à l’hôpital: de l’intérêt de la latéralité. Gestions hospitalières: la revue du management hospitalier, 188, 809‑815.
- Hicks, D. (2005). The four literatures of social science. Dans H. F. Moed, F. Henk, W. Glänzel et U. Schmoch, Handbook of quantitative science and technology research (p. 473-496). Dordrecht: Kluwer Academic.
- Hicks, D., Wouters, P., Waltman, L., de Rijcke, S. et Rafols, I. (2015). Bibliometrics: the Leiden Manifesto for research metrics. Nature, 520, 429-431.
- Higher Education Funding Council for England (2014). The metric tide. Independent review of the role of metrics in research assessment and management. Repéré à http://www.hefce.ac.uk/rsrch/metrics
- Huberman, A. et Miles, B. (1991). Analyse des données qualitatives: recueil de nouvelles méthodes. Bruxelles: De Boeck.
- Larivière, V. et Sugimoto C. R. (2018). Mesurer la science. Montréal, QC: Presses de l’Université de Montréal.
- Manana-Rodriguez, J. (2015). A critical review of SCImago Journal & Country Rank. Research Evaluation, 24, 343-354.
- Mongeon, P. et Paul-Hus, A. (2016). The journal coverage of Web of Science and Scopus: A comparative analysis. Scientometrics, 106, 213-228.
- Morozov, E. (2013). To save everything, click here. The folly of technological solutionism. New York, NY: Public Affairs.
- Mukamurera, J., Lacourse, F. et Couturier, Y. (2006). Des avancées en analyse qualitative: pour une transparence et une systématisation des pratiques. Recherches qualitatives, 26(1), 110‑138.
- Nizet, I. (2013). Compte rendu de [Paquay, L., Van Nieuwenhoven, C. et Wouters, P. (dir.) (2010). L’évaluation, levier du développement professionnel. Tensions, dispositifs, perspectives. Bruxelles: De Boeck]. Nouveaux cahiers de la recherche en éducation, 16(2), 186-190.
- Pansu, P., Dubois, N. et Beauvois, J.-L. (2013). Dis-moi qui te cite et je saurai ce que tu vaux. Que mesure vraiment la bibliométrie? Grenoble: Presses Universitaires de Grenoble.
- Pontille, D. et Torny, D. (2013). La manufacture de l’évaluation scientifique. Algorithmes, jeux de données et outils bibliométriques. Réseaux, 177, 25-61.
- Robert, P. (2014). Critique de la logique de la «gestionnarisation». Communication & organisation, 45, 209-222.
- Schöpfel, J. et Prost, H. (2009). Le JCR facteur d’impact (IF) et le SCImago Journal Rank Indicator (SJR) des revues françaises: une étude comparative. La psychologie française, 54(4), 287-305.
- Schreiber, M. (2013). Uncertainties and ambiguities in percentiles and how to avoid them. Journal of the American Society for Information Science and Technology, 64(3), 640-643.
- Sivertsen, G. (2016). Patterns of internationalization and criteria for research assessment in the social sciences and humanities. Scientometrics, 107(2), 357-368.
- Soulé, B. et Chatal, R. (2018). Évaluer la recherche dans une section universitaire interdisciplinaire : les effets de la conversion bibliométrique au sein des sciences et techniques des activités physiques et sportives (STAPS). STAPS, 122(4), 929.
- Tiberghien, G. et Beauvois, J.-L. (2008). Domination et impérialisme en psychologie. Psychologie française, 53, 135-155.
- Wagner, U. (2016). The publishing game. The dubious mission of evaluating research and measuring performance in a cross-disciplinary field. Scandinavian Sport Studies Forum, 7, 63-88.
- Zarka, Y. C. (2009). L’évaluation: un pouvoir supposé savoir. Cités, 37(1), 113-123.