Résumés
Résumé
L’évaluation du contexte professionnel dans lequel s’inscrit un programme universitaire demeure un phénomène peu couvert par la littérature en éducation. Il n’en demeure pas moins que la pertinence sociale des programmes fait partie des critères d’évaluation au Québec (CREPUQ, 2004). Qu’en est-il des unités universitaires de formation continue qui offrent des formations professionnalisantes à des étudiants aux modes d’apprentissage non traditionnels ? Quel est le rôle du conseiller en évaluation de programme au sein de ces unités ? La démarche scientifique ayant servi d’assise à la conception d’un gabarit d’évaluation de l’environnement des programmes sera ici justifiée (Rossi, Lipsey et Freeman, 2003 ; Nadeau, 1988 ; Jorro, 2009 ; Scriven, 1996 ; Newcomer, Hatry et Wholey, 2015). Cet outil vise l’aide à la prise de décision (Dubois et Marceau, 2005) et à l’amélioration continue des programmes par voie d’une évaluation formative (Scriven, 1996 ; Rossi et al., 2003 ; Newcomer et al., 2015). Il sera également fait mention des critères d’évaluation retenus afin de mesurer l’écart entre la formation offerte et les attentes des milieux (savoir, savoir-faire, savoir-être, savoir-devenir et normes professionnelles).
Mots-clés :
- évaluation de programmes professionnalisants,
- conception d’un gabarit,
- vérification de la qualité
Abstract
Evaluating the professional context of a university program remains a phenomenon seldom covered by the literature on education. Nevertheless, it remains that, in Quebec, the social relevance of university programs is part of the evaluation criteria (CREPUQ, 2004). What about academic continuing education units that offer vocational training to non-traditional students? What is the role of the program evaluation advisor within these units? The scientific approach that served as a foundation for developing a template to assess program environments is justified (Rossi, Lipsey, & Freeman, 2003; Nadeau, 1988; Jorro, 2009; Scriven, 199; Newcomer, Hatry, & Wholey, 2015). This tool aims at supporting decision-making (Dubois & Marceau, 2005) and at assuring the continuous improvement of programs through formative evaluations (Scriven, 1996; Rossi et al., 2003; Newcomer et al., 2015). We will also mention the evaluation criteria used to measure the gap between the training provided and the expectations of the environments (knowledge, know-how, interpersonal skills, ability to adapt and professional standards).
Keywords:
- professionalized programs evaluation,
- template designing,
- quality verification
Resumo
A avaliação do contexto profissional no qual se inscreve um programa universitário continua a ser um fenómeno pouco considerado pela literatura em educação. A verdade é que a pertinência social dos programas faz parte dos critérios de avaliação no Quebeque (CREPUQ, 2004). E as unidades universitárias de formação contínua que oferecem formação profissionalizante aos estudantes através de modos de aprendizagem não tradicionais? Qual é o papel do consultor em avaliação de programas no âmbito dessas unidades? A abordagem científica que serviu de base para o desenho de um modelo de avaliação do contexto dos programas será justificada aqui (Rossi, Lipsey e Freeman, 2003; Nadeau, 1988; Jorro, 2009; Scriven, 1996; Newcomer, Hatry e Wholey, 2015). Esta ferramenta tem como objetivo auxiliar a tomada de decisão (Dubois e Marceau, 2005) e a melhoria contínua dos programas através de uma avaliação formativa (Scriven, 19961; Rossi et al., 2003; Newcomer et al., 2015). Também serão mencionados os critérios de avaliação utilizados para medir a diferença entre a formação oferecida e as expectativas das comunidades (saber, saber-fazer, saber-ser, saber-prever e normas profissionais).
Palavras chaves:
- avaliação de programas profissionalizantes,
- desenho de um modelo,
- verificação da qualidade
Parties annexes
Références
- Boutin, G. (1997). L’entretien de recherche qualitatif. Sainte-Foy (QC) : Presses de l’Université du Québec.
- Campbell, D. & Stanley, J. (1966). Experimental and quasi-experimental designs for research. Boston (MA) : Houghton Mifflin.
- Christians, C. (2011). Ethics and politics in qualitative research. In N. K. Denzin & Y. S. Lincoln (Eds.), Handbook of qualitative research (pp. 139-164). Thousand Oaks (CA) : SAGE.
- Conseil supérieur de l’éducation. (2012). L’assurance qualité à l’enseignement universitaire : une conception à promouvoir et à mettre en oeuvre. Québec (QC) : Gouvernement du Québec.
- Cook, T. & Campbell, D. (1979). Quasi-experimentation : Design and analysis issues for field settings. Boston (CA) : Houghton Mifflin.
- CREPUQ. (2004). Guide d’application de la politique de la CREPUQ relative à l’évaluation périodique des programmes existants. Montréal (QC) : CREPUQ.
- Crespo, M. (2013). L’université se professionnalise-t-elle au Canada ? Une analyse longitudinale des choix de programmes de formation. Montréal (QC) : Centre interuniversitaire de recherche en analyse des organisations.
- Dubois, N. et Marceau, R. (2005). Un état des lieux théoriques de l’évaluation : une discipline à la remorque d’une révolution scientifique qui n’en finit pas. Canadian Journal of Program Evaluation, 20(1), 1-36. Repéré à https://evaluationcanada.ca/system/files/cjpe-entries/20-1-001.pdf
- Denzin, N. K. & Lincoln, Y. S. (2011) The SAGE Handbook of qualitative research (4th ed.). Thousand Oaks (CA) : SAGE.
- Guba, E. & Lincoln, Y. (1989). Fourth generation evaluation. Newbury Park (CA) : SAGE.
- Henry, M. et Bournel Bosson, M. (2014). La professionnalisation dans l’enseignement universitaire : un processus dialogique ? Revue internationale de pédagogie de l’enseignement supérieur, 30(2). Repéré à http://journals.openedition.org/ripes/817
- Hurteau, M. (2009). Évaluation des programmes : ses visées ? qui la pilote ? qui y participe ? Dans L. Mottier Lopez et M. Crahay (dir.), Évaluations en tension : entre la régulation des apprentissages et le pilotage des systèmes (pp. 113-126). Louvain-la-Neuve (Belgique) : De Boeck Supérieur.
- Jorro, A. (2009). L’évaluation comme savoir professionnel. Dans L. Mottier Lopez et M. Crahay (dir.), Évaluations en tension : entre la régulation des apprentissages et le pilotage des systèmes (pp. 219-231). Louvain-la-Neuve (Belgique) : De Boeck Supérieur.
- Jorro, A. (2015). De l’évaluation à la reconnaissance professionnelle en formation. Revue française de pédagogie, 1(190), 41-50. doi : 10.4000/rfp.4697
- Lanarès, J. (2016, octobre). De la loupe au miroir : réflexions transversales sur le colloque. Communication présentée au Colloque G3 Qualité, Genève, Suisse.
- Levin-Rozalis, M. (2000). Abduction : A logical criterion for programme and project evaluation. Evaluation, 6(4), 415-432. doi : 10.1177/13563890022209406
- Nadeau, M.-A. (1988). L’évaluation de programme : théorie et pratique. Québec (QC) : Presses de l’Université Laval.
- Newcomer, K., Hatry H., & Wholey, J. (2015). Handbook of practical program evaluation. Hoboken (NJ) : John Wiley & Sons.
- Patton, M. (1997). Toward distinguishing empowerment evaluation and placing it in a large context. Evaluation Practice, 18(2), 147-163. doi : 10.1016/S0886-1633(97)90019-2
- Patton, M. (2015). Qualitative research and evaluation methods : Integrating theory and practice (4th ed.). Thousand Oaks (CA) : SAGE.
- Péladeau, N. et Mercier, C. (1993). Approches qualitative et quantitative en évaluation de programmes. Sociologie et sociétés, 25(2), 111-124. doi : 10.7202/001547ar
- Rossi, P., Lipsey, M., & Freeman, H. (2003) Evaluation : A systematic approach. Thousand Oaks (CA) : SAGE.
- Scriven, M. (1980). The logic of evaluation. Inverness (CA) : Edge Press.
- Scriven, M. (1991). Evaluation thesaurus (4th ed.). Thousand Oaks (CA) : SAGE.
- Scriven, M. (1996). Types of evaluation and types of evaluator. Evaluation Practice, 17(2), 151-161. doi : 10.1177/109821409601700207
- Shadish, W. R., Cook, T. D., & Leviton, L. C. (1991). Foundations of program evaluation theories of practice. Newbury Park (CA) : SAGE.
- Smits, P. et Leduc, N. (2013). Arrimer théorie et pratique dans les programmes de troisième cycle en évaluation des interventions : le cas de la santé. Mesure et évaluation en éducation, 36(3), 51-77. doi : 10.7202/1025740ar
- Stufflebeam, D. L., & Coryn, C. L. S. (2014). Evaluation theory, models and applications (2nd ed.). San Francisco (CA) : Jossey-Bass.
- Tourmen, C. et Droyer, N. (2013). Dialogues entre théories spontanées et théories académiques de l’évaluation. Mesure et évaluation en éducation, 36(3), 25-49. doi : 10.7202/1025739ar
- Université de Montréal. (2015). Guide d’application du protocole d’évaluation périodique des programmes d’études. Montréal (QC) : UdeM, Vice-rectorat aux affaires étudiantes et aux études. Repéré à https://bpq.umontreal.ca/fileadmin/bpq/documents/archives/Guide_applic_Protocole_2015.pdf