Article body
L’idée même du diagnostic n’est pas neuve. On en retrouve des traces dans le contexte médical de l’Égypte antique il y a plus de 4500 ans (Deng, 1999/2005). En éducation, le diagnostic est bien plus récent et principalement associé au terme « évaluation » depuis les années 1970 (Marcoux, Fagnant, Loye & Ndinga, 2014 ; Mottier Lopez, 2015). En effet, bien que déjà utilisé dans les années 1920, comme nous le présenterons ci-dessous, ce concept d’évaluation diagnostique est attribué avant tout à Bloom, Hastings et Madaus (1971) pour sa diffusion. L’évaluation diagnostique, au départ, avait pour ambition d’effectuer la distinction entre « formatif » et « sommatif » en désignant l’évaluation qui vise à préparer une nouvelle action. Dans ce cadre, les années ultérieures ont vu cette notion prendre au moins deux directions se chevauchant, résumées par Hadji (1989) : l’une comme « objet » dans une fonction de régulation à visée formative, l’autre comme « forme » dans une fonction pronostique à visée d’orientation. En ajout, alors qu’à l’origine, dans le monde francophone, l’évaluation diagnostique se pratiquait au coeur de la classe entre un enseignant et ses élèves (Bloom, 1979), la fin des années 1990 a vu l’émergence d’évaluations externes centrées sur la mesure des acquis d’apprentissage des élèves, inspirées du modèle nord-américain (Mons, 2009). Puis, les années 2000 ont vu leur extension à une visée diagnostique (Dierendonck & Fagnant, 2014). Ainsi, pour exemple, le rapport d’Eurydice de 2009 présentait 12 pays ou régions pour lesquels des évaluations externes standardisées avaient également pour objectif de « contribuer au processus d’apprentissage des élèves à titre individuel en identifiant leurs besoins d’apprentissage spécifiques et en adaptant l’enseignement en conséquence » (p. 8). Il en est de même dans le monde anglo-saxon, où le profil diagnostique mettant en exergue les forces et faiblesses d’un apprenant est reconnu depuis longtemps. En effet, si, dès les années 1920, apparaissent les premiers tests standardisés (p. ex., le Standford Achievement Test), de nombreuses épreuves externes actuelles sont conçues sur le modèle des tests à référence critériée (criterion-referenced tests) développés à partir des années 1950, dans la lignée des travaux de Tyler (Madaus & Stufflebeam, 1988), mais aussi de Bloom (Stufflebeam, Madaus & Kellaghan, 2000). Pour le Québec, comme le soulignent Loye et Lambert-Chan dans leur article, si « des évaluations diagnostiques se développent à l’interne, à l’initiative d’enseignants dans leur classe ou de conseillers pédagogiques dans leur école » (p. 31) ou si des expérimentations existent (p. ex., Dionne & Laurier, 2010), le besoin de tests diagnostiques, non encore complètement opérationnalisé, reste d’actualité. Ce bref panorama du développement de l’évaluation dite diagnostique montre la diversité des possibles à ce sujet et ne serait pas complet si l’on prenait en compte son extension possible, comme le font Casanova et Demeuse dans cet ouvrage, en l’ouvrant par exemple non seulement aux apprenants, mais également aux évaluateurs.
Dès lors, nous conviendrons que l’évaluation diagnostique « sert à préciser un état, une situation par l’identification de paramètres significa- tifs » (Legendre, 2005, p. 397) permettant de faire ressortir les forces et les faiblesses d’un sujet ou d’un groupe de sujets (Tatsuoka, 2009) dans une visée de prévention lorsqu’elle est effectuée avant un apprentissage ou de régulation lorsqu’elle est effectuée durant une séquence d’apprentissages (Scallon, 1999).
En fin de compte, la complexité des contextes et les nombreux défis auxquels doivent faire face les acteurs de l’éducation engendrent une multitude de regards qui peuvent être portés sur l’évaluation diagnostique. D’abord, l’évaluation diagnostique à grande échelle, qui est davantage de l’ordre du regard « macro », est aujourd’hui au coeur des préoccupations de nombreux systèmes éducatifs (Marcoux et al., 2014 ; Rupp, Templin & Henson, 2010). Huff et Goodman remarquaient déjà, en 2007, que les besoins pour ce type d’évaluation étaient en forte croissance. Afin de répondre à ces demandes, de nombreux modèles de mesure ont été développés pour diagnostiquer les réponses des élèves à une évaluation : par exemple, la méthode rule space (Tatsuoka, 1983) et les modèles de classification diagnostique (Rupp et al., 2010). Ensuite, la demande accrue des milieux scolaires pour l’évaluation diagnostique en salle de classe (qui est davantage un regard « micro ») a aussi considérablement augmenté depuis l’an 2000. La popularité des travaux de Rey, Carette, Defrance et Khan (2003), mais également de De Ketele (2010) et de Gérard (2008) ainsi que les travaux de Crahay et Detheux (2005) témoignent d’ailleurs des besoins des enseignants pour un usage diagnostique de l’évaluation afin de mieux connaître et encadrer les élèves.
C’est dans l’optique d’approfondir la réflexion sur l’évaluation diagnostique qu’un symposium sur ce thème a été réalisé dans le cadre des xives Rencontres du Réseau international de recherche en éducation et en formation (REF), tenues en 2015 à l’Université de Montréal. La richesse des échanges a amené les organisateurs à proposer un numéro spécial pour cette revue. Trois textes ont été retenus et se déclinent comme suit.
Dans un premier article, Bernard Rey présente une réflexion sur le concept polymorphe d’évaluation diagnostique dans une approche par compétences. Le deuxième article, proposé par Nathalie Loye et Josée Lambert-Chan, présente une démarche divisée en trois phases permettant d’assembler une épreuve ayant le potentiel de faire le diagnostic des difficultés d’apprentissage en mathématique. L’ajustement progressif d’une Q-matrice y est aussi discuté en vue de faire des analyses psychométriques à visée diagnostique. Enfin, le dernier article, de Dominique Casanova et Marc Demeuse, compare une modélisation basée sur la théorie classique des tests et une modélisation basée sur la théorie de la réponse aux items permettant de déterminer des profils d’évaluateurs dans le contexte d’une épreuve d’expression écrite en français langue étrangère. En conclusion, nous proposons une discussion mettant en perspective les trois articles ainsi que les choix posés par chacun en fonction des différents points de vue.
Appendices
Références
- Bloom, B. S. (1979). Caractéristiques individuelles et apprentissages scolaires. Paris : Nathan.
- Bloom, B. S., Hastings, J. T., & Madaus, G. F. (1971). Handbook on formative and summative evaluation of student learning. New York: McGraw-Hill.
- Crahay, M. et Detheux, M. (2005). L’évaluation des compétences, une entreprise impossible ? Mesure et évaluation en éducation, 28(1), 57-76. Récupéré de http://hdl.handle.net/2268/10877
- De Ketele, J.-M. (2010). Ne pas se tromper d’évaluation. Revue française de linguistique appliquée, XV(1), 25-37. Récupéré de http://www.cairn.info/revue-francaise-de-linguistique-appliquee-2010-1-page-25.htm
- Deng, T. (1999/2005). Practical diagnosis in traditional Chinese medicine (5th ed.). Amsterdam: Elsevier.
- Dierendonck, C. et Fagnant, A. (2014). Approche par compétences et évaluation à large échelle : deux logiques incompatibles ? Mesure et évaluation en éducation, 37(1), 43-82. doi: 10.7202/1034583ar
- Dionne, É. et Laurier, M. D. (2010). Expérimentation d’un modèle d’évaluation certificative dans un contexte d’enseignement scientifique. Revue canadienne de l’éducation, 33(1), 83-107. Récupéré de http://www.csse-scee.ca/CJE/Articles/FullText/CJE33-1/CJE33-1-DionneLaurier.pdf
- Eurydice (2009). Les évaluations standardisées des élèves en Europe : objectifs, organisation et utilisation des résultats. Bruxelles : Eurydice.
- Gérard, F.-M. (2008). Évaluer des compétences : guide pratique. Bruxelles : De Boeck.
- Hadji, C. (1989). L’évaluation, règles du jeu. Paris : ESF Éditeur.
- Huff, K., & Goodman, D. (2007). The demand for cognitive diagnostic assessment. In J. P. Leighton & M. J. Gierl (Eds.), Cognitive assessment for education: Theory and applications (pp. 19-60). New York: Cambridge University Press.
- Legendre, G. (2005). Dictionnaire actuel de l’éducation. Montréal : Guérin.
- Madaus, G. F., & Stufflebeam, D. L. (1988). Educational evaluation: Classic works of Ralph W. Tyler. Boston: Kluwer Academic Publishers.
- Marcoux, G., Fagnant, A., Loye, N. et Ndinga, P. (2014). L’évaluation diagnostique des compétences à l’école obligatoire. Dans C. Dierendonck, E. Loarer et B. Rey (dir.), L’évaluation des compétences en milieu scolaire et en milieu professionnel (pp. 117-125). Bruxelles : De Boeck.
- Mons, N. (2009). Les effets théoriques et réels de l’évaluation standardisée. Complément à l’étude Les évaluations standardisées des élèves en Europe : objectifs, organisation et utilisation des résultats. Bruxelles : Eurydice.
- Mottier Lopez, L. (2015). Évaluations formative et certificative des apprentissages : enjeux pour l’enseignement. Louvain-la-Neuve, Belgique : De Boeck.
- Rey, B., Carette, V., Defrance, A. et Kahn, S. (2003). Les compétences à l’école : apprentissage et évaluation. Bruxelles : De Boeck.
- Rupp, A., Templin, J., & Henson, R. A. (2010). Diagnostic measurement: Theory, methods, and applications. New York: Guilford Press.
- Scallon, G. (1999). L’évaluation formative, Saint-Laurent : Éditions du Renouveau Pédagogique Inc. (ERPI).
- Stufflebeam, D. L., Madaus, G. F., & Kellaghan, T. (2000). Evaluation models: Viewpoints on educational and human services evaluation (2nd ed.). Boston: Kluwer Academic Publishers.
- Tatsuoka, K. K. (1983). Rule space: An approach for dealing with misconceptions based on item response theory. Journal of Educational Measurement, 20(4), 345-354. doi: 10.1111/j.1745-3984.1983.tb00212.x
- Tatsuoka, K. K. (2009). Cognitive assessment: An introduction to the rule space method. New York: Routledge/Taylor & Francis Group.