Résumés
Résumé
Exploitée plus théoriquement et influençant les documents légaux et ministériels dans le système d’éducation canadien, l’approche d’évaluation fondée sur le programme (EFP) consiste en une synthèse des modèles CBA (curriculum-based assessment), CBM (curriculum-based measurement) et CBE (curriculum-based evaluation). Popularisée aux États-Unis, notamment pour l’enseignement des mathématiques, cette approche s’est développée dans les années 1980 pour soutenir l’enseignement auprès des élèves en difficulté, pour ensuite être relancée dans les années 2000 et se retrouver dans le courant des interventions dites universelles (Christ et Becker, 2018). Plusieurs problèmes se posent pourtant dans sa mise en oeuvre par le personnel enseignant, car en plus d’être peu ou pas accessible en langue française, elle semble se limiter à une succession de mesures normatives des apprentissages maitrisés par les élèves.
Pour comprendre la richesse latente de l’approche d’EFP en éducation inclusive, nous proposons d’en présenter les origines et d’expliquer comment ses principes et ses visées rejoignent ceux des injonctions de réussite de tous les élèves en contexte d’inclusion scolaire. Nous expliquons également comment les cadres d’intervention de l’approche d’EFP offrent une avenue pertinente d’évaluation continue favorisant un meilleur arrimage entre l’évaluation et la planification des interventions auprès de tous les élèves d’un groupe-classe.
Abstract
This article offers a synthesis of the curriculum-based (CB) models referring to curriculum-based assessment (CBA), curriculum-based measurement (CBM) and curriculum-based evaluation (CBE). Developed during the 1980s, the CB approach was primarily theoretical and has since been influential to the Canadian education system whilst being widely used in the United States, notably in mathematics. Intended to support teaching students with disabilities at first, the CB approaches were relaunched in the 2000s to be found in the so-called universal interventions (Christ and Becker, 2018). However, several problems arise in the implementation of this approach by teachers, in addition to being little or not accessible in French, it currently seems to be limited to a succession of normative measures of learning mastered by students. To come to a better understanding of this approach, our paper proposes to present its origins as well as to explain how its principles and its aims join those injunctions of success for all students within an inclusive setting. The paper also explains how these models offer a relevant avenue of continuous evaluation to promote better alignment between evaluation and intervention planning within a classroom.
Corps de l’article
INTRODUCTION
Au Québec, la proportion des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage (EHDAA) dans les classes ordinaires du réseau public est passée de 13,6 % en 2002-2003 à 21,6 % en 2015-2016 (Conseil supérieur de l’Éducation [CSE], 2017). En 2019-2020, plus du quart des EHDAA (25,1 %) et du tiers des élèves qui présentent un retard scolaire (37,7 %) sortaient de la formation générale sans diplôme ni qualification (ministère de l’Éducation et de l’Enseignement supérieur [MÉES], 2022).
Au fil des ans, le vocabulaire utilisé pour parler du nombre d’élèves qui rencontrent des échecs ou des retards scolaires de façon persistante continue de mettre l’accent sur les besoins particuliers de ces élèves (Thomazet, 2012). Sans nier les limitations fonctionnelles de certains, la primauté de l’usage de cette approche catégorielle par une personne enseignante peut faire écran aux possibilités et à l’expression du potentiel de chacun des élèves de son groupe-classe. En outre, les personnes enseignantes conviennent que le fait d’envisager l’efficacité d’une seule façon d’intervenir auprès de tous les élèves qui présenteraient les mêmes limitations fonctionnelles ne peut favoriser la réussite pour chacun d’eux, compte tenu de leurs différences individuelles (CSE, 2017).
Ainsi, au lieu d’envisager les activités d’enseignement-apprentissage en focalisant sur les déficits de certains élèves, l’éducation inclusive se pose en contrepoids d’une approche catégorielle en se fondant sur l’accessibilité universelle (Benoit, 2017; CSE, 2017). Dans ce contexte, le défi réside cependant dans le fait de définir et de circonscrire les besoins spécifiques d’apprentissage des élèves d’un groupe-classe, et d’identifier les difficultés lorsqu’elles se présentent pour évaluer et dresser un portrait clair des progrès de ces élèves (Ainscow et al., 2013). C’est ainsi que l’approche d’évaluation fondée sur le programme (EFP) se présente comme un outil de soutien à la planification d’un enseignement inclusif aux regards des besoins d’apprentissage diversifiés des élèves de leur groupe-classe. Dans les lignes qui suivent, nous expliquons comment cette approche est née et continue d’évoluer encore aujourd’hui, tout en considérant certaines dimensions qui gagneraient à être exploitées pour favoriser la réussite de tous les élèves.
MÉTHODOLOGIE
Pour circonscrire l’approche d’EFP comme objet de soutien à l’éducation inclusive, un recensement général non exhaustif des écrits de type revue exploratoire ou revue de la portée (scoping review) a été réalisé (Grant et Booth, 2009). En lien avec l’enseignement des mathématiques, les descripteurs utilisés ont été curriculum-based assessment (CBA), curriculum-based evaluation (CBE), curriculum-based measurement (CBM) en contexte d’éducation inclusive. Le corpus a été composé d’articles, d’essais et d’ouvrages fondateurs provenant de la littérature scientifique et extrascientifique (littérature grise) (Thuderoz et Girard-Héraud, 2000). La littérature grise a été considérée lorsque sa source et sa portée concernaient la conceptualisation des éléments théoriques de l’approche et qu’elle avait une visée pratique immédiate (Thuderoz et Girard-Héraud, 2000). Une centaine de documents ont ainsi fait l’objet de nos analyses.
La méthode d’analyse de contenu de l’anasynthèse a été privilégiée pour classifier les segments des contenus formels, axiologiques, praxiques et explicatifs des textes recensés (Legendre, 2005; Messier et Dumais, 2016). La synthèse produite à la suite de cette démarche a permis de délimiter les éléments essentiels des modèles qui composent l’approche d’EFP en contexte d’inclusion scolaire et qui fait l’objet de cet article.
LES MODÈLES D’ÉVALUATION FONDÉE SUR LE PROGRAMME
En nous inspirant de Legendre (2005), nous définissons l’évaluation comme un processus qui permet de confronter et d’apprécier l’écart entre les objets d’apprentissage ciblés et ceux qui sont maitrisés, tant sur le plan qualitatif que quantitatif. À l’origine, l’approche d’EFP sous la forme du CBM visait spécifiquement l’évaluation formative en se présentant comme un remplacement à l’utilisation des tests de rendement standardisés que l’auteur d’origine jugeait alors comme étant relativement sans importance dans la prise de décision pédagogique quotidienne du personnel enseignant (Deno, 1985). C’est dans cette optique qu’ont été développés les modèles de CBA, CBM et CBE ayant donné naissance à l’approche d’EFP en Amérique du Nord, à partir des années 1980. À cette époque, on remarque que les objets d’enseignement-apprentissage sélectionnés par les personnes enseignantes pour les élèves qui manifestent des difficultés d’apprentissage ne correspondent que rarement au niveau scolaire correspondant à l’âge de ces derniers (Gickling et Thompson, 1985; Gravois et Gickling, 2002). Ces élèves se retrouvent ainsi en situation d’échec et en décalage de façon continue par rapport aux visées des programmes de formation. C’est donc en réponse à ces pratiques discriminatoires d’évaluation des apprentissages, où ces élèves se retrouvaient systématiquement en situation d’échec scolaire, qu’un premier modèle d’EFP nommé curriculum-based assessment apparait aux États-Unis (Gickling et Thompson, 1985). Au cours de cette période, on assiste au développement rapide de méthodes et de modèles d'éducation ou d’enseignement fondés sur des preuves ciblant particulièrement la réussite scolaire des élèves en difficulté d’apprentissage (Deno, 1987; Howell et Nolet, 2000; Little et Akin-Little, 2014; Tucker, 1985). Chacun de ces modèles a été développé ou réinvesti de manière à permettre de situer le niveau des apprentissages maitrisés par les élèves dans le programme de formation, en privilégiant notamment la planification, l’évaluation formative ainsi que la prise de décision fondée sur des preuves pour cerner la nature des difficultés rencontrées par certains élèves (Fuchs et al., 1993a, 1993b).
Cette même période au Québec est marquée par l’arrivée d’une politique générale d’évaluation pédagogique au Québec (Durand et Chouinard, 2012; Laurier, 2014; ministère de l’Éducation du Québec [MEQ], 1981, 2003) dans laquelle l’évaluation systématique de l’atteinte des objectifs du programme est privilégiée (MEQ, 2003). En situant l’importance de l’évaluation sommative des apprentissages, l’évaluation formative réalisée en cours d’apprentissage par les personnes enseignantes y occupe une place prépondérante pour soutenir l’égalité des chances en éducation (Laurier, 2014; MEQ, 1981, 2003). L’évaluation formative correspond au « jugement porté sur la performance ou le fonctionnement d’un élève en cours d’apprentissage » (CSE, 1982, p. 245). Elle permet d’estimer le degré d’atteinte des objectifs par l’élève et de retracer la démarche d’apprentissage utilisée ainsi que l’aide pédagogique pour soutenir sa progression. Elle permet également de préciser et d’améliorer les stratégies d’enseignement et d’apprentissage empruntées, en guidant ainsi la prise de décision pédagogique (CSE, 1982). En ce qui concerne l’évaluation sommative, elle vise plutôt la prise de décision pédagogique ou administrative par une représentation des résultats prenant la forme d’une note indiquée au bulletin, en fournissant une information sur le niveau de maitrise de l’élève sur l’ensemble des objets d’apprentissage-enseignement (CSE, 1982).
Près d’une vingtaine d’années plus tard, une nouvelle politique d’évaluation des apprentissages suit l'implantation du Programme de formation de l’école québécoise (PFEQ) (Laurier, 2014; MEQ, 2001). Chaque programme disciplinaire se rattachant au PFEQ sera complémenté par des modalités de la progression des apprentissages où est indiqué le niveau de maitrise attendu des savoirs essentiels (MEQ, 2001). Un cadre d’évaluation des apprentissages qui « définit les critères sur lesquels les résultats des élèves doivent s’appuyer » (ministère de l’Éducation, 2023) est également proposé au personnel enseignant pour les soutenir dans l’évaluation des compétences de leurs élèves. L’évaluation débute alors avec la détermination de l’intention de l’évaluation : certificative lors de la reconnaissance des compétences ou formative lors de la régulation de l’apprentissage (Laurier, 2014; MEQ, 2003). La démarche d’évaluation se présente alors comme un processus cyclique et itératif qui requiert la planification souple et rigoureuse des moyens et des objectifs d’une évaluation intégrée aux apprentissages. Cette planification devrait ainsi permettre la collecte et l’interprétation d’information sur les apprentissages relevant d’une mesure ou d’observations. Le jugement, présent à toutes les étapes du processus, peut avoir un caractère formel (à portée administrative) ou informel (à portée pédagogique) et mène à la prise de décision (pédagogique ou administrative). Enfin, puisque l’évaluation est menée dans le but d’informer l’élève, ses parents et les agents éducatifs qui l’entourent, il est attendu que la personne enseignante communique les résultats et les décisions qui les concernent.
Par exemple en mathématiques, pour les élèves du 1er et 2e cycle du secondaire, ce cadre d’évaluation se présente sous la forme de tableaux qui affichent les critères d’évaluation des apprentissages, ainsi que l’explication associée à chacun des critères (ministère de l’Éducation, du Loisir et du Sport [MELS], 2010). Il revient à la personne enseignante de déterminer les outils d’évaluation et de mesure (Loi sur l’instruction publique. RLRQ c. I-13.3, art.19).
Du côté des Américains, à partir des années 1990, la loi pour l’éducation des EHDAA est révisée, puis sera reconduite et modifiée à au moins trois reprises (1997, 2004 et 2015) pour se nommer aujourd’hui Individuals with Disabilities Education Improvement Act (IDEIA). Elle a ensuite été combinée à la loi Every Student Succeeds Acts (ESSA) en 2015 afin de permettre à tous les élèves d’accéder au programme général de formation et d’exiger notamment que chaque état encadre et rende compte de la mesure de la performance des élèves en mathématique, en sciences ainsi qu’en lecture (U.S. Department of Education [USDE], s.d.; USDE, Office of Elementary and Secondary Education, 2020).
Les modifications majeures apportées aux lois d’éducation américaines à partir du début des années 2000 ont fait évoluer les modèles de l’approche d’EFP (Nelson et al., 2023; Sulak et al., 2023) de telle sorte que la dimension de la mesure critériée standardisée à des fins d’évaluation formative en arrive à occuper désormais une place importante dans son application à des fins d’évaluation sommative pour sanctionner un niveau d’étude (Sulak et al., 2023).
L’approche d’EFP, avenue encore peu exploitée pour soutenir les pratiques d’enseignement qui permettent de favoriser la réussite des apprentissages de l’ensemble des élèves d’un groupe-classe, offre, dès ses origines, des clés de mise en oeuvre qui gagneraient encore aujourd’hui à être exploitées. Pour mieux saisir cette voie inexploitée, un retour sur ce qui caractérise chacun des modèles qui composent l’approche d’EFP est proposé, pour ensuite analyser et interroger ces derniers sous le prisme des visées ou des pratiques pédagogiques inclusives.
Le curriculum-based assessment
Le CBA se présente comme une alternative aux pratiques d’évaluation traditionnelle et est mis en oeuvre par un processus de collecte des données (Gickling et Thompson, 1985) en usant un large éventail de procédures d’évaluation informelles (Deno, 2003). Lorsque menée adéquatement, l’information qui résulte de cette collecte permet de concevoir des situations d’apprentissage plus appropriées et ciblées pour l’ensemble des élèves, ainsi que de mesurer l’apprentissage réalisé durant ces situations d’apprentissage (Sulak et al., 2023). Cinq questions guident la personne enseignante dans ce processus :
Qu’est-ce que l’élève sait?
Qu’est-ce que l’élève est capable de faire?
Comment l’élève réfléchit-il?
Comment l’élève aborde-t-il ce qu’il ne maitrise pas?
Que dois-je faire à titre de personne enseignante? (Burns, 2004; Gickling et Rosenfield, 1995).
La principale fonction du CBA est de soutenir la prise de décision pédagogique en permettant de fonder les interventions pédagogiques sur les connaissances maitrisées par l’élève et évaluées par la personne enseignante de façon systématique (Gickling et Thompson, 1985; Little et Akin-Little, 2014; Tucker, 1985). Lorsqu’utilisé dans la planification de l’enseignement, le CBA permet la conception de situation d’apprentissage à l’intérieur de la zone proximale du développement (ZPD) de l’élève (Sulak et al., 2023; Tucker, 1985; Vygotsky, 1978), c’est-à-dire que l’élève peut réaliser seul ou avec un peu d’aide. Le CBA vise à éliminer les inadéquations pédagogiques qui peuvent limiter ou entraver la réussite des apprentissages de ces élèves en privilégiant une pratique d’évaluation différenciée (Burns, 2004; Deno, 1987; Gickling et Havertape, 1981; Hintze et al., 2006; Little et Akin-Little, 2014; Tucker, 1985). Ciblant au départ les élèves en difficulté, il est depuis récemment aussi utilisé auprès des élèves doués et talentueux (Sulak et al., 2023).
Caractéristiques du CBA
Le CBA offre une grande liberté pédagogique à la personne enseignante tout en la contraignant à élaborer le matériel et les procédures de la prise de mesure (Gickling et Thompson, 1985; Hall et Mengel, 2002; Little et Akin-Little, 2014). Ainsi, le matériel utilisé doit relever strictement du programme d’enseignement local (c’est-à-dire en fonction de ce qui est effectivement enseigné en classe), et l’évaluation doit dépendre de critères de performance locaux qui peuvent être associés à des normes locales, nationales ou autres, correspondant aux attentes du niveau d’étude de l’école ou de la classe où se déroulent les activités d’enseignement-apprentissage (Gickling et Thompson, 1985; Hall et Mengel, 2002; Little et Akin-Little, 2014; Sulak et al., 2023). Le CBA formel est nécessairement balisé par des instructions et des procédures standardisées qui assurent une certaine constance dans l’utilisation, mais il est possible de recourir à des CBA informels non standardisés qui doivent notamment permettre l’identification des habiletés ciblées et le niveau d’atteinte attendu, et respecter les besoins et les caractéristiques spécifiques de l’élève (Sulak et al., 2023).
Le processus de collecte de données du CBA se réalise en quatre étapes (Shapiro, 2010; Shapiro et Derr, 1990). D’abord, la personne enseignante évalue l’environnement pédagogique par des observations systématiques, des entretiens avec d’autres personnes enseignantes ou des entrevues avec les élèves et l’analyse de leurs productions scolaires. Elle détermine ensuite le niveau d’instruction réel de l’élève par rapport au niveau souhaité. Par exemple, un élève en 5e année pourrait avoir un niveau de lecture équivalent à celui d’un élève en 3e année. Puis, en ciblant un écart entre le niveau attendu et le niveau actuel de l’élève, elle adapte ou modifie l’enseignement en fonction des observations et des données recueillies en amont. Enfin, le suivi des progrès se poursuit de manière continue et fréquente permettant une rétroaction amenant la personne enseignante à ajuster son enseignement, et parfois à revenir estimer le niveau de maitrise actuel d’un objet d’apprentissage par l’élève.
Le caractère général du CBA en constitue la principale limite, ce qui fait en sorte qu’aucun instrument de mesure de la performance des élèves ni instrument pour évaluer ou observer l’élève en situation pédagogique n’est précisé (Shinn, 1989; Tindal, 2013). C’est à cette limite que répond notamment le CBM.
Le curriculum-based measurement
Le CBM est sans contredit le plus documenté des modèles de l’approche d’EFP (McLeskey et al., 2014; Stecker et al., 2005). Cette procédure est née de la recherche portant sur les élèves présentant des troubles d’apprentissage, sous la direction de Deno (1985, 1987). Le CBM a été initialement développé pour éclairer la planification de l’enseignement ou de l’intervention pédagogique (Deno, 1985), mais est principalement utilisé pour le dépistage et le suivi des progrès (Nelson et al., 2023).
Au début des années 2000, l’identification, la référence trop rapide, et la surreprésentation des élèves issus des minorités ethniques, de milieu défavorisé ou allophone aux services d’éducation spéciale sont remises en question (Hosp et Madyun, 2007). Il est alors proposé de mettre l’accent sur les forces des élèves plutôt que sur leurs déficits, tout en cherchant à remplacer les évaluations standardisées traditionnelles comme les tests de QI pour éviter de marginaliser d’entrée de jeu certains élèves (Kovaleski, 2007; Trépanier, 2019). Le CBM se développe et se présente comme un type de CBA standardisé visant à permettre l’identification des élèves qui devraient être dirigés vers l’éducation spéciale en mettant l’accent sur l’évaluation et la mesure plutôt que sur la prise de décision pédagogique (Brown-Chidsey et al., 2012; Jimerson et al., 2016; Salvia et al., 2013; Swartz et al., 2011).
Similaire à l’approche de la réponse à l’intervention (Jimerson et al., 2016), cet ensemble simple de procédures d’évaluation formative offre un moyen d’évaluer la réponse des élèves à l’enseignement offert à un moment précis (Bradley et al., 2002; Brown-Chidsey et al., 2012; Nelson et al., 2023). Le CBM a pour principale fonction de fournir des procédures de mesures et d’évaluation de performance des élèves afin de permettre à la personne enseignante d’identifier si ces derniers sont en voie d’atteindre les objectifs d’apprentissage à long ou à court terme (Deno, 1985; Lembke et Stecker, 2007; Nelson et al., 2023). En privilégiant l’analyse des résultats de performance sur une base régulière, il permet à la personne enseignante de vérifier l’efficience de son intervention et de prendre des décisions significatives pour maintenir ou améliorer son enseignement (Deno, 1985; Lembke et Stecker, 2007; Little et Akin-Little, 2014; Shinn, 1989, 2002; Stecker et al., 2005; Wright, 1992).
Lorsqu’utilisé dans un processus de résolution de problèmes, le CBM se compose de cinq grandes étapes :
Identification du problème par un dépistage universel, soit la mesure de l’écart entre la performance réalisée et la performance attendue de l’élève (Shinn, 1989, 2002; Wright, 1992)
Officialisation du problème (Shinn, 1989, 2002) ou création d’un processus de suivi des progrès en cartographiant le niveau initial de l’élève par rapport aux attentes du programme (Wright, 1992)
Exploration des solutions en précisant les objectifs attendus (Shinn, 1989, 2002; Wright, 1992)
Évaluation des solutions en effectuant le suivi des interventions mises en oeuvre et en utilisant des graphiques 1 à 2 fois par semaine (Shinn, 1989, 2002; Wright, 1992)
Interprétation des données de suivi (Wright, 1992) et solution au problème réévaluant les élèves pour atteindre la réussite escomptée (Shinn, 1989, 2002)
Caractéristiques du CBM
À l’image des caractéristiques de mesures de suivi des progrès en milieu scolaire inclusif (Deno, 1985, 1987; McLeskey et al., 2014), les mesures du CBM sont notamment fiables et valides (Deno, 1985), c’est-à-dire que le CBM admet uniquement des procédures d’administration de mesures et de notations normées, préétablies, communes et chronométrées qui permettent de comparer les résultats inter et intra élèves au fil du temps (Hintze et al., 2006; Salvia et al., 2013; Stecker et al., 2005). Aussi, elles sont nécessairement significatives sur le plan éducatif, puisque les évaluations et les éléments de mesure sont construits à partir de ce qui est enseigné (Hall et Mengel, 2002; Little et Akin-Little, 2014). Ces mesures suivent les caractéristiques des évaluations formatives efficaces : elles sont de courtes durées, fréquentes et rapides à faire passer aux élèves (Hall et Mengel, 2002; Stecker et al., 2005), en plus de présenter des propriétés psychométriques généralement adéquates (Nelson et al., 2023). Il est donc aisé de les passer aux élèves de manière répétitive, sans subir d’altération, au même titre qu’une tâche normée, sans qu’elles relèvent strictement de standardisation nationale ou commerciale tout en étant balisées par des critères et des normes locales (Deno, 1995, 1987). Cette dernière caractéristique assure la sensibilité de ces mesures aux changements de performance des élèves sur de courtes périodes (Deno, 1985; Salvia et al., 2013), et par conséquent, la modification rapide de l’intervention en fonction des besoins de l’élève et de la matière en cours d’enseignement (Hall et Mengel, 2002; Hintze et al., 2006). Comme les mesures CBM sont tirées de la planification des objets d’enseignement prévus pour l’année en cours, elles sont cohérentes avec les mesures et les attentes ministérielles qui servent à fixer les progrès annuels (Hall et Mengel, 2002; Hintze et al., 2006; Little et Akin-Little, 2014; Salvia et al., 2013). En ce sens, le CBM s’avère utile pour le dépistage universel et le suivi des progrès des élèves (Howell et Nolet, 2000; Little et Akin-Little, 2014; Stecker et al., 2005). Toutefois, le développement d’outils de mesures uniques pour l’évaluation des compétences s’avère ardu dans certains cas, notamment en mathématiques où plusieurs domaines doivent parfois être couverts, nécessitant le recours à divers outils à la fois (Nelson et al., 2023). En effet, dans cette discipline, l’évaluation des compétences combine à la fois la résolution de problèmes, la conceptualisation et l’application (Lafay et Helloin, 2020; McLeskey et al., 2014). Toutefois, seules des mesures de sous-compétences ont été développées en ciblant des habiletés précises ou des sous-compétences spécifiques.
Enfin, d’un point de vue praxique, il semble que le CBM a avantage à s’accompagner de pratiques d’enseignement dites efficaces sans pour autant qu’elles soient explicitement prescrites dans les écrits consultés.
Le curriculum-based evaluation
De manière générale, le CBE est un modèle extensif de résolution de problème, au sens d’un ensemble élaboré de règles ou de procédures de comparaison et de prise de décision pédagogique (Hall et Mengel, 2002; Hintze et al., 2006; Howell et Nolet, 2000; Jimerson et al., 2016; Little et Akin-Little, 2014; Salvia et al., 2013). Il s’opère par des instruments de mesures répétées sur la maitrise des habiletés par les élèves à partir de la matière enseignée en temps réel; il permet de déterminer de manière continue l’incidence de l’enseignement effectué sur les performances des élèves (Deno, 1987; Hall et Mengel, 2002; Hintze et al., 2006; Howell et Nolet, 2000; Little et Akin-Little, 2014; Salvia et al., 2013; Shinn, 2002). Le CBE se traduit ainsi par un processus d’évaluation qui guide la collecte, l’analyse, l’interprétation et l’utilisation des données sur la performance des élèves afin d’identifier les obstacles à l’apprentissage pour une habileté en particulier dans un domaine précis (Hosp et al., 2014; Howell et Nolet, 2000; Jimerson et al., 2016). Le CBE permet de préciser le quoi et le comment enseigner, notamment à partir des objectifs de performance à long terme du programme de formation (Hall et Mengel, 2002; Howell et Nolet, 2000; Kelley et al., 2008; Little et Akin-Little, 2014). Dans cette optique, il se révèle utile pour soutenir la planification pédagogique à long terme en permettant de fournir des pistes de prises de décision pédagogique. Le CBE nécessite toutefois l’évaluation du niveau de compétence des élèves, c’est-à-dire d’un dépistage universel et de suivi des progrès (Howell et Nolet, 2000). Cette évaluation repose sur la matière enseignée en temps réel à l’aide d’instruments de mesure et elle est guidée par un processus de collecte de données (Hosp et al., 2014). Son processus d’enquête vise à soutenir l’adéquation du choix des interventions pédagogiques les plus susceptibles de permettre à l’élève de faire des progrès scolaires (Howell et Nolet, 2000).
Howell et Nolet (2000) présentent cinq étapes itératives qui composent ce processus d’enquête et qui s’accompagnent de consignes spécifiques et complexes. Elles se déclinent par un ensemble de conditions strictes illustrées par un arbre de décisions dont les règles ont été élaborées pour en assurer la rigueur. Ces étapes sont ici résumées et traduites librement :
Identifier les faits qui permettent de préciser ce que l’élève effectue dans le but d’identifier le ou les problèmes rencontrés et de déterminer le quoi enseigner, le comment enseigner ou ce qui doit être mesuré;
Expliquer les causes possibles ou les origines du problème en fonction du programme de formation;
Valider l’explication des causes possibles du problème;
Prendre des décisions sur l’évaluation sommative à mettre en place, et planifier ou réorganiser la sélection des buts et des objectifs pertinents pour favoriser la réussite. Au besoin, reprendre les étapes précédentes;
Prendre les décisions sur l’évaluation formative à mettre en place pour soutenir l’apprentissage et suivre les progrès des élèves de manière à ajuster l’enseignement lorsque nécessaire (Howell et Nolet, 2000, p. 174).
Caractéristiques du CBE
Le CBE peut aider la personne enseignante à obtenir des informations plus précises durant les premières étapes d’admissibilité et de planification et l’organisation des services éducatifs spécialisés, tout en facilitant le suivi des progrès des élèves à tous les niveaux des modèles ou programmes de réponse à l’intervention (Bradley et al., 2002; Desrochers et al., 2016; Swartz et al., 2011). Ces étapes guident l’ajustement, la compréhension et l’utilisation partagée du plan d’intervention par les agents d’éducation.
Une limite importante du CBE est qu’il est axé sur la prise de décision et se fonde sur les pratiques d’enseignement efficace qui ne sont pas développées de manière égale dans toutes les disciplines ou à tous les niveaux de l’enseignement obligatoire (Howell et Nolet, 2000; Brown-Chidsey et al., 2012; Little et Akin-Little, 2014). À cela s’ajoutent les limites du CBM lors du dépistage universel et du suivi des progrès. Enfin, le CBE est porteur d’un caractère directif et prescriptif qui dépasse son application dans la classe et nécessite la mise en place de comités et d’équipes de travail au sein de l’école (Howell et Nolet, 2000).
Déclinaison des modèles d’EFP
Chaque modèle qui compose l’approche d’EFP s’inscrit dans un contexte d’inclusion scolaire, où l’évaluation fait partie de l’ensemble d’une démarche destinée à réduire les inégalités des chances et d’accès aux apprentissages. Chacune des étapes de ces modèles est résumée dans le tableau 1.
Le CBA, le CBM et le CBE sont des modèles qui se distinguent par leurs objectifs spécifiques et leurs méthodes. Ainsi, le CBM se présente comme une procédure axée sur la mesure régulière et fréquente des apprentissages spécifiques, alors que le CBA et le CBE sont des processus centrés respectivement sur la collecte de données et l’évaluation globale de l’incidence des pratiques pédagogiques sur l’apprentissage des élèves (Christ et Becker, 2018; Hosp et al., 2014; Howell et Nolet, 2000; Kelley et al., 2008; Shinn et al., 2002; Shinn et Hubbard, 1992; Stecker et al., 2005).
Le CBE et le CBM reposent sur la matière enseignée en temps réel à l’aide d’instruments de mesure, alors que le CBE et le CBA sont guidés par un processus de collecte de données (Hosp et al., 2014). La spécificité du CBE relève d’un processus d’enquête qui guide l’enseignant ou l’enseignante dans le choix d’interventions pédagogiques les plus aptes à faire progresser l’élève (Howell et Nolet, 2000).
Par ailleurs, l’absence de consensus sur la définition du CBA, du CBM et du CBE (Deno, 1987; Gickling et Havertape, 1981; Hintze et al., 2006; Little et Akin-Little, 2014; Tucker, 1985) fait en sorte que les auteurs en proposent des usages exclusifs autant que des usages complémentaires (Howell et Nolet, 2000; Little et Akin-Little, 2014 ; Stecker et al., 2005). L’approche d’EFP correspond ainsi à la synthèse des modèles de CBA, CBM et CBE dont l’orientation commune est celle de l’évaluation formative de l’apprentissage des élèves, en prenant appui sur le programme d’études (Christ et Becker, 2018; Hosp et al., 2014; Howell et Nolet, 2000). Pour mieux saisir la complémentarité de ces modèles dans leurs visées respectives, nous retenons l’illustration proposée par Hosp et ses collègues (2014) (figure 1).
Sous cette déclinaison, le CBM agit comme un thermomètre de performance qui permet de faire le suivi de la progression des apprentissages (Hall et Mengel, 2002; Salvia et al., 2013). Il s’agit alors d’un outil de mesure accompagné d’une procédure de passation précise qui permet de repérer les élèves dont la performance est sous le niveau attendu, voire les élèves à risque (Salvia et al., 2013; Nelson et al., 2023). Cette procédure ne permet donc pas à elle seule de poser un diagnostic[1], d’identifier la cause des difficultés d’apprentissage (McLeskey et al., 2014; Salvia et al., 2013) ou de sélectionner et planifier les interventions nécessaires afin d’aider l’élève (Salvia et al., 2013). Ces fonctions sont plutôt comblées par le CBA et le CBE, car le CBA se présente comme un processus de collecte et d’analyse des données obtenues à l’aide de la procédure CBM. Le CBM soutient la prise de décision pédagogique soit pour une planification de l’intervention à partir de l’analyse des données, soit en fonction des résultats de performance des élèves (Gickling et Thompson, 1985; Little et Akin-Little, 2014; Tucker, 1985).
Le CBE propose un ensemble de règles ou de lignes directrices pour l’interprétation et l’utilisation des données résultant des outils CBM (Hosp et al., 2014). Ces lignes directrices validées permettent de guider et de justifier le choix des pratiques pédagogiques et des interventions à mettre en place pour favoriser la progression des apprentissages de tous les élèves d’un groupe-classe en facilitant l’identification du quoi enseigner et comment enseigner (Hall et Mengel, 2002; Howell et Nolet, 2000; Kelley et al., 2008; Little et Akin-Little, 2014).
Le CBM est utilisé pour le dépistage et le suivi des progrès des élèves (Howell et Nolet, 2000; Little et Akin-Little, 2014; Stecker et al., 2005). De même que le CBE et le CBA, il s’agence parfaitement avec un cadre de résolution de problème (Deno, 1987; Howell et Nolet, 2000; Stecker et al., 2005). Il n’y a toutefois aucune obligation à utiliser le CBM ou le CBA dans le cadre du CBE, puisque c’est à la personne enseignante de faire le choix des instruments de mesure adaptés à ses besoins d’évaluation, ainsi que la manière d’analyser les données de performance obtenues. Elle pourrait, par exemple, utiliser le portfolio de l’élève, l’observation en classe et des tests de sa propre conception (Howell et Nolet, 2000). L’analyse pourrait se réaliser à l’aide de graphiques à trois ou quatre points, seul ou en équipe. Enfin, le CBE, avec ou sans les autres modèles, comme processus de résolution de problème, peut s’appliquer aux EHDAA ou à tous ceux qui démontrent des difficultés d’apprentissage.
DISCUSSION
Les modèles d’EFP présentés, la prochaine section aborde comment l’évaluation continue s’insère dans l’approche d’EFP, et lui permet de répondre au contexte d’éducation inclusive et d’APC.
L’approche d’EFP et l’évaluation continue
Dans son essence, l’approche d’EFP est destinée à soutenir la personne enseignante dans la cible des lignes directrices et des contenus essentiels à enseigner avant de déterminer le comment enseigner (Little et Akin-Little, 2014; McLeskey et al., 2014).
Initialement, le CBA devait remplacer les évaluations traditionnelles à mesures nomothétiques par une approche idiographique, c’est-à-dire que l’évaluation de l’efficacité des interventions passe par la comparaison de la mesure de la performance actuelle de l’élève à ses performances antérieures (Powers et al., 2007). Dans l’esprit de Deno (1985), le but premier du CBM est de soutenir la personne enseignante dans ses prises de décision par le développement de mesures et l’évaluation continue. Pour Howell et Nolet (2000) le CBE fournit un cadre large de prise de décision pédagogique qui met l’accent sur l’analyse des tâches, l’observation directe et la vérification systématique des hypothèses. Or, les études portant sur les retombées du CBE sont peu nombreuses (Burns et al., 2016). De plus, l’utilisation de l’approche d’EFP, surtout lorsqu’il est question du CBM et du CBA, est aujourd’hui principalement orientée sur l’évaluation de la performance scolaire des élèves, parfois dans un but de sanction, et le monitorage de l’efficacité de l’enseignement (Salvia et al., 2016; Sulak et al., 2023); délaissant le potentiel de soutien à la planification pédagogique efficace et efficiente pour éclairer la prise de décision basée sur les données qu’elle représente (Nelson et al., 2023).
Pourtant, le processus d’évaluation continue proposé par l’approche d’EFP à travers ses différents modèles se présente comme une piste de solution à la planification pédagogique en assurant la cohésion entre le programme d’enseignement, l’intervention pédagogique et l’évaluation. Ceci est d’autant plus vrai en contexte d’éducation inclusive dans lequel ce défi d’adéquation entre l’enseignement et l’évaluation des objets d’apprentissage pour tous les élèves consiste à pallier les obstacles à l’apprentissage en se conjuguant à l’approche par compétence (APC). En effet, l’APC requiert elle aussi une évaluation différenciée qui révèle non seulement l’importance de l’évaluation formative et continue, mais qui inclut également l’évaluation qui précède les activités d’enseignement et dont la planification pourra se fonder sur les résultats obtenus (Centre franco-ontarien de ressources pédagogiques [CFORP], 2018; CSE, 2018; Laurier, 2014). Dans le but de soutenir la prise de décision pédagogique basée sur les données de performance, l’approche d’EFP répond ainsi à l’ensemble des considérations jugées comme nécessaires en contexte d’éducation inclusive et d’APC : le dépistage universel répété dans l’année ainsi qu’une planification pédagogique à court et à long terme fondée sur l’évaluation continue et le suivi des progrès analysés à l’aide de graphiques et d’observations en salle de classe.
Ciblant au départ les élèves en difficulté et l’éducation spéciale, l’approche d’EFP vise à éliminer les écarts entre la pédagogie employée en classe et les besoins des élèves par le suivi continu des progrès en privilégiant des pratiques d’évaluation différenciée (Deno, 1987; Gickling et Havertape, 1981; Hintze et al., 2006; Little et Akin-Little, 2014; Tucker, 1985). Toutefois, la littérature ne fournit pas l’ensemble des conditions qui permettraient aisément à la personne enseignante de mettre en oeuvre l’approche d’EFP auprès de tous les élèves d’un groupe-classe, peu importe leurs caractéristiques personnelles à priori. En effet, l’une des grandes difficultés rencontrées dans l’utilisation de l’approche d’EFP réside dans le fait que les interventions pédagogiques, si elles sont présentées comme essentielles dans la planification, ne sont jamais précisées par la recherche, de telle sorte qu’une personne enseignante puisse les mettre en oeuvre effectivement. Par conséquent, en l’absence des outils de mesure et d’analyse clairs ou de suggestions de pratiques pédagogiques éprouvées, la personne enseignante se retrouve à devoir envisager ses interventions à partir du peu d’indices fournis par la recherche. Il y aurait lieu de penser que ces pratiques gagneraient à être documentées pour être arrimées à l’approche EFP, car celle-ci propose une manière de suivre le progrès des élèves en contexte de diversité.
Dans un autre ordre d’idées, l’approche d’EFP a été développée en partie pour permettre une organisation des services éducatifs en privilégiant une intervention rapide auprès des élèves qui présentent des difficultés (Deno, 2003; Howell et Nollet, 2000; Van der Heyden et Harvey, 2013, cités dans Nelson et al., 2023). Toutefois, la surreprésentation d’élèves stigmatisés à partir de critères arbitraires, voire discriminatoires dans les services d’éducation spécialisée rappelle l’importance d’une évaluation axée sur la progression individuelle en fonction du groupe-classe et non en fonction de l’ensemble d’un district scolaire[2] (Hosp et Madyun, 2007).
CONCLUSION
Depuis le début des années 2000 en Amérique du Nord, l’importance de permettre aux élèves en difficulté (students with disabilities) d’accéder au programme général de formation en classe ordinaire se traduit notamment par la mise en oeuvre d’un ensemble de pratiques ayant eu pour effet d’augmenter les attentes à l’égard de ces élèves (Ferri et Ashby, 2017). Dans ce contexte, l’approche d’EFP émerge en s’inscrivant dans le mouvement des pratiques d’enseignement efficace (CFORP, 2018). Elle s’inscrit également dans le mouvement des pratiques fondées sur des données probantes (evidence-based practices) qui évaluent la réponse ou la non-réponse des élèves aux interventions pour déterminer la nécessité de recevoir ou non des services spécialisés (Gresham, 2007). Si l’approche d’EFP se situe comme un objet de soutien à l’éducation inclusive, c’est parce que les modèles qui la fondent se présentent alors comme des solutions à privilégier tant en contexte de diversité et d’inclusion qu’en éducation spéciale (Jimerson et al., 2016; Pullen et Kennedy, 2018) ou auprès des élèves doués et talentueux (Sulak et al., 2023). Outre le fait que cette approche se traduise par une quasi-absence des écrits en langue française, son utilisation depuis les 20 dernières années dans le milieu anglo-saxon se révèle d’une grande complexité et particulièrement axée sur la mesure des apprentissages.
Malgré plusieurs décennies d’application en sol américain, l’approche d’EFP est encore aujourd’hui trop souvent réduite à la dimension de mesure, particulièrement dans l’enseignement des mathématiques. Pourtant, les propositions initiales de cette approche gagneraient encore aujourd’hui à être exploitées pour soutenir les pratiques enseignantes inclusives, ne serait-ce qu’en explicitant l’usage, les visées et les modalités de l’évaluation formative par rapport à l’évaluation sommative et à la mesure dans ce contexte. Au-delà d’une proposition de son utilisation restreinte et normative, l’approche d’EFP peut être resituée en tant qu’outil de soutien à la mise en oeuvre de l’éducation inclusive par le personnel enseignant pour soutenir la planification des interventions d’enseignement en classe ordinaire.
Le potentiel encore inexploité de l’approche d’EFP se présente comme une avenue pertinente en recherche et dans les pratiques. En considérant l’importance accordée aux choix des pratiques pédagogiques inclusives et à leur adéquation aux besoins d’apprentissage des élèves à partir de leurs données de performance, les recherches et les applications futures de cette approche, tant en langue française qu’en langue anglaise, auront avantage à porter sur l’évaluation au sens large de son acception, c’est-à-dire en mettant l’accent sur la planification de l’enseignement.
Parties annexes
Notes biographiques
Maria del Carmen GRULLON CARVAJAL est maitre en en Éducation, doctorante et auxiliaire de recherche au département de psychopédagogie et d’andragogie de la faculté des sciences de l’éducation de l’Université de Montréal, ses intérêts de recherche portent sur la planification de l’enseignement à visée universelle des mathématiques en contexte d’inclusion scolaire par l’approche d’évaluation fondée sur le programme.
Nathalie S. TRÉPANIER est professeure titulaire au département de psychopédagogie et d’andragogie de la faculté des sciences de l’éducation de l’Université de Montréal, chercheure régulière au LISIS, membre chercheure au RÉVERBÈRE et chercheure associée au CTREQ, ses intérêts de recherche et son enseignement portent sur les modèles de service d’orthopédagogie en contexte d’inclusion scolaire. L’analyse des situations de handicap pédagogiques rencontrées par les élèves sert également de levier pour soutenir l’offre de services et la planification des interventions dans ce contexte.
Notes
-
[1]
Le terme diagnostic se réfère ici à l’évaluation qui précède les activités d’apprentissage et sur laquelle pourra se baser la planification de l’enseignement.
-
[2]
Terme américain utilisé pour désigner un centre de services scolaire au Québec, une commission scolaire au Nunavut ou au Yukon pour les Premières Nations, ou un conseil scolaire dans les autres provinces canadiennes.
Bibliographie
- Ainscow, M., Dyson, A. et Weiner, M. (2013). From exclusion to inclusion: Ways of responding in schools to students with educational needs. Center for Equity in Education, University of Manchester. https://files.eric.ed.gov/fulltext/ED546818.pdf
- Benoit, H. (2017). Éditorial. La nouvelle revue de l’adaptation et de la scolarisation, (77)1, p. 3-4. https://www.cairn.info/revue-la-nouvelle-revue-de-l-adaptation-et-de-la-scolarisation-2017-1-page-3.htm
- Bradley, R., Danielson, L. et Hallahan, D.-P. (2002). Identification of learning disabilities: Research to practice. Routledge. https://doi.org/10.4324/9781410606297
- Brown-Chidsey, R., Harrison, P.-L. et Andren, K.-J. (2012). Assessment for intervention: A problem-solving approach (2e éd.). Guilford Press.
- Burns, M.-K. (2004). Using Curriculum-Based Assessment in consultation: A review of three levels of research. Journal of Educational and Psychological Consultation, 15(1), 63‑78. https://doi.org/10.1207/s1532768xjepc1501_3
- Burns, M.-K., Jimerson, S.-R., VanDerHeyden, A.-M. et Deno, S.-L. (2016). Toward a unified response-to-intervention model: Multi-Tiered systems of support. Dans S.-R. Jimerson, M.-K. Burns et A.-M. VanDerHeyden (dir.), Handbook of response to intervention: The science and practice of multi-tiered systems of support (p. 719-732). Springer US. https://doi.org/10.1007/978-1-4899-7568-3_41
- Centre franco-ontarien de ressources pédagogiques. (2018). Guide d’enseignement efficace des mathématiques, de la 7e à la 10e année - Fascicule 1 - Principes fondamentaux de l’enseignement efficace des mathématiques. Éditions CFORP. https://edusourceontario.com/res/geem-7-10-fascicule1
- Christ, T.-J. et Becker, D.-M. (2018). Curriculum-Based assessment. Dans B. Frey (dir.), The SAGE Encyclopedia of Educational Research, Measurement, and Evaluation (vol. 1‑4). SAGE Publications, Inc.
- Conseil supérieur de l’éducation. (1982). Rapport 1981-1982 - Tome 1 : Activités. Gouvernement du Québec. https://www.cse.gouv.qc.ca/en/publications/rapport-activites-81-82-tome1-50-0127/
- Conseil supérieur de l’éducation. (2017). Pour une école riche de tous ses élèves : s’adapter à la diversité des élèves, de la maternelle à la 5e année du secondaire. Gouvernement du Québec. https://www.cse.gouv.qc.ca/wp-content/uploads/2017/10/50-0500-AV-ecole-riche-eleves.pdf
- Conseil supérieur de l’éducation. (2018). Évaluer pour que ça compte vraiment. Gouvernement du Québec. https://www.cse.gouv.qc.ca/publications/evaluer-compte-vraiment-rebe-16-18-50-0508/
- Deno, S.-L. (1985). Curriculum-based measurement: The emerging alternative. Exceptional Children, 52(3), 219-232.
- Deno, S.-L. (1987). Curriculum-Based Measurement. Teaching Exceptional Children, 20(1), 40‑42. https://doi.org/10.1177/004005998702000109
- Deno, S.-L. (2003). Developments in Curriculum-Based Measurement. The Journal of Special Education, 37(3), 184‑192. https://doi.org/10.1177/00224669030370030801
- Desrochers, A., Laplante, L. et Brodeur, M. (2015). Le modèle de réponse à l’intervention et la prévention des difficultés d’apprentissage de la lecture au préscolaire et au primaire. Éditions de l’Université de Sherbrooke. https://doi.org/10.17118/11143/10274
- Durand, M.-J. et Chouinard, R. (2012). L’évaluation des apprentissages. De la planification de la démarche à l’évaluation des résultats (2e éd.). Marcel Didier.
- Ferri, B. A. et Ashby, C. (2017). U.S. Inclusion in the era of neoliberal educational reforms. Dans F. Dovigo (dir.), Special educational needs and inclusive practices (p. 21-31). Sense Publishers.
- Fuchs, L.-S., Fuchs, D. et Hamlett, C.-L. (1993a). Technological advances linking the assessment of students’ academic proficiency to instructional planning. Journal of Special Education Technology, 12(1), 49‑62. https://doi.org/10.1177/016264349301200104
- Fuchs, L.-S., Fuchs, D., Hamlett, C.-L., Walz, L. et Germann, G. (1993b). Formative evaluation of academic progress: How much growth can we expect? School Psychology Review, 22(1), 27‑48. https://doi.org/10.1080/02796015.1993.12085636
- Gickling, E.-E. et Havertape, J.-R. (1981). Curriculum-based assessment. Dans J.-A. Tucker (dir.), Non test-based assessment: Trainer manual. The National School Psychology Inservice Training Network, University of Minnesota. http://archive.org/details/ERIC_ED236864
- Gickling, E.-E. et Thompson, V.-P. (1985). A personal view of curriculum-based assessment. Exceptional Children, 52(3), 205‑218. https://doi.org/10.1177/001440298505200302
- Grant, M.-J. et Booth, A. (2009). A typology of reviews: an analysis of 14 review types and associated methodologies. Health Information & Library’s Journal, 26(2), 91‑108. https://doi.org/10.1111/j.1471-1842.2009.00848.x
- Gravois, T.-A. et Gickling, E.-E. (2002). Best practices in curriculum-based assessment. Dans A. Thomas et J. Grimes (dir.), Best practices in school psychology IV (p. 885-898). National Association of School Psychologists. https://psycnet.apa.org/record/2006-03715-056
- Gresham, F.-M. (2007). Response to intervention and emotional and behavioral disorders: Best practices in assessment for intervention. Assessment for Effective Intervention, 32(4), 214‑222. https://doi.org/10.1177/15345084070320040301
- Hall, T. et Mengel, M. (2002). Curriculum-based evaluations. NCAC, 15.
- Hintze, J., Christ, T. et Methe, S. (2006). Curriculum-based assessment. Psychology in the Schools, 43(1), 45‑56. https://doi.org/10.1002/pits.20128
- Hosp, J.-L., Hosp, M.-K., Howell, K.-W. et Allison, R. (dir.). (2014). What is Curriculum-based evaluation and why should I do it? Dans The ABCs of curriculum-based evaluation: A practical guide to effective decision making (p. 1‑19). The Guilford Press. https://books.google.ca/books?id=EXrpAwAAQBAJ&lpg=PP1&pg=PA3&redir_esc=y#v=onepage&q&f=false
- Hosp, J.-L. et Madyun, N.-H. (2007). Addressing disproportionality with response to intervention. Dans S.-R. Jimerson, M.-K. Burns et A.-M. VanDerHeyden (dir.), Handbook of response to intervention: The science and practice of multi-tiered systems of support (2e éd., p. 172‑181). Springer.
- Howell, K.-W. et Nolet, V. (2000). Curriculum-based evaluation: Teaching and decision making (3e éd.). Wadsworth.
- Jimerson, S.-R., Burns, M.-K. et VanDerHeyden, A.-M. (dir.). (2016). Handbook of response to intervention: The science and practice of multi-tiered systems of support (2e éd.). Springer. https://doi.org/10.1007/978-1-4899-7568-3
- Kelley, B., Hosp, J.-L. et Howell, K.-W. (2008). Curriculum-based evaluation and math: An overview. Assessment for Effective Intervention, 33(4), 250‑256. http://dx.doi.org/10.1177/1534508407313490
- Kovaleski, J.-F. (2007). Potential pitfalls of response to intervention. Dans S.-R. Jimerson, M.-K. Burns et A.-M. VanDerHeyden (dir.), Handbook of response to intervention: The science and Ppactice of multi-tiered systems of support (2e éd., p. 80‑89). Springer.
- Lafay, A. et Helloin, M.-C. (2020). L’évaluation approfondie des difficultés d’apprentissage des mathématiques. Enfance en difficulté, 7, 107‑130. https://doi.org/10.7202/1070385ar
- Laurier, M. (2014). La politique québécoise d’évaluation des apprentissages et les pratiques évaluatives. Éducation et francophonie, (42)3, 31-49. https://doi.org/10.7202/1027404ar
- Legendre, R. (2005). Dictionnaire actuel de l’éducation (3e éd.). Guérin.
- Lembke, E.-S. et Stecker, P.-M. (2007). Curriculum-based measurement in mathematics: An evidence-based formative assessment procedure. Center on Instruction. https://search.proquest.com/docview/889925304/BDFF3E7148BC4D98PQ/10
- Little, S. et Akin-Little, A. (2014). Academic assessment and intervention. Routledge. https://doi.org/10.4324/9780203108451
- Loi sur l’instruction publique. RLRQ, c. I-13.3. https://www.legisquebec.gouv.qc.ca/fr/document/lc/i-13.3
- McLeskey, J., Waldron, N.-L., Spooner, F. et Algozzine, B. (2014). Handbook of effective inclusive schools. Research and practice. Taylor & Francis.
- Messier, G. et Dumais, C. (2016). L’anasynthèse comme cadre méthodologique pour la recherche théorique : deux exemples d’application en éducation. Recherches qualitatives, 35(1), 56-75. https://doi.org/10.7202/1084496ar
- Ministère de l’Éducation. (2023). Programme de formation de l’école québécoise. Cadre d’évaluation des apprentissages. Gouvernement du Québec. http://www.education.gouv.qc.ca/enseignants/pfeq/
- Ministère de l’Éducation, du Loisir et du Sport. (2010). Cadre d’évaluation des apprentissages. Mathématique. Gouvernement du Québec. https://numerique.banq.qc.ca/patrimoine/details/52327/2006660
- Ministère de l’Éducation du Québec. (1981). Politique générale d’évaluation des apprentissages. Gouvernement du Québec. http://www.education.gouv.qc.ca/fileadmin/site_web/documents/dpse/evaluation/13-4602.pdf
- Ministère de l’Éducation du Québec. (2001). Programme de formation de l’école québécoise (PFEQ). Gouvernement du Québec.
- Ministère de l’Éducation du Québec. (2003). Politique d’évaluation des apprentissages. Gouvernement du Québec. http://www.education.gouv.qc.ca/fileadmin/site_web/documents/dpse/evaluation/13-4602.pdf
- Ministère de l’Éducation et de l’Enseignement supérieur. (2022). Taux de sorties sans diplôme ni qualification parmi les sortants au secondaire. Gouvernement du Québec. http://www.education.gouv.qc.ca/references/indicateurs-et-statistiques/indicateurs/taux-de-sorties-sans-diplome-ni-qualification-parmi-les-sortants-au-secondaire/
- Nelson, G., Kiss, A.-J., Codding, R.-S., McKevett, N.-M., Schmitt, J.-F., Park, S, Romero, M.-E. et Hwang, J. (2023). Review of curriculum-based measurement in mathematics: An update and extension of the literature. Journal of School Psychology, 97, 1-42. https://doi.org/10.1016/j.jsp.2022.12.001
- Powers, K., Hagans, K. et Miller, M. (2007). Using response to intervention to promote transition from special education services. Dans S.-R. Jimerson, M.-K. Burns et A.-M. VanDerHeyden (dir.), Handbook of response to intervention: The science and practice of multi-tiered systems of support (2e éd., p. 418‑427). Springer.
- Pullen, P.-C. et Kennedy, M.-J. (dir.). (2018). Handbook of response to intervention: The science and practice of multi-tiered systems of support. Routledge. https://doi.org/10.4324/9780203102954
- Salvia, J., Ysseldyke, J.-E. et Bolt, S. (2013). Assessment in special and inclusive education (12e éd.). Cencage Learning.
- Shapiro, E.-S. (2010). Academic skills problems: Direct assessment and intervention (4e éd.). Guilford Press.
- Shapiro, E.-S. et Derr, T.-F. (1990). Curriculum-based assessment. Dans T.-B. Gutkin et C.-R. Reynolds (dir.), The handbook of school psychology (2e éd., p. 365‑387). John Wiley and Sons. https://psycnet.apa.org/record/1990-97336-015
- Shinn, M.-R. (1989). Curriculum-based measurement: Assessing special children. Guilford Press. https://www.routledge.com/Curriculum-Based-Measurement-Assessing-Special-Children/Shinn/p/book/9780898622317
- Shinn, M.-R. (2002). Best practices in using curriculum-based measurement in a problem-solving model. Dans A. Thomas et J. Grimes (dir.), Best practices in school psychology IV (p. 671‑697). National Association of School Psychologists. https://psycnet.apa.org/record/2006-03715-044
- Shinn, M.-R. et Hubbard, D. (1992). Curriculum-based measurement and problem-solving assessment: Basic procedures and outcomes. Focus on Exceptional Children, 24(5). https://doi.org/10.17161/foec.v24i5.7538
- Stecker, P.-M., Fuchs, L.-S. et Fuchs, D. (2005). Using curriculum-based measurement to improve student achievement: Review of research. Psychology in the Schools, 42(8), 795‑819. https://doi.org/10.1002/pits.20113
- Sulak, T.-N., Hebda, M.-R., Sodergren, C.-D.-C. et Robins, J.-H. (2023). Curriculum-based assessment. Dans S.-K. Johnsen et J. VanTassel-Baska (dir.), Handbook on assessments for gifted learners: Identification, learning progress, and evaluation (p. 148‑157). Routledge.
- Swartz, S., Geraghty-Jenkinson, C. et Franklin-Guy, S. (2011). Response to Intervention (RtI): Implementation and Legal Issues. Education Law Association.
- Thomazet, S. (2012). Du handicap aux besoins éducatifs particuliers. Le français aujourd’hui, 177, 11-17. https://doi.org/10.3917/lfa.177.0011
- Thuderoz, C. et Giraud-Heraud, A. (2000). La négociation sociale. CNRS.
- Tindal, G. (2013). Curriculum-based measurement: A brief history of nearly everything from the 1970s to the present. International Scholarly Research Notices. http://dx.doi.org/10.1155/2013/958530
- Trépanier, N.-S. (2019). La réponse à l’intervention et l’offre de services multipaliers pour soutenir l’inclusion scolaire : un paradoxe à visée d’exclusion des élèves en situation de handicap. McGill Journal of Education/Revue des sciences de l’éducation de McGill, 54 (2), 284-304. https://doi.org/10.7202/1065659ar
- Tucker, J.-A. (1985). Curriculum-based assessment: An introduction. Exceptional Children, 52(3), 199‑204. https://journals.sagepub.com/doi/pdf/10.1177/001440298505200301
- US Department of Education. (s.d.). IDEA, Individual with Disabilities Education Act https://sites.ed.gov/idea/about-idea/#:~:text=The%20Individuals%20with%20Disabilities%20Education,related%20services%20to%20those%20children.
- US Department of Education, Office of Elementary and Secondary Education (2020, 28 octobre). What is the Every Student Succeeds Act? Gouvernement des États-Unis. https://oese.ed.gov/families/essa/
- Vygotsky, L.-S. (1978). Mind in society: the development of higher psychological processes. Harvard University Press.
- Wright, J. (1992). Curriculum-based measurement: A manual for teachers. Syracuse City Schools.