Article body

Introduction

Dans un article[1] consacré à une brève histoire de l’IEA (International Association for The Evaluation of Educational Achievement), son président Alejandro Tiana, se félicitant des travaux accomplis dans le domaine des comparaisons internationales de performance des systèmes éducatifs, considérait que la contribution majeure de l’association et les raisons de sa longévité tenaient à sa conception du « monde comme laboratoire éducatif » (Tiana, 2001). Au-delà de cette image saisissante, il est facile de percevoir l’extraordinaire réception d’un ensemble de travaux consacrés à une mesure de l’efficacité de l’éducation progressivement utilisée par un nombre croissant de pays. Toutefois, c’est le terme « laboratoire » qui retiendra ici notre attention. En effet, le projet scientifique du paradigme de l’« école efficace » est inséparable de la définition d’un espace de production de connaissances et d’instruments de mesure visant à réduire une réalité complexe dans un sens réaliste et objectif pour aider la prise de décision politique. Cette mise en ordre scientifique et technique a permis de fabriquer une réduction simplifiée de l’éducation mais elle est inséparable d’un travail de représentation politique où des experts, des administrateurs, des groupes d’intérêts ont négocié et pesé sur la définition de la mesure et sa mise en oeuvre (pour une approche de cette question dans le cadre français, lire Derouet 2000a, 2000b, 2001a et plus largement Desrosières et Thévenot, 1988 ; Desrosières, 1993 ; Thévenot, 1997). C’est pourquoi, en plus d’une présentation des instruments produits par le paradigme de « l’école efficace », je retracerai la construction sociale des réseaux scientifiques et politiques ayant organisé un rapprochement entre recherche, management et politiques de l’éducation, entre production de connaissances scientifiques et outils de pilotage des systèmes éducatifs. Cet article entend considérer les investissements de forme (Thévenot, 1985) ayant présidé à la construction de ces réseaux, à la production régulière et organisée des savoirs consacrés à l’école efficace, et à leur circulation en dehors de la sphère scientifique.

Le paradigme de « l’école efficace » possède une histoire : c’est la cristallisation et la reconfiguration d’un ensemble de croyances, d’idéologies et de politiques ayant marqué les systèmes éducatifs anglo-saxons depuis leur origine (Normand, 2003). Ce courant scientifique a connu un renouveau dans les années 1960 et 1970 lorsqu’il a cherché à isoler et identifier les facteurs permettant d’augmenter l’efficacité de l’école et les résultats scolaires des élèves. Le paradigme de « l’école efficace » constitue un imposant centre de calcul, mobilisant un nombre impressionnant de laboratoires chargés de récupérer des données et d’élaborer des modèles progressivement transformés en énoncés scientifiques indiscutables (Callon, 1989 ; Latour, 1989). Ces énoncés confortent les discours de groupes d’intérêts soucieux de contribuer à une amélioration de la rentabilité du système éducatif.

Mais une véritable lecture sociologique, si elle veut se préserver par avance de toute accusation de dérive idéologique, doit prendre au sérieux le projet de cette science, dans la manière dont elle a créé son corpus de connaissances, organisé ses instruments, et constitué ses modes d’administration de la preuve. C’est donc une approche épistémologique et historique qui est proposée dans cet article. Dans un premier temps, j’envisagerai la manière dont le paradigme de « l’école efficace » a opéré une réduction du monde de l’éducation à travers différents instruments de la mesure. Je montrerai ensuite comment certains de ces instruments ont contribué à un certain nombre d’opérations de traduction de connaissances scientifiques en savoirs du management et de la politique, tout en déplaçant les enjeux et les épreuves de la critique. Enfin, je m’intéresserai à la manière dont ces savoirs et ces techniques se sont progressivement étendues au niveau international en suscitant l’adhésion de nouveaux acteurs et en générant de nouveaux instruments, en même temps qu’ils essayaient de clore l’espace de la critique.

La mesure de l’efficacité de l’école : une entreprise de réduction de la complexité

Le mouvement de la school effectiveness a généré un grand nombre de savoirs et d’instruments de mesure, d’abord en Grande-Bretagne et aux États-Unis, avant que cette expertise ne soit exportée à l’échelle mondiale. Toutes ces conceptions théoriques ne sont pas neuves et sont issues d’un croisement entre des formulations idéologiques et des préoccupations politiques qui sont réapparues dans les années 1950-1960. En effet, dès cette époque, différents groupes d’intérêts ont cherché à mettre en oeuvre des stratégies visant à rentabiliser l’éducation. Toutefois, les catégories de description et de classification de l’éducation, les concepts utilisés et mobilisés par ce courant de pensée sont le résultat d’un travail de réduction de la complexité opéré par une science qui, en situant sa pratique au carrefour d’autres sciences, a inventé des instruments de mesure dans le but d’améliorer l’organisation des écoles et d’augmenter les résultats scolaires des élèves.

Genèse et développements d’une pratique scientifique

Le premier courant, auquel on rattache généralement les noms de Theodore Shultz et de Gary Becker, s’est développé dans les années 1950-1960 (Delamotte, 1998). Au niveau mondial, ces années furent une ère d’expansion sur le plan de l’enseignement comme sur le plan économique. Des inquiétudes concernant le maintien durable de la croissance économique contribuèrent à développer des recherches en économie de l’éducation consacrées à la mesure des investissements éducatifs. Conjuguant l’analyse coût-efficacité à l’étude des taux de rentabilité des systèmes éducatifs, l’augmentation du « capital humain » fut bientôt considérée comme le fondement de la croissance économique, les économistes insistant fortement sur le lien entre l’éducation, la productivité du travail et la valeur ajoutée. L’argument principal, aujourd’hui central dans la rhétorique de l’OCDE ou de la Commission européenne, était qu’une économie moderne nécessitait de nouvelles technologies et connaissances scientifiques afin de pouvoir disposer d’une main-d’oeuvre éduquée avec un niveau de compétences suffisant pour affronter les défis de l’industrialisation et de la compétition marchande. Des niveaux élevés d’éducation de la population devaient permettre d’augmenter la productivité et de stimuler la croissance, ce qui justifiait une planification des flux de la population scolaire mais aussi une démocratisation de l’accès à l’enseignement supérieur. Au niveau des établissements, il était recommandé un management efficace des ressources humaines au moyen d’une planification visant à utiliser de manière efficiente et à moindre coût les enseignants, privilégiant le travail en équipes et des programmes d’instruction utilisant les machines à enseigner, la télévision et les laboratoires de langues.

C’est aussi au cours des années 1950 que les travaux de J.S. Bloom et de son équipe ont produit un système de classement des objectifs pédagogiques couvrant une gamme étendue d’apprentissages et une méthodologie visant à améliorer l’efficacité pédagogique des enseignants (Bloom, 1979). Ainsi, cette théorie, baptisée par la suite « pédagogie de la maîtrise », considérait que le degré de maîtrise d’une compétence par un élève est tributaire de l’adéquation entre, d’une part, les opportunités éducatives mises à sa disposition et, d’autre part, le temps et la guidance dont il a besoin en fonction de ses caractéristiques cognitives et affectives. La pédagogie de la maîtrise reposait sur le croisement de tests collectifs destinés à mesurer les performances des élèves avec des procédures de remédiation visant à les aider à résoudre leurs difficultés. Les tests étaient dits « formatifs » dans la mesure où ils étaient supposés agir et exercer une rétroaction sur l’apprentissage en train de se faire. Quant aux activités de remédiation, elles offraient des occasions supplémentaires d’apprendre en différenciant l’enseignement, c’est-à-dire principalement en ajustant le temps accordé à l’exécution des tâches. Les travaux de la pédagogie de la maîtrise invitaient fortement à planifier les apprentissages et à les évaluer par des tests. Ce modèle d’apprentissage faisait reposer l’essentiel de l’évaluation des acquis sur des tests de compétences en fonction du temps passé dans les apprentissages.

Bien qu’elle reprenne des éléments de la théorie du capital humain et qu’elle s’appuie sur cette conception de l’évaluation des apprentissages par les tests, la légitimité de la school effectiveness s’inscrit dans la lignée des travaux de Coleman qui, dans les années 1960-1970, a considéré que l’école jouait un rôle négligeable dans l’amélioration des résultats scolaires et la réduction de l’inégalité des chances. L’expression « schools make difference » est devenue rapidement le slogan de chercheurs visant à mesurer l’effet-école à partir de variables comme l’attitude des élèves, le climat de l’école et le comportement des enseignants (Morley et Rassol, 1999). Un certain nombre de travaux ont essayé de montrer l’importance de l’effet-établissement, de l’effet-classe, ou de l’effet-enseignant dans la performance des systèmes éducatifs. Le courant de la school effectiveness a cherché à promouvoir différentes mesures des résultats scolaires, non seulement dans le domaine cognitif ou celui des compétences de base, mais aussi dans celui des compétences sociales ou affectives des élèves. L’analyse s’est progressivement enrichie d’autres concepts comme celui de « valeur ajoutée » et de recherches visant à évaluer la part du temps et des disciplines d’enseignement dans la mesure des résultats. Ce courant de pensée est toutefois indissociable d’un autre courant théorique que l’on appelle « school improvement ». Alors que le premier s’attache particulièrement à la mesure, le second se préoccupe des processus de changement au sein des écoles permettant d’améliorer leur efficacité ou leur qualité. Il s’intéresse donc aux conditions du management des écoles et à la mise en oeuvre d’actions susceptibles d’impliquer collectivement les différents acteurs (élèves, parents, enseignants, administrateurs, etc.). Cherchant à développer une logique de projet (Boltanski et Chiapello, 1999), le school improvement entend promouvoir l’excellence des écoles en opérant un compromis entre des formes dérivées des mouvements pédagogiques et des conceptions de l’ « organisation apprenante » mises en valeur dans les théories du management.

Tests, standards, indicateurs : instruments de la mesure et administration de la preuve

À l’image du procès juridique, la fabrication d’énoncés scientifiques et politiques concernant l’efficacité de l’école, pour qu’ils soient indiscutés et indiscutables, exige non seulement un corps de références théoriques mais aussi des preuves fournies grâce aux instruments mobilisés par le chercheur ou par l’administrateur. Simples éléments insérés dans des dispositifs plus complexes ou inscriptions durables servant de repères à l’action publique, ces instruments ont été conçus pour réduire la complexité du réel et donner un appui à la prise de décision (Van Haecht, 2003). Tests, standards et indicateurs constituent donc la panoplie du paradigme de l’ « école efficace » à partir de laquelle sont formulés des diagnostics sur la santé du système éducatif et envisagés les remèdes nécessaires à son amélioration. L’analogie avec le monde médical est pertinente. Michel Foucault a bien montré comment la naissance de la clinique était inséparable de la recherche d’un ordre rationnel des maladies, d’un système de repérage des pathologies où les tentatives de classification et de mesure ne sont pas absentes (Foucault, 1972). La métaphore médicale, loin d’avoir disparu des discours sur l’école efficace, a d’ailleurs constitué une référence partagée par les psychologues lors des premiers moments de développement des tests standardisés concernant la mesure de l’intelligence (Brown, 1992).

Cet essor fut particulièrement décisif aux États-Unis où le mouvement du mental testing contribua à donner des instruments de mesure de l’efficacité de l’école aux responsables de l’éducation, très influencés par la diffusion des thèses du management scientifique dans l’opinion publique (Callahan, 1962). Depuis, la psychométrie a développé une abondante littérature technique sur les tests avec un effet immense sur la conduite de la plupart des évaluations concernant l’apprentissage (Goldstein et Lewis, 1996). Étendue à la pédagogie et aux apprentissages, cette forme de mesure, qualifiée alors d’évaluation, est utilisée comme mesure de la réussite scolaire et du progrès des élèves. C’est alors qu’elle rencontre un certain nombre de problèmes (Weeden, Winter et Broadfoot, 2002). D’abord l’apprentissage est un phénomène complexe qui met en oeuvre différentes formes d’intelligence difficiles à évaluer au travers d’un test, sans compter que cette technologie met de côté certains aspects essentiels comme la résolution de problèmes, la catégorisation et la manipulation d’opérations symboliques. Au-delà des critères traditionnels de validité, de fiabilité et de maniabilité retenus généralement pour attester de la pertinence de ces tests, les résultats produits dépendent largement de la perception qu’en ont les utilisateurs, enseignants ou élèves. De plus, il a été montré que les enseignants avaient tendance à centrer leur enseignement sur les tests (teaching to the test), contribuant à augmenter les résultats des élèves sans pour autant améliorer leurs compétences.

Malgré ces difficultés, les tests consacrés à la mesure de l’élévation des standards constituent le principal instrument de l’évaluation de la qualité de l’école dans les pays anglo-saxons. Cet usage remonte au xviiie siècle en Grande-Bretagne, époque à laquelle l’objectif premier des examens écrits, se substituant à la tradition des examens oraux et des disputes d’origine médiévale, fut un moyen de refouler les prétendants à l’enseignement supérieur (Goldstein et Heath, 2000). Plus récemment, il semble que le terme « standard » ait été emprunté à la métrologie de la qualité mise en oeuvre dans le secteur privé et reprise dans le cadre des nouvelles conceptions du management public en éducation (Slee, Weiner et Tomlison, 1998). La fixation de standards est un préalable à la réalisation d’un contrôle de la qualité permettant de s’assurer que les objectifs fixés par le management ont été atteints. Transposés dans l’éducation, des standards visant les connaissances transmises ou les compétences à acquérir par les élèves, mesurés par des tests, constituent les bases du management des organisations scolaires et du travail enseignant. La hausse progressive de ces standards doit assurer la progression des élèves et améliorer à la fois la qualité et la performance du système éducatif. En dépit de nombreuses réactions, ces instruments de mesure ont continué à être développés et mis en oeuvre à une large échelle. L’identification des « écoles efficaces » s’est faite sur la base de scores agrégés des élèves aux différents tests en lecture ou en mathématiques. L’utilisation d’indicateurs de performance à partir des résultats fournis par les tests et les examens s’est ensuite centrée sur une comparaison étroite des écoles et de leurs différences. Ils ont créé un climat où la concurrence entre les établissements l’emporte sur la coopération, et où les administrateurs surveillent étroitement l’augmentation ou la diminution des performances à différents niveaux du système éducatif.

Les opérations de traduction de la mesure et les déplacements de la critique

Malgré ses limites méthodologiques et épistémologiques, le paradigme de l’école efficace a atteint un certain degré de formalisation correspondant à un ensemble de savoirs et des propositions stabilisées concernant la mesure de l’éducation. Un collectif de recherche s’est progressivement mis en place et s’est appuyé sur une forte concentration d’instruments d’évaluation et de compétences scientifiques ou techniques provenant de différentes disciplines académiques. Ces savoirs ont été ensuite reproblématisés et traduits sous la forme d’une expertise exerçant une fonction de référence à l’égard du management et de la politique. Les programmes de recherche sur l’école efficace sont devenus un lieu stratégique, une sorte de laboratoire commandant l’accès au monde de l’éducation et à ses représentations officielles. En plus des connaissances scientifiques accumulées, la mise à disposition d’instruments d’évaluation a contribué à stabiliser les interprétations du monde scientifique et politique dans des normes, des procédures, des informations, contribuant elles-mêmes à inscrire les conceptions de l’école efficace dans les pratiques des acteurs et dans l’orientation des politiques d’éducation.

Expériences anglo-saxonnes : des savoirs scientifiques récupérés par le management et la politique

L’expertise de la school effectiveness a été récupérée par les gouvernements conservateurs qui, dès le début des années 1980, ont voulu rétablir la sélection et la concurrence dans les écoles publiques, introduire une logique consumériste en donnant plus de choix aux parents d’élèves, réduire les coûts de l’éducation publique et promouvoir les écoles privées. Alors que des mesures draconiennes touchaient les services publics, des groupes d’intérêts sont intervenus pour accélérer ces changements (Tomlinson, 2001). Les partisans de la « Nouvelle Droite », une coalition de libéraux intéressés par l’extension du marché, la concurrence et le contrôle de la dépense publique, et les Conservateurs, préoccupés de maintenir des valeurs comme la tradition, l’ordre et l’autorité, ont exercé une forte influence sur l’orientation des politiques éducatives. Au nom du « contrat » et de la « bonne gouvernance », les services publics de l’éducation ont été réorganisés sur la base d’un développement des pratiques d’accountability et de pilotage des organisations scolaires, dans un mixte de régulation publique et privée. Les instruments conçus par la school effectiveness ont été utilisés pour évaluer l’efficacité du pilotage du niveau local au niveau central, avec le souci permanent d’atteindre les objectifs fixés, d’améliorer le travail des cadres et des enseignants, d’élever les standards tout en maîtrisant les coûts de l’investissement dans différents programmes éducatifs. Ces transformations, accompagnées par la mise en oeuvre de recommandations codifiées et standardisées concernant les « bonnes pratiques » ont généré et amplifié une crise générale de confiance à l’égard du monde enseignant.

En effet, la mise en oeuvre de standards et d’indicateurs de performance a induit d’importants changements de l’environnement des enseignants. L’accent mis sur l’efficacité des écoles a rendu ces derniers responsables de l’atteinte des objectifs et des standards fixés par le management, en fonction desquels ils étaient récompensés ou sanctionnés. Ce « management de la performance » (Gleeson et Husbands, 2001) a récupéré non seulement les travaux et les instruments de mesure de la school effectiveness mais aussi les conceptions du nouveau management public restructurant les services publics dans le domaine de la santé, de l’équipement, des finances (Clarke et Newman, 1997). Dans cet esprit, les enseignants sont perçus comme des unités de travail qui peuvent être dirigées et distribuées en fonction de critères et d’objectifs du management sans lien avec les caractéristiques des personnes. La « motivation », la « réussite », la « performance », la « progression » constituent les références incontournables d’un modèle du travail louant le travail en équipes, la coopération entre les individus et la mise en oeuvre de projets. Le management se charge de définir les cibles à atteindre (targets) qui sont revues en fonction des objectifs, l’évaluation et la rémunération des travailleurs demeurant étroitement liées à leur performance.

Si ces initiatives ont pu rencontrer un certain succès dans l’amélioration des résultats et une meilleure prise en compte du curriculum par les enseignants, ce régime d’entraînement intensif à la performance a généré d’importants problèmes (Hargreaves, 2003). Comme l’écrit Hargreaves, même si les instruments d’évaluation ont cherché à diversifier la mesure du rendement scolaire, le primat accordé aux disciplines fondamentales comme la lecture ou les mathématiques a considérablement réduit la formation de l’esprit critique ou de la créativité chez les élèves en même temps qu’elle les écartait des autres disciplines du curriculum. Peu appréciés des enseignants même lorsqu’ils constatent des progrès dans la réussite scolaire, ces régimes d’entraînement à la performance créent du découragement et une lassitude au détriment d’une réelle réflexivité. Plus grave encore, la formation professionnelle des enseignants s’apparente à l’entrée dans une secte au sein de laquelle la « divine et universelle vérité » de la recherche scientifique ou le dernier « gourou » des théories de l’apprentissage et du management délivre son « message de salut » à des enseignants désarmés…

Les épreuves de la mesure et les déplacements de la critique

On sait maintenant que le paradigme de l’école efficace a produit un certain nombre d’équivalences assurant une grande stabilité à ses énoncés scientifiques et à ses instruments, mais aussi ses modes d’administration de la preuve. Toutefois, historiquement, l’institution des épreuves de la mesure dans l’éducation a aussi contribué à affaiblir et à déplacer les ressorts de la critique progressiste.

Aux États-Unis, dans la première moitié du xxe siècle, les partisans de l’éducation nouvelle, à la suite de John Dewey, militaient pour une école plus centrée sur les besoins de l’enfant et sur son expérience et en appelaient à une diversification de la pédagogie et du curriculum. Mais les conceptions de ses pédagogues furent détournées par les principaux architectes des réformes éducatives et les partisans du « progrès » en éducation qui constituaient à l’époque une élite politique appelée les « administrateurs de progrès » (administrative progressives). Ces réformateurs constituaient un groupe unifié partageant les mêmes intérêts et les mêmes valeurs (Tyack et Hansot, 1982). Sous leur influence, la conduite des politiques éducatives donna lieu à un processus de planification porté par une idéologie de la science et du management considérant qu’il fallait renforcer le contrôle sur les écoles et sur les enseignants. Pour ces administrateurs de l’éducation, un management efficace nécessitait l’accumulation d’une information riche et diversifiée, ce qui explique la raison pour laquelle ils ont cherché à développer la statistique scolaire et les tests d’intelligence. À l’image des hommes d’affaires, ils entendaient maîtriser leur budget en termes de coût-efficacité en installant un processus de régulation industrielle des activités éducatives. Ces critères de standardisation et d’évaluation ont anéanti les espoirs d’une diversification pédagogique tant espérée par des pédagogues, en même temps qu’ils contribuaient à resserrer le curriculum sur les compétences du « lire, écrire, compter » ou sur celles évaluées par les tests.

Quelques décennies plus tard, la mesure en termes d’efficacité a joué un rôle important au moment de la publication du rapport Coleman, Equality of Educational Opportunity (Coleman et al., 1966), une étude commandée par le Congrès qui visait à envisager les différents aspects de la ségrégation dans les écoles américaines. Présentée souvent comme une enquête sur l’inégalité des chances, elle s’inscrivait en fait dans une logique d’évaluation des programmes de lutte contre la pauvreté mis en oeuvre par le gouvernement Johnson (Silver, 1991). À l’époque, l’évaluation de ces programmes apparaissait difficile du fait de la multiplicité de leurs objectifs et de l’impossibilité de mesurer leurs effets avec précision. Rapidement, la décision fut prise de lancer une évaluation à l’échelle fédérale, jugée plus objective sur les instruments utilisés et les effets mesurés, et permettant d’élaborer un jugement plus « sérieux » sur cette politique. C’est ici que le rapport Coleman joua un rôle décisif. Le rapport concluait que les différences entre écoles s’expliquaient davantage par les conditions familiales et économiques des élèves que par leurs conditions de scolarité. Ces conclusions, en confortant d’autres rapports tout aussi défavorables, diminuaient du même coup l’intérêt des programmes de compensation. À partir de ce moment, cette centration sur l’efficacité des programmes permettait de remettre en cause le compromis social existant et de corriger la tendance égalitaire mise en oeuvre par les politiques d’éducation (Jencks et al., 1972).

Le dernier épisode concerne la critique des enseignants et de leurs méthodes pédagogiques par les gouvernements britanniques successifs. En Grande-Bretagne, dans les années 1960, un important effort de formation des enseignants avait été réalisé, en partie en raison d’importants besoins de recrutement (Simon, 1991). À cet effet, différentes disciplines académiques furent mobilisées dans le champ de l’éducation, ainsi que des spécialistes du curriculum et de la pédagogie. Mais, dès les années 1970, des controverses ont émergé concernant l’efficacité des pratiques pédagogiques centrées sur les méthodes actives dans l’enseignement secondaire. En 1976, James Callaghan, alors premier ministre du Parti travailliste, lors de son célèbre discours à Ruskin College, lançait l’idée d’un grand débat sur l’école et d’un rapport qui deviendra un an plus tard le Green Paper Education in Schools (DES,1977). Critiquant de manière simpliste les méthodes pédagogiques des enseignants, des idéologues se sont mis à revendiquer une transformation des modes d’évaluation, de pilotage et de contrôle des écoles publiques anglaises. La notion d’efficacité, reprise dans le Green Paper, sous-entendait qu’il fallait rendre les LEA (Local Education Authorities) plus responsables de leurs actions dans le domaine du curriculum et de l’évaluation. La qualité devait être appréciée par des procédures renforcées de contrôle sur les résultats des élèves, notamment par l’intermédiaire des corps d’inspection. L’échec scolaire était imputé aux enseignants jugés incapables de faire atteindre des niveaux corrects aux élèves dans les compétences de base. Ce discours marqua tellement le monde politique et les médias qu’il fut par la suite pratiquement impossible de s’opposer publiquement à cette forme de critique de l’école publique anglaise. Les arguments furent amplifiés par les néo-conservateurs qui visaient à promouvoir l’excellence et les standards en éducation.

L’extension de la mesure : l’horizon du monde comme laboratoire

Une fois ses savoirs formalisés, puis sédimentés et capitalisés dans des instruments de mesure au service du management et de la politique, le paradigme de l’ « école efficace » a connu un troisième mouvement d’extension. Il s’agissait pour lui de mobiliser de nouveaux alliés et d’élargir ses réseaux au-delà du cadre national ou fédéral. Évidemment, les organisations internationales ont fourni aux représentants de cette science un espace de manoeuvre et de négociation facilitant leur reconnaissance en leur conférant une nouvelle forme de légitimité. Ces institutions ont également servi de laboratoires, ou mieux de centres de calcul, spécialisés dans la collecte et le traitement des informations concernant l’efficacité et la qualité de l’éducation (Cussó, 2004). Reste qu’il paraît légitime de s’interroger sur ce procès d’extension qui déborde le cadre d’un projet politique aux dimensions totalisantes. En effet, s’il s’agit bien de constituer le « monde comme laboratoire éducatif », il semble nécessaire de prendre en compte les possibles répercussions scientifiques et méthodologiques d’une telle ambition pour la sociologie politique de l’éducation et son appareillage critique (Derouet-Besson, 2003 ; Van Haecht, 2004).

Répliquer les instruments et structurer les alliances au niveau international

Pour faire tenir ses énoncés scientifiques, le paradigme de l’« école efficace » ne pouvait se cantonner à accumuler les preuves dans ses laboratoires. Il lui fallait également déplacer les épreuves de la critique progressiste tout en développant des alliances avec le monde politique. Mais, compte tenu du rôle croissant joué par les organisations internationales, le maintien de ces opérations de traduction obligeait de changer d’échelle et de compliquer les modèles (Charlier, 2004 ; Normand, 2004a). Pour comprendre ce mouvement, il est nécessaire de revenir une fois de plus sur l’histoire américaine, les États-Unis constituant le point de départ de cette extension de la mesure, d’abord au niveau fédéral, puis au niveau de l’OCDE.

Tout commence avec Ralph Tyler, le directeur de la Eight-Year Study, qui de 1938 à 1942 constitua la première évaluation du curriculum menée sur une grande échelle. Financée par la Fondation Carnegie et le General Education Board, cette étude partait du principe que l’efficacité d’un programme éducatif devait être déterminée en comparant les objectifs de ce programme à sa réalisation, une opinion largement partagée par les planificateurs de l’éducation et les spécialistes de l’évaluation de l’époque. L’un de ses deux assistants à l’époque était J.S. Bloom, l’inventeur de la « pédagogie de la maîtrise ». La Eight-Year Study laissa en héritage un certain nombre d’instruments qui furent réactualisés et réutilisés au lendemain de la Seconde Guerre mondiale. En 1963, alors que Tyler était le directeur du Center for Advanced Study in the Behavorial Sciences, il fut approché à nouveau par la fondation Carnegie et Francis Keppel, le commissaire de l’Éducation au niveau fédéral qui joua un rôle important dans les politiques d’éducation sous l’ère Kennedy et Johnson. On demanda à Tyler de mettre en place un programme d’évaluation au niveau national. Celui-ci est devenu le National Assessment of Educational Progress, une gigantesque évaluation des compétences des élèves américains au regard d’un certain nombre de standards, un recensement reconduit chaque année, connu aujourd’hui sous le nom de Nation’s Report Card (Normand, 2004b).

Il est intéressant de voir que ces instruments et les conceptions théoriques qui les accompagnaient, qu’elles proviennent de Bloom ou de Tyler, ont été repris lors du lancement des premières comparaisons internationales de résultat par l’IEA (International Association for the Evaluation of Educational Achievement). De plus, dès 1962, l’association internationale fut financée par le United States Office of Education dans le cadre d’un programme de recherche conduit par Benjamin Bloom à l’Université de Chicago. Celui-ci joua un rôle important dans la réflexion conduite au sein de l’IEA avant que Torsten Hùsen, le coordinateur du consortium, proche de Bloom et de Tyler, ne lance les premières grandes enquêtes internationales. Les travaux de Tyler ont servi de référence et le NAEP a joué un rôle décisif dans la promotion des comparaisons internationales de résultats au sein de l’OCDE. Au début des années 1990 l’organisme publia son premier ensemble d’indicateurs de l’enseignement destiné à orienter les politiques éducatives des pays membres et à fournir une base de comparaisons internationales dans le sens d’une plus grande qualité et efficacité des systèmes éducatifs. Par la suite, en plus des enquêtes PISA (Progress in Student Assessment) et TIMSS (Third International Mathematics and Science Study), l’OCDE a lancé un projet plus ambitieux d’indicateurs internationaux de l’enseignement afin de continuer le travail de comparaison et d’orienter les politiques éducatives des États-membres (Bottani et Tuijnman, 1994 ; Hutmacher, Cochrane, Bottani, 2001). Dans le même esprit, les statistiques et les indicateurs contribuant à la méthode ouverte de coordination prévue lors de la conférence de Lisbonne doivent permettre de faciliter le contrôle efficace des progrès réalisés par les États dans la mise en oeuvre de stratégies cohérentes (Charlier, 2004). La construction de ces indicateurs relève du « benchmarking », c’est-à-dire d’une recherche de comparaison des résultats entre différents pays à partir de tests de compétences et sur la base de standards préétablis qui correspondent eux-mêmes aux niveaux d’excellence et de maîtrise jugés nécessaires. Au nom de l’efficacité et de la qualité, il s’agit bien de viser une convergence et une harmonisation sur des systèmes éducatifs européens sur la base de standards communs.

L’extension de la mesure et les tentatives de clôture de la critique 

Jusqu’à présent, nous avons vu comment le déplacement et l’extension des instruments de mesure en éducation avaient contribué plus ou moins directement à un affaiblissement des ressorts de la critique d’inspiration progressiste. En effet, malgré les critiques adressées par certains spécialistes des méthodes quantitatives, les épreuves de réalisme et d’objectivisme, auxquels les défenseurs du paradigme de l’ « école efficace » invitent parfois leurs détracteurs, rendent difficile l’émergence d’analyses contradictoires du fait de leur impossibilité d’accéder aux mêmes niveaux de généralisation et de totalisation. Ainsi, le transport de ces épreuves dans des situations où les différents protagonistes disposent d’une relative asymétrie de prise devant des instruments éprouvés disqualifie les formes de dénonciation ou de critique en les réduisant à des prises de position subjectives ou idéologiques, voire à une nostalgie passéiste et conservatrice. Cependant, l’extension de la mesure favorise des opérations de clôture de la critique qui vont au-delà de questions méthodologiques. Je l’illustrerai à nouveau par trois exemples historiques.

En Grande-Bretagne, à partir de 1969, est apparue une série de pamphlets polémiques intitulés les Black Papers, publiés par un groupe disparate de membres du Parti conservateur (Simon, 1991). Leurs analyses ont été largement reprises par les médias et ont servi des objectifs politiques pendant une dizaine d’années dans une critique permanente et répétée de l’échec des écoles et des enseignants. Elles prônaient également le « back to basics », un retour aux apprentissages fondamentaux. Au cours des années 1970 et 1980, des Think Tanks conservateurs comme le Hillgate Group, le Centre for Policy Studies, la Salisbury Review, dont les arguments furent largement repris par la presse populaire britannique, consolidèrent les éléments de la critique. Celle-ci fut reprise quasiment à l’identique dans les livres blancs Teaching Quality (1983) ou Better Schools (1985), qui préconisaient le renforcement du contrôle sur les écoles et les enseignants. Par la suite, après l’Education Reform Act (1988) d’autres livres blancs comme Education and Training for the 21st century (1991) ou Choice and Diversity (1992) vinrent renforcer cette dénonciation. Aux États-Unis, au cours des années 1980, les mêmes voix réactionnaires se firent entendre pour critiquer le déclin des écoles publiques américaines (Berliner, 1995). L’ensemble de ces critiques aboutira à la publication du rapport A Nation At Risk en 1983, une charge très virulente de la Maison-Blanche à l’encontre des écoles publiques américaines.

Cette rhétorique s’est aussi construite sur un usage impropre des données disponibles, notamment celles provenant des comparaisons internationales de résultats. Comme le montre Berliner, certains partisans de la school effectiveness n’ont pas hésité à sacrifier leur propre déontologie pour démontrer, sur des bases douteuses, que les écoles privées avaient de meilleurs résultats que les écoles publiques. Certains rapports comme What Works : Research About Teaching and Learning (1986) ont transformé les résultats de la recherche en outil de propagande pour l’administration Reagan, en ignorant les arguments contradictoires. Un événement similaire a affecté le Sandia Report (1990), un rapport initialement préparé par les responsables de Sandia National Laboratories, un service du département américain de l’Énergie, qui proposait une analyse méticuleuse de la situation de l’éducation aux États-Unis. Comme les éléments du rapport ne convenaient pas aux objectifs fixés par Bush qui avait annoncé à l’époque sa décision d’être le « président de l’Éducation », et que les données contredisaient les affirmations des responsables officiels de l’éducation, on demanda à ce que ces données soient revues par des membres du National Center for Education Statistics et de la National Science Foundation. Après révision et suppression des éléments de controverse, il fut décidé que le rapport pouvait être publié.

En parallèle au lancement de ces grandes enquêtes, se sont développées, au cours des dernières décennies, des procédures de méta-analyse inspirées de la recherche médicale, c’est-à-dire des études combinant et analysant des données provenant de plusieurs enquêtes. Ces procédures de l’ « essai contrôlé randomisé » ont d’ailleurs sensiblement transformé l’éthique médicale et rencontré la résistance des cliniciens (Marks, 1999). Mais pour ses promoteurs, la technique des essais randomisés constituait un critère d’excellence scientifique dans la recherche. C’est sans doute la raison pour laquelle le département de l’Éducation américain, à la suite de la loi fédérale de 2001 No Child Left Behind renforçant le contrôle sur les écoles, a jugé utile de lier le financement des recherches sur l’éducation à la production d’une connaissance scientifique basée sur des essais randomisés contrôlés (randomized controlled trials), afin de faire reposer les décisions politiques dans le domaine de l’éducation sur des preuves rigoureuses et incontestables (evidence-based policy). Récemment, le CERI (Centre pour la Recherche et l’Innovation dans l’Enseignement) de l’OCDE a lancé un projet consacré à l’evidence-based policy research impliquant différents pays dont les États-Unis et la Grande-Bretagne, visant à discuter des modalités d’organisation et de financement de la recherche dans le domaine de l’éducation et à promouvoir des comparaisons internationales. Une fois de plus, la comparaison avec le monde médical est intéressante quand on sait que les essais contrôlés, outils de la modernité thérapeutique, visent non seulement à normaliser la production des connaissances scientifiques mais aussi à satisfaire aux calculs de profitabilité et de rentabilité dont se nourrit le capitalisme pharmaceutique (Dodier, 2003).

Conclusion

En empêchant les profanes de participer à la discussion, et par conséquent à la critique de ses instruments et de ses énoncés scientifiques, le paradigme de « l’école efficace » s’assure un monopole de la connaissance et de l’expertise. Cette figure moderne de la recherche confinée, refermée sur ses chercheurs et ses instruments de mesure, au sein de laboratoires maintenant la coupure avec l’espace public, correspond à un régime de l’exactitude caractérisant depuis le xviiie siècle une course à la puissance instrumentale dans la production de la vérité scientifique (Licoppe, 1996). Mais, dans le domaine de l’éducation comme dans d’autres domaines, ce grand partage soulève plus de questions qu’il n’est capable d’en résoudre (Beck, 2001). En effet, la délégation politique de l’expertise à des scientifiques remet en question un équilibre démocratique, certes fragile, mais à partir duquel les enjeux et les finalités de l’école peuvent être ouvertement débattus. La recherche d’un consensus n’est viable que si les divergences entre groupes d’intérêts ou esprits partisans, loin d’être ignorées, sont au contraire affirmées et revendiquées dans le cadre d’un débat pluraliste. Reste que l’organisation de cette discussion ne doit pas se réduire à un dispositif facilitant la préparation des décisions dont les décideurs pressentent qu’elles risquent d’être controversées. De même, les prises de parole ne sauraient être instrumentalisées par des questionnaires rédigés à l’avance ou par des énoncés scientifiques préalablement sélectionnés et soigneusement mis en avant. Le débat ne doit pas être non plus un simple outil de légitimation où les décideurs consultent, donnent la parole, en se gardant bien de retenir par la suite l’étendue des discussions.

Si une réflexion sur des critères communs et partagés de l’organisation du débat semble souhaitable, elle n’élude pas pour autant la question du choix des instruments de mesure pour la mise en oeuvre de la décision politique et l’évaluation de ses effets. Comme l’écrivait déjà Pierre Bourdieu, la rationalisation formelle des critères et des techniques de jugement dans la docimologie ou dans des tests fait oublier que des juges différents peuvent s’accorder sur des jugements identiquement biaisés parce que fondés sur les mêmes critères implicites, faute de s’interroger sur les fonctions sociales de procédures utilisées (Bourdieu, 1970, p. 200-201). Un peu plus loin, le sociologue considérait que les indicateurs de la « rationalité » du système d’enseignement se prêtaient plus difficilement à l’interprétation comparative qu’ils exprimaient la spécificité historique et sociale des institutions et des pratiques scolaires (p. 212-213). Pour lui, peu importaient les indicateurs choisis, il lui paraissait évident qu’ils reposaient sur une définition implicite de la « productivité » du système scolaire qui, en se référant à sa rationalité formelle et externe, réduisait le système de ses fonctions à l’une d’entre elles, elle-même soumise à une abstraction réductrice : la mesure technocratique du rendement scolaire, modèle appauvri d’un système ne connaissant d’autres fins que celui du système économique et du marché du travail. Trente ans après, ces idées trouvent un singulier écho même si l’analyse sociologique, délaissant l’étude des grandes fonctions de l’école, a contribué depuis à l’ouverture de la « boîte noire » et à de nouvelles perspectives sur la question des inégalités (Derouet, 2001). Les théories de la reproduction avaient cependant un mérite : elles entendaient ne pas dissocier la mesure du système éducatif de celle du partage des bénéfices, une conception qui n’a guère été reprise par le paradigme de l’ « école efficace ».