Abstracts
Résumé
Un programme de formation autoportante type tutoriel à suivre en mode asynchrone par les membres de la maîtrise de l’ESG UQAM a été réalisé par le Service des bibliothèques. Il vient combler les lacunes en compétences informationnelles qui avaient été mesurées dans un sondage de la Promotion du développement des compétences informationnelles (PDCI). Parmi les modules à réaliser, un devait porter sur l’évaluation des sources. De cette démarche a émergé une réflexion plus large sur la méthode d’évaluation à mettre de l’avant pour former les personnes étudiantes. La consultation des modèles disponibles de même que la revue de littérature a permis d’identifier que les stratégies existantes n’étaient pas adaptées à la formation, car ils fonctionnent surtout par une analyse par type de document. Cet article présente donc la stratégie retenue pour former à l’évaluation des sources (Module 5) de la formation ESG UQAM. Il positionne également le choix de proposer une méthode par étapes qui mène en dernier lieu l’apprenant à celle de l’évaluation de l’information.
Abstract
A self-supporting tutorial-type training programme to be followed asynchronously by members of the ESG UQAM Master’s programme has been produced by the Library Service. It fills the information skills gaps that were measured in a survey conducted by the Promotion of Information Skills Development (PDCI). Among the modules to be developed, one was to deal with the evaluation of sources. From this process emerged a broader reflection on the evaluation method to be used to train students. The consultation of available models as well as the literature review allowed us to identify that the existing strategies were not adapted to training, because they function mainly through an analysis by type of document. This article therefore presents the strategy chosen to train in the evaluation of sources (Module 5) of the ESG UQAM course. It also positions the choice of proposing a step-by-step method that ultimately leads the learner to the evaluation of information.
Article body
Il est important de pouvoir se fier à l’information repérée, qu’elle soit imprimée ou électronique. Le chercheur doit faire preuve de jugement critique pour en évaluer la qualité et la pertinence. Aussi, toute information dont on ignore la provenance devrait a priori être écartée.
Infosphère (2015)
Introduction
Ce n’est plus un phénomène de mode ni même une tendance. La formation aux compétences informationnelles (CI) est inscrite depuis plusieurs décennies dans l’ADN des bibliothèques universitaires. Parmi la gamme de services de soutien à l’enseignement de notre institution, l’UQAM, les formations à la recherche d’information se hissent en tête de liste. Les lieux de partages d’expérience et d’innovation, ainsi que les communautés de pratiques sont désormais répandus.
Les professeurs, nos partenaires de la première heure, signalent, d’une session à l’autre, la pertinence d’intégrer la prestation de ces formations dans le cursus universitaire de leurs personnes étudiantes. Toutefois, encore à ce jour dans nos bibliothèques, le corps enseignant appuie ses demandes sur le besoin de former leurs apprenants sur les outils spécialisés, type bases de données de grands éditeurs scientifiques, afin de hisser la qualité des sources exploitées par leur communauté étudiante. Effectivement, en allant directement interroger les outils à la plus grande réputation savante, il appert pour un enseignant que les références citées en bibliographie atteindront le plus grand standard de qualité (Metzger, 2007, p. 2078). Mais cette approche ne favorise pas la perspective critique des sources d’information. Celle-ci est comblée par le développement de la compétence d’évaluation. Encore à ce jour, plusieurs bibliothécaires-formateurs mentionnent manquer de temps pour former sur cet aspect des CI. Les professeurs jugent plus utiles de diriger directement leurs apprenants vers des outils de recherche disciplinaires ciblés au détriment d’éduquer sur les capacités d’analyse de sources plurielles. En contrepartie, les personnes étudiantes persistent à exploiter les moteurs de recherche comme Google pour trouver de l’information pour leurs travaux de recherche (Choolhun, 2009, p. 168).
Un modèle existant
Pourtant, le Référentiel de compétences informationnelles en enseignement supérieur (ACRL, 2016) inclut des habiletés définitivement liées à l’évaluation de l’information. Selon l’ACRL (Association of College & Research Libraries) qui l’a rédigé, elles sont non seulement fondamentales pour le choix juste de sources d’information en vue de les inclure dans un travail de recherche de niveau universitaire, mais elles sont nécessaires pour participer aux échanges savants autour d’une problématique.
-
L’autorité est construite et contextuelle
« Les apprenants qui développent leurs CI utilisent des outils de recherche et des indicateurs d’autorité pour évaluer la crédibilité des sources, tout en tenant compte des éléments pouvant atténuer cette crédibilité » (ACRL, 2016, p. 9).
-
La recherche savante est une démarche d’investigation
« Les apprenants qui développent leurs CI analysent l’information recueillie pour y détecter des lacunes ou des faiblesses » (ACRL, 2016, p. 15).
« Les apprenants qui développent leurs CI conservent un esprit ouvert et un point de vue critique » (ACRL, 2016, p. 16).
-
La production de savoirs résulte d’échanges
« Les apprenants qui développent leurs CI portent un jugement critique sur les contributions des participants dans divers environnements collaboratifs » (ACRL, 2016, p. 17).
Il est donc manifeste que les professionnels de l’ACRL qui ont conçu le référentiel étaient préoccupés par cette facette à aiguiser chez le chercheur d’information. Le choix et la critique des sources se répartissent au minimum, à travers trois fondements (sans compter d’autres habiletés et dispositions disséminées à travers les autres). Les bibliothécaires académiques ne peuvent ignorer ce guide essentiel à leurs pratiques de formateur quand vient le temps d’instruire leurs apprenants.
Un projet de formation à distance impliquant l’évaluation des sources
Dans le contexte universitaire, les besoins de nos communautés sont régulièrement identifiés grâce à une collecte de données ou une recherche réalisée. Ainsi, une entente est née entre l’ESG UQAM (École des sciences de la gestion) et le Service des bibliothèques pour réaliser un projet novateur. Une formation autoportante, offerte complètement en ligne, devait être conçue en vue de former aux CI leurs étudiants inscrits au programme de maîtrise. Il avait été mis de l’avant dans une étude (PDCI, 2018) que les membres qui s’instruisent dans ces sciences performaient en deçà de la moyenne québécoise lorsqu’il est question de CI. Ce projet a été échafaudé pour pallier ces faiblesses. Certains freins ont été expérimentés, incluant le contexte pandémique, où collectivement, il a fallu s’adapter, mais ce dernier événement a permis de pousser les possibilités de formation en exploitant mieux les fonctionnalités offertes par les plateformes disponibles, expliquant que finalement, la formation en ligne soit déployée seulement à la session d’hiver 2022.
Pour arrimer la formation aux besoins, un sondage réalisé par les bibliothécaires desservant la Faculté de gestion a été envoyé aux professeurs de l’école. Ce questionnaire, lancé en amont du processus, a présidé le développement du tutoriel. Le corps enseignant devait attribuer une note quantifiant leurs intérêts sur les concepts à aborder dans la formation (par exemple, la recherche dans les outils spécialisés des sciences de la gestion, la bibliométrie, la citation des sources, etc.). Les professeurs ont priorisé les apprentissages à mettre de l’avant pour leurs étudiants.
Ainsi, la formation MSG8000 – Activité de développement des compétences informationnelles qui se décline en sept modules[1] a été créée. Son élaboration par des bibliothécaires du service a représenté de nombreuses heures de travail et réflexion, car elle est désormais obligatoire à la réussite des centaines d’inscrits du programme de maîtrise en sciences de la gestion (un des programmes qui accueille le plus d’étudiants de cycle supérieur à l’UQAM). La plupart des contenus proposés visent le développement général des CI, mais les apprentissages sont ancrés dans la spécificité des sciences de la gestion pour ce qui est des exemples utilisés pour illustrer les concepts enseignés.
Pour répondre aux besoins soulignés par les professeurs de l’ESG, cette formation devait contenir un module sur l’évaluation, prétexte idéal pour aller plus loin que ce que proposait Infosphère (UQAM, 2015) de même que de refaire une revue de littérature sur cet aspect des CI. L’évaluation, souffrant régulièrement d’un écrèmage lors de prestations de formation (en présentiel ou à distance, en mode synchrone), se voyait revenir en avant-plan des compétences à atteindre pour réussir la formation autoportante. Elle est donc devenue le centre du Module 5 « Évaluer ses sources ». Un aspect intéressant à préciser est que les professeurs de l’ESG ont donné leur aval pour qu’une évaluation sommative soit soumise aux étudiants, condition sine qua non à la réussite du cours MSG8000, donc de leur maîtrise.
Tour d’horizon des tutoriels disponibles et revue de littérature
Avant de construire un module sur la compétence d’évaluation, les tutoriels déjà existant réalisés par les bibliothèques universitaires ont été passés en revue. Il fallait s’assurer que les apprentissages indispensables soient retenus et qu’en revanche, ceux délaissés par le programme de formation à distance de l’ESG soient mis de côté de manière éclairée. En effet, faire des choix signifie éliminer.
Plusieurs plateformes de formation comportent un volet sur l’évaluation de l’information. Néanmoins, l’intitulé retenu par les différentes bibliothèques varient bien qu’il désigne un même processus. Le terme Évaluer est celui qui revient le plus souvent en langue française (Université de Sherbrooke, 2021 ; Université de Liège, s. d.) et Evaluating en langue anglaise (Concordia, 2020 ; University of Sydney, 2021).
Pour la plupart, les modules proposant des méthodes d’évaluation sont courts. Ils suggèrent aux apprenants de passer à travers une série de questions ou liste de points à analyser lorsqu’une source est trouvée. Cette pratique apparaît faire concensus.
L’utilisation de questions (ou questionnaire à appliquer) est également répandue dans la littérature lorsqu’un processus d’évaluation est effectué. Les articles trouvés sur les bonnes pratiques à adopter pour former à cette stratégie emploient cette méthode (Hjørland, 2012 ; Soung, 2017). Des gabarits d’analyse sont également disponibles pour guider à travers ce processus (Leporati et al., 2019).
Les articles faisant état de recherches scientifiques sur le phénomène de l’évaluation travaillent habituellement à partir de groupes de participants et elles étudient leurs comportements lorqu’ils s’intéressent à une source d’information (Metzger, 2007 ; Wineburg et al., 2016). Metzger (2007, p. 2080) mentionne en plus que l’évaluation réalisée par les sujets de son échantillon devient très variable dépendant si la tâche à réaliser prend beaucoup de temps. Par exemple, elle souligne que les vérifications autour de l’auteur (son identité, ses qualifications et ses affiliations) se réalisent rarement ou occasionnellement, car elles requièrent plus d’engagement de la part du participant par rapport à l’évaluation d’un site web (actualité, exhaustivité et objectivité). Toutefois, l’autrice modère ses propos en soulignant que les sujets n’effectuent pas régulièrement ces vérifications.
Réinventer la roue, pour quelle raison ? Revue d’autres méthodes proposées
Le portrait de la situation étant dressé, une question s’est posée : pourquoi ne pas reprendre un modèle déjà existant pour former à la compétence d’évaluation ? Certains analysés s’avèrent très efficaces et développent les capacités critiques souhaitées. Plus simple que de réinventer la roue, sous-entendant réutiliser une stratégie déjà éprouvée par les pairs, créer un module de toutes pièces requérait de repenser une question déjà maintes fois réfléchie. Mais un constat a été réalisé. Aucun tutoriel ou méthode n’apparaissait complet.
Infosphère (UQAM, 2015) est un exemple rayonnant dans le milieu des bibliothèques universitaires. Même sa première mouture était consultée au-delà des personnes étudiantes inscrites à l’UQAM. Le tutoriel reste un outil de référence international ; sans surprise, ce sont les pays de l’Europe et de l’Afrique francophone qui se hissent en tête de l’utilisation hors de nos frontières avec à eux seuls, plus de 30 000 visites en 2021. Sa refonte en 2015 a permis de hausser son achalandage (l’autoformation dépasse les 100 000 visites pas année), car la restructuration des contenus a simplifié la navigation pour l’utilisateur de même que resserré le processus de recherche d’information (quatre modules ont été retenus plutôt que les neuf initiaux). La plateforme a également été bonifiée ; pensons simplement aux capsules vidéo et aux formulaires dynamiques intégrés de la boîte à outil. Le troisième volet, Analyser l’information, vise à développer le jugement critique des sources d’information via l’application de critères par type de document (UQAM, 2015). Il propose aussi le tableau Les revues en revue. Ce dernier fort instructif forme à l’identification des types de revues existant dans le monde des publications périodiques grâce à un comparatif clair et concis. Malgré l’intérêt indéniable de la version 2 d’Infosphère, avec un recul de sept années, l’autoformation devrait encore être mise à jour. En l’occurrence, il serait intéressant que la plateforme propose une méthode intégrée d’évaluation ancrée dans les nouvelles manières de diffuser l’information (entre autres, en considérant l’accélération de la circulation de documents sur le web et de l’impact des médias sociaux pour le monde de la recherche académique).
Ajoutons au débat l’existence d’autres modèles à considérer. Ils participent d’une diversité abordant la question de manière différente. Les fausses nouvelles (FN) ont fait émerger un intérêt pour l’éducation des citoyens (Annenberg Public Policy Center, 2022 ; Société Radio-Canada, 2022). Le rapport à l’information des FN engendre une méfiance renouvelée par leur circulation sur la toile, mais elles ont surtout braqué la pertinence de l’évaluation qui est désormais même enseignée aussi tôt qu’au primaire (Détecteur de rumeurs, 2021 ; HabiloMédias, s. d.). Des gabarits valables ont été imaginés, par exemple, celui très pertinent de l’IFLA (2008).
Une pratique a même percé en lien avec la propagation des FN, c’est-à-dire la vérification des faits. Les méthodes d’analyse employées sont désormais connues et diffusées au public. Wineburg et Mcgrew (2016, 2 novembre) ont réalisé une étude sur la manière dont les étudiants de premier cycle réalisent l’évaluation de l’information. Il ressort que ceux-ci tentent en premier lieu d’analyser les contenus, ce qui est une erreur selon leur conclusion. Il faudrait d’abord s’assurer que le site web où l’information est trouvée s’avère fiable. En revanche, les deux auteurs ont comparé le travail d’évaluation réalisé par des vérificateurs de faits professionnels (fact-checkers). Leur méthode suit trois étapes logiques :
-
Un vérificateur ne reste pas sur un site inconnu ; il le quitte ;
Un vérificateur de fait opère une lecture horizontale d’un document, c’est-à-dire qu’il s’assure de valider l’autorité avant de lire le contenu.
-
Un vérificateur ne se fie pas sur les informations qui sont avancées dans la section « À propos » ;
Il doute de ce qu’une organisation prétend sur elle-même, car elle a le loisir d’avancer plusieurs affirmations sur ses activités ou mission.
-
Un vérificateur va au-delà des premiers résultats de recherche dans un moteur de recherche.
Il se fait guider plutôt par les URL et les brefs résumés affichés dans les résultats de recherche plutôt que d’utiliser les premiers affichés. Leporati et al. (2019, p. 235) croient aussi que les étudiants comptent trop sur les algorithmes de tri des moteurs de recherche pour trouver de l’information crédible.
Wineburg et Mcgrew (2016, 2 novembre) croient également qu’il s’avère nécessaire d’exposer les étudiants à une profusion de documents se trouvant sur le web pour qu’ils développent leur jugement critique. Leurs conclusions intéressent dans le contexte de l’élaboration d’un module de formation sur l’évaluation.
Or, ces dernières manières d’analyser l’information posent encore une difficulté. Les pratiques de vérification établies autour de la détection de FN n’aident pas à dégager les codes d’écriture de la publication scientifique (Barthélémy, 2012, 26 septembre). Par exemple, repérer le DOI, l’identifiant ORCHID, l’affiliation d’un auteur, le processus d’acceptation/publication de la revue, la diffusion chez un grand éditeur scientifique, etc. ; éléments peu connus encore des personnes étudiantes de 1er cycle et même, dans certains cas, de celles de cycle supérieur (par exemple, les étudiants faisant un retour aux études, d’origine étrangère, de profil de bac par cumul de certificats, etc.). Pour les outiller à la qualité d’une source savante, il est possible de mettre de l’avant l’excellent Foutaisomètre (Martinolli, 2021). Cet outil d’analyse adapté et efficace sensibilise avec beaucoup d’acuité aux pratiques de l’édition scientifique.
Le casse-tête a toutefois persisté comme la plupart des modèles, méthodes ou gabarits performants ont été conçus pour former à l’évaluation d’un type de documentation ou d’information en particulier :
Les FN (IFLA, 2008) ;
L’actualité scientifique (Lavallière, 2021) ;
Les sites web (Hjørland, 2012 ; Bibliothèques du réseau de l’Université du Québec, 2010) ;
Les communications via les réseaux sociaux (Wineburg et al., 2016) ;
La publication savante (Martinolli, 2021) ;
Etc.
Il était souhaitable d’avoir un modèle plus inclusif qui n’évacuerait pas de type de document. Qui donnerait des clés d’analyse pour la plupart des documents trouvés. Il fallait également profiter de ce module pour expliquer les mécanismes dont se dote la science pour critiquer sa production de savoirs parce que la conséquence principale de son système de révision percole dans la valeur et la qualité de ses publications (mémoire et thèse, article scientifique, presses universitaires, etc.). Les efforts de vérification réalisés par la communauté scientifique deviennent une force comparativement à la facilité de publier sur la toile.
Stratégie d’évaluation des sources trouvées
Au terme d’une réflexion, de l’analyse de plusieurs modèles et des constats dégagés de la littérature scientifique, il a finalement été proposé aux personnes étudiantes inscrites à la maîtrise en sciences de la gestion, une méthode plus inclusive pour passer en revue les sources d’information trouvées dans leur contexte de recherche universitaire. La stratégie d’évaluation proposée ci-dessous représente la somme des modèles étudiés. De plus, elle permet d’élargir l’analyse à tous types de documents, peu importe l’information contenue, ce qui s’avère un gain par rapport aux méthodes existantes. Elle pourrait même prétendre s’appliquer à d’autres domaines de la connaissance, car elle n’est pas spécifique aux publications issues des sciences de la gestion. Le processus se décline en 5 critères qui contiennent 6 questions guides.
Ci-dessous, le modèle proposé aux candidats.
1- Critères factuels
Où ?
Identifier l’aspect géographiqueQuestions pour : tous documents textuels
Est-ce que les informations contenues dans le document concernent la région que vous étudiez ? Québec ? Amériques ? Europe ? Afrique ? Sinon, est-ce que les résultats de cette recherche peuvent s’appliquer dans votre contexte géographique ?Quand ?
Identifier la fraîcheur de l’informationQuestions pour : tous documents textuels
En quelle année le document a-t-il été publié ? S’il date, cela fait-il en sorte que l’information s’en trouve périmée ? Peut-être un document a-t-il été publié depuis, permettant de pondérer les arguments avancés ? De plus, est-ce que la liste des références du document cite des documents récents ou anciens ?
2- Critère esthétique
Comment ?
Observer et décrire la présentationQuestions pour : site Web
Le site présente-t-il une allure sobre et professionnelle ? Est-ce facile d’en identifier la structure de l’information ou est-ce plutôt obscure ?
Il faut rester très attentif, car les contenus Web problématiques, comme les sites de fausses nouvelles, prennent parfois l’apparence du contenu de qualité.Questions pour : document textuel (article de revue, monographie ou rapport)
Comment l’information est-elle présentée ? Dans tous les cas, le document a-t-il une bibliographie qui respecte des normes de présentation (un style bibliographique propre à une revue ou un éditeur) ? Le document comporte-t-il des fautes d’orthographes ?Questions pour : article de revue scientifique (critères additionnels)
Pour un article, sa structure ressemble-t-elle à celle d’une source scientifique ? Par exemple comprenant un résumé, une introduction, une méthodologie, une bibliographie, etc.
3- Critère d’intention
Pourquoi ?
Décoder le but d’une publicationQuestions pour : tous documents
Quelles sont les intentions derrière la publication du document ? Dans quel but ce document semble-t-il avoir été publié ou diffusé ? Qui en est le public cible ? Est-ce que le sujet est traité pour mettre de l’avant des faits ou plutôt des opinions ? Est-ce que ces faits et opinions sont séparés ou apparaissent amalgamés ? Quelles idées sont promues ? Est-ce sensationnaliste (opinions scandaleuses) ? Quel est le contexte de publication ? Est-ce que la publication est faite en visant un but lucratif ? Veut-on vous vendre un produit ou un service ? Veut-on vous garder captif d’une plateforme ou faire de l’argent grâce au trafic généré sur la plateforme en vendant de la publicité ? Veut-on vous inciter à partager un contenu ou diffuser des idéologies ? S’agit-il de la « science alternative » ?
4- Critère d’autorité
Qui ?
Identifier l’auteur, l’éditeur d’une publication ou la revueQuestions sur : auteur-chercheur
L’auteur fait-il partie de la communauté scientifique ? Possède-t-il un doctorat d’une université connue et dans une discipline directement liée au contenu du document qui vous intéresse ? Afin de tirer cela au clair, intéressez-vous d’abord à son affiliation institutionnelle : quelle est le nom de l’organisation (université) dans laquelle il effectue ses travaux ? Sur la première page d’un article scientifique, l’affiliation de l’auteur est clairement mentionnée, ainsi que ses coordonnées professionnelles afin de pouvoir le joindre. Est-ce que son curriculum vitae ou des informations détaillées le concernant sont disponibles sur le site Web de son institution ? Dans la très grande majorité des cas, cette personne évolue dans le milieu universitaire et est souvent rattachée à un ou divers groupes de recherche.
Il devrait être facile de trouver des informations sur un auteur, peu importe la stratégie de vérification de son autorité que vous utilisez. Que ce soit via l’outil de recherche des bibliothèques, les bases de données scientifiques, les bases de données bibliométriques, les réseaux de chercheurs ou le site Web de l’éditeur, vous devriez être en mesure de trouver des traces de ses contributions scientifiques.
En contexte scientifique, un auteur est crédible quand ses travaux sont cités par ses pairs, témoignant ainsi que ceux-ci reconnaissent qu’il est un chercheur légitime, qu’il fait partie de la conversation savante dans son domaine. On peut souvent s’en remettre à eux, car ce sont les plus à même de juger de la valeur scientifique de ses travaux puisqu’ils ont passé au crible sa méthodologie, l’utilisation qu’il fait de ses instruments de mesure ainsi que les résultats et conclusions qu’il tire de ses travaux.
Puisque la science est une activité collective, vous pouvez aller plus loin en vous intéressant spécifiquement au graphe social de l’auteur : avec qui est-il en relation, c’est-à-dire avec qui cosigne-t-il ses publications ? Dans quels réseaux de chercheurs s’insère-t-il ? Colepicolo (2015, p. 651) fait remarquer que plus il y a d’auteurs qui signent ensemble un document, plus celui-ci risque d’être fiable. Ce concept se nomme « l’autorité collective » et il se traduit également dans les affiliations de chacun d’entre eux.Questions sur : auteur-professionnel
Tout comme le chercheur, il devrait être aisé de trouver de l’information sur le parcours académique (diplômes obtenus et domaine) et professionnel (emplois précédents et actuels). Pouvez-vous valider l’expérience acquise sur le marché professionnel et l’implication en gestion (ex. conseils d’administration, associations professionnelles, communications lors de colloques/congrès, etc.) ? Voir comment s’inscrit l’auteur dans les réseaux professionnels (ex. LinkedIn, sites Web d’association, etc.) vous aidera à juger du niveau d’appui de ses pairs.Questions sur : éditeur ou la revue
Si l’auteur est difficile à identifier, y a-t-il un indice permettant d’attribuer une responsabilité à la publication ? Quel est l’organisme derrière ? Quel est en sa réputation ? Est-ce que l’information est reprise par d’autres sources fiables ou une agence de presse ? Est-ce un groupe exerçant un lobby ? Quelles opinions sont mises de l’avant dans l’espace public ? Est-ce que le site comporte une section « À propos » et « Nous joindre » offrant plus de détails sur son contexte ?
Chaque revue scientifique active possède un site Web où l’on peut connaître le nom des personnes qui font partie du comité de rédaction et d’évaluation des manuscrits reçus. Si vous ne parvenez pas à contextualiser un document en le rattachant à son instance éditoriale, il s’agit probablement d’une publication à compte d’auteur. L’autopublication ou l’autoédition gagne à être écartée d’emblée, car aucun éditeur n’assure un travail de filtrage ou ne met en place un processus crédible de validation.
5- Critère de contenu
Quoi ?
Analyser les informations avancées dans un documentQuestions pour : document imprimé et électronique (article de revue, livre électronique ou document web)
Le sujet du document est-il énoncé clairement ? Est-ce que les informations qui y figurent sont directement reliées au sujet ? Pouvez-vous vous appuyer sur des faits et des arguments, et les citer ? Est-ce que la terminologie s’avère scientifique ? Quelle est l’approche utilisée (historique, sociologique, économique, etc.) ? Est-ce un document important pour l’avancement des connaissances ?
Est-ce que le contenu est pertinent ? Quelle est la fiabilité des informations ? Sont-elles neutres ? Sont-elles présentées comme des faits ou plutôt des opinions ? Des données de recherche sont-elles présentées (figures, tableaux) ? Pourriez-vous, dans un contexte identique, reproduire les résultats de recherche ? Est-ce que leur mesure est indiquée clairement et constante ? Ces compléments sont-ils identifiés avec un titre clair ? Est-ce que les sources indiquées en bibliographie vous paraissent fiables ? Êtes-vous en mesure de remonter à ces sources ?Questions pour : article de revue scientifique (critères additionnels)
Est-ce qu’il a été révisé par un comité de pairs ? Est-ce que la méthodologie de recherche est clairement exposée ? Décryptez-vous des failles dans celle-ci ou des aspects obscurs ?
Distinguer l’évaluation des sources et l’évaluation de l’information
Le modèle proposé dans le tutoriel de l’ESG UQAM vise à aiguiser les capacités d’analyse des candidats à la maîtrise et surtout, de procéder par critères. Du plus simple au plus complexe. Ainsi, dans le cas où la personne étudiante cesse son évaluation (Metzger, 2007) au critère 4, c’est-à-dire le critère d’autorité, question « Qui ? », elle aura malgré tout traversé les 3 critères les plus simples, rapides et factuels. De plus, comme la littérature le soutient (Wineburg et al., 2016), il demeure beaucoup plus ardu pour un étudiant de critiquer un contenu, surtout lorsqu’il connaît peu une discipline. Grâce à la stratégie d’évaluation, il considérera au moment opportun les questions nécessaires et inhérentes à se poser lors de la critique du contenu. Dans cette filiation, intituler le module « Évaluer l’information » aurait prétendu former les étudiants à porter un jugement critique visant, en particulier le contenu, ce qui reste ardu et, selon l’avis de bibliothécaires, relève également de la formation à la critique disciplinaire, impliquant explicitement l’apport de spécialistes de problématiques (par exemple, des professeurs) (Michelot, 2020, p. 101).
En effet, il demeure très difficile pour un étudiant nouvellement initié à un domaine de la connaissance de développer une capacité critique de la pensée d’auteurs à l’autorité rayonnante (par exemple, Mintzberg en gestion). Le corps professoral de l’UQAM dirige spontanément leurs étudiants vers les meilleures sources ou références disciplinaires pour connaître les piliers de leurs approches méthodologiques, conceptuelles et critiques, selon les données extraites des bibliographies de plan de cours reçus et dépouillées par le Service des bibliothèques. Même s’il est important de confronter le point de vue de grands auteurs pour maîtriser les compétences dictées par l’ACRL (2015), il reste difficile, pour un nouvel apprenant, de démonter des auteurs fondamentaux. En cela, le travail de la formation autoportante cible en premier lieu de développer une stratégie d’évaluation des sources.
Travailler d’abord avec les 5 premières questions d’évaluation permet de repérer facilement de l’information sur la source. Une publication de valeur n’a pas peur de s’afficher et de mettre de l’avant sa crédibilité. Cette stratégie s’avère centrale pour former sur la méthode d’évaluation au sein du tutoriel de l’ESG. Les 5 premières questions aident à conduire une analyse concise comme il peut être difficile de juger de la qualité d’une recherche, le « Quoi ? » (problématique, méthodologie, résultats, reproductibilité, etc.). Cela évite à la personne étudiante de perdre du temps sur l’analyse des contenus (Soung, 2017, p. 43) qui devrait être réalisée en dernier lieu (Caulfield, 2017, p. 77). C’est la partie la plus aride à évaluer. Ceci explique également la longueur du critère d’autorité par rapport aux autres. La question « Qui ? » permet de cibler rapidement la qualité d’une source et porte grandement la décision de retenir ou d’évacuer un document d’une bibliographie de recherche. Comme Mai (2013) le rappelle, il faut tenir compte de l’intention et de l’expertise de l’auteur sur un sujet pour utiliser son information. Des questions réparties entre les critères amènent aussi le chercheur à s’intéresser aux enjeux liés à l’éditeur. Une section du critère d’autorité le vise directement. En contrepartie, il est possible de dégager des indices de l’importance de son travail semés à l’intérieur du critère esthétique comme la forme utilisée pour présenter l’information s’avère nécessaire à considérer. L’éditeur en porte la responsabilité. Ce fait reste important à souligner à un apprenant. Comme l’éditeur contribue à appuyer la caution intellectuelle d’un document, cerner ses pratiques éditoriales devient incontournable. Ces pistes essentielles supplémentaires appuient la démarche d’un étudiant pour qu’il jauge la qualité d’une source.
Pour ce qui est des critères 1, 2 et 3, dont les réponses restent plus simples à documenter dans la grille[2], il s’avère logique de les mettre au tout début du processus d’évaluation, car l’apprenant développe promptement un sentiment de compétence pour la tâche[3]. L’idée de poser ces trois critères précis au tout début de la méthode d’évaluation tient effectivement dans la rapidité à inscrire des données dans les cases. C’est un incitatif à poursuivre l’application de l’évaluation et à l’engager dans l’apprentissage.
En filigrane, le spectre de formation du Module 5 « Évaluer ses sources » s’étend à d’autres concepts que celui de la stratégie d’évaluation présentée dans cet article. Ce texte ne porte que sur cet aspect du module étant donné la réflexion qu’il a suscité. Néanmoins, le volet évaluer aborde ce qui est afférent et en filiation à la méthode d’analyse, c’est-à-dire les enjeux liés à la prolifération d’information sur le web, à l’édition prédatrice, à la pseudo-science, à la rétractation d’articles scientifiques et à la vérification de faits. Ces derniers points enrichissent le tour d’horizon de l’évaluation des sources.
Conclusion
Le modèle intégré mis de l’avant dans le Module 5, « Évaluer ses sources », reste imparfait et procédural pour un étudiant nouvellement inscrit, surtout parce que ce dernier doit passer par un ensemble de critères pour développer sa compétence d’évaluation en vue de former son jugement critique aux sources d’information. La stratégie d’évaluation tente d’inclure plusieurs modèles, gabarits et méthodes d’analyse déjà existants parce qu’il se soucie d’une part, des nouveautés de diffusion de l’information (entre autres, celles circulant dans le web qui diffuse des documents à la fiabilité à géométrie variable) et d’autre part, des enjeux pluriels liés à la publication, incluant celle de type scientifique. Le pari fait par le Service des bibliothèques est toutefois de réussir à outiller les inscrits au cycle supérieur de l’ESG UQAM afin qu’ils parviennent à décrypter les caractéristiques des documents et de s’assurer qu’ils sont utilisables pour leurs travaux de recherche, peu importe leur contexte de publication, et de sortir du cadre restreint d’analyse par type de document. Bien sûr, il aurait été formidable de présenter cette stratégie sous une forme plus agréable, par exemple, avec un design graphique percutant et épuré. Toutefois, le besoin de mettre en ligne le module dans un délai prescrit est devenu une contrainte importante. Ce pourrait être une piste à explorer ultérieurement. De plus, dans un processus d’amélioration en continu, il faudra assurément dans les prochaines années réviser le modèle et l’ajuster, le cas échéant, si des commentaires aiguisés sont formulés pour le bonifier. Une révision préliminaire a bien sûr été réalisée par des professeurs et étudiants de la Faculté de gestion, mais son épreuve par de larges cohortes de candidats reste essentielle pour expérimenter le modèle en vue de s’assurer de ses assises.
Si l’on revient au principe mis de l’avant par Infosphère (UQAM, 2015), c’est-à-dire qu’« il est important de pouvoir se fier à l’information repérée », il est effectivement fondamental pour un chercheur de s’appuyer sur des sources crédibles. Le Module 5 recommande ainsi d’aborder la question par le biais de critères par étapes amenant à dégager la qualité d’un document. Cette réflexion issue de la construction du module sur l’évaluation pourrait cependant pousser la modification du principe concomitant de la citation d’Infosphère (UQAM, 2015) par « Au terme d’une analyse à la mesure de ses compétences d’évaluation, le chercheur doit faire preuve de jugement critique pour estimer la qualité et la pertinence d’une source ».
Mais le travail de sélection des références, au-delà de l’évaluation de celles-ci, pose des défis plus larges. Colepicolo (2015, p. 646) pèse que les chercheurs universitaires doivent aussi être aptes à sélectionner l’information nécessaire selon les conditions suivantes :
Convenir à leurs objectifs de recherche ;
Démontrer de la crédibilité et une haute qualité ;
S’avérer appropriée pour aider à rencontrer les échéanciers pour développer une recherche ;
S’assurer qu’elle est accessible en quantité suffisante.
La nécessité d’évaluation devient donc un point à prendre en compte parmi d’autres. Cette perspective pose finalement l’ampleur des défis auxquels un candidat à la maîtrise (ou autre) se confronte pour la sélection finale de ses sources, en vue de constituer sa bibliographie.
Appendices
Annexe
Tableau d’analyse
La stratégie d’évaluation proposée aux personnes étudiantes ne saurait être complète sans leur exemplifier sa pratique. Le tableau 1 reprend les 5 critères et 6 questions en les appliquant à deux articles de revue[4]. Il illustre l’application de la méthode.
Note biographique
Marie-Christine BEAUDRY est diplômée de l’EBSI et bibliothécaire à la Bibliothèque des arts de l’UQAM depuis 2011. Elle soutient les besoins liés aux savoirs des arts et humanités en contexte universitaire. Elle s’intéresse également aux enjeux de l’évaluation de l’information de même que de l’évaluation des sources, expliquant sa contribution à ce projet de formation autoportante destinée aux membres de la maîtrise de l’ESG UQAM.
Notes
-
[1]
Pour prendre connaissance des sept modules, voir le sommaire du contenu au https://etudier.uqam.ca/cours?sigle=MSG8000&p=1981
-
[2]
Voir le modèle d’évaluation des sources proposé dans le tutoriel de l’ESG inséré en Annexe.
-
[3]
Un bémol doit être apporté dans le cas d’une publication dont le but est de tromper son lecteur, car l’auteur ou l’éditeur peut déguiser sciemment ses intentions et objectifs de diffusion de l’information, par exemple, une FN ou un éditeur prédateur ; ces cas rendent la tâche d’analyse plus ardue à l’apprenant.
-
[4]
Cette stratégie d’évaluation s’avère pertinente autant pour jauger une publication scientifique qu’un gazouilli.
Bibliographie
- ACRL. (2016). Référentiel de compétences informationnelles en enseignement supérieur. Université du Québec. Repéré à ptc.uquebec.ca/pdci/system/files/documents/administration/referentiel_acrl_2016-vf_0.pdf
- Annenberg Public Policy Center et University of Pennsylvania. (2022). FactCheck.org. FactCheck.org. Repéré à www.factcheck.org/
- Agence Science-Presse. (2022). Le détecteur de rumeurs. Agence Science-Presse. Repéré à www.sciencepresse.qc.ca/detecteur-rumeurs
- Barthélémy, P. (2012, 26 septembre). Comment décrypter une étude scientifique. Le Monde, section Sciences. Repéré à https://www.lemonde.fr/passeurdesciences/article/2012/09/26/comment-decrypter-une-etude-scientifique_5986276_5470970.html
- Bibliothèques du réseau de l’Université du Québec. (2010). Si c’est écrit, c’est vrai [Vidéo]. Repéré à youtu.be/lXwgv8kq6rA
- Caulfield, M. (2017). Web literacy for student fact-checkers. Michael Arthur Caulfield. Repéré à www.dropbox.com/sh/e2e42w6e7wughhy/AADXDAxHvQGfGQIHzbZx3j_Qa?dl=0&preview=Web-Literacy-for-Student-Fact-Checkers-1488483269.pdf
- Colepicolo, E. (2015). Information reliability for academic research : Review and recommendations. New Library World, 116(11/12) : 646-660. DOI : 10.1108/NLW-05-2015-0040
- Choolhun, N. (2009). Google : To use, or not to use. What is the question ? Legal Information Management,9(3) : 168-172. doi :10.1017/S1472669609990272
- HabiloMédias. (s. d.). Accueil. HabiloMédias. Repéré à habilomedias.ca/
- Hjørland, B. (2012). Methods for evaluating information sources : An annotated catalogue. Journal of Information Science, 38(3) : 258-268. DOI : 10.1177/0165551512439178
- IFLA, Bongrand. C. et Paul. J. (2008). Comment repérer des « fake news ». IFLA. Repéré à repository.ifla.org/handle/123456789/196
- Lavallière, M. (2021). L’analyse de l’actualité à caractère scientifique : une voie de développement des compétences informationnelles. Le Tableau, 10(5). Repéré à pedagogie.uquebec.ca/le-tableau/lanalyse-de-lactualite-caractere-scientifique-une-voie-de-developpement-des-competences
- Leporati, B. R., Bach, P. et Hong, L. (2019). Learning to Evaluate Sources : Comparing Teaching Modalities and Student Outcomes. portal : Libraries and the Academy, 19(2) : 233-252. DOI : 10.1353/pla.2019.0014
- Mai, J.-E. (2013). The quality and qualities of information. Journal of the American Society for Information Science and Technology, 64(4) : 675-688. DOI : 10.1002/asi.22783
- Martinolli. P. (2021). Foutaisomètre : évaluer quantitativement la qualité d’une source. GitHub. Repéré à github.com/pmartinolli/TM-bullshitometer
- Metzger, M. J. (2007). Making sense of credibility on the Web : Models for evaluating online information and recommendations for future research. Journal of the American Society for Information Science and Technology, 58(13) : 2078-2091. DOI : 10.1002/asi.20672
- Michelot, F. (2020). « esprit (critique), es-tu là ? » enseigner aux compétences numériques et informationnelles, un enjeu sociétal. Revue Internationale Des Technologies En Pédagogie Universitaire, 17(1) : 97–104. DOI : 10.18162/ritpu-2020-v17n1-17
- PDCI. (2019). Portrait des compétences inforamtionnelles des étudiants du réseau de l’Université du Québec. Université du Québec. Repéré à www.uquebec.ca/reseau/fr/system/files/documents/memoires_avis_rapports/portrait-competences-informationnelles-etudiants-reseau-uq-2019.pdf
- Société Radio-Canada. (2022). Jeff Yates. Radio-Canada. Repéré à ici.radio-canada.ca/profil/23480/jeff-yates?pageNumber=1&sort=-date
- Soung, S. (2017). Critères d’évaluation de l’information scientifique à l’ère numérique : cas des étudiants aux cycles supérieurs en éducation des universités québécoises. Documentation et bibliothèques, 63(3) : 36-49. DOI : 10.7202/1041021ar
- Université de Liège. (s. d.). Évaluer. 5PMIS : Cinq piliers de la maîtrise de l’information scientifique. Repéré à infolit.be/5PMIS/?1_._D%C3%A9finir___1.2._expliquer_le_r%C3%B4le_de_la_litt%C3%A9rature_scientifique
- University of Sidney. (2021). 3.1a Critically Evaluating Information - Critically Evaluating, Filtering & Managing Information. Coursera. Repéré à www.coursera.org/lecture/digital-literacy/3-1a-critically-evaluating-information-osA1a
- Université Concordia University. (2020). How to evaluate research materials and resources : Library. Repéré à library.concordia.ca/help/evaluating/evaluating.php
- Université de Sherbrooke. (2021). Les étapes de la recherche documentaire : évaluer la QUALITÉ des sources. Services des bibliothèques et archives. Repéré à libguides.biblio.usherbrooke.ca/etapesrecherche/evaluer
- UQAM. (2015). Infosphère : Gagner du temps et réaliser de meilleurs travaux. Infosphère. Repéré à www.infosphere.uqam.ca/
- UQAM. (2022). Cours // MSG8000 : Activité de développement des compétences informationnelles. Étudier à l’UQAM. Repéré à https://etudier.uqam.ca/cours?sigle=MSG8000&p=1981
- Wineburg, S., Mcgrew, S., Breakstone, J. et Ortega, T. (2016). Evaluating Information : The Cornerstone of Civic Online Reasoning. Stanford Digital Repository : 1-29. Repéré à purl.stanford.edu/fv751yt5934
- Wineburg, S. et Mcgrew, S. (2016, novembre 2). Why Students Can’t Google Their Way to the Truth—Education Week. Education Week. https://www.edweek.org/ew/articles/2016/11/02/why-students-cant-google-their-way-to.html