Article body

Introduction

Il existe des dizaines de logiciels d’aide à l’analyse de matériaux qualitatifs. D’autres publications traitent de ces outils, dans leur diversité (Lejeune, 2010b, 2017; Rioufreyt, 2019). Pour sa part, le présent article se concentre sur une partie d’entre eux, à savoir les logiciels explicitement conçus pour assister des opérations qui excluent les quantifications (Strauss & Corbin, 2004). Les lignes qui suivent ne concernent donc pas les logiciels qui accordent une place centrale aux comptages, comme les outils de statistique textuelle, de textométrie, de lexicométrie ou de fouille de données.

Cet article se concentre sur des logiciels comme Atlas·ti, Dedoose, The Ethnograph, HyperResearch, MaxQDA, NVivo, QDA Miner, Quirkos, RQDA ou Saturate. Dès 1989, Nigel Fielding et Raymond Lee (1998) proposent l’appellation logiciels assistant l’analyse de matériau qualitatif, ramassée sous le sigle de CAQDAS ou de logiciels QDA. Le premier du genre fut The Ethnograph de John Seidel. Parmi les plus populaires de ces outils figurent Atlas·ti de Thomas Muhr, MaxQDA de Udo Kuckartz et NVivo de Lyn et Tom Richards.

Cet article interroge ce que ces logiciels font à l’analyse qualitative. Il présuppose donc que ces outils ne sont pas totalement neutres. Ce faisant, il écarte l’argument de neutralité méthodologique avancé par les sociétés éditrices, soucieuses d’éviter de restreindre leur clientèle. Loin d’être purement publicitaire, l’argument de la neutralité se retrouve également dans des publications scientifiques, reconduisant l’argument des éditeurs ou l’adossant à des observations plus étayées. Ainsi, l’expérience Kwalon a consisté à confier l’analyse d’un même matériau à différents analystes utilisant chacun un logiciel différent. Ses conclusions suggèrent que les qualités analytiques de l’utilisateur l’emportent sur les fonctionnalités de l’outil (Gilbert et al., 2014). Bien qu’ayant participé à cette expérience, je souhaite examiner, dans le présent article, l’incidence des CAQDAS sur la recherche qualitative. Leur histoire montre en outre ce qui m’a motivé à développer Cassandre, un logiciel assumant sa singularité. Ce texte entend à la fois proposer une réflexion critique sur le recours à l’automatisation et nourrir le débat sur les raisons qui la justifient. Il présente également les leçons tirées de presque deux décennies de formations, de formalisations et de développements informatiques. Loin de se limiter aux personnes utilisant un logiciel particulier, celles-ci instruisent notre recours aux approches qualitatives, informatisées ou non.

Pour ce faire, cet article montre que, dans une recherche de polyvalence, les CAQDAS ont combiné des fonctionnalités inspirées de deux traditions méthodologiques antinomiques et comment leur ergonomie a progressivement encouragé une manière de faire de la recherche qualitative ne se référant ni à l’une ni à l’autre de ces méthodes. Cette course à la fonctionnalité se prolonge aujourd’hui avec l’intégration d’intelligences artificielles à ces outils. Dans une logique opposée, Cassandre a été développé comme un logiciel délibérément limité et dédié aux recherches collaboratives en train de se faire.

Coder, prendre des notes et tracer des diagrammes

Plusieurs CAQDAS se revendiquent de l’analyse par théorisation ancrée (Lonkila, 1995). Cette association oriente vraisemblablement certains usages méthodologiques. C’est en effet dans l’optique d’utiliser correctement un de ces logiciels que certaines personnes se documentent sur l’analyse par théorisation ancrée ou s’y forment (Lonkila, 1995; Rioufreyt, 2019).

Cette référence cache cependant une certaine diversité. Dans le cas d’Atlas·ti, le lien semble assez direct tant l’histoire du logiciel et son ergonomie plaident pour l’adéquation de l’outil avec cette méthode (Rioufreyt, 2019). Le rapport est plus complexe pour NVivo. Lorsque Tom Richards développe initialement Nud·Ist, il assume une conception arborescente peu compatible avec l’analyse par théorisation ancrée (Richards, 2002). Pourtant, quelques années plus tard, le changement de nom du logiciel en NVivo suggère un rapprochement avec l’analyse par théorisation ancrée (qui définit comme in vivo un codage reprenant les mots présents dans le matériau). Toutefois, dans son manuel d’utilisation, le logiciel est présenté comme convenant à toutes sortes de méthodes, l’analyse par théorisation ancrée étant citée comme un exemple parmi d’autres.

Qu’il s’agisse d’une source d’inspiration ou d’une rencontre fortuite, l’analyse par théorisation ancrée est associée à ce type de logiciels. Il n’est donc pas étonnant que les fonctionnalités proposées adoptent la terminologie de ce courant ou relèvent d’opérations qu’il a explicitées : le codage puis la rédaction de mémos furent les premières fonctionnalités proposées. Dans un premier temps, seul Atlas·ti y adjoignait un outil de visualisation graphique (Gilbert et al., 2014). Ensuite, NVivo et MaxQDA ont également permis de tracer des diagrammes. Coder, prendre des notes et tracer des diagrammes constituent trois opérations formalisées en analyse par théorisation ancrée. Et ces opérations correspondent aux usages des analystes sur papier.

La référence explicite à l’analyse par théorisation ancrée n’implique cependant pas que les fonctionnalités informatiques proposées soient spécifiques à cette méthode. Au contraire, coder, prendre des notes et tracer des diagrammes se retrouvent dans d’autres méthodes, comme l’analyse de discours, les approches narratives, l’analyse phénoménologique interprétative, l’analyse qualitative de contenu et l’analyse thématique. Ces opérations conviennent également à l’ethnographie, l’ethnométhodologie ou l’analyse de conversations. En un sens, on peut considérer que coder, prendre des notes et tracer des diagrammes constituent les opérations fondamentales et génériques de l’analyse de matériau qualitatif. Leur informatisation rencontre donc des usages relevant de traditions méthodologiques diverses. Leur caractère générique fait que les CAQDAS conviennent également aux recherches ne s’inscrivant pas explicitement dans une méthode particulière.

L’informatisation rencontre donc des usages existants. Elle facilite en outre d’autres opérations (comme la recherche au sein du matériau ou le croisement de différents codages). Elle permet également de copier le matériau analysé, les analyses en cours et les notes consignées dans des mémos, afin de les sauvegarder (contre la perte ou la destruction accidentelle), de les transporter, voire de les partager plus aisément.

Conquérir des parts de marché

Relativement simples, les fonctionnalités de codage, de rédaction de mémos et de traçage de diagrammes sont rapidement proposées par l’ensemble des outils, dès leur début. Or, la plupart de ces outils sont distribués par des sociétés commerciales, dont la viabilité dépend de rentrées financières régulières. Il leur faut vendre des licences, soit en convainquant de nouvelles personnes d’acheter leur produit, soit en proposant des mises à jour aux utilisateurs existants. Pour les entreprises, proposer de nouvelles fonctionnalités constitue donc une façon de se montrer concurrentielles.

Plusieurs stratégies président à ces ajouts. Ainsi, Atlas·ti propose des fonctionnalités de codage semi-automatique. Cette nouveauté s’inspire de ce que l’informatique permet et facilite. Elle ne se réfère pas à un usage ou à une tradition méthodologique existante.

Une autre stratégie consiste à s’inspirer d’autres traditions méthodologiques. Plusieurs développeurs s’appuient sur le constat de l’absence de logiciels dédiés à l’analyse de contenu, tradition en opposition de laquelle s’est initialement développée l’analyse par théorisation ancrée. En un sens, cette absence est plutôt étonnante, dans la mesure où c’est pour conduire des analyses de contenu que le psychologue Philip Stone avait développé le logiciel General Inquirer dès les années 1960 (Lejeune, 2017). Son informatisation est donc antérieure aux CAQDAS. Malgré cela, peu d’outils lui ont succédé.

Pour comprendre la tension qu’introduisent les fonctionnalités inspirées de l’analyse de contenu, il faut remonter quelques décennies en amont. Dans l’entre-deux-guerres, l’équipe d’Harold Lasswell met au point une technique pour identifier la propagande dans les médias. S’agissant de mesurer la répétition de messages susceptibles d’orienter l’opinion publique, cette technique passe par le comptage. Les statistiques lui permettent non seulement de produire ses résultats, mais également de garantir sa fiabilité. En effet, à cette époque, les chercheurs ont l’habitude de déléguer certaines tâches à d’autres personnes. Les publications de l’époque relatives à la conduite d’entrevues portent ainsi sur la manière d’encadrer et de vérifier le travail de ces « petites mains » (Platt, 2002). En analyse de contenu, cette sous-traitance ne concerne pas la collecte du matériau, mais son codage. Le livre de codes fait partie du dispositif de contrôle des opérations de codage. Il se compose de codes définis de manière univoque et d’instructions claires sur la manière de les appliquer. Aucune latitude n’est laissée aux codeurs. La fidélité du codage est vérifiée en mesurant les éventuelles divergences (accord interjuge ou fidélité intercodeur). Quelques années plus tard, le recours à l’informatique découle précisément du difficile contrôle des codeurs; pour les analystes de contenu, un logiciel comme General Inquirer constitue un opérateur plus docile et plus fiable que les humains lorsqu’il s’agit d’appliquer des règles sans s’en écarter. Dès sa conception dans les années 1930, en passant par sa formalisation canonique en 1948 (Berelson, 1952) jusqu’à son informatisation dans les années 1960, l’analyse de contenu est déductive, séquentielle, explicite, systématique et quantitative.

La situation est moins unifiée au moment où les CAQDAS intègrent des fonctionnalités issues de cette tradition. Dans les années 1980, l’analyse de contenu se décline en variantes qualitative (Mayring, 2000; Schreier, 2014), structurale (Hiernaux, 2010) et dépassant le contenu manifeste (Krippendorff, 2018). Toutefois, lorsque les concepteurs de CAQDAS se réfèrent à l’analyse de contenu, ils l’entendent bien dans sa version canonique, quantitative. Comme l’écrit Krippendorff (2018), la présence de mesures de la fidélité intercodeur est déterminante sur ce point : en effet, si l’on peut envisager un usage itératif et qualitatif du livre de codes, la fidélité intercodeur implique nécessairement une approche quantitative. En un sens, cet ancrage statistique constitue une aubaine pour les développeurs. Il est en effet relativement aisé de développer des fonctionnalités dressant des tableaux de chiffres, comptant des occurrences ou calculant la fidélité intercodeur. Tout sépare pourtant ces opérations du cadre qualitatif dans lequel les CAQDAS ont été initialement créés. Les exigences du marché et la facilité de développement ont cependant raison de cette tension épistémologique. Les fonctionnalités venant de l’analyse de contenu sont donc progressivement intégrées aux différents outils.

Selon les logiciels, cette intégration est diversement présentée, les arguments relevant de la complémentarité, de la polyvalence ou de la mixité. MaxQDA est l’un des premiers à proposer des fonctionnalités relevant du comptage. Il témoigne cependant d’une attention à la cohabitation de deux logiques différentes. Le simple fait de passer d’une fonctionnalité à l’autre occasionne l’ouverture d’une boîte de dialogue prévenant que l’on passe d’une logique à l’autre. Cette précaution atteste que ses concepteurs sont conscients de la tension introduite et qu’ils tiennent à y sensibiliser leurs utilisateurs. Les autres logiciels proposent les différentes fonctionnalités, sans mise en garde comparable.

Pour l’argument de la complémentarité, la coexistence de fonctionnalités émanant de méthodes différentes ne soulève pas de difficultés. Au contraire, cela rend le logiciel polyvalent. Un même outil peut servir des méthodes différentes. Il facilite également des recherches mixtes. Cette mixité connaît différentes acceptions, allant de volets complémentaires (qui, menés successivement ou en parallèle, mobilisent des méthodes différentes) jusqu’à l’hybridation des méthodes au sein d’une même recherche. Enfin, sans aller jusqu’à l’alternance entre les méthodes ni à l’hybridation, le « recours contrôlé » à des fonctionnalités quantitatives ou à des outils de requête peut assister une lecture attentive et transversale dans une approche qualitative (Lejeune, 2023b; Rioufreyt, 2019). Quoi qu’il en soit, au-delà des questions relevant des méthodes mixtes, la cohabitation de ces fonctionnalités change également la donne pour les méthodes qualitatives au sens strict.

Cette intégration a une incidence décisive sur le rôle joué par les CAQDAS dans l’enseignement (et l’acquisition) des méthodes qualitatives et dans la production de recherches qualitatives, voire dans l’installation d’une nouvelle manière de faire. Il ne s’agit pas ici d’avancer que les logiciels ont, seuls, instauré une nouvelle méthode qualitative. Mais avec le temps, ils ont joué un rôle crucial dans ce qui va suivre.

Désormais, l’interface de ces logiciels propose d’organiser les codages dans un livre de codes (codebook). En analyse de contenu, le livre de codes renvoie à un référentiel défini en amont du codage et commun aux différents codeurs. Ces derniers n’interviennent pas dans sa création et ne peuvent le modifier en cours de processus. Sa stabilité et son univocité rendent possible la mesure de la divergence entre les différents codeurs. Cette manière de travailler diffère fondamentalement de la recherche par théorisation ancrée, qui accompagne précisément les analystes dans la formulation progressive de codages personnels, évoluant tout au long de la recherche. Une critique, un avis contraire ou une observation contradictoire aide « le chercheur à clarifier sa propre analyse et à aller plus loin dans la production de sa théorie » (Glaser & Strauss, 2010, p. 110). Dans cette logique, la divergence s’envisage comme source de richesse (à l’opposé de la mesure de la fidélité interjuge, qui l’envisage comme une faiblesse du dispositif).

Petit à petit, le terme livre de codes prend une extension plus large. Sa généralisation au sein des CAQDAS se combine à l’apparition des variantes de l’analyse de contenu classique. Ensemble, elles assouplissent son usage originel. Regroupant initialement des catégories prédéfinies et leurs règles d’application soumises à des codeurs « naïfs », il désigne bientôt également les codages élaborés par l’analyste, aussi bien dans une logique linéaire, descendante (top-down) et déductive (définition en amont du codage) qu’itérative, ascendante (bottom-up) et inductive ou abductive (définition en cours de processus).

L’émergence d’une nouvelle méthode?

On pourrait minimiser ce qui est en jeu en n’y voyant qu’un flottement terminologique ou en considérant que ce qui se passe relève de l’hybridation méthodologique. Mais de glissements en déplacements se produit un événement plus important encore. Les logiciels s’accompagnent de plus en plus d’une manière de faire, un usage qui prend progressivement la place d’une méthode à part entière. Contrairement aux autres traditions méthodologiques, cette méthode ne provient pas d’une invention motivée par une problématique particulière (comme la mesure de la propagande dans les médias pour l’analyse de contenu) ou d’une formalisation de pratiques de recherche (comme ce fut le cas pour l’analyse par théorisation ancrée). Une nouvelle manière de faire de la recherche qualitative s’installe, sans référence à une tradition méthodologique. Par commodité, j’appelle cette manière de faire usage QDA dans la suite de ce texte. Le terme usage indique qu’il ne s’agit pas d’une méthode formalisée; le sigle QDA rappelle quant à lui l’origine de cet usage, les CAQDAS ou logiciels QDA, cette partie du sigle signifiant « analyse de matériaux qualitatifs » sans autre précision du type d’analyse opérée.

On peut se réjouir de l’émergence de l’usage QDA, puisqu’il contribue à la diversité méthodologique des recherches qualitatives. Son histoire introduit cependant une tension difficilement dépassable. Héritier de deux méthodes aux logiques diamétralement opposées, cet usage fait dépendre les résultats d’une procédure de codage sans en assurer les fondements. En analyse de contenu, la convergence des codeurs sert à valider le livre de codes et assoit ainsi la fidélité du codage (Berelson, 1952). En analyse par théorisation ancrée, le codage s’accompagne nécessairement d’une explicitation et de la réflexion de l’analyste via la rédaction de mémos (« coding-cum-analysis-cum-memoing ») (Bryant, 2019, p. 49). Les logiciels permettent d’assister ces deux façons de faire, mais ils autorisent également l’usage QDA.

La généralisation de l’usage QDA a suscité deux types de réserves chez les spécialistes de l’analyse par théorisation ancrée : d’une part, une vigilance à bien distinguer cet usage QDA de leur méthode; d’autre part, une méfiance envers les logiciels, suspectés de dénaturer l’analyse par théorisation ancrée (Glaser, 2003). Cette vigilance incite à distinguer les codages (tag) à visée logistique, navigationnelle ou descriptive de ceux à visée conceptuelle (Friese, 2019). Elle se manifeste également au travers d’innovations terminologiques proposant de remplacer coder par codifier (Paillé, 1994), étiqueter (Lejeune, 2019) ou « coding-cum-analysis-cum-memoing » (Bryant, 2017, p. 349).

La tension que recèle cet usage QDA ne tient pas qu’à la question du codage. Le rapport à la quantification apparaît également problématique. Sans surprise, celui-ci est intermédiaire entre son exclusion (Strauss & Corbin, 2004) et sa nécessité (Berelson, 1952). Cette position médiane a valu aux recherches intermédiaires de se voir qualifiées de « quasi quantitatives » (Berelson, 1952, p. 116) ou de « quasi qualitatives » (Paillé, 2004, p. 210). Leurs résultats procèdent par « quantifications implicites » (Lejeune, 2019, p. 127), évoquant des proportions ou des quantités, mais sans recourir aux chiffres. Ce rapport très lâche à la quantification prive l’usage QDA de l’aval des méthodes qualitatives (qui proscrivent les comptages) comme des méthodes statistiques (attachées à plus de précision en matière de chiffres). Même lorsque l’usage QDA n’est pas remis en question, cette position reste difficile à tenir. Ainsi, Virginia Braun et Victoria Clarke (2006) indiquent clairement qu’il existe une tension entre le fait de retenir explicitement ce qui se répète (les récurrences) sans pour autant les dénombrer. Certes, leur argument concerne l’analyse thématique (et non l’usage QDA), mais cette méthode correspond à ce qui se rapproche le plus de cet usage. Et, même dans cette formalisation méthodologique récente, il apparaît difficile de quantifier implicitement tout en se revendiquant de la recherche qualitative.

Les tensions relatives au codage et à la quantification nourrissent les réserves des personnes qui refusent d’utiliser des logiciels pour conduire des recherches qualitatives. Plus qu’un refus de la technologie, cette méfiance témoigne d’un attachement à ce que la méthode mobilisée soit explicite ou d’une réticence envers l’encouragement, par ces outils, d’approches intermédiaires, entre qualitatives et quantitatives (Paillé, 2004). Plus fondamentalement, cet entre-deux pose la question de la scientificité d’une pratique qui ne se positionne pas par rapport aux critères de validité existants, sans pour autant en proposer d’autres. Pierre Paillé (2006) s’inquiète ainsi de ce que le recours à un logiciel se substitue aux références méthodologiques.

Malgré ces problèmes, l’usage QDA se répand dans les projets de recherche, les pratiques scientifiques et les publications qui en découlent. Même à l’université, il arrive que la formation à l’usage des logiciels prenne le pas sur les cours de méthodes (Lejeune, 2023b). L’usage QDA s’en est sans doute nourri. Les latitudes ouvertes par les variantes qualitative, structurale et interprétative de l’analyse de contenu ont également facilité son adoption. Ayant été publiés au moment de l’émergence de ces variantes, les premiers ouvrages francophones sur l’analyse de contenu ont popularisé une acception qualitative assez différente de la version classique de l’analyse quantitative de contenu anglo-saxonne (Rioufreyt, 2019). Même si sa spécificité francophone n’est pas démontrée, cette acception qualitative a pu faciliter l’adoption de l’usage QDA.

Un marché exigeant la polyvalence

La polyvalence n’est pas qu’un argument de vente. C’est également une demande explicite des personnes souhaitant utiliser un logiciel. Dans une logique compréhensible de rationalisation, ces personnes préfèrent investir dans un outil les bridant le moins possible. Cette question est d’autant plus sensible que l’investissement en question porte autant sur le temps de formation que sur le prix de la licence d’utilisation (de plus en plus élevé). Par ailleurs, les CAQDAS utilisent des formats peu compatibles entre eux, ce qui complique le passage d’un logiciel à l’autre. Certes, il existe des formats d’échange. En l’occurrence, l’initiative de Rotterdam mérite d’être saluée (REFI-QDA). Mais même ainsi, le passage d’un logiciel à l’autre est loin d’être trivial. On comprend dès lors la demande que les logiciels se spécialisent le moins possible.

Sur le principe, les logiciels libres apparaissent constituer une solution aux problèmes d’accès à des outils coûteux, ainsi qu’aux freins au passage d’un à l’autre. Les logiciels développés dans ce cadre restent néanmoins assez rares. Une fois mis de côté les maquettes et prototypes non maintenus, il apparaît que peu d’initiatives réussissent à tenir plusieurs années. Après un succès important, Alex Fenton a finalement interrompu le développement de Weft-QDA. Initialement publié comme un logiciel libre, Transana s’est écarté de ce statut pour des raisons de viabilité et de rentabilité. Pour leur part, les fonctionnalités de Taguette restent circonscrites au codage. Seul TamsAnalyser existe depuis plusieurs années et continue à être développé par Matthew Weinstein avec succès. Depuis quelques années, il est rejoint par RQDA, que les fondements statistiques prédisposent cependant à l’hybridation entre méthodes qualitatives et quantitatives.

Vers un logiciel spécialisé?

C’est dans le contexte décrit dans les sections précédentes que j’ai découvert les CAQDAS, que je m’y suis familiarisé et me suis formé à certains d’entre eux. Dans un premier temps, j’y ai trouvé les outils dont j’avais besoin. Cependant, avec les années, j’ai pris conscience que leur ergonomie contrariait ma pratique de qualitativiste et que leur polyvalence recèle autant de problèmes que de solutions.

En partenariat avec Aurélien Bénel, nous avons envisagé de concevoir un logiciel libre correspondant à nos usages. Ses caractéristiques étaient les suivantes :

  • Il s’agissait tout d’abord de s’écarter du logiciel utilisé par une personne seule et de proposer une plateforme adaptée au travail en équipe. Une telle plateforme entendait encourager le débat contradictoire en permettant aux analystes de coder différemment un matériau partagé et de confronter leurs analyses (Bénel & Lejeune, 2009).

  • Par ailleurs, notre projet entendait pousser plus loin qu’Atlas·ti la fonction de codage semi-automatique. Nous avons appelé registre cette façon de coder différents passages comportant le même extrait (Lejeune, 2008).

  • La première version de ce projet proposait également une interface originale. Celle-ci était fournie par le logiciel Porphyry qu’Aurélien Bénel avait développé pour faciliter l’annotation des photographies d’artefacts en archéologie (Bénel, 2003). Lors du rapprochement des deux logiciels (initialement conçus pour des usages différents), Porphyry s’est doté d’une présentation inspirée de la logique des nuages de mots du Web 2.0 en lui ajoutant des flèches représentant les liens entre les registres et les codes qu’ils regroupent (Bénel et al., 2010; Lejeune, 2010a). Cette interface renouait également avec une présentation en contexte des extraits codés (KWIC) inspirée des concordances utilisées comme index dès le treizième siècle (Luhn, 1960; Pincemin et al., 2006).

  • Enfin, notre projet proposait de dépasser la tension entre approche qualitative et approche quantitative d’une manière originale, les récurrences dans le matériau empirique assistant une lecture attentive en signalant à l’analyste certains passages du matériau (Lejeune & Bénel, 2012).

La première version de cette plateforme est parue en 2005. Mieux qu’un prototype, elle a progressivement connu un certain succès (Beuker et al., 2016; Brunet & Delvenne, 2010; De Maeyer, 2012), sans doute en partie grâce à sa gratuité (conséquence du choix de concevoir un logiciel libre). Pour autant, Cassandre n’a pas satisfait les attentes de tout le monde. D’une part, par conception, il ne permet d’analyser que des matériaux textuels, ce qui a été perçu comme une limitation à l’aune de la polyvalence des logiciels évoqués jusqu’ici (di Gregorio, 2011). D’autre part, les analystes considérant qu’une recherche qualitative ne doit mobiliser aucune quantification ont manifesté des réserves par rapport à la présentation des codes en « nuages de mots ». En effet, dans une telle présentation, la taille des mots est proportionnelle à leur fréquence. Dans le cas qui nous occupe, cette fréquence indique le nombre d’extraits codés. Spécialiste de l’analyste structurale et lui-même auteur d’un logiciel, notre collègue Jean-Pierre Hiernaux fut le premier à remarquer cette « quantification implicite » et à nous faire part de sa réticence (Hiernaux, 2010).

Ces réticences ne remettent pas en question le soutien au travail en équipe qu’offre Cassandre. D’ailleurs, ce dernier se veut spécifique et ne s’inscrit donc pas dans la concurrence évoquée plus haut. Ces réserves sont cependant révélatrices des tensions inhérentes au recours aux logiciels en recherche qualitative.

Polyvalents, mais pas génériques

La conception d’un outil informatique amène à réfléchir à l’ergonomie des logiciels, à examiner ce qui est fait ailleurs, à écarter certaines options et à en privilégier d’autres. L’expérience relative à la première version de Cassandre m’a amené à reconsidérer un des fondements de l’ensemble des outils de ce type.

L’interface des CAQDAS traduit un choix méthodologique particulier. Lorsque j’utilise un traitement de texte, la plus grande portion de la fenêtre est dévolue au texte que je rédige. Les barres de fonctions (enregistrement, gras, italique) occupent un espace secondaire (elles sont néanmoins toujours visibles, et donc aisément accessibles). Par contre, les menus ne sont accessibles que via une manipulation additionnelle. Lorsque j’analyse un matériau qualitatif sur papier, j’ai constamment trois documents sous la main. Le matériau lui-même, évidemment. Mes codages, ensuite, que j’appose à ce matériau, soit dans la marge (dans le cas d’une entrevue), soit sur une page en regard de mes notes de terrain. Enfin, j’ai toujours également un carnet ou un journal de bord, où je consigne mes questions, mes interprétations intermédiaires ainsi que mes notes de lecture.

Comme leur sigle le suggère, les CAQDAS accordent une place centrale aux matériaux; ceux-ci y occupent la majeure partie de l’interface. Le codage occupe une place secondaire. Les notes ou les mémos ne sont accessibles qu’indirectement, comme les menus d’un traitement de texte. Cette subsidiarité des mémos est tranchée dans NVivo; elle est relative pour Atlas·ti. Indépendamment des différences concernant les mémos, la « focale » sur le matériau et son codage est délibérée; elle correspond au fondement empirique de l’analyse, qui soutient l’argument de la rigueur conférée par ce type d’outil. Par contre, cette « focale » convient mal aux approches qui accordent une fonction décisive au carnet ou au journal. Dans la pratique quotidienne correspondante, le journal occupe le centre de la table de travail. Si elle se veut polyvalente, l’ergonomie des logiciels en question contrarie donc certaines pratiques…

On touche ici à une autre motivation à éviter les CAQDAS. Leur « focale » ne convient pas à des approches centrées sur le journal de bord. Cette incongruité est étonnante, quand on se souvient que l’analyse par théorisation ancrée a servi d’inspiration initiale à ces outils. Les réserves, voire le rejet, sont pourtant effectives (Glaser, 2003). Cette tension n’est cependant pas unanime; ces logiciels sont également mobilisés avec succès dans des analyses conduites suivant différents cadres méthodologiques, y compris l’ethnographie et l’analyse par théorisation ancrée (Friese, 2019).

Tenir un journal de bord en équipe

En 2016, les retours et les expériences des deux premières versions ont instruit la refonte du projet initial. Évidemment, la dimension collaborative a été conservée; il s’agit toujours de travailler en équipe. Mais plutôt que de mutualiser des matériaux et leurs codages, ce sont désormais les pages d’un journal de bord qui sont partagées, co-élaborées et discutées (Lejeune, 2016). Les matériaux et les codages deviennent des pages particulières, parmi d’autres. Le journal intègre également la question de recherche, les guides d’entretien ou d’observation, les notes de lecture, les réflexions méthodologiques, les restitutions, les conclusions ainsi que des diagrammes de différents types (Lejeune, 2023a). Ces différentes notes, pages ou schématisations sont organisées entre elles et reliées de manière structurée (Lejeune, 2019). Cette structure guide l’équipe sur la prochaine tâche à réaliser à chaque étape d’une recherche envisagée de manière itérative, dans la logique de l’échantillonnage théorique (Luckerhoff & Guillemette, 2012; Paillé, 1994).

La troisième version de la plateforme opère un changement radical de perspective. Plus encore qu’auparavant, Cassandre sert une méthode particulière. Aux antipodes de la polyvalence des autres logiciels, il requiert de souscrire à une approche excluant la quantification et envisageant le journal de bord comme central. Pour les méthodes ethnographiques et par théorisation ancrée, la scientificité tient précisément au journal. Ce dernier est le lieu et le support de planification, de mémoire, de conceptualisation et de réflexivité (Lejeune, 2013). Le logiciel traduit cette « focale » dans son ergonomie.

Cette refonte a également produit des surprises. Si le journal de bord partagé de Cassandre soutient une recherche en train de se faire, son ergonomie ne convient pas aux personnes souhaitant analyser un corpus déjà constitué. Cette incompatibilité semble décisive et suggère qu’il est courant de démarrer l’analyse une fois l’ensemble des matériaux collectés. Une recherche ainsi menée de manière linéaire et séquentielle s’écarte de ce que préconise l’échantillonnage théorique. Un tel écart peut être rapproché de la façon dont l’usage QDA semble s’affranchir de références méthodologiques. Ensemble, ces deux pratiques, vraisemblablement bien implantées en sciences humaines et sociales, suggèrent que le recours à un logiciel ne s’accompagne pas nécessairement d’une inscription dans une tradition méthodologique particulière (Fielding & Lee, 1998). Si certains de ces écarts découlent de choix délibérés, il est vraisemblable que d’autres résultent d’une méconnaissance ou d’un manque de formation aux méthodes classiques d’analyse de matériau qualitatif (Lejeune, 2019; Rioufreyt, 2019).

Une découverte inattendue

Au-delà de cette refonte en profondeur, l’amélioration progressive de la plateforme amène également quelques réflexions sur le rôle de l’informatique dans l’enseignement.

Dans un premier temps, les liens entre les pages du journal fonctionnaient comme des liens sur Internet. Lors du codage d’un matériau, le code créé était lié à l’ensemble de la transcription d’entrevue ou de la note d’observation analysée. D’un point de vue méthodologique, cette manière de procéder semblait satisfaisante : l’ancrage dans le matériau fait preuve, même s’il n’est pas précis au mot près. Les utilisateurs ne l’entendaient cependant pas de cette oreille. J’ai reçu plusieurs demandes d’une fonctionnalité permettant de surligner un extrait en particulier et de lui associer un codage. Connue en anglais sous le nom de code and retrieve, cette fonctionnalité fait partie des premières développées dans l’histoire de l’informatisation de la recherche qualitative (Weitzman & Miles, 1995). Assez fondamentale, elle est proposée par les autres logiciels. Il n’est donc pas étonnant que les utilisateurs l’attendent.

Pour des raisons épistémologiques et informatiques, je me suis montré prudent dans l’implémentation de cette fonctionnalité. Sans que ce soit délibéré, ce délai a été riche d’enseignements. Quelques semaines à peine après avoir introduit la fonctionnalité permettant de coder précisément un extrait circonscrit, j’ai reçu le témoignage d’une collègue de l’Université de Louvain-La-Neuve, Charlène Crahay, qui utilise le logiciel pour former les étudiants en criminologie à la recherche qualitative. En début d’année (avant que la fonctionnalité soit introduite), elle leur a montré comment utiliser la plateforme. Après une phase d’appropriation, les codages des étudiants ont progressé en pertinence et en finesse, de mois en mois. Puis, quelques semaines après l’introduction de la possibilité de coder précisément un fragment de matériau, la qualité des codages a diminué. Selon Charlène Crahay, le codage semblait plus thématique, moins conceptuel; plus descriptif, moins réfléchi. S’il n’est pas rare d’observer un tassement dans la progression des apprentissages, une telle régression est plutôt inhabituelle.

En essayant de comprendre ce qui s’était passé, Charlène Crahay et moi-même avons conclu que, avec un ancrage sur un fragment précis, les étudiants s’autorisent à moins réfléchir en codant leur matériau, en tablant sur le fait que l’ancrage précis leur permettrait de revenir ultérieurement sur la formulation initiale pour l’améliorer. Pris par d’autres impératifs, ils ne reviennent en définitive que rarement sur leurs codages initiaux. La désignation temporaire devient définitive. Il est édifiant de constater que les limitations initiales de la plateforme encourageaient par contre à réfléchir à son analyse. Au final, la flexibilité introduite par la nouvelle fonctionnalité autorise une procrastination qui aboutit à une analyse de moins bonne qualité. Évidemment, l’informatisation ne nuit pas à l’analyse en elle-même. C’est, en un sens, la latitude offerte par celle-ci qui est en cause. Dans son principe, l’ancrage dans le fragment original évite de décontextualiser ou de réifier le codage (Seidel & Kelle, 1995). L’expérience montre cependant que cette garantie est susceptible d’encourager une frilosité conceptuelle (Lejeune, 2023b; Rioufreyt, 2019).

Pour autant, cet épisode ne justifie pas de retirer une fonctionnalité « tant attendue ». Cette mésaventure est néanmoins riche d’enseignements, tant sur le plan de l’enseignement universitaire que sur celui de l’usage des logiciels ou de leur conception. Comme dans le cas du livre de codes (codebook), elle invite à réfléchir à l’incidence des outils que nous mobilisons sur nos pratiques. Ce que montre cet article, c’est que l’ergonomie des logiciels autorise, voire promeut certains usages et en décourage d’autres. Sans les contraindre unilatéralement, elle joue néanmoins un rôle dont il importe de tenir compte. L’évolution actuelle des CAQDAS mérite que l’on s’en souvienne.

Travailler en équipe

Les CAQDAS ont d’abord été conçus pour être installés sur un ordinateur et être utilisés par une seule et même personne. Ce n’est en effet que plus tard, après la généralisation d’Internet, qu’apparaissent des plateformes en ligne dédiées, comme Cassandre, Dedoose, Quirkos et Saturate. Avant cela, les CAQDAS ne proposaient guère de fonctionnalités permettant de travailler à plusieurs.

Les premières fonctionnalités concernant un codage opéré par plusieurs personnes ont été inspirées de l’analyse de contenu. Dans une logique déductive, celles-ci envisagent le codage comme une activité déléguée à des personnes appliquant un livre de codes selon des règles explicites et strictes. Dans cette logique, il importe d’identifier (et d’écarter) les codeurs divergents, les extraits de matériau ambigus ou les codes polyvoques. C’est ce que permet le calcul de la fidélité intercodeur.

Ce calcul est déterminant dans le cadre d’une analyse de contenu puisque, dans une logique expérimentale, il permet de valider le livre de codes. Évidemment, rien n’oblige d’y recourir lorsque la recherche souscrit à une autre tradition méthodologique. Mais, comme pour le livre de codes, sa disponibilité suggère qu’il est pertinent de s’en emparer, même en dehors d’une analyse de contenu classique. Cette mesure participe ainsi à façonner l’usage QDA. Découplée de sa fonction initiale, elle a une incidence particulière sur la manière de travailler à plusieurs. S’il était pertinent de se méfier de la divergence d’un codeur naïf, il en va tout autrement lorsque les codages comparés ont été produits par les différents analystes d’une équipe de recherche. Travailler en équipe suppose d’envisager la complémentarité de chacun. Or la fidélité interjuge valorise la convergence. Comme le soulignent Zhao et al. (2016), les mesures de ce type privilégient le résultat (les codes) au processus; elles éclipsent les débats, discussions et négociations nécessaires pour se mettre d’accord. Par ailleurs, elles suggèrent que les différents codages doivent converger. Or, d’un point de vue méthodologique, un tel alignement n’est pas nécessaire. Au contraire, l’analyse par théorisation ancrée valorise des codages différents non seulement pour leur complémentarité, mais également pour la richesse qu’ils confèrent à l’analyse (Glaser & Strauss, 2010).

Dans cet esprit, l’interface de la première version de Cassandre soutenait la divergence des analyses en permettant de développer plusieurs ensembles de codes (représentés par différents nuages de mots) et de les confronter. Dans sa troisième version, le partage de mémos et les fils de discussion associés à chacun d’entre eux rencontrent la conception polyphonique et dialogique du travail à plusieurs. Là où les autres logiciels se centrent sur le matériau et les codes, Cassandre concerne le processus itératif d’une recherche en train de se faire.

Même s’ils réservent explicitement un espace central au débat, ces différents choix d’interface donnent également lieu à des usages et à des interprétations imprévues. À au moins une reprise, la possibilité de développer plusieurs nuages de mots a été interprétée comme une injonction à la divergence (jugée contre-productive). Plus récemment, une équipe utilisant la troisième version du logiciel dans le cadre d’un séminaire doctoral m’a rapporté avoir l’impression que le partage d’un journal de bord supposait de se mettre d’accord. Or forcer l’accord peut appauvrir l’interprétation. Si de tels retours concernent peu de personnes, ils illustrent néanmoins l’écart toujours possible entre les intentions de conception et les perceptions lors de l’utilisation.

Prendre ou perdre la main

Depuis plusieurs années, l’évolution des CAQDAS répond à un enjeu de compétitivité (pour les sociétés éditrices) et à une économie de moyens (pour les utilisateurs). Leur polyvalence, l’ambiguïté qu’elle introduit et la tension qu’elle recèle découlent de ces enjeux. Les développements actuels sont mus par les mêmes enjeux, mais empruntent des voies sensiblement différentes.

Pour garantir des revenus réguliers, certains éditeurs de logiciels proposent désormais des abonnements (mensuels ou annuels). Cette manière d’accorder des licences correspond à certains usages, notamment aux projets de recherche dans le cadre desquels un logiciel est utilisé pour un temps déterminé. Ces abonnements garantissent en outre de bénéficier de mises à jour régulières (voire de bénéficier de fonctionnalités indisponibles hors abonnement). Toutefois, pour une personne utilisant régulièrement ce type de logiciels, cette formule en augmente drastiquement le coût.

Le mouvement initié par l’invention du codage semi-automatique ou par l’emprunt du livre de codes et de la fidélité intercodeur se poursuit évidemment, notamment à travers l’importation de fonctionnalités issues des statistiques textuelles et des fonctionnalités originales de visualisation. Celles-ci renforcent l’ambiguïté et les tensions déjà mentionnées.

Les logiciels des sociétés commerciales qui dominent le marché (Atlas·ti, MaxQDA et NVivo) proposent désormais d’assister la recherche qualitative au moyen de technologies relevant de l’intelligence artificielle. La promotion de ces fonctionnalités se montre à la fois séduisante et prudente. La dimension séduisante laisse miroiter une analyse automatisée, opérée par une « machine pensante ». Cette dimension réactive implicitement les espoirs de l’intelligence artificielle des années 1950-1960, qui nourrissent la science-fiction depuis des décennies. Elle est sans doute assez puissante en termes de persuasion. La dimension prudente présente l’apport en question comme une proposition soumise à l’analyste, qui reste donc à la manoeuvre. Cette prudence semble tenir compte de la conclusion de Hubert Dreyfus qui montre, dès 1972, que les espoirs en question étaient démesurés et ne pourraient être que déçus (Dreyfus, 1984).

Cette façon de présenter les apports et les limites de l’intelligence artificielle n’est pas spécifique à la recherche qualitative. Cependant, les CAQDAS et l’intelligence artificielle contemporaine se rejoignent sur un argument inattendu. Pour schématiser, l’intelligence artificielle des années 1950-1960 tablait sur la simulation du cerveau humain, là où, moins ambitieuse, l’intelligence artificielle contemporaine repose sur des inférences statistiques s’appuyant sur des données volumineuses (Big Data). L’idée sous-jacente est qu’il peut en « émerger » quelque chose d’intéressant ou d’original. Comme l’explique Anthony Bryant (2019), cet argument reconduit un raisonnement ayant cours en analyse qualitative. Celui-ci laisse entendre que des idées, des concepts ou des théories apparaissent par effet d’agrégation. Bien que décrié dans les publications méthodologiques, cet argument est si fréquemment associé à l’analyse par théorisation ancrée qu’Anthony Bryant (2017) le qualifie (ironiquement) de « mantra de l’émergence ». Il est néanmoins vraisemblable que la séduction générale qu’exerce l’intelligence artificielle sur les qualitativistes se trouve décuplée par cette convergence avec un argument spécifique à la recherche qualitative.

Il est compréhensible que les fonctionnalités en question emportent l’adhésion des utilisateurs préoccupés par des questions de rendement ou de productivité. Accélérer certains traitements ou (ce qui revient au même) les opérer sur des matériaux plus nombreux intéresse certainement les sociétés de conseil ou les instituts de sondage qui vendent des services d’analyse à leurs clients. Ce qui profite au secteur commercial ne pourrait-il pas également bénéficier à la recherche?

En fait, l’intelligence artificielle reconfigure une caractéristique (certes, latente) des CAQDAS. Jusqu’ici, ces logiciels étaient « muets », ils ne généraient aucun résultat sans l’intervention de leur utilisateur (Lejeune, 2017). Cette caractéristique constitue en fait une de leurs forces, elle laisse la main à l’analyste, l’incite à se mettre au travail et à réfléchir. Le logiciel reste alors un outil qui assiste, accompagne ou aide l’analyste sans le distraire ou se substituer à lui. C’est pour cette raison que Susanne Friese préfère le sigle CAQDAS à l’expression logiciels QDA, car les deux premières lettres (computer aided, c’est-à-dire « assisté par ordinateur ») indiquent que la machine propose une aide sans produire une analyse. En automatisant la transcription, le codage ou la rédaction de mémos, les fonctionnalités « intelligentes » rendent le logiciel bavard. Cette prolixité reconfigure les rôles respectifs de l’analyste et de l’ordinateur. En outre, elle suggère (comme le mantra de l’émergence) qu’une recherche qualitative ne requiert pas d’engagement intellectuel important.

Examinons plus particulièrement ce que se propose d’automatiser l’intelligence artificielle : la transcription, le codage et la rédaction de mémos (via le résumé du matériau analysé).

Transcrire des entrevues est une activité prenante, coûteuse en temps, peu valorisante, voire abrutissante (Lee, 2004). L’automatiser représente le rêve de toute personne y ayant consacré de nombreuses heures. Et, de fait, si la transcription est impérative, bénéficier d’une assistance informatique permet de gagner du temps. Cependant, l’expérience montre qu’il est nécessaire de vérifier et de corriger ce que produit la machine. Même s’il est effectif, le gain de temps est donc moins important qu’initialement espéré. En outre, si l’analyste n’a pas mené les entrevues en question, en déléguer la transcription à une autre personne ou à une machine empêche de s’en imprégner en profondeur. Cette délégation éclipse deux autres solutions, sans doute plus en phase avec la méthode qualitative. Tout d’abord, on peut contenir le nombre de transcriptions en conduisant aussi peu d’entrevues que possible. Il est également possible d’analyser du matériau sonore sans passer par la transcription (Alber, 2010), voire de n’en transcrire qu’une partie circonscrite. Au final, l’automatisation entretient le présupposé selon lequel il est normal, voire souhaitable, de rassembler et mettre en forme une quantité importante de matériau. Or ce n’est pas le cas en analyse qualitative.

L’assistance au codage et à la rédaction de mémos laisse également entendre que l’utilisateur peut se contenter de valider ou d’écarter les propositions de la machine. Elle suggère également qu’une machine peut assurer une bonne partie de la tâche, tâche dès lors présentée comme laborieuse, peu créative et ne requérant pas de compétences disciplinaires pointues. À nouveau, l’analyse qualitative ne partage pas ces présupposés.

Je pense qu’une alternative est possible. Pour autant, il ne s’agit pas d’exclure la technologie (vision technophobe). Mais plutôt de permettre une rencontre constructive entre l’informatique et l’analyse qualitative. Depuis 2005, les différentes versions de Cassandre ont bénéficié des recherches en informatique menées à l’Université de Troyes sous la direction d’Aurélien Bénel. Leur développement s’inscrit dans une réflexion critique sur le rôle de l’automatisation et témoigne d’une attention constante à la manière dont l’informatique assiste l’analyse. L’emprunt et les innovations autour des nuages de mots témoignent de présupposés communs avec le Web 2.0 (dans ses dimensions « sociales » et ascendantes) et d’une volonté de « désescalade algorithmique », en décalage avec l’enthousiasme pour l’intelligence artificielle (Bénel, 2023). Pour ces raisons, Cassandre est muet : il laisse la main à l’analyste. Ses fonctionnalités sont limitées et relativement simples, il est frugal (Lejeune, 2017). Il fait la part belle à la réflexivité, aux interprétations et aux débats des personnes qui l’utilisent.

Conclusion

À la fin du vingtième siècle, l’apparition des CAQDAS a suscité la crainte que la machine se substitue aux analystes (Friese, 2019). Leur mobilisation dans des recherches de qualité a montré que cette crainte n’était pas fondée. Les logiciels aident ou assistent l’être humain sans le remplacer. Pour autant, leur développement n’est pas sans effet sur les pratiques analytiques. Ainsi, la disponibilité de fonctionnalités inspirées de traditions méthodologiques très différentes autorise la polyvalence et induit des pratiques nouvelles. Hybridation et mixité ne riment cependant pas nécessairement avec rigueur et pertinence méthodologiques.

Aujourd’hui, la multiplication de fonctionnalités d’intelligence artificielle réactive la crainte que la machine ne remplace l’analyste. Il est vraisemblable qu’une telle substitution s’opère dans des contextes dominés par la rentabilité, la vitesse et la concurrence. Dans le contexte académique de la recherche qualitative, la possibilité d’automatiser certaines tâches incite plutôt à mettre leur valeur ajoutée en perspective.

Ces innovations technologiques soulèvent des questions méthodologiques, voire sociétales. Méthodologiquement, elles invitent à se rappeler que, depuis ses débuts, la recherche qualitative privilégie la finesse et la profondeur au nombre et à la taille. Ce faisant, la recherche qualitative promeut la frugalité, tant en matière d’informatique que de rapport au terrain. Contrairement à ce qu’on pourrait penser, cet éloge de la sobriété ne l’inscrit pas dans le passé. Au contraire, il en fait une méthode très actuelle. En effet, sa flexibilité et son agilité la rendent compatible avec l’exigence de publier tôt et souvent (Lejeune, 2013). Ce faisant, la recherche qualitative conjugue les exigences d’un contexte scientifique dynamique avec les impératifs de durabilité écologique et sociétale dont l’actualité est brûlante.