Corps de l’article
Qualitatif, quantitatif : de quoi parle-t-on ?
Avant d’exprimer nos préférences, il est utile d’éclaircir quelques éléments de vocabulaire. En effet, sous des intitulés divers, la terminologie de « recherche(s) quantitative(s) » et « recherche(s) qualitative(s) » n’évoque peut-être pas les mêmes acceptions pour tous les chercheurs. C’est plus particulièrement le cas des secondes qui ont été longtemps mises au ban de la critique et pour lesquelles la justification est plus exigeante. Rappelons qu’en 1979 – autant dire une éternité pour les jeunes chercheurs – la revue Administration Science Quarterly (Van Maanen, 1979) évoquait déjà les « confusions et fausses querelles » sur ce qu’était une recherche qualitative. Qu’il se lance dans l’une ou l’autre option, le chercheur doit avoir une conscience claire de la nature du processus de recherche ainsi que des forces et des limites des connaissances qu’il produit.
Chaque recherche décline et lie un certain nombre d’étapes qui peuvent être itératives (Thiétart, 2014) et qui sont associées principalement à la finalité de la recherche, à son orientation et à son cadre méthodologique. Des confusions sont nées à partir d’amalgames entre certaines de ces étapes. Ainsi, en ce qui a trait à la finalité du projet, s’agit-il d’une recherche visant à comprendre, à expliquer ou à prédire ? Par ailleurs, la recherche est-elle orientée vers la découverte (par exemple, explorer un phénomène mal connu) ou vers la mise à l’épreuve d’hypothèses ou de théories ? Quant au cadre méthodologique – appelé aussi design ou plan de la recherche – il précise l’ensemble des opérations ou moyens déployés pour réaliser la recherche. Au sein de ce cadre, le chercheur décide notamment à quelles techniques de collecte et d’analyse de données (ou de matériaux) il aura recours.
La terminologie employée – quantitatif vs qualitatif – peut désigner plusieurs choses, en particulier des données ou encore des techniques de collecte et de traitement de ces données. Par exemple, dans l’étude de cas, les données recueillies sont majoritairement qualitatives (discours, textes, vidéos, photos), mais elles peuvent aussi être quantitatives (fréquences de mots, mesures). Les modes de collecte de ces matériaux sont diversifiés : entretiens/entrevues semi ou non directifs, conversations ordinaires, observation, étude de documents écrits ou visuels, etc. Le questionnaire est parfois employé lors d’une étude de cas, mais il n’occupe alors qu’une place très secondaire. Inversement, en marketing, les enquêtes par questionnaires – papier, téléphone, Internet – ont permis au domaine du comportement du consommateur de se développer en s’appuyant sur des techniques de traitement multivariées de plus en plus sophistiquées. Si certaines des données récoltées sont qualitatives, elles seront alors transformées en variables nominales, donc exploitées à l’aide de techniques quantitatives appropriées (par exemple, l’analyse factorielle des correspondances) ; en somme, la recherche quantitative renvoie à des travaux, dont les données sont statistiquement analysables. Enfin, pour la plupart des chercheurs, parler de recherche quantitative signifie étudier de gros échantillons dûment sélectionnés, alors que les recherches qualitatives ne portent habituellement que sur quelques cas, voire un seul (Yin, 1991).
Une dernière précision s’impose. Le travail qualitatif a fréquemment été assimilé à une phase antérieure (exploratoire) d’une recherche quantitative (Evrard, Pras et Roux, 1997). Dans cet échange, nous parlerons de recherche qualitative en tant que stratégie en soi et non en tant que prélude à une approche confirmatoire ultérieure.
Ces quelques prémisses exposées, voyons maintenant ce que l’un et l’autre de nous deux préfèrent et pourquoi.
Alain Jolibert : pourquoi je préfère la recherche quantitative
La recherche quantitative a été et est encore dominante dans de nombreux pans des sciences sociales : marketing, psychologie cognitive ou sociale, sociologie, économie, médecine. Pendant longtemps, il était difficile de publier les résultats de recherches qualitatives sauf, peut-être, quand elles étaient l’oeuvre de chercheurs reconnus. Nous le verrons, ce n’est que lors de ces vingt dernières années que l’intérêt pour le qualitatif s’est fortement accru.
Dès lors, le quantitatif a pu apparaître comme une solution de facilité, alors que c’est loin d’être le cas, une solide formation étant indispensable pour entreprendre sérieusement une recherche quantitative. Par ailleurs, le parcours du chercheur lui-même le prédétermine dans le choix des méthodes d’analyse. Celles-ci ne s’inventant pas, celui qui n’est pas formé à ces méthodes ne peut les utiliser. Certaines formations en économie, marketing, psychologie cognitive et bien sûr en statistiques, sont donc particulièrement appropriées. Très rares sont les chercheurs qui n’ont pas été formés et qui réussissent dans le domaine. En outre, il faut aussi de la curiosité et un appétit certain pour la technique.
Enfin, par l’utilisation d’analyses multivariées, les recherches plus spécifiquement expérimentales ou causales plaisent à certains chercheurs et pas à d’autres. Probablement pour le goût de la technique, mais aussi parce que le milieu d’insertion le stimule. Être dans un département qui est orienté quantitatif favorise, par les contacts avec les collègues, le goût pour ce type d’analyse.
1. La recherche quantitative permet de mieux tester des théories ou des hypothèses
La recherche quantitative est appropriée lorsqu’il existe un cadre théorique déjà bien reconnu dans la littérature. En effet, celle-ci ne converge que très rarement sur un seul cadre. Elle en propose souvent plusieurs. Il faut alors les comparer et les combiner, ce qui est plus complexe.
En suivant le courant dominant hypothético-déductif, le chercheur élabore un modèle en s’appuyant sur la littérature pertinente, modèle qu’il soumet ensuite à un test empirique. Le chercheur doit donc maîtriser finement les résultats des recherches antérieures, analyser les « vides théoriques » ou les incohérences qu’il peut y trouver et, évidemment, avoir un certain goût pour tout ce processus. En effet, une fois les résultats obtenus sur un cadre qu’il a construit, le chercheur obtient des résultats qui concernent ce cadre précis. C’est la raison pour laquelle, compte tenu du caractère parcellaire des recherches effectuées, des méta-analyses (Rosenthal, 1991) sont périodiquement effectuées. Une méta-analyse a pour objet d’agréger ou de cumuler les résultats déjà obtenus, publiés ou non. Elle fournit donc une analyse plus rigoureuse qu’une simple discussion classique des travaux déjà effectués sur le sujet, car elle utilise des procédures statistiques sur la collecte de résultats empiriques provenant de chaque étude afin de les intégrer, synthétiser ou de leur donner du sens.
L’analyse quantitative n’est pas une fin en soi. Comme le précise Kerlinger (1977), le chercheur déduit les conséquences de ses hypothèses. Pour ce faire, il fait appel à son expérience, son savoir et sa perspicacité. Il se peut alors que le problème sur lequel il débouche soit différent de celui qu’il avait envisagé ou, parfois, soit beaucoup plus compliqué que celui qu’il envisageait au départ. Le chercheur qui possède ce goût se plaira dans ce genre d’exercice. Si le goût pour la déduction peut être naturel chez l’individu, il peut aussi être appris dans les programmes doctoraux.
Toutefois, l’approche hypothético-déductive n’est pas la seule existante. Certains auteurs très connus comme Ehrenberg (1968, 1970) prônent la primauté des faits et de leur réplication. En réaction contre l’idée que les faits soient les simples « faire-valoir » de la théorie plutôt que l’inverse, Ehrenberg préconise l’analyse systématique de plusieurs banques de données aussi diverses que possible (différentes périodes, différents pays, différentes catégories de produits) dans le but d’identifier des régularités empiriques, c’est-à-dire des résultats qui se reproduisent d’une base de données à l’autre. L’objectif n’est pas de corroborer ou de tester une théorie, mais plutôt de faire ressortir une « régularité empirique » à partir d’observations répétées. Cette régularité sert à établir une norme qui servira de base de comparaison à de nouvelles observations et, à terme, de fondation à un modèle qui en sera la synthèse.
2. La recherche quantitative permet de mesurer plus rigoureusement les variables utilisées
La mesure de variables peut s’avérer très simple lorsqu’il s’agit de connaître l’âge ou le genre des personnes interrogées. Elle est plus complexe lorsque les caractéristiques du répondant sont mesurées au moyen de tests destinés à mettre en évidence différentes dimensions. Dans ce cas, la mesure est un élément extrêmement important. Il s’agit en particulier de s’assurer que les concepts mesurés sont fiables et diffèrent bien de concepts voisins (validité discriminante). À cet égard, l’existence de coefficients, tel le coefficient alpha de Cronbach ou encore la méthode de la coupe à la moitié (half split), complétés par des analyses factorielles exploratoires ou confirmatoires, facilitent beaucoup le travail du chercheur. Ce travail est aussi favorisé par l’existence d’ouvrages très précieux (Nunnally et Bernstein, 1994) et logiciels (Statistica, SPSS), car ils fournissent précisément les démarches à suivre.
L’un des biais bien connu et très fréquent de la mesure, lorsque l’on cherche à mettre en évidence un effet modérateur d’une tierce variable sur la relation entre une variable explicative nominale et une variable expliquée mesurée sur une échelle d’intervalle ou de ratio, consiste à transformer la tierce variable mesurée sur une échelle d’intervalle ou de ratio en variable booléenne utilisant la médiane. Les analyses de type Spotlight ou Floodlight permettent heureusement d’éviter ce biais, mais sont souvent méconnues par les chercheurs (Cadario et Parguel, 2014 ; Spiller, Fitsimons, Lynch Jr. et McClelland, 2013). L’inconvénient de multiplier les modérateurs est de perdre de vue les effets principaux recherchés, car les effets observés dépendent alors des modérateurs. De ce fait, on multiplie alors les cas particuliers, ce qui n’est pas spécialement bon pour les praticiens de l’entreprise.
3. L’enchaînement systématique du déroulement d’une recherche accélère la rapidité du processus de recherche
Dans le plan de recherche, la séquence : choix des concepts, hypothèse, mesure des concepts, test d’hypothèse, s’enchaîne aisément. Cette séquence est systématiquement reproduite, ce qui évite les tâtonnements ou hésitations et réduit le temps consacré au projet, dimension non négligeable lorsque l’on effectue une recherche doctorale. Nous le verrons, cet aspect contraste souvent avec les recherches qualitatives, généralement plus longues.
Cette accélération est aussi obtenue par la spécialisation dans certaines approches quantitatives. Certains chercheurs se sont ultraspécialisés, ce qui peut faire économiser du temps, mais ce qui peut aussi favoriser une certaine forme d’aveuglement. Par exemple, certains sont devenus de véritables experts dans l’expérimentation, d’autres dans les équations structurelles ou encore dans l’utilisation de logiciels tels que PLS ou Amos.
La rapidité du processus de recherche provient aussi de la modernisation des méthodes de collecte. En marketing, la rapidité qu’engendre Internet pour collecter des données ou encore l’utilisation de technologies comme la lecture optique aux caisses des magasins a accru le nombre de données collectées. Ceci étant, le processus de collecte devient nettement plus lourd lorsque l’on emploie des techniques comme l’entretien en profondeur.
Quels problèmes se posent dans le choix de méthodes d’analyse quantitative ?
1. La méthode expérimentale est critiquable
La première critique concerne le fait que certaines institutions sont spécialisées dans l’expérimentation et en font une véritable industrie. Seules sont publiées les expérimentations « réussies ». Or, les expérimentations réussies ne seraient-elles pas davantage l’exception que la norme ?
La deuxième critique concerne les conditions de l’expérimentation. Afin d’éviter la contamination de la relation causale entre variables explicatives et expliquées, les chercheurs multiplient les conditions permettant de neutraliser les variables dites « de contrôle », c’est-à-dire les variables qui pourraient affecter les résultats en dehors des variables manipulées. Ce faisant, ils accroissent la validité interne de l’expérimentation aux dépens de sa validité externe, c’est-à-dire de la capacité de généralisation. Il existe de très nombreux biais concernant les validités interne ou externe des expérimentations, ce qui rend périlleuse leur mise en oeuvre.
2. Les biais de questionnement sont nombreux
Sous le terme d’« artefacts de la demande » (Sawyer, 1975), on retrouve les causes de biais qui poussent le répondant à percevoir, interpréter et agir en fonction de ce qu’il croit être attendu ou souhaité par la personne qui collecte des données. Il s’agit notamment de la suspicion envers l’objet de l’enquête ou encore de la volonté de participer positivement à l’enquête. Ces biais de questionnement sont autant de menaces potentielles pour la validité interne et externe des résultats obtenus. Avec des différences dans les techniques de collecte, on retrouve ce même biais dans la recherche qualitative.
3. L’analyse quantitative peut reposer sur une fausse causalité
Pour leur très grande majorité, les techniques multivariées reposent sur des matrices de corrélation entre variables, dont les données sont collectées en coupe instantanée. Or, lors d’une coupe instantanée, deux biais peuvent avoir lieu. La causalité peut avoir lieu dans le temps et, dans ce cas, il s’agit d’avoir un bon cadre théorique pour analyser le phénomène, mais surtout d’intégrer l’ensemble des variables l’expliquant. Le deuxième biais concerne la causalité. Un exemple typique concerne l’année 1945 lors de laquelle la consommation de bière en Californie était très fortement corrélée à la mortalité au Japon. Était-ce suffisant pour justifier un lien de causalité entre ces deux phénomènes ? Certainement non, car en fait le lien apparent de causalité était dû à un phénomène concomitant qu’était la remontée du courant El Niño. Ce dernier s’était traduit par une hausse des températures en Californie et au Japon, dont l’état sanitaire à la fin de la Seconde Guerre mondiale laissait à désirer. La hausse des températures avait donc accru la consommation de bière en Californie et le nombre de décès au Japon. Seule l’expérimentation permet de mettre en évidence un lien de causalité puisque, lorsque celle-ci est bien réalisée, seules les manipulations des variables explicatives sont à l’origine de la(les) variation(s), de la(les) variable(s) expliquée(s).
4. Le chercheur non averti ne teste que des relations linéaires
Dans de nombreuses situations de gestion, le chercheur devrait tester des relations non linéaires de forme U ou U inversées ou encore curvilinéaires croissantes ou décroissantes. Si la détection de formes non linéaires est connue depuis fort longtemps (Aitken et West, 1991), l’utilisation de tests de non-linéarité s’est particulièrement accrue en sciences sociales ainsi que dans certains domaines de la gestion. Une illustration de forme curvilinéaire concerne le lien entre les traits de personnalité et la performance (Le et al., 2011) qui, pendant longtemps, a été considéré comme linéaire.
Oui, je préfère la recherche quantitative, mais…
Choisir entre Charibde et Sylla ou entre bonheur et félicité ? C’est un peu le choix cornélien qui se pose au chercheur, établi ou en formation, lorsqu’il entreprend une recherche. Et pourtant... En 1967 lorsque j’effectuais un audit interne chez l’entreprise Johnson pour le compte du cabinet Coopers et Lybrand, dans le bureau qui m’était affecté, en ouvrant le tiroir supérieur, j’ai trouvé une étude de motivation, méthode d’analyse qualitative par excellence. Je me suis demandé alors où l’on pouvait enseigner cette méthode que je ne connaissais pas et qui donnait des résultats passionnants, d’autant plus passionnants que je n’appréciais guère l’audit interne. À la recherche de ce Graal, un peu plus tard, en 1970, j’ai assisté à une conférence de Volney Stefflre (1972) qui nous présentait des résultats de l’analyse des similarités et des préférences et cela m’a décidé à partir aux États-Unis pour apprendre ce genre de méthode et j’ai appris les méthodes quantitatives !
Yvonne Giordano : pourquoi je préfère la recherche qualitative
D’un point de vue personnel, ma réponse est, point pour point, l’envers de ce que nous dit Alain Jolibert. Je n’ai pas eu de solide formation en techniques d’analyse multivariées, même si je les ai appréciées – et enseignées ! – à la suite d’une collaboration passionnante avec des collègues statisticiens. Je n’avais aucun goût pour les questionnaires et l’expérimentation en laboratoire. Plus positivement, mon penchant pour la recherche qualitative ne s’est pas forgé en opposition aux recherches quantitatives, mais plutôt par la découverte progressive de travaux hétérodoxes qui ont aiguisé ma curiosité.
1. L’observation naturelle et fine, pour le détail et le singulier, fournit des matériaux particulièrement riches…
Mon goût pour « le » qualitatif a trouvé sa source en lisant les premiers travaux de Karl Weick sur les organisations ou plutôt, sur l’organisation comme processus (en anglais, organizing[1]). Ses écrits élaborés à partir de matériaux en grande partie secondaires (c’est-à-dire recueillis antérieurement), mais portant sur des unités atypiques dans la littérature, m’ont convaincue que l’on pouvait faire de la recherche sur des objets autres que les organisations classiques. Préférant les unités de taille restreinte aux grands ensembles (un cockpit d’avion, une équipe de pompiers), il propose d’étudier, non pas ce qui fonctionne de manière routinière, mais plutôt des situations dégradées ou d’effondrement, des accidents par exemple. Privilégiant l’analyse fine des processus de communication et d’attribution de rôles, il montre en quoi ce qui maintient en place une organisation est sans doute beaucoup plus ténu que nous le pensons. La coordination y est alors théorisée par contraste (que recouvre la non-coordination dans les cas étudiés ?). Une telle posture lui permet de bâtir une théorie alternative à celles déjà éprouvées antérieurement. Un seul cas peut donc suffire pour que la contribution théorique ne soit pas une grande oubliée (Weick, 1995).
La lecture de ses travaux a ainsi développé mon penchant pour le singulier plutôt que le grand nombre à une époque où cette orientation, encore minoritaire, faisait couler beaucoup d’encre dans les revues, y compris les plus prestigieuses : selon les canons post-positivistes, le petit nombre ne produit pas de connaissance scientifique. La multiplication de travaux qualitatifs solides a progressivement légitimé les recherches sur des objets jusque-là négligés : phénomènes peu ou mal connus ou encore typiques et exceptionnels, mais étudiés dans leur contexte (par exemple, les événements rares : Lampel, Shamsie et Shapira, 2009). L’objectif peut être de bâtir de nouveaux concepts, théories ou modèles, mais aussi de mettre à l’épreuve ceux déjà élaborés. Travailler sur l’unique en préservant ses particularités constitue un projet pertinent aujourd’hui reconnu (Giroux, 2003).
…, mais
Un tel choix entraîne toutefois des exigences particulières pour apprécier la portée et la validité des connaissances produites : savoir retracer et justifier la démarche pour ainsi dire pas à pas et répondre à une série de critères. Pour Deslauriers (1991), fidélité, crédibilité, validation et transférabilité constituent des « tests » (non standardisés !) permettant d’en éprouver la robustesse. L’option qualitative a aussi des conséquences sur le processus de la recherche, de même que sur les techniques de collecte et d’analyse de données employées. Loin d’un dispositif très largement cadré et fixé avant le recueil, un projet qualitatif peut grandement évoluer au cours de la collecte et des analyses. Ce caractère itératif peut dérouter le chercheur en formation, mais aussi laisser supposer un manque de rigueur. Si l’on ajoute la multiplicité des modes de collecte, la richesse produite se paie au prix d’un allongement de la durée du projet. Par ailleurs, à moins de n’utiliser que des données secondaires, le chercheur ne peut prétendre être un observateur extérieur, comme caché derrière une glace sans tain.
2. L’engagement en contexte est plus approprié en recherche sociale que l’adoption d’un regard distant…
Bien qu’une recherche puisse reposer sur des données provenant majoritairement d’entretiens, les travaux qualitatifs font une large place à d’autres techniques de collecte. Par exemple, l’observation directe en contexte permet au chercheur de s’immerger dans la situation empirique à l’étude. En effet, pour certains projets, on ne peut imaginer un accès au terrain autrement qu’avec une présence rapprochée du chercheur. Selon les cas, une bonne familiarité des pratiques des acteurs est également nécessaire pour les comprendre et produire des données riches, préludes à des interprétations contextualisées. En retour, l’observation naturelle exige du chercheur un effort permanent pour saisir les répercussions de sa présence sur site. Ce sont précisément cet engagement et cette attention réflexive qui me font préférer l’immersion en contexte.
…, mais
En corollaire, s’engager dans l’observation soulève de nombreux problèmes aperçus de longue date par les tenants du courant dominant post-positiviste : un chercheur supposément « sérieux » doit adopter une posture d’extériorité par rapport à l’objet qu’il observe. Or, comment observer sans être soi-même partie prenante d’une manière ou d’une autre ? L’observation in situ, notamment, exige de gérer constamment la relation observateur-observé(s) afin de ne pas amplifier les biais de comportement jusqu’à possiblement réduire la validité de sa recherche à néant (Journé, 2012). En France, la fin des années 80 et le début des années 90 furent l’une des périodes les plus fécondes en controverses, mais aussi l’une des plus terribles pour les chercheurs qui avaient le culot de se lancer dans une recherche qualitative sollicitant l’observation. À l’aide de revues positionnées en dehors du courant dominant, d’autres chercheurs furent, à l’inverse, connus et reconnus pour avoir défendu l’observation en tant que technique pertinente, voire de stratégie de recherche en tant que telle (Orr, 1996).
Une autre question importante doit être posée : le chercheur saura-t-il bien gérer sa propre présence tout au long de son projet et conserver une position stable ? Lorsque le contexte est très éloigné de ce qu’il connaît habituellement des organisations, l’observation se révèle souvent ardue et les acteurs le comprennent rapidement. Il devient alors très facile de donner à voir des situations et à entendre des conversations qui évitent de mettre au jour des éléments peu flatteurs pour eux. « Sauver la face » (Goffman, 1967) est une stratégie courante qu’un chercheur naïf aura du mal à évaluer. Inversement, un chercheur plus familier des pratiques court un autre risque, également bien connu : être « absorbé » peu ou prou par les logiques des acteurs et manquer de distance par rapport à l’objet de la recherche, ou plus radicalement, être « expulsé » du terrain parce que les acteurs comprennent qu’il voit des comportements ne militant pas en leur faveur. L’une des solutions peut alors d’être au moins deux, un chercheur familier du contexte et l’autre non.
J’ai vécu ce type de difficulté lors d’un projet visant à comprendre comment se comportait une équipe composée de guides et alpinistes expérimentés au cours d’une tentative exceptionnellement complexe : traverser la Cordillère de Darwin à l’extrême sud du Chili pour la première fois[2]. Imprévus permanents, risques potentiellement vitaux (pour l’équipe, mais aussi pour les chercheuses embarquées dans l’aventure), préparation insuffisante, absence d’informations pertinentes (cartes et autres tentatives antérieures) et divergences de vues entre les professionnels, furent autant de casse-tête pour le chef d’expédition et ses équipiers. Du côté des chercheuses, le dispositif imaginé a clairement montré les limites de l’immersion complète, dont les suivantes : impossibilité d’enregistrer lors d’épisodes déstabilisants, management des impressions, disparition étonnante et suspecte d’un enregistreur, d’un carnet de notes et de clés USB, tensions extrêmes entre une chercheuse et l’un des guides.
3. La recherche qualitative favorise davantage le bricolage créatif et l’écriture originale qu’un plan de recherche rigide et standardisé…
Comme nous le disaient déjà Denzin et Lincoln (1998), le chercheur qualitatif est un bricoleur. Il bricole autant avec des matériaux variés que dans sa démarche d’analyse et dans le déroulement de son projet. Loin d’être considérée comme un défaut, cette caractéristique autorise plus de créativité que les recherches quantitatives. Contrairement à ces dernières, la présentation en plan standardisé n’est pas un format attendu et le chercheur peut s’autoriser plus de liberté dans la construction et la rédaction de son travail. Il est reconnu de longue date que l’écriture est cruciale dans les recherches qualitatives, qu’elles soient doctorales ou plus avancées et que simultanément, il n’existe pas de standard communément partagé ni même possiblement souhaitable (Pratt, 2009).
…, mais
Cette liberté relative se paie également par une difficulté à opter pour un style de restitution qui puisse satisfaire unanimement la critique. Heureusement, la multiplicité des recherches est telle aujourd’hui qu’il est possible de prendre appui sur des travaux reconnus et des conseils avisés. Prendre une option qualitative peut ainsi s’avérer complexe parce que le chercheur devra faire preuve de maturité, d’autonomie et d’une éthique irréprochable. Lorsqu’il s’agit d’une recherche doctorale, les délais impartis pour l’exercice exigent alors de bien gérer les tensions entre le processus et la date de soutenance. Toutefois, selon l’objectif poursuivi, mais aussi l’appétit du chercheur, il se peut qu’une recherche qualitative soit la seule orientation possible, à moins de renoncer purement et simplement !
En guise de conclusion
Cette conversation sur les vertus (et limites) de la recherche quantitative et de la recherche qualitative suggère tout d’abord que, selon les objectifs poursuivis, les options ne sont pas nécessairement très nombreuses, qu’elles peuvent être guidées par nos penchants personnels – un goût prononcé pour les techniques multivariées et la planification – ou bien un appétit pour le singulier et davantage d’émergents. Les exigences de rigueur sont aussi fortes pour les uns que pour les autres même si les critères et modalités diffèrent. Encore faut-il ne pas se tromper d’ennemi. Qualitatif et quantitatif ne sont en rien opposés ; ils sont adéquats ou non au projet envisagé. Mais si l’une et l’autre option doivent satisfaire le monde universitaire, il nous paraît tout aussi important qu’elles puissent se révéler utiles aux praticiens, quelquefois grands oubliés des chercheurs.
Parties annexes
Notes
Références
- Aitken, L. et West, S. (1991). Multiple regression. Testing and interpreting interactions. Newbury Park, Sage Publications.
- Cadario, R. et Parguel, B. (2014). Reconsidérer la discrétisation des variables quantitatives : vers une nouvelle analyse de modération en recherche expérimentale. Recherche et Applications en Marketing, 29(4), 120-140.
- Denzin, N.K. et Lincoln, Y.S. (1998). The landscape of qualitative research. Theories and issues. Thousand Oaks, Sage Publications.
- Deslauriers, J.-P. (1991). Recherche qualitative : guide pratique. Montréal, McGraw-Hill.
- Ehrenberg, A.S.C. (1968). The elements of lawlike relationships. Journal of the Royal Statistical Society, 131(3), 280-302.
- Ehrenberg, A.S.C. (1970). Models of fact : examples from marketing. Management Science, 16(7), 435-445.
- Evrard, Y., Pras, B. et Roux, E. (1997). Market. Études et recherches en marketing (2e édition). Paris, Nathan.
- Giroux, N. (2003). L’étude de cas. Dans Y. Giordano (dir.), Conduire un projet de recherche (p. 41-84). Cormelles-le-Royal, EMS.
- Goffman, E. (1967). Interaction ritual : essays on face-to-face behavior. New York, Pantheon.
- Journé, B. (2012). Collecter les données par l’observation. Dans M.-L. Gavard-Perret, D. Gotteland, C. Haon et A. Jolibert (dir.), Méthodologie de la recherche en sciences de gestion (2e édition) (p. 165-206). Paris, Pearson.
- Kerlinger, F.N. (1977). Foundations of behavioral research (2e édition). Londres, Holt Rinehart and Winston.
- Lampel, J., Shamsie, J. et Shapira, Z. (2009). Experiencing the improbable : rare events and organizational learning. Organization Science, 20(5), 835-845.
- Le, H., Robbins, S., Holland, E., Oh, I.-S., Ilies, R. et Westrick, P. (2011). Too much of a good thing. Curvilinear relationships between personality traits and job performance. Journal of Applied Psychology, 96(1), 113-133.
- Nunnally, J. et Bernstein, I. (1994). Psychometric theory. New York, McGraw-Hill.
- Orr, J. (1996). Talking about machines : an ethnography of a modern job. Ithaca, Press/Cornell.
- Pratt, M.G. (2009). From the editors : for the lack of boilerplate. Tips on writing up (and reviewing) qualitative research. Academy of Management Journal, 52(5), 856-862.
- Rosenthal, R. (1991). Meta-analytic procedures for social research. Newbury Park, Sage Publications.
- Sawyer, A.G. (1975). Demand artifacts in laboratory experiments in consumer research. Journal of Consumer Research, 1(1), 20-30.
- Spiller, S., Fitsimons, G., Lynch Jr., J. et McClelland, G. (2013). Spotlights, floodlights, and the magic number zero : simple effects tests in moderated regression. Journal of Marketing Research, 50(2), 277-288.
- Stefflre, V. (1972). Some applications of multidimensional scaling to social science problems. Dans A.K. Romney, R. Shepard et S.R. Nerlove (dir.), Multidimensional scaling.Vol. 2/Applications (p. 211-243). New York, Seminar Press.
- Thiétart, R.A. (2014). Méthodes de recherche en management. Paris, Dunod.
- Van Maanen, J. (1979). Reclaiming qualitative methods for organizational research : a preface. Administrative Science Quarterly, 24(4), 520-526.
- Weick, K.E. (1995). What theory is not, theorizing is. Administrative Science Quarterly, 40(3), 385-390.
- Yin, R.K. (1991). Case study research. Design and methods (2e édition). Newbury Park, Sage Publications.