Article body

Introduction

De nombreux auteurs ont souligné, depuis plusieurs décennies, le rôle capital joué par les images au sein des procédures de production et de justification des résultats scientifiques (Jacobi, 1985 ; Bastide, 1985 ; Latour, 1985, 1988, 1993 ; Giere, 1996). Après avoir établi un tel constat global, il me semble qu’il faut encore se doter des moyens de cerner les différents statuts épistémiques qu’acquièrent ces images au cours des processus de recherche observationnels et expérimentaux. En effet, une fréquentation régulière des laboratoires scientifiques en tant qu’ethnographe[1] m’a convaincue que, par delà la reconnaissance du caractère essentiel des images dans la pratique scientifique contemporaine, il conviendrait de mettre l’accent sur le fait qu’elles ne semblent pas toutes avoir le même statut, ni remplir les mêmes fonctions : le chercheur ne situe pas toutes les images, celles qu’il exploite au quotidien ou celles qu’il trouve contenues dans une publication, sur un même plan. Il évalue une image donnée en fonction non seulement de ses qualités intrinsèques, mais également de son histoire, chaque fois singulière. Ainsi, les images figurant dans un article scientifique possèdent des statuts variés en termes de qualité et de fiabilité et, par conséquent, des significations distinctes aux yeux du chercheur, parce qu’elles sont produites de multiples manières, avec des visées hétérogènes, et qu’elles posent des problèmes spécifiques quant à leur pertinence.

Il en résulte que, si l’on aspire en tant que sémioticien, philosophe ou sociologue à comprendre les processus de signification relatifs aux images scientifiques, il s’avère indispensable de se pencher sur leurs contextes de production et de réception[2]. L’appéhension par le chercheur d’une image donnée et le sens qu’il lui confère sont hautement conditionnés par les informations dont il dispose relativement à ces deux contextes. Dans le cadre de cet article, j’étudierai principalement le contexte de production en adoptant une perspective génétique correspondant à la question : « comment les images sont-elles produites ? ». Je souhaite ainsi affirmer l’importance pour toutes sortes d’études (sémiotiques, philosophiques, sociologiques, historiques, etc.) de cette perspective qui se révèle non pas concurrente, mais plutôt complémentaire d’autres approches.

Je me propose donc, dans un premier temps, d’esquisser les principaux éléments d’une typologie des images scientifiques résultant de l’adoption d’une telle perspective génétique en prenant d’abord pour discipline de référence la physique des matériaux, puis la pharmacologie. Ce passage d’une discipline à l’autre s’avère très fécond, puisqu’il m’a amenée à compléter ma typologie initiale[3].

Cette typologie me permet de disposer d’une grille de lecture transcendant les frontières disciplinaires. Cela dit, son établissement même m’a amenée à constater que les processus de production et d’exploitation des images présentent à la fois des similitudes et des différences entre physique des matériaux et pharmacologie et influencent, comme nous le verrons dans un troisième temps, non seulement la forme finale des images, mais également la fonction épistémique qu’elles se voient conférer au sein de chaque discipline.

1. Les laboratoires étudiés

Mon terrain d’étude en physique des matériaux est le laboratoire « Groupe Surfaces/Interfaces » (GSI)[4] de Strasbourg, au sein duquel sont menées des recherches essentiellement expérimentales portant sur les structures et les propriétés des surfaces de matériaux (en général, des métaux). Ce laboratoire dispose d’un parc instrumental important qui comprend un certain nombre de microscopes : le microscope électronique à transmission (ou MET), le microscope électronique à balayage (ou MEB), le microscope à force atomique (ou AFM), le microscope à effet tunnel (ou STM). Il s’agit de microscopes basés sur des rayonnements électromagnétiques ou sur d’autres effets, comme l’effet tunnel dans le cas du STM : la vision naturelle est abandonnée[5]. Les échantillons sont en général des dépôts métalliques sur des substrats métalliques, d’une taille millimétrique (par exemple un dépôt de cobalt sur un substrat d’or).

Mon second terrain d’étude, en pharmacologie cette fois, est constitué par le laboratoire « Inflammation et environnement dans l’asthme » (IEA)[6]. Ce laboratoire travaille sur les processus inflammatoires mis en jeu dans l’asthme, mais également sur d’autres processus inflammatoires, comme la broncho-pneumopathie chronique obstructive, la transplantation pulmonaire, le rejet de greffe, etc. À cela s’adjoint une recherche relative à la toxicité pulmonaire de certaines substances, comme la toxicité éventuelle des nanoparticules. Le travail mené vise à expliquer les processus inflammatoires au niveau biomoléculaire et à évaluer l’activité de certaines substances afin de voir si elles ont un effet positif ou négatif sur les types d’inflammation étudiés. Ce travail est réalisé in vivo sur des souris, souvent génétiquement modifiées, ou in vitro sur des cellules de souris ou d’être humain. Les instruments utilisés sont le microscope optique, le microscope confocal et le microscope électronique à transmission. On peut ajouter à cette liste tous les instruments permettant la mise en oeuvre de techniques particulières – par exemple le Western Blot, technique qui permet de détecter la présence d’une protéine dans un homogénat tissulaire ou cellulaire, d’évaluer sa taille et d’apprécier semi-quantitativement son expression et les variations de cette expression entre deux échantillons traités par des substances différentes. Cette technique mobilise des instruments tels qu’un matériel pour réaliser des électrophorèses et le transfert sur membrane des protéines, un générateur de courant électrique, un matériel de développement de films photographiques, etc.

2. Comment classer les images produites en physique des matériaux ?

En adoptant une perspective génétique, il me semble qu’on peut distinguer trois types au sein de la profusion des images produites en physique des matériaux. J’ai choisi de les désigner à l’aide des expressions suivantes : « images sources », « images retraitées » et « images de synthèse »[7].

2.1 Les images sources

Les images sources sont celles que les physiciens des matériaux obtiennent en utilisant leurs microscopes. Ces images se caractérisent par le fait d’être premières dans l’ordre chronologique de production[8]. Les processus qui permettent d’obtenir de telles images sont extrêmement complexes. Cela se révèle d’autant plus vrai que les microscopes utilisés en physique des matériaux combinent l’apport d’informations, sous forme de traces laissées par le référent visé, avec des opérations de calcul menées d’emblée sur ces informations à l’aide d’ordinateurs. L’emploi des microscopes aboutit donc à la réalisation d’images que j’ai qualifiées ailleurs de « mixtes » : à la fois indiciaires et symboliques (Allamel-Raffin, 20004a, 2004b, 2006). Le statut épistémique particulier des images sources aux yeux des chercheurs est perceptible notamment au travers de l’attitude qu’ils adoptent à leur égard. Ils estiment nécessaire de conserver celles qu’ils réalisent afin de pouvoir se livrer à une réinterprétation éventuelle. Ces images sources sont donc considérées comme précieuses par les scientifiques, car, en vertu de leur caractère indiciaire, elles constituent les seuls points de contact qui leur permettent d’étudier des aspects du réel inaccessibles à nos sens. La figure 1 ci-dessous consiste en une image source réalisée avec un microscope à effet tunnel ; elle représente des agrégats de nickel sur un substrat de cuivre.

Figure 1

Image STM d’agrégats de nickel sur cuivre.

Image STM d’agrégats de nickel sur cuivre.
C. Boeglin/GSI[9]

-> See the list of figures

2.2 Les images retraitées

À partir des images sources réalisées avec des microscopes, les physiciens des matériaux en produisent d’autres : les images retraitées. La caractéristique essentielle de ce que j’appelle « image retraitée » est donc d’être une image réalisée à partir d’une autre image[10]. Elle peut revêtir diverses formes : courbes, images filtrées, etc. L’image retraitée est la plupart du temps créée afin d’obtenir des informations plus précises que celles qui figurent sur l’image source. La figure 2 consiste en une image source réalisée avec un microscope à force atomique. Elle représente la topographie d’un film d’aluminium oxydé par technique plasma. L’image retraitée, quant à elle, est constituée par la courbe figurant sous l’image source. Cette courbe correspond au relief observé le long de la ligne virtuelle noire tracée en diagonale sur l’image source. Ce profil topographique est de ce fait beaucoup plus précis sur un plan quantitatif que ne l’est l’image source.

Figure 2

Image retraitée. Image AFM représentant la topographie d’un film d’aluminium oxydé par technique plasma.

Image retraitée. Image AFM représentant la topographie d’un film d’aluminium oxydé par technique plasma.
J.-C. Arnault/GSI

-> See the list of figures

Comme traitements d’images les plus courants, on trouve l’élimination du bruit ou des artefacts[11] et l’amélioration des qualités sensibles des images sources. Plusieurs techniques sont envisageables pour mener à bien cette opération : le filtrage, l’usage de fausses couleurs, la soustraction ou l’amélioration de contraste. Il existe également des traitements d’images qui permettent d’extraire des informations très précises, comme c’est le cas avec la courbe de la figure 2[12].

Le traitement des images sources s’opère à l’aide de programmes informatiques. Certains de ces programmes n’entraînent pas de problème particulier, comme celui qui permet d’obtenir la courbe ci-dessus, mais d’autres requièrent des mois de travail pour être mis au point. Soulignons que, dès que les modèles logicomathématiques interviennent dans l’élaboration d’une image, des risques d’artefacts spécifiques apparaissent : on peut perdre des informations, en ajouter, les déformer abusivement. Cette phase de retraitement est par conséquent potentiellement problématique.

2.3 Les images de synthèse

Elles sont produites exclusivement à l’aide de programmes informatiques. On peut distinguer deux types d’images de synthèse : les images de modélisation et les images de simulation.

L’image de simulation est le résultat d’un processus destiné à reproduire numériquement et à générer de façon figurative des situations, des séquences, des mécanismes identiques aux processus réels. Dans le cadre du GSI, les images de simulation visent à reproduire sous forme visuelle une expérience virtuelle, en prenant en compte un grand nombre de facteurs expérimentaux. Ces images sont comparées aux images sources qui sont souvent de moins bonne qualité, parce que les conditions expérimentales sont très difficiles à maîtriser. Ces images de simulation servent ainsi de « renforçateur épistémique » par rapport aux images sources produites par ailleurs. Si un chercheur est capable de produire une bonne image de simulation, on estime qu’il a su décrypter tous les aspects, à la fois théoriques et expérimentaux, qui interviennent dans la production d’une image source donnée.

Figure 3

À gauche : image source d’un échantillon de perovskite réalisée avec un MET.

À droite : des images simulées d’un échantillon de perovskite.

Les petits carrés correspondent à différentes épaisseurs de perovskite.

Ces images simulées sont comparées à l’image source.

C. Ghica/GSI.

-> See the list of figures

L’image de modélisation consiste à ne retenir, pour sa réalisation, que les théories validées à propos d’un objet d’étude donné, à l’exclusion des facteurs expérimentaux. Elle est, de ce fait, beaucoup plus schématique et ne vise pas une ressemblance trait pour trait avec des images sources. L’image de modélisation permet de mieux comprendre, sur un plan théorique, les phénomènes observés grâce aux images sources et retraitées. Voici une image (fig. 4) de modélisation d’atomes de cobalt sur un substrat d’or.

Figure 4

Image de modélisation d’atomes de cobalt sur or.

Image de modélisation d’atomes de cobalt sur or.
F. Scheurer/GSI

-> See the list of figures

Cette première classification – images sources, images retraitées, images de synthèse –, résultant d’observations ethnographiques menées dans un laboratoire de physique des matériaux, est-elle pertinente lorsqu’on aborde les images produites dans un laboratoire de pharmacologie ?

3. Quels sont les types d’images produites en pharmacologie ?

3.1 Les images sources en pharmacologie

On peut inclure dans cette rubrique toutes les images réalisées en microscopie ou, par exemple, celles qui sont produites à l’issue d’un Western Blot. Ci-dessous, en guise d’illustration, une image source, obtenue avec un microscope optique, de cellules d’épithélium bronchique cultivées en présence de nanoparticules. Il s’agit de voir si ces nanoparticules ont un effet létal sur les cellules humaines.

Figure 5

Image source de microscopie optique de cellules pulmonaires cultivées en présence de nanoparticules.

Image source de microscopie optique de cellules pulmonaires cultivées en présence de nanoparticules.
F. Pons/IEA. Image reproduite avec l’autorisarion de l’auteur.

-> See the list of figures

Figure 6

Image retraitée en microscopie confoncale représentant une jonction neuromusculaire.

Image retraitée en microscopie confoncale représentant une jonction neuromusculaire.
C. Le Halle/IEA. Image reproduite avec l’autorisarion de l’auteur.

-> See the list of figures

3.2 Les images retraitées en pharmacologie 

Les traitements d’images revêtent diverses formes en pharmacologie. Le traitement, par le biais des programmes informatiques permettant d’extraire directement de l’image source des informations précises ou de les mettre en valeur, est utilisé dans le cadre des activités quotidiennes, tout comme en physique des matériaux. On trouve par exemple l’usage des fausses couleurs, en microscopie confocale, nécessaire pour mettre en évidence une superposition de marquages, permettant la démonstration absolue d’une co-localisation d’un phénomène (voir fig. 6).

Le traitement du bruit et des artéfacts, parfois si laborieux en physique des matériaux, et qui se traduit par le recours à de multiples traitements informatiques destinés à les éliminer, est ici en général intégré directement au logiciel permettant de traiter les données produites par un instrument. Prenons en guise d’exemple le pléthysmographe qui permet, en enregistrant des variations de pression, de mesurer des volumes gazeux pulmonaires des souris in vivo. Le résultat est enregistré sous forme de courbes (variations de pression en fonction du temps). Si la souris bouge, la courbe enregistrera un pic « hors norme » dû au mouvement de l’animal. Le logiciel qui convertit les données sources en courbes est capable de détecter ce type d’artefact et d’en éliminer automatiquement les occurrences. Les images, retraitées à l’aide de programmes informatiques en pharmacologie, nécessitent souvent en parallèle le recours à une médiation humaine pour réaliser leur traitement. Prenons l’exemple d’un comptage de cellules sur une image produite par microscopie optique. Les pharmacologues préfèrent déterminer eux-mêmes les zones où sont localisées les cellules qu’il faudra prendre en compte et celles qui devront être écartées. Un chercheur peut en effet juger, grâce à son regard éduqué et en se remémorant les étapes du processus de préparation des échantillons, quels sont les éléments pertinents sur l’image de microscopie, et ce, même lorsque ces éléments se présentent de manière quelque peu inhabituelle ou inappropriée (par exemple, une cellule écrasée par le processus de préparation), ce qu’un logiciel est incapable de faire. Ce comptage peut alors se traduire sous la forme d’instructions données à un logiciel par le chercheur, qui a décidé des zones déterminées sur lesquelles il est pertinent de réaliser automatiquement la tâche. Sans ces instructions, le logiciel n’offrirait pas la même efficacité.

3.3 Les images de synthèse en pharmacologie 

Il n’existe pas, à ma connaissance, d’images de synthèse (de simulation ou de modélisation) dans ce laboratoire, au sens défini plus haut. Rappelons que ces types d’images visent bien à reproduire, parfois très précisément, des phénomènes expérimentaux, au point qu’une image de simulation, produite en physique des matériaux par exemple, est pratiquement identique à celle produite au cours d’une expérience réelle menée avec un microscope.

Ces images de synthèse en physique des matériaux ont pour objectif bien souvent de contourner le fait que l’expérimentation constitue une phase extrêmement problématique, et permettent de créer numériquement une vice-expérience exempte de tous les aléas expérimentaux.

Pourquoi, dans le type de laboratoire de pharmacologie au sein duquel j’ai séjourné, ne trouve-t-on pas d’images de synthèse ? Une réponse possible, à affiner sans doute, est que ce type d’images nécessite une compréhension approfondie des processus physiques et biologiques à l’oeuvre. Les images de simulation et de modélisation ont pour visée la représentation de systèmes physiques extrêmement limités, comprenant quelques centaines d’atomes. Or, dans ce laboratoire de pharmacologie, les données sont issues d’expérimentations sur le vivant (des organismes de souris, par exemple). La complexité de ce type de système est évidemment telle que la réalisation d’images de synthèse est difficilement envisageable.

Bien sûr, on peut modéliser une protéine en biologie moléculaire et cela se fait dans des laboratoires où l’on trouve des chercheurs qui consacrent principalement leur activité à cela. Mais, dans le laboratoire de pharmacologie présenté dans le cadre de cet article, il faudrait être en mesure de modéliser, sous forme d’algorithmes, non seulement la protéine, mais également son action sur un organe particulier et sur l’ensemble de l’organisme de la souris. Les chercheurs ne sont pas encore capables de modéliser ou de simuler ces types de systèmes complexes, à supposer qu’ils puissent le faire un jour et que cela soit utile d’une quelconque manière aux yeux des pharmacologues du laboratoire.

3.4 D’autres types d’images présents en pharmacologie : histogrammes et schémas explicatifs

3.4.1 Histogrammes

On peut observer, dans le laboratoire de pharmacologie, la présence massive d’un autre type d’images, à la fois dans la pratique quotidienne et dans les publications, qui est pratiquement absent en physique des matériaux : l’histogramme[13]. Prenons pour exemple la mesure de la densité optique qui s’effectue à l’aide d’un spectromètre. La densité optique repose sur la loi de Behr-Lambert et établit une proportionnalité entre la concentration d’une entité chimique en solution (un colorant, par exemple), l’absorbance de celle-ci et la longueur du trajet parcouru par la lumière dans la solution. On obtient ainsi des données chiffrées sous forme de tableau. Ces données chiffrées peuvent être transformées en deux types de diagrammes : en histogrammes ou en un type de diagramme que l’on rencontrait déjà en physique des matériaux, sous la forme d’images retraitées, à savoir les courbes.

Figure 7

F. Pons/IEA. Image reproduite avec l’autorisarion de l’auteur.

-> See the list of figures

Illustrons ceci par une étude qui vise à montrer que des nanoparticules ont une toxicité potentielle. La chercheuse fait varier la concentration de nanoparticules qu’elle va mettre en contact avec des cellules humaines de l’épithélium bronchique cultivées dans des plaques. Les nanoparticules étudiées sont de trois types, appelons-les A, B et C. La question est de savoir si ces nanoparticules tuent ou « stressent » les cellules bronchiques. La dernière phase des expériences consiste à utiliser un réactif dont l’intensité de coloration, et donc de densité optique, sera proportionnelle à la quantité de cellules restées vivantes. Les plaques ainsi obtenues sont analysées dans le spectromètre et on obtient un tableau chiffré de la densité optique qui sera converti sous forme d’histogramme ou de courbe.

3.4.2 Schémas explicatifs

Si, comme je l’ai déjà souligné plus haut, nous trouvons peu d’images de synthèse produites uniquement à l’aide d’algorithmes en pharmacologie, nous rencontrons en revanche, et ce de manière récurrente, un autre type d’images, inexistant en physique des matériaux. Ce sont les schémas explicatifs. Ces schémas assument un rôle épistémique extrêmement important puisqu’ils fournissent, sous forme visuelle, une explication détaillée des phénomènes biologiques à l’oeuvre dans un système vivant donné. Ils intègrent tout à la fois des données issues du réel et une grande part de convention permettant de développer l’explication. Ces schémas possèdent une fonction cognitive essentielle, car ce sont eux qui permettent aux chercheurs de résumer de manière efficace les processus à l’oeuvre. Ils supposent comme conditions de leur réalisation :

  • que le chercheur ait réussi à bien comprendre toutes les étapes du processus investigué et les liens entre ces différentes étapes ;

  • une compétence à élaborer une représentation visuelle qui soit compréhensible pour le lecteur, ce qui nécessite non seulement une maîtrise des conventions utilisées en pharmacologie, mais également une compétence didactique, de manière à transmettre les informations efficacement sans en omettre.

Figure 8

Schéma explicatif.

Schéma explicatif.
M. Bernat/IEA. Image reproduite avec l’autorisarion de l’auteur.

-> See the list of figures

Ces images supposent également, de la part du lecteur, une maîtrise minimale des conventions utilisées pour figurer les processus (interpréter correctement la signification d’une flèche, comprendre de quelle manière a été représentée la membrane d’une cellule, etc.)[14]. Il conviendrait d’étudier plus précisément ces schémas et d’y repérer les artifices de présentation qui leur confèrent leur efficacité cognitive.

Ma classification initiale établie en adoptant un critère génétique, à partir de mes observations en physique des matériaux, ne peut plus être conservée en l’état, puisque, comme nous l’avons vu, nous avons affaire à d’autres types d’images en pharmacologie.

4. Réaménagement de ma typologie initiale

4.1 Données sources

J’ai choisi d’intégrer ma catégorie « images sources » à l’intérieur d’une catégorie plus générale que je nommerai « données sources ». Cette catégorie inclut les images sources et les données chiffrées sources – le point commun étant que ce sont toujours les premières informations recueillies à l’aide d’un ou de plusieurs instruments. Ainsi, en pharmacologie, nous trouvons aussi bien des images sources (par exemple, des images de microscopie optique) et des données sources (par exemple, des données chiffrées de densité optique).

4.2 Données retraitées

Ma deuxième catégorie devient dès lors la catégorie « données retraitées ». Les opérations de retraitement se font :

  • soit informatiquement et donc automatiquement, en physique des matériaux et en pharmacologie, en fabriquant des images retraitées à partir d’images sources, avec tous les problèmes liés à la création ou à l’utilisation de logiciels ou de programmes adéquats ;

  • soit en pharmacologie, en fabriquant des images dérivées de données sources ; entreprise qui suppose fréquemment l’existence d’une phase durant laquelle l’être humain intervient directement et ne délègue pas entièrement ce travail à des logiciels.

Il s’agit ici de transformer des données chiffrées sources en histogrammes ou en courbes[15]. Qu’est-ce qui motive le choix de ces types de représentation graphique – courbes et histogrammes notamment – en pharmacologie ? Pour tenter de comprendre ce point, j’ai trouvé utiles les propositions d’Edward Tufte relatives à la mise en graphique des données chiffrées :

Quand nous raisonnons à partir de données quantitatives, certaines méthodes de présentation et d’analyse de ces données sont meilleures que d’autres. Les meilleures méthodes permettent d’aboutir à de meilleurs résultats en termes de vérité, de crédibilité et de précision. Qu’une analyse soit d’excellente ou de mauvaise qualité n’est pas indifférent et peut aboutir, le cas échéant, à des conséquences catastrophiques. (1997 : 27 ; ma traduction)[16]

La pensée de Tufte sur ce point est précisée dans un ouvrage ultérieur :

Si les représentations visuelles des données doivent être véridiques et riches d’enseignement, alors la logique du processus de mise en forme de la représentation doit refléter la logique de l’analyse intellectuelle, autrement dit, du raisonnement scientifique. Une visualisation claire et précise ne fait plus qu’une avec une pensée claire et précise. Les raisonnements sur les données quantitatives et la mise en forme des graphiques quantitatifs doivent inclure les points suivants : fournir des informations sur la source et sur les caractéristiques des données, souligner la pertinence des comparaisons effectuées, établir des relations de cause à effet, exprimer ces relations quantitativement, reconnaître que les problèmes analytiques comportent intrinsèquement des variables multiples, rechercher et évaluer des explications alternatives. (2000 : 53 ; ma traduction)

Pour en revenir au laboratoire de pharmacologie, je vais essayer de montrer que ces remarques de Tufte sont particulièrement opératoires pour les images dérivées de données sources. Revenons sur l’exemple de l’étude qui vise à montrer que des nanoparticules ont une toxicité potentielle. La grille de lecture répertoriant les différentes fonctions des graphiques quantitatifs, proposée par Tufte, est-elle judicieuse ?

Figure 9

F. Pons/IEA. Image reproduite avec l’autorisarion de l’auteur.

-> See the list of figures

  1. Fournir des informations sur la source et sur les caractéristiques des données.

    Sur les deux représentations, nous apprenons qu’il s’agit de cellules bronchiques de type X, stimulées pendant 48 heures. Les cellules X sont bien connues par ailleurs puisqu’elles sont issues depuis des années de la même souche prélevée sur un même patient. Nous découvrons également les types de nanoparticules utilisées (A, B, C).

  2. Souligner la pertinence des comparaisons effectuées.

    Cela se manifeste par la présence de quatre courbes ou de quatre barres permettant de comparer les cellules en milieu de culture sans nanoparticules, qui constituent le groupe contrôle, et les cellules avec des doses croissantes de nanoparticules A, B et C (indiquées en abscisse). Les cellules contrôles (traitées par le solvant des nanoparticules seulement) restent vivantes tout au long du processus, tandis que les autres, soumises au contact avec les nanoparticules, meurent progressivement : la comparaison semble donc pertinente.

  3. Établir des relations de cause à effet.

    La courbe et l’histogramme permettent, avec des variantes selon les nanoparticules, de visualiser le fait que plus leur concentration est élevée, plus les cellules meurent (le pourcentage de viabilité baisse). Ces graphiques donnent donc clairement à voir que les nanoparticules font mourir les cellules en fonction de leur concentration.

  4. Exprimer quantitativement ces relations de cause à effet.

    On a, en ordonnée, le pourcentage de cellules encore vivantes pour tous les cas de figure : c’est le pourcentage de viabilité, et, en abscisse, les concentrations croissantes de nanoparticules.

  5. Reconnaître que les problèmes analytiques comportent intrinsèquement des variables multiples.

    Les variables ici sont : le type de nanoparticules, les concentrations de nanoparticules, le temps de stimulation (ici constant : 48 heures).

  6. Rechercher et évaluer des explications alternatives.

    Ces opérations sont réalisées non pas sur ces graphiques, mais au moyen d’expériences complémentaires. Par exemple, en testant les produits utilisés pour maintenir les nanoparticules en suspension dans les échantillons. Une série d’expériences « contrôles » a consisté à évaluer la toxicité des excipients des nanoparticules.

Pour l’objet de l’étude, à savoir la mesure de la toxicité des nanoparticules, les courbes constituent une meilleure représentation graphique, car on visualise mieux la pente générale descendante. Cette pente descendante montre que le pourcentage de viabilité diminue quand on augmente les concentrations en nanoparticules. La relation de cause à effet est mieux mise en valeur que dans l’histogramme, alors que ce sont exactement les mêmes données retraitées. Interpréter l’histogramme semble sur ce point plus difficile : on perçoit visuellement moins bien la toxicité croissante des nanoparticules. Il y a donc là un impact argumentatif manifeste dans le fait de privilégier la courbe par rapport aux histogrammes. Cet impact sera largement à approfondir dans les travaux à venir, notamment en mobilisant des cadres d’analyse sémiotiques.

4.3 Les images de figuration

L’intitulé de la catégorie « image de synthèse » mettait l’accent sur le mode de production des images de modélisation et de simulation, et donc sur le fait qu’elles sont générées uniquement à partir d’algorithmes. Ce faisant, je n’insistais guère sur le rapport entre ces images et les entités ou les propriétés qu’elles sont censées permettre de visualiser. Ce qui les distingue des données sources et des données retraitées (et des images que ces catégories incluent), c’est l’absence totale de contact causal entre les images de modélisation, de simulation et les schémas explicatifs, d’une part, et les entités ou les propriétés soumises à investigation, d’autre part. Or, c’est bien là ce qui fait leur spécificité épistémique d’un point de vue génétique. Ces images permettent de « figurer » des éléments du réel, sans inclure aucune opération de détection, comme c’est en revanche le cas pour toutes les images que j’ai classées dans les deux autres catégories (images sources et images retraitées). Pour pouvoir être réalisées, ces images de figuration nécessitent, d’une part, la prise en compte d’informations issues du réel, sans contact causal matériel plus ou moins direct, et, d’autre part, la prise en compte des théories admises dans un domaine scientifique donné. Dans cette catégorie, nous trouvons dès lors :

  • les images de simulation : à travers elles, on aspire à recréer au plus près les conditions d’une apréhension des phénomènes naturels au moyen d’un matériel expérimental ou observationnel. On vise ainsi à produire une vice-expérience et ces images nécessitent par conséquent, pour leur création, la connaissance la plus complète possible des facteurs expérimentaux et théoriques ;

  • es images de modélisation qui, pour un système donné, prennent en compte les théories établies et négligent délibérément la plupart des facteurs expérimentaux ;

  • les schémas explicatifs qui fournissent une explication visuelle des processus à l’oeuvre, en considérant des informations tirées des expériences (des données sources), des informations liées aux théories en vigueur et les conventions représentationnelles propres au domaine disciplinaire au sein duquel l’investigation est réalisée. À tous ces éléments, viennent sans nul doute s’ajouter des éléments idiosyncrasiques liés aux capacités des chercheurs à bien comprendre ce qui est en jeu dans le cadre des opérations instrumentales, en référence à des contextes déterminés, et à en fournir une restitution la plus claire possible.

L’application de cette perspective génétique (et son amendement nécessaire dès lors qu’on souhaite lui conférer une portée plus générale permettant d’inclure l’intégralité des images produites en pharmacologie) me permet de distinguer différents types d’images. Cette typologie me paraît utile, car elle peut servir de boussole en vue de s’orienter au sein du vaste domaine des images scientifiques, et surtout de comprendre que ces images ne sont pas à mettre toutes sur le même plan. Une image de simulation peut formellement ressembler trait pour trait à une image source, mais leurs significations respectives et leurs fonctions pour la communauté des chercheurs seront fondamentalement distinctes, car intimement liées, comme nous l’avons vu, à leur processus de production (rapport causal plus ou moins direct avec une source émettrice d’informations sous forme de traces dans le cas des images sources, décryptage intégral sous forme algorithmique des aspects expérimentaux et des aspects théoriques liés au phénomène investigué dans le cas des images de simulation). Il sera sans doute intéressant d’appliquer cette typologie à d’autres domaines disciplinaires des sciences expérimentales. L’élaboration même d’une telle typologie ne constitue cependant pas une fin en soi. L’intérêt principal qui peut justifier sa prise en compte réside dans le fait qu’on peut espérer mieux comprendre, à partir d’elle, ce que font les chercheurs dans leurs laboratoires. Un scientifique confronté à une image de simulation va se pencher sur le détail des algorithmes produits et va recourir à certaines stratégies en vue d’éprouver sa valeur épistémique. S’il a affaire à une image source obtenue avec un STM, il examinera non pas les algorithmes qui ont contribué à sa réalisation (car ceux-ci posent rarement problème), mais les conditions qui ont présidé à l’expérimentation (préparation de l’échantillon, qualité de l’ultravide dans l’enceinte du microscope, représentativité de la zone visualisée sur l’image par rapport à l’ensemble de l’échantillon, etc.). La signification de l’image et la valeur épistémique que le chercheur lui confère sont donc directement liées à la catégorie de l’image et au mode de production qui lui est associé. Les problèmes qui jalonnent la réalisation des images sont souvent hautement spécifiques en fonction des domaines disciplinaires au sein desquels elles ont été produites, et donnent lieu au développement de stratégies de corroboration elles-mêmes spécifiques.

5. Différences et similitudes entre les processus de production des données sources et des données retraitées en physique des matériaux et en pharmacologie

5.1 Présence d’artefacts à l’occasion de la production des images, à des moments différents du processus de recherche

Un des problèmes récurrents rencontrés par les chercheurs, dans les deux laboratoires à l’occasion de la production des images, est la présence de nombreux artefacts. Cette similitude une fois constatée, le point le plus frappant et qui mérite d’être soumis à l’analyse est constitué par le fait que les artefacts ne se situent pas du tout au même moment du processus de recherche. En physique des matériaux, ils peuvent apparaître en amont du moment de la production des images, au moment même de la prise d’images, et en aval de cette production, au moment du retraitement des images. En pharmacologie, les artefacts potentiels ne se produisent que très peu au moment de la prise d’images ou, en aval, au moment du traitement des données. En revanche, ils sont massivement présents en amont, surtout dans la phase de préparation des échantillons ou dans les multiples opérations instrumentales qui aboutissent finalement à la réalisation d’une image.

Voici une liste non exhaustive des artefacts rencontrés en pharmacologie :

  1. Le fond génétique des souris a évolué au cours des générations, c’est-à-dire que, génétiquement, la descendance ne correspond plus aux reproducteurs initiaux. 

  2. Les protocoles d’expérience mobilisés sont inadéquats. Il faut les modifier et les adapter. Les protocoles sont en général issus des publications d’autres chercheurs, mais ce n’est pas pour autant qu’ils donneront tout de suite lieu à des résultats reproductibles. Il est très important d’optimiser un protocole si l’on veut garantir la reproductibilité d’une expérience en pharmacologie. Et certaines des expériences faites ont d’ailleurs pour seul but de parvenir à stabiliser ces protocoles.

  3. Les diverses manipulations mobilisant des savoir-faire précis sont fautives. Par exemple, pipeter correctement, obtenir la bonne pesée, assurer une bonne conservation de l’échantillon biologique, effectuer une perfusion sans problème, etc., sont des éléments-clés de diverses expériences. Comme les manipulations sont extrêmement nombreuses, il est indispensable, mais souvent difficile, d’identifier laquelle ou lesquelles sont fautives.

  4. Un des appareils utilisés lors des manipulations est défectueux (le calibrage d’un appareil a été mal réalisé).

Illustrons le type de situation auquel les scientifiques sont quotidiennement exposés par le cas de la chercheuse qui, dans le cadre de l’étude sur la toxicité des nanoparticules précédemment évoquée, teste un protocole afin d’établir une gamme étalon. Cette gamme doit permettre de doser une protéine, une cytokine, dans le milieu de culture des cellules bronchiques. L’hypothèse est que cette protéine pourrait être produite par les cellules si elles ont été « stressées » par la présence des nanoparticules. Avant de rechercher cette protéine dans des échantillons comportant des cellules humaines « stressées » par des nanoparticules, la chercheuse veut établir une gamme étalon visant à fournir un point de repère quant au degré de concentration de la protéine dans ses échantillons. C’est une sorte d’échelle graduée allant d’un degré zéro à des concentrations de plus en plus élevées de la protéine. Après des manipulations qui durent plusieurs heures, la dernière phase de la méthode de dosage consiste à ajouter un réactif dont l’intensité de coloration, et donc la densité optique, sera proportionnelle à la concentration de cette protéine. Le tout sera analysé dans un spectromètre qui délivrera des données chiffrées sources, qui seront converties à nouveau en courbes ou en histogrammes. Hélas, bien qu’ayant suivi le plus scrupuleusement possible le protocole de test, les résultats sont mauvais et la chercheuse déçue n’arrive pas à obtenir une gamme étalon correcte. Avec l’aide d’une chercheuse confirmée, elle essaie de comprendre pourquoi ce résultat est fautif. Première piste envisagée, un mauvais pipetage : la chercheuse confirmée réévalue la manière de pipeter de l’étudiante, en vérifiant que les volumes corrects sont distribués dans le bon puits. Mais ce n’est pas la seule piste envisagée. Selon la chercheuse confirmée, ce résultat surprenant pourrait également avoir été produit lors de l’agitation de la plaque dans un appareil appelé « agitateur de plaques ». Elle vérifie que le degré d’agitation nécessaire au protocole est bien celui qui a été utilisé par la jeune chercheuse. La plaque a peut-être été secouée trop fortement, elle propose donc d’amender le protocole initial. Dernière piste envisagée, l’hypothèse qu’un appareil, en l’occurrence celui qui permet de rincer automatiquement les puits, soit défectueux. Il s’agit de petits tubes qui descendent automatiquement dans chacun des puits et qui les rincent au moyen d’une solution saline. La chercheuse confirmée sait que ces tubes peuvent parfois se boucher en raison de la présence de résidus de sels, empêchant ainsi le rinçage de certains puits.

De surcroît, il est tout à fait possible que ces différents types d’artefacts soient simultanément présents. Il faut donc que notre jeune chercheuse refasse sa gamme étalon en vérifiant ces différents points. On comprend bien, à travers cet exemple, qu’il n’est pas toujours aisé d’identifier la cause des artefacts. C’est un enjeu majeur, car de cette identification dépend directement la valeur épistémique que le chercheur va accorder aux images sources et retraitées, et ceci est vrai pour les deux domaines d’investigation expérimentale étudiés.

5.2 Une différence majeure : l’absence de flexibilité interprétative quant aux images produites en pharmacologie

Qu’appelle-t-on « flexibilité interprétative » ? Dans les études menées par le sociologue des sciences Harry Collins (1981), la flexibilité interprétative désigne le fait que les données empiriques, produites ou collectées au cours d’une recherche, donnent lieu à des interprétations différentes entre lesquelles il est difficile de trancher. En physique des matériaux, une telle flexibilité interprétative est bien présente, notamment au moment de la réalisation des images. Elle est repérable au sein des conversations multiples qui se déploient à l’occasion de la prise d’image, discussions qui portent sur ce qu’il convient de voir sur une image donnée[17] : les chercheurs confrontés à une même image n’associent pas toujours les mêmes éléments et, par là, le sens conféré à ces éléments diffère. On constate ainsi que la signification d’une image donnée se construit progressivement. Le statut épistémique conféré à une image dépendra, dans ce cas, non seulement de l’identification de tous les artefacts potentiels, mais également de la capacité collective à construire et à stabiliser une signification, stabilisation qui est obtenue en adoptant diverses stratégies évoquées dans la suite de mon propos.

Si nous nous tournons vers la pharmacologie, on ne trouve pas de flexibilité interprétative quant aux images réalisées. Les images sources ou les images dérivées de données sources en pharmacologie ne sont pas « difficiles » à interpréter, interpréter étant pris ici au sens d’identifier les différents éléments présents sur une image[18]. Elles ont plutôt une fonction de sanction de l’expérience. Très rapidement, le chercheur, en voyant son image de microscopie, son image de Western Blot ou encore ses courbes, parvient à donner une signification à ce qu’il voit. Soit l’élément recherché est présent sur l’image, soit il ne l’est pas. Il y aura peu de discussions sur ce qu’il convient de voir sur une image.

En revanche, il y en aura beaucoup sur les artefacts potentiels qu’il faudrait prendre en compte pour expliquer la présence de certains éléments sur l’image et évidemment sur la meilleure méthodologie à adopter afin d’avoir la garantie d’éliminer le plus grand nombre possible d’artefacts. Le statut épistémique d’une image source ou retraitée donnée sera alors directement lié à la faculté du chercheur à débusquer tous les artefacts potentiels.

5.3 Évolution du statut épistémique des images ou des données sources et retraitées en physique des matériaux et en pharmacologie

Au début du processus de recherche, les données sources ou retraitées ont un statut épistémique faible qui n’autorise pas leur utilisation dans le cadre d’une publication, que l’on travaille en physique des matériaux ou en pharmacologie. L’un des enjeux est donc de renforcer ce statut épistémique. Comment ? En mettant en oeuvre un certain nombre de stratégies bien décrites à mon sens par Allan Franklin dans le cadre de son « épistémologie de l’expérimentation » (1986, 1990). Ces stratégies, selon Franklin, ont été développées par les chercheurs tout au long de l’histoire des sciences, en vue de se convaincre de ce que leurs résultats expérimentaux sont fiables et renvoient à des processus et à des phénomènes existant réellement dans la nature. Ces stratégies sont : les vérifications expérimentales et les phases de calibration durant lesquelles un instrument reproduit un phénomène connu ; la reproduction des artefacts déjà connus ; l’élimination des sources d’erreurs plausibles et l’élimination des possibles explications alternatives permettant d’expliquer un phénomène ; la reproductibilité des résultats expérimentaux ; l’intervention durant laquelle l’expérimentateur manipule l’objet étudié ; le recours à des corroborations expérimentales fondées sur d’autres expériences ; le recours à une théorie indépendante et bien corroborée par ailleurs ; le recours à des instruments reposant sur des théories pour le reste bien corroborées ; le recours à des arguments statistiques ; l’analyse des données en aveugle.

Je n’étudierai pas ici dans le détail toutes les stratégies[19], même si presque toutes sont mobilisées dans les deux laboratoires et sont repérables non seulement dans la pratique quotidienne des chercheurs, mais également dans l’argumentaire qu’ils développent dans les publications. Cela dit, certaines stratégies dominent au sein d’une discipline donnée et l’on pourrait envisager de cartographier le champ des sciences expérimentales en étudiant de manière systématique la place qu’y occupent les différentes stratégies et le poids relatif qui est conféré à chacune d’elle. Ainsi, deux d’entre elles sont plus particulièrement mobilisées en pharmacologie :

  • La reproductibilité. Parvenir à reproduire plusieurs fois une expérience et à obtenir des images équivalentes est très important en pharmacologie, tant la complexité des systèmes vivants rend difficile l’établissement et la maîtrise des paramètres pertinents pour l’investigation.

  • Le recours à des corroborations fondées sur d’autres expériences. Cette stratégie est présente dans la pratique quotidienne et structure généralement l’argumentaire final des publications. Imaginons qu’un article soit rédigé à l’issue de l’étude de la toxicité des nanoparticules. On y trouvera certainement une image source de microscopie optique destinée à montrer que certaines nanoparticules tuent les cellules bronchiques. On trouvera également, dans la publication, une image dérivée de données sources (un histogramme) permettant de visualiser la présence de cytokine résultant du stress provoqué par les nanoparticules. Ces deux images ont d’abord un statut épistémique faible, mais elles se renforcent l’une l’autre et acquièrent ainsi une valeur épistémique beaucoup plus élevée dans le cadre de l’argumentation qui sera ultérieurement développée dans une publication.

Pour conclure, l’adoption d’une perspective génétique permet tout d’abord de caractériser au moyen d’une même grille de lecture les images réalisées au sein de disciplines très différentes. C’est là un moyen de contourner l’écueil toujours envisageable consistant, lorsqu’on cherche à analyser les images scientifiques, à construire des outils de compréhension ad hoc, variant dès qu’on passe de l’étude d’une discipline scientifique à celle d’une autre. Cette variété des concepts opératoires nuit à la portée de l’analyse, qu’elle soit sémiotique, philosophique, historique, etc. D’autre part, l’adoption d’une perspective génétique permet de comprendre pourquoi toutes les images ne sont pas mises sur un même plan par les scientifiques, dans le cadre de leurs activités de recherche et de validation de leurs hypothèses. Cela exige, de la part de l’analyste, une prise en compte des processus de production des différents types d’images, des problèmes que ceux-ci comportent et des stratégies déployées par les scientifiques en vue de leur apporter des solutions. Cette perspective génétique me paraît donc présenter l’intérêt d’établir un pont entre l’universel (une même typologie pour classer les images quels que soient les domaines scientifiques abordés) et le particulier (souligner les difficultés inhérentes à la production des images et les stratégies de remédiation particulières propres à chaque discipline scientifique)[20].