Corps de l’article

« Des dégâts sont constatés dans tous les quartiers, des habitants ont tout perdu et ne peuvent plus rentrer chez eux, des toits se sont effondrés, des cheminées sont à terre, des gravats un peu de partout dans la ville, quasiment toutes les maisons sont fissurées, le clocher de l’église du centre est prêt à tomber, une partie du toit de l’église de Mélas est effondrée, les établissements scolaires ont de gros dégâts, le deuxième étage de l’hôtel de ville est inaccessible… » Olivier Peverelli, maire du Teil, 2019

Introduction

Le 11 novembre 2019, un séisme de magnitude estimée entre 5 et 5,4[1] survient au Teil, petite ville de la vallée du Rhône en Ardèche. Le séisme fait une victime et un blessé grave[2]. Les communes alentour comptent aussi de très nombreux dégâts. Au Teil, 800 habitations sur 4000 présentent des dégradations. Parmi les bâtiments publics, seuls les gymnases récents ne présentent pas de dommages. Les établissements scolaires, la mairie et l’église sont, en revanche, très endommagés. Le coût y est estimé à 260 millions d’euros pour le parc privé et 50 millions pour le parc public (AFPS, 2020). Certes rare en France métropolitaine, un tel séisme est dans l’intervalle de ce qui est attendu par les sismologues[3]. En région Auvergne-Rhône Alpes, des séismes d’intensité comparable sont déjà survenus à Épagny près d’Annecy en 1996 et à Corrençon dans le Vercors en 1962. Dans le sud de la vallée du Rhône, il faut toutefois remonter à l’essaim sismique de 1934 près de Tricastin, à une quinzaine de kilomètres du Teil[4]. Un séisme destructeur sur le territoire métropolitain est une occasion quasi unique dans la carrière d’un scientifique. L’évènement mobilise ainsi la communauté française du risque sismique. Surtout, progressivement, l’accumulation d’observations et mesures inattendues déroute les postulats et conventions admis parmi ses membres. Ce séisme apparaît dès lors comme un évènement paradoxal : un phénomène naturel de faible ampleur, mais très destructeur. Ce paradoxe rend l’évènement paradigmatique, car il déstabilise l’équivalence conventionnelle entre rupture physique et conséquences sociales et perturbe l’administration du risque. La réponse apportée est elle aussi paradoxale. Bien qu’il déstabilise les postulats de la gestion du risque sismique et provoque une effervescence académique, il ne remet pas en cause directement la sûreté ou la sécurité des constructions, notamment à risques spécifiques (industrie, énergie, nucléaire civil).

Depuis un article séminal paru dans Nature en 1976, le champ de l’étude des catastrophe (Disaster Studies) a déplacé la focale de l’origine des catastrophes, depuis l’accident fortuit (dans le monde industriel) ou l’aléa (dans le monde naturel) vers la construction sociale des vulnérabilités (O’Keefe et al., 1976 ; Turner, 1978). Depuis, les catastrophes ou les risques sont représentés, à échelle globale (Cabane, 2015), par le produit d’un aléa (ou agent) par une vulnérabilité, au point de rencontre entre la nature et la société (Blaikie et al., 1994 ; Revet et Langumier, 2013). Comme le remarque Benoit Giry, le dérèglement climatique perturbe la séparation nette entre nature et société, l’influence humaine sur les évènements naturels étant désormais tenue pour indéniable (Giry, 2023). Ce point est peu contestable pour les canicules ou inondations, mais il vaut bien plus largement. Le remplissage de barrage et l’activité minière en sous-sol (mines, pompage de gaz, géothermie, exploitation du gaz de schiste, stockage géologique de gaz ou de CO2) stimulent la sismicité induite dans des proportions importantes et d’ampleur potentielle encore méconnue[5]. Sous cette perspective, la catastrophe résulte d’une activité anthropique qui modifie l’aléa et entretient des vulnérabilités (Mileti, 1999 ; Revet, 2007). Le dérèglement climatique qui déstabilise les lois intangibles de la nature redouble ce questionnement sur la construction sociale des vulnérabilités (Zaccai et al., 2012).

Après la catastrophe de l’ouragan Katrina à La Nouvelle-Orléans, Christopher Henke, une figure fondatrice de l’étude de la réparation et de la maintenance (Repairs and Maintenance Studies) (Denis et Pontille, 2020 ; Strebel et al., 2018), a formulé une hypothèse expliquant la survenue d’une catastrophe pourtant largement attendue (Henke, 2007) : il faut, pour en comprendre les causes, replacer la catastrophe dans une écologie sociale et matérielle du risque selon une conceptualisation (l’Ecological Thinking) qu’il emprunte à la pensée de Susan Starr (Star et Ruhleder, 2010 ; Vinck, 2009). Cette écologie, poursuit Henke, résulte d’une trajectoire historique (history of growth), similaire au trajet d’instauration d’Étienne Souriau (Courtois-l’Heureux et Wiame, 2015 ; Stengers et Latour, 2009 ; Thoreau et D’Hoop, 2018), indéterminée, mais progressivement plus contraignante. Pour Henke, cette conceptualisation permet d’éclairer la relation entre le processus de normalisation du risque, en référence au concept de normalisation de la déviance développé par Diane Vaughan dans son étude sur les causes du crash de la navette Challenger (Vaughan, 1997), et des réseaux de pouvoir sous-jacents qui cherchent à se maintenir[6]. Les risques se perpétuent alors par l’action d’une « main invisible » qui se cache derrière la stabilité des infrastructures (Henke, 2019). Cette main invisible est celle des mainteneurs et réparateurs en tout genre qui œuvre au soin des choses (Denis et Pontille, 2022), mais aussi celles d’une seconde infrastructure sous-jacente de production de connaissance (Barry, 2020). Celle-ci est composée d’ingénieurs et de scientifiques équipés d’un dispositif de surveillance pour assurer que l’infrastructure matérielle première demeure dans ses limites de fonctionnement autorisé. Ils définissent à la fois le cadre légal de ce fonctionnement et gèrent les moments de rencontre fortuits de l’infrastructure avec d’autres champs de forces à la temporalité propre (atmosphérique, géologique, tellurique, cosmologique, et cetera) (Bensaude-Vincent, 2021 ; Connolly, 2011). Selon Andrew Barry, les infrastructures ne sont pas posées sur le sol, mais imbriquées avec lui, en interface synergique ou conflictuelle, contingente et l’objet de jeux politiques. L’infrastructure de second ordre joue alors un rôle stratégique dans l’orientation des politiques urbaines en zone sismique comme il le remarque avec l’observatoire de Kandilli (Kandilli Observatory for Earthquake Monitoring) à Istanbul en Turquie (Barry, 2016). En France, Nelo Magalhães montre comment le corps des ingénieurs des ponts et chaussés maintient le projet patronal de réseau routier adapté aux poids lourds par la production de savoirs et techniques qui surmontent les instabilités de charges, d’environnement et de saison, mais aussi temporisent les crises liées à la gestion des déchets et à l’extractivisme (Magalhäes, 2024).

Notre article décrit l’organisation et l’action de cette infrastructure de second ordre au moment fortuit de la rencontre entre le bâti (courant et industriel) et une force géologique lors d’un évènement déroutant (le séisme du Teil). Cette investigation est double : explorer la composition et le fonctionnement de cette infrastructure secondaire ; étudier le processus de normalisation de l’accident ou de la crise (Arnhold, 2019 ; Saraç-Lesavre et Laurent, 2019). Toutefois, si le concept de normalisation a surtout été employé pour expliquer comment des accidents sont réduits pour entrer dans des cadres préexistants de gestion et conforter certaines technologies ou industries, nous nous intéresserons aussi à l’adaptation des outils et méthodes d’évaluation des gestionnaires des risques après un évènement qui déjoue les pronostics. Pour paraphraser Foucault, ce qui est fondamental et premier dans la normalisation des évènements déroutants, ce n’est pas le normal et l’anormal, c’est la norme et il faudrait alors plutôt parler de processus de normation (Foucault, 1978).

Comme sociologues spécialistes du risque sismique, l’un dans l’industrie nucléaire, l’autre dans la construction conventionnelle, nous examinons comment, dans la période post-sismique, les experts expriment la nécessité de recadrer la gestion du risque après un évènement atypique. Cet article repose sur 22 entretiens conduits entre mars et octobre 2021 auprès de sept sismologues, deux géologues, quatre ingénieurs civils, cinq fonctionnaires de l’État et quatre prescripteurs de sécurité appartenant aux organismes suivants :

  • L’Association française du génie parasismique (AFPS) qui constitue un lieu de rencontres, d’échanges et de coordination des spécialistes en aléa sismique et génie parasismique. Elle centralise également les missions de diagnostic post-sismique des équipes françaises en France et à l’étranger,

  • Le Bureau de recherches géologiques et minières (BRGM) qui est le service géologique national français,

  • La Caisse centrale de réassurance (CCR) qui est une entreprise de réassurance française dédiée en particulier à la couverture des dommages occasionnés par les catastrophes naturelles,

  • Le Centre d’information pour la prévention des risques majeurs (CYPRES), qui est une association dont l’objectif est de promouvoir des actions d’information et de sensibilisation aux risques majeurs et aider les industriels et les collectivités locales et territoriales à mettre en place une politique de prévention des risques,

  • Le Commissariat à l’énergie atomique et aux énergies alternatives (CEA), qui est un organisme de recherche public ainsi qu’un organisme d’administration centrale dont l’objectif premier est le développement des applications de l'énergie nucléaire dans les domaines scientifique, industriel et de la défense nationale,

  • La Direction générale de la prévention des risques (DGPR) qui regroupe l'ensemble des services de l'État chargés d'élaborer et de mettre en œuvre les politiques relatives à la connaissance, l’évaluation, la prévention et la réduction des risques chroniques, accidentels, technologiques et naturels,

  • La Direction régionale de l'environnement, de l’aménagement et du logement (DREAL) de la région Auvergne-Rhône-Alpes, qui est un service déconcentré de l'État chargé d'élaborer et mettre en œuvre les politiques de l’État en matière d’environnement, de développement et d’aménagement durables,

  • Électricité de France (EDF), qui est une entreprise d’État, premier producteur et premier fournisseur d’électricité en France et en Europe,

  • L’Institut de radioprotection et de sûreté nucléaire (IRSN), qui est l’expert public en matière de risques nucléaires,

  • L’Institut des sciences de la terre (ISTerre), qui est un laboratoire de recherche public qui réunit les chercheurs géophysiciens, géochimistes et géologues de l'Académie de Grenoble.

La diversité des avis est aussi analysée à partir des arguments scientifiques publiés après le séisme du Teil. Notre implication constante dans différentes communautés du risque sismique en France agrège aussi des preuves, des dires, des bruits de couloirs et des interprétations accumulés après le séisme du Teil. Les 5e rencontres scientifiques et techniques du réseau sismologique et géodésique français (Résif-Epos[7]) lors du centenaire du Bureau central de sismologie français (BCSF) (15 au 18 novembre 2021) ont été l’occasion d’un bilan des études sur le séisme du Teil et de la publication, en 2021, d’un numéro spécial de la revue Comptes rendus Géoscience de l’Académie des sciences (volume 353).

Le dispositif post-sismique

Deux métiers regroupent les experts mobilisés selon l’objet scientifique. Les spécialistes des sciences de la Terre (sismologues, géologues, géotechniciens) étudient le phénomène naturel pour le calibrer en le confrontant avec la représentation conventionnelle de l’activité sismique régionale. Les ingénieurs en génie civil ou génie mécanique mesurent les dommages aux édifices. Cette exploration discrétise parmi les bâtiments encore debout, ceux encore habitables ou exploitables de ceux à détruire ou renforcer. Un second objectif vise à mesurer, qualifier et finalement quantifier les dommages pour les indexer à l’évènement sismique dans une grille d’intensité macrosismique. Au terme des deux campagnes post-sismiques, la relation entre la physique du séisme et les dommages est établie. Suivre ces investigations post-sismiques éclaire les surprises des experts.

Chercher les causes du séisme

Proche des laboratoires de Lyon, Grenoble, Aix et Montpellier, ce séisme mobilise immédiatement la communauté scientifique qui s’autosaisie en ordre dispersé (notamment un jour férié), mais aussi selon des protocoles préétablis. En particulier, le Centre national de la recherche scientifique (CNRS) déploie une cellule post-sismique composée de 91 chercheurs et experts de divers laboratoires pour établir ses paramètres physiques, sa puissance, sa localisation et l’origine de son déclenchement[8]. Elle déploie un réseau sismologique de 47 stations pour enregistrer les précieuses répliques sismiques durant sept jours (Cornou et al., 2021). Les membres de la cellule expliquent ce déploiement sans précédent par la rareté de l’évènement, les dommages occasionnés et l’opportunité unique de recherches sur la sismicité de la France métropolitaine[9].

La première caractéristique connue est la puissance de l’énergie libérée lors de la rupture d’une faille sismique. La magnitude de Richter, l’indicateur le plus employé, notamment par les médias, pour l’exprimer est obtenue à partir de l’amplitude des ondes enregistrées par un sismographe. Rapidement, la première estimation du réseau du Laboratoire de géophysique du CEA donne 5,4 en magnitude de Richter. Or, comme les estimations du CEA sont connues pour être majorantes[10], un autre indicateur intéresse les sismologues : la magnitude de moment, qui n’est pas relative aux ondes propagées ni à leurs enregistrements, mais dépend directement de la configuration de la rupture sismique (dimension de la faille qui a bougé et ampleur du déplacement). Toutefois, les conditions nécessaires aux calculs de cette magnitude sont rarement réunies pour les séismes métropolitains. En effet, cette magnitude géométrique nécessite les mesures très précises d’un réseau très dense de sismographes et d’accélérographes, des observations in situ, des images satellites avant et après la rupture et des relevés GPS qui mesurent le déplacement de chaque côté de la faille. Pour la première fois en France, la magnitude de moment est rapidement établie grâce aux images radar du satellite européen Sentinelle 1 avant et après le séisme. La comparaison des images du 6 et 12 novembre 2019 montre une rupture de 4 km de long avec un pic de glissement de 40 cm. L’énergie libérée est alors calculée comme étant de 2,7.1016 Newtons par mètre soit 4,9 en magnitude de moment. Si cette puissance est très faible en regard des grands séismes, elle est remarquable pour la France métropolitaine et a priori inédite dans la région (Cornou et al., 2021).

Pour localiser le foyer sismique, les scientifiques s’orientent d’abord vers la faille active des Cévennes au nord-ouest du Teil. Puis les images satellites du lendemain montrent que la faille liée au séisme est celle de la Rouvière, au sud du Teil, inclue dans le système de failles des Cévennes, mais sur une portion jugée inactive depuis la période oligocène (30 millions d’années). Les observations post-sismiques paléo-sismologiques, par tranchée in situ, montrent que la faille de la Rouvière a déjà bougé depuis l’Oligocène, il y a plusieurs milliers voire dizaines de milliers d’années (Ritz et al., 2020). L’absence de traces dans la période historique écrite (500 ans dans cette région) a masqué la réactivation de la faille. Le mouvement de la faille de la Rouvière double la surprise de sa réactivation. Le système de failles des Cévennes était considéré comme étant en extension. Or, le séisme du Teil suit une compression : le mouvement le long de la faille se serait donc inversé. Plusieurs hypothèses expliquent cette inversion. La sismologie est dominée par l’étude des forts séismes entre plaques tectoniques. L’étude, marginale, de la sismicité des zones intraplaques explique les séismes par des phénomènes physiques autres que tectoniques (Larroque et al., 2020) : érosion, circulation de fluides dans la croûte terrestre ou encore fonte des grands glaciers alpins il y a 15 000 ans (Larroque, 2009). Ces phénomènes pourraient être à l’origine de l’inversion du mouvement de la faille et, in fine, du séisme du Teil.

L’image satellite montre aussi que ce séisme est survenu à une faible profondeur. Si les séismes de la vallée du Rhône sont connus pour leur faible profondeur (entre 6 et 12 km), le foyer du séisme du Teil est localisé à moins de 1,5 km sous la surface (Delouis et al., 2021). Les explorations empiriques de la mission CNRS montrent que la rupture sismique s’est produite le long de la faille avec un décalage du sol en surface de 10 cm entre les deux compartiments (et par endroit 20 à 30 cm) (Delouis et al., 2019). Cette « rupture de surface » est très rare pour un séisme de magnitude de moment inférieure à 6 et c’est une première en France métropolitaine (Ritz et al., 2020). Une magnitude de moment 4,9 à une si faible profondeur est rarissime à l’échelle planétaire et seuls quelques exemples existent à proximité de volcans en activité[11].

Une autre hypothèse explique le réveil de la faille endormie par l’influence anthropique. La rupture sismique est survenue à proximité d’une carrière du cimentier Lafarge. Cette proximité a amené un sismologue d’ISTerre à interpeller ses collègues, via la plateforme numérique de la cellule post-sismique du CNRS, sur la responsabilité potentielle de l’exploitant dans la catastrophe[12]. Son hypothèse n’est pas sans fondement ni sans précédent, car l’extraction massive de roches allège la contrainte qui pèse sur un des versants de la faille et peut modifier suffisamment l’équilibre des forces pour déclencher un coulissement et un séisme. Dans ce cas, un tir de mine peut agir en détonateur du séisme. Interrogé par une journaliste du Point ayant consulté la plateforme numérique du CNRS, le sismologue d’ISTerre précise que ce séisme est « très étonnant pour un pays comme la France où les séismes se situent généralement entre 5 et 20 kilomètres de profondeur [et ajoute] une faible profondeur est une particularité que l'on retrouve lors des séismes induits par l'activité humaine »[13]. Suite à cette déclaration, de nombreux journaux régionaux et nationaux relayent l’hypothèse et la colère est rapidement montée parmi les victimes[14]. Le sismologue lanceur d’alerte est rapidement contredit par un de ses collègues d’ISTerre qui prétend, littérature scientifique à l’appui, que « ce n’est clairement pas un séisme d’origine humaine », car « si ce séisme a lieu, c’est que la faille est déjà au bord de la rupture »[15]. Face à la controverse, le groupe Lafarge, désireux de « jouer la transparence »[16], a mandaté le BRGM pour évaluer si l’exploitation de la carrière a pu générer le séisme. L’enjeu de cette étude est autre que scientifique : si le séisme a été causé par la carrière, alors les indemnités des dommages seraient à la charge de l’exploitant[17]. La responsabilité de la carrière est difficile à établir, l’exploitation pouvant jouer, mais à quel point ? D’après le BRGM, bien que le problème soit difficile à modéliser, l’énergie libérée par le séisme est de plusieurs ordres de grandeur supérieure à la contrainte engendrée par la modification de charge sur un pan de la faille. De la sorte, l’étude du BRGM conclut en établissant le rôle anthropique comme étant limité au plus à celui d’accélérateur[18].

L’étude de la cellule CNRS, qui intègre le sismologue lanceur d’alerte parmi les 91 co-auteurs ne conclut pas différemment : elle écarte l’hypothèse du déclenchement par un tir de mines, tout en préservant l’incidence, bien que relative, des modifications de charges comme accélérateur de la rupture (Cornou et al., 2021). Par contre, elle émet l’hypothèse que la carrière peut avoir modifié la superficialité de la rupture, qui se serait peut-être produite plus profondément sans sa présence. Ensuite, les scientifiques du BRGM exploreront aussi une autre hypothèse de déclenchement : les fortes pluies (Burnol et al., 2023).

Ce premier engagement scientifique post-sismique signale l’exceptionnalité du séisme le plus puissant connu dans la région, sur une faille réputée endormie, à une très faible profondeur, ayant occasionné une rupture de surface et dont le déclenchement est potentiellement lié à une activité anthropique.

Explorer la zone sinistrée

Rapidement après le séisme, outre le secours, un autre dispositif post-sismique est mis en œuvre : la cellule Urgence de l’AFPS. Ses inspecteurs bénévoles habilités diagnostiquent les bâtiments endommagés. Après des retours d’expérience à l’étranger et aux Antilles, cette cellule créée en 2014 est activée pour la première fois en France métropolitaine. Pendant dix jours, ses 45 experts réalisent environ 600 diagnostics, déclarent près de 150 bâtiments gravement endommagés ou effondrés et 200 bâtiments dangereux. Ces diagnostics complètent ceux des pompiers, des bureaux d’ingénierie locaux et des experts d’assureurs. Outre la commune du Teil la plus touchée, plus de trente communes sont reconnues en état de catastrophe naturelle (Auclair, 2021). Au total, plus de 3 000 déclarations de sinistres sont signalées en Ardèche, de la fissure à la destruction totale de l’habitat, et 780 arrêtés de péril sont enregistrés (AFPS, 2020, p.118). Il faut ajouter un mort par crise cardiaque, quelques blessés graves et 1 400 personnes délogées. Ces dommages font du Teil, le séisme le plus destructeur de France métropolitaine depuis celui d’Arette en 1967 (Auclair, 2021 ; Piolle, 1968). L’ampleur des dommages est alors décalée avec la magnitude relativement modérée.

Les sismologues du Groupe d’intervention macrosismique (GIM) du Bureau central sismologique français et du Réseau national de surveillance sismique (BCSF-RéNaSS) interviennent aussi pour classer le séisme sur une échelle d’intensité macrosismique. Ce type d’échelle est employé à travers le monde depuis le début du XXe siècle pour répertorier les évènements sismiques non par leur puissance intrinsèque (l’énergie dégagée), mais par leurs effets (modification du paysage, dommages sur les bâtiments, rayon des observations et perceptions des populations). À magnitude équivalente, l’intensité peut varier très fortement, notamment selon la profondeur du foyer sismique, la qualité des constructions et les effets de site (nature du sol, topographies, et cetera) (Cartier, 2007). Au Teil, le GIM établit l’intensité maximale à VII ou VIII (dégâts importants) sur XII niveaux ; soit le plus destructeur depuis cinq siècles dans la région[19]. Pour autant, les séismes n’y sont pas rares : entre 1996 et 2019, on compte au moins trois séismes de magnitude entre 4,2 et 4,8, dont une succession de secousses à moins de 20 km du Teil en 2011.

Selon le rapport du GIM, la très faible profondeur et la propagation de la rupture en surface expliquent l’ampleur des dégâts, bien plus importants que pour d’autres évènements de magnitude équivalente et dont la profondeur moyenne se situe à 10 km (Sira et Schlupp, 2020). La contrepartie de cette faible profondeur est l’atténuation plus rapide de l’intensité avec la distance ; ainsi les dommages importants sont concentrés dans les premiers kilomètres autour de l’épicentre sans dommage à plus de 15 km.

Une seconde explication du décalage entre sévérité des dommages et magnitude tient à la qualité des édifices. Huit membres de l’AFPS examinent ce contraste lors d’une seconde enquête (AFPS, 2020). Selon leur hypothèse, la conjonction entre un parc immobilier ancien, vétuste et de probables effets de site (particularités liées à la nature du sol et à la topographie pouvant accentuer les ondes) explique l’ampleur des dommages. En outre, les dommages subis dans les deux lycées récents et en béton armé surprennent. Le bâtiment d’un lycée devra même être reconstruit ou fortement renforcé. L’observation d’objets lourds déplacés de plusieurs centimètres ou bien renversés (pierres tombales) corrobore la conclusion de forts mouvements sismiques. Parvenues à la surface du sol, les ondes secouent le sol de façon horizontale et verticale. Ces déplacements engendrent une force sur et à travers les objets posés sur le sol. Cette force est exprimée, suivant la seconde loi de Newton, en accélération, utilisée par les ingénieurs pour calibrer la ductilité et la résistance des bâtiments à un séisme de référence. Leurs observations post-sismiques laissent supposer que le séisme du Teil a occasionné des accélérations locales bien supérieures à celles attendues pour une telle magnitude.

Pour surveiller en routine les éventuels effets de ses tirs de mine, la carrière Lafarge, accusée d’être responsable du séisme, enregistre les ondes sismiques. La première valeur d’accélération proche de l’épicentre dépasse les 10 m.s-2, soit dix fois celle prévue dans la réglementation parasismique conventionnelle et cinq fois celle prévue pour la sécurité des installations à risque spécial[20] ! La communauté scientifique a d’abord considéré cette valeur comme erronée : elle pourrait correspondre à la chute d’un bloc de pierre ou à la rupture d’un rocher à proximité du capteur et non au mouvement du sol[21]. Néanmoins, des scientifiques d’ISTerre ont testé la plausibilité de la mesure par une simulation de l’accélération à partir des différents enregistrements lointains du séisme et de l’observation des objets déplacés dans la ville (les pierres tombales) (Causse et al., 2021). Leur résultat corrobore l’enregistrement de Lafarge et donne un intervalle d’accélération maximale entre 9 et 12 m.s-2. Toutefois, ils précisent que ces accélérations valent localement près de l’épicentre, mais décroissent dès les premiers kilomètres. Ces auteurs précisent que les valeurs d’accélération épicentrale pour des séismes si superficiels étaient jusqu’alors inconnues et que leur étude montre que ce niveau d'accélération au sol peut être très destructeur. Leur conclusion contredit les valeurs habituellement admises pour une intensité macrosismique VIII employées dans la prévention parasismique.

Recalibrer les risques sismiques au prisme du Teil

Au-delà du constat d’échec ou non de la prévention des risques dans la région du Teil, l’évènement éprouve les cadres d’anticipation des scénarios sismiques qui régissent la gestion nationale du risque. Les hypothèses fusent parmi la communauté d’expertise du risque sismique agitée et induisent la question « et si ? ». Et si tel paramètre était différent ? Et si l’évènement était ailleurs ? Ou à un autre moment ? Et si on agissait différemment ? Pour Michel de Certeau, développer des scénarios alternatifs permet de « ramener le temps, ce fugitif, à la normalité d’un système observable et lisible » dans un lieu circonscrit où établir des stratégies de maintien de l’ordre des choses (de Certeau, 1990). Envisager des futurs possibles prépare des réponses pour stabiliser un lieu ou une organisation dans la durée. Pour conclure cette boucle du « et si ? », pour ne pas refaire le monde virtuellement et parvenir à l’arrêté administratif, il faut borner l’imagination. En admettant une durée d’intérêt finie convenue entre protagonistes éventuellement fondée sur l’expérience empirique, la récurrence statistique ou la projection probabiliste, la finitude d’une échéance est établie : l’année culturale, un mandat politique, un amortissement d’investissement, une obsolescence admise, une vie humaine moyenne espérée, l’histoire nationale, l’existence de l’humanité, le cycle sismo-géologique, le cycle solaire, l’existence de la terre…

Pour gérer les risques naturels, ces limites combinent les caractères rares et extrêmes d’un phénomène au regard de phénomènes fréquents et ordinaires, tant du même type (bruit de fond des vibrations sismiques par exemple) ou de sinistralité admise (mortalité nationale ordinaire, mortalité aux accidents de transports lors d’une année de référence). Cette combinaison peut s’exprimer en estimation probabiliste, dont le calcul est convenu par la négociation des paramètres initiaux : on imagine que les évènements dont la probabilité est limitée (au-delà c’est inimaginable, quoique de plus en plus numériquement calculable). Par convention autant que par tradition, la limite probabiliste universelle individuelle de l’imagination est bornée à 10-6, c’est-à-dire à une chance sur un million de survenue. Cette valeur a été établie par le grand statisticien Émile Borel en 1926. Elle représente la probabilité à partir de laquelle un « homme raisonnable agira comme si l’évènement correspondant ne devait pas se produire » (Borel, 1939). Dans la construction de scénario pour la gestion des risques, cette valeur a souvent été retenue comme limite subjective légitime (Mangeon et al., 2019 ; Schwing et Albers, 2013 ; Wellock, 2017). Cette combinaison peut également s’exprimer en termes plus déterministes, on arrête un scénario maximal, souvent selon l’évènement le plus important répertorié dans les conditions les plus défavorables comme dans l’industrie nucléaire (Goumri, 2021 ; Mangeon, 2018 ; Roger, 2020). Dans cette anticipation, un nouvel évènement, l’irruption du réel, peut modifier les limites de l’imagination et par là les futurs envisagés. Les spécificités exceptionnelles du séisme du Teil perturbent la gestion du risque sismique en France. Deux trajets d’instauration (ou history growth selon la formule de Henke) se distinguent pour la protection des constructions conventionnelles et celle des installations nucléaires, sans cependant être hermétiques. En effet, l’histoire des deux trajets d’instauration montre des croisements, influences réciproques voire emmêlements. Les experts du génie parasismique évoluent à l’interface complice ou rivale entre les ingénieurs du corps des ponts et chaussés qui protègent les constructions conventionnelles et ceux du corps des mines qui protègent les installations à risque spécial. Les séminaires de l’AFPS, certaines études dédiées à leur comparaison (Ho, 2017) ou encore la rédaction des règlementations[22] attestent de la porosité entre les deux trajets.

Perturbations limitées pour les risques conventionnels

La gestion conventionnelle du risque sismique en France vient des catastrophes sur le territoire métropolitain (Lambesc, 1909 ; Arette, 1967) ou les anciennes colonies et protectorats (Orléansville, 1954 ; Agadir, 1960). Après ces évènements, l’État a stimulé une prévention scientifique du risque sismique par l’application normative de meilleures techniques de construction parasismique en priorité sur des zones de sismicité connues. Cette sécurité administrée par la prévention émane de l’essor de l'État providence et de l’approche assurantielle de la gestion du risque décrite par François Ewald. Dans ce cas, le phénomène sismique est « mis en risque », c’est-à-dire décrit par des notions de « chance, de hasard, de probabilité, d’éventualité ou d’aléa d’une part, de perte ou de dédommagement de l’autre, à la rencontre des deux séries se situant la notion d’accident » (Ewald, 1986, p. 173). L’objectif des normes parasismiques conventionnelles est alors de sauvegarder la vie des usagers du bâtiment sans imposer le maintien de son fonctionnement ni l’amortissement de l’investissement (Cutcliffe, 1996). La logique est avant tout pratique (sauver des vies) et assurantielle, tout en laissant à l’investisseur le choix de protéger son patrimoine. Ces codes imposent aux constructeurs de réduire le coût des séismes en limitant les dommages, sans pouvoir les prévenir totalement. Le zonage sismique proportionne l’investissement de sécurité de l’édifice selon l’aléa identifié pour la zone. La prescription porte sur les édifices publics, a fortiori s’ils accueillent du public ou représentent un intérêt vital (casernes de pompier et hôpitaux notamment), puis progressivement les édifices privés, d’abord ceux qui accueillent du public, puis l’habitat collectif haut, puis les maisons individuelles.

La première réglementation parasismique pour la France métropolitaine de 1969[23] sépare l’hexagone en zones selon l’estimation déterministe d’aléa maximum des séismes recensés dans l’histoire écrite (Lambert et al., 1998 ; Quenet, 2005). Ensuite, il est induit de manière forfaitaire, que ces séismes historiques puissent se produire ou se reproduire partout dans une région aux caractéristiques sismotectoniques homogènes autour de leur épicentre supposé. Cette méthode par amélioration progressive des catalogues sismiques et réajustements des zones contraint les nouvelles constructions à la résistance parasismique (Cartier et Peltier, 2011) et bénéficie du besoin de référence pour calibrer la sûreté des centrales nucléaires (Roger, 2020).

Cette méthode bifurque durant les années 2000 avec le passage du gouvernement par la loi à la gouvernance par les nombres (Supiot, 2015). L’infusion du management par objectif dans les politiques publiques via la Nouvelle gestion publique bouleverse les modes d’action de l’État et de ses institutions indexant l’activité vers la poursuite d’objectifs chiffrés et le suivi d’indicateurs (Lascoumes et Le Galès, 2005). La gestion des risques sismiques s’institutionnalise alors avec la parution de codes de construction, de cartes d’aléa sismique et l’essor d’un régime d’indemnisation des catastrophes naturelles (CatNat). Longtemps, le phénomène sismique a pourtant échappé à la réduction statistique du fait de la rareté des séries en métropole et de la mainmise de la famille Rothé sur les données utiles à son appréciation (Roger, 2018, 2021)[24]. Au tournant des années 2000, la gestion du risque sismique évolue malgré tout vers une logique probabiliste, définissant des objectifs de sécurité chiffrés et attribuant à chaque municipalité (par regroupement cantonal) un risque non nul (Cartier et Vallette, 2016). Ainsi, depuis 2011, le zonage sismique de la France repose sur une estimation probabiliste qui déploie sur des zones non délimitées[25] des aléas sismiques différents par période de 475 ans. L’aléa extrême admissible est calculé comme seuil de rareté désirée. Ce faisant, les zones de prévention parasismique se sont considérablement étendues, de quelques pour cent du territoire à plus de la moitié.

La norme parasismique est désormais réglementaire, donc obligatoire pour les constructions neuves privées comme publiques. Ensuite viennent des recommandations pour conforter les ouvrages anciens, notamment lors des rénovations. De plus, certains usages des établissements recevant du public sont interdits si l’ouvrage ne valide pas le respect de règles de sécurité (incendie, évacuation, dont protection contre un effondrement sismique), ce qui induit leur confortement parasismique ou leur changement (Cartier et Colbeau-Justin, 2010). Dans tous les cas, les services de l’État réglementent et garantissent l’application. Depuis 2011, la réglementation applicable est issue des normes européennes de dimensionnement et de justification des structures de bâtiment et de génie civil : les Eurocodes 8 (EC8). Le séisme du Teil survient donc au terme de la refonte totale de la gestion du risque pour les constructions classiques.

L’accélération du sol du séisme du Teil a dépassé d’un ordre de grandeur la valeur préconisée par la réglementation parasismique pour les constructions classiques, sans pour autant en remettre en cause le bien-fondé. D’abord, la réglementation ne prescrit pas une accélération maximale possible contre laquelle se protéger, mais plutôt une valeur raisonnable pour limiter les dommages qu’un édifice est susceptible de subir pendant un certain laps d’amortissement (50 ans pour l’habitat ordinaire) ; ce qui était appelé « l’aspect statistique du problème de la protection parasismique » contre l’idée de la protection absolue des constructions (Commission des règles parasismiques, 1984, p. 10). Cet objectif admet le dépassement local, même grand, de cette valeur d’accélération comme lors du séisme du Teil. Ensuite, malgré ses spécificités physiques, le séisme du Teil ne remet pas en cause le zonage sismique de 2011 qui classe toute la région en zone 3 (sismicité modérée) et même zone 4 (sismicité moyenne) vers les Hautes Alpes[26]. D’ailleurs, si la nouvelle règlementation ne fait plus référence à l’intensité macrosismique, l’ancienne règlementation parasismique de 1969 classait la région du Teil en intensité VII-VIII, valeur proche des effets constatés en novembre 2019. Ceci explique que le séisme dans la région était envisagé par les sismologues.

Toutefois, ce séisme sur une faille considérée comme inactive interroge la représentation de l’aléa sismique tel que réifié dans le zonage réglementaire. Ce séisme ouvre l’éventualité d’une réactivation des failles des Cévennes et donc la possibilité du déclenchement d’un autre fort séisme sur la même faille ou les voisines (Delouis et al., 2019). Le « réveil » d’une « faille endormie » interroge la possible réactivation des nombreuses failles considérées comme inactives en France. Cette possibilité interroge aussi les interdictions et prescriptions constructives le long des failles « actives » par prudence empirique, mais admet mal les doutes et reclassements de failles.

La méthode d’estimation du zonage probabiliste ne tient pas directement compte des failles, considérant que leur connaissance est insuffisante et sans influence « aux faibles périodes de retour visées dans la réglementation applicable aux ouvrages courants (475 ans) » (GÉO-TER, 2002, p. 11). Néanmoins, l’étude des failles est une préconisation classique des codes de construction à travers le monde (Betbeder-Matibet, 2003) pour y éviter tout édifice. En pratique, les EC8 précisent que de telles études sont rares pour les constructions classiques du fait de la difficulté de la tâche rapportée au risque (les ruptures de surface y étant très rares) (Acun et al., 2012, p. 90). En outre, une étude de faille sismique n’aurait sans doute pas considéré la faille de la Rouvière comme potentiellement active, faute de mouvement durant le Quaternaire (les derniers 10 000 ans) (Acun et al., 2012, p. 90).

Nonobstant, le séisme du Teil relance un investissement scientifique important pour identifier et caractériser les failles actives en France (Ritz et al., 2021), mais aussi leur inclusion dans l’estimation du risque sismique. Les inventaires de failles potentiellement actives sont désormais librement accessibles[27] et l’État recommande l’avis de géotechnicien agréé avant de construire près d’une faille[28].

Un fort investissement scientifique minore l’hypothèse d’origine anthropique du séisme. Dans les zones intraplaques, la mécanique des séismes reste complexe et trop méconnue (Larroque, 2009). Plutôt que d’investiguer plus le lien entre carrière et sismicité, les scientifiques, qui pensent avoir assez écarté cette potentialité, explorent d’autres hypothèses naturelles, telles l’influence des fortes pluies ou l’effet du lent rééquilibrage de la croûte terrestre après le retrait glaciaire (15 000 ans). Enfin, le règlement parasismique ne couvre pas un mouvement du sol d’origine anthropique. Le code minier encadre ce type de conjonction, mais sa refonte est conflictuelle dans la perspective de relance des activités de sous-sol pour la transition énergétique en France (Arnauld de Sartre et Chailleux, 2021 ; Laurent et Merlin, 2021).

Le coût du séisme le plus destructeur depuis 70 ans en France métropolitaine (environ 400 millions d’euros) confirme le bien-fondé de la réglementation, puisqu’il reste limité pour les assureurs et la collectivité nationale comparé aux autres catastrophes naturelles (coût annuel de la sécheresse sur le bâti de plusieurs milliards d’euros)[29]. Ainsi, malgré des dommages exceptionnels, ce séisme ne compromet pas la logique assurantielle de la réglementation parasismique. Enfin, le séisme le plus important depuis les règles parasismiques en France métropolitaine les valide, car elles ont sauvegardé les bâtiments récents. En revanche, les experts de l’AFPS regrettent qu’elles ne soient pas plus suivies et conviennent à la suite des enquêtes post-sismiques que sont nécessaires des « efforts pour faire connaître et appliquer les règles parasismiques, et accompagner leur mise en œuvre par des guides, des règles simplifiées et des formations, un objectif prioritaire » (AFPS, 2020, p. 117). En effet, la nouvelle réglementation française est très étoffée, mais souvent incomprise dans son esprit et son application (Cartier et Vallette, 2016).

Ce séisme montre la vulnérabilité de certains bâtiments publics. La mairie a servi de lieu de gestion de crise alors que l’escalier et l’étage étaient dangereux (AFPS, 2021). Les écoles ont été closes le temps de diagnostic et éventuelles réparations, or ces bâtiments antérieurs aux normes parasismiques doivent préparer les usagers à une évacuation. Ainsi, un directeur de la Caisse centrale de réassurance encourage à prioriser l’application des normes parasismiques pour cibler ce qui est indispensable à la gestion de crise : casernes de pompier, écoles, hôpitaux, mairies et préfectures[30]. L’endommagement de l’église, bâtiment municipal, après la cérémonie, concentre les enjeux du patrimoine architectural recevant du public (Cartier et al., 2012). Si le risque sismique tel qu’il est survenu au Teil échappe à la rentabilité économique annuelle, ni les maîtres d’ouvrage, ni leurs assureurs, ni la collectivité nationale ne peuvent écarter la possibilité d’un sinistre. Le scénario d’une catastrophe sismique à Nice mobilise notamment, depuis les alertes de Haroun Tazieff dans les années 1970 jusqu’à l’adoption d’un Plan de prévention des risques sismiques local en 2019. Pour la prévention du danger, le séisme du Teil constitue une leçon pour améliorer la gestion de crises. Le rapport de l’AFPS sur le retour d’expérience de la gestion de crise comporte, en particulier, 63 recommandations en la matière (AFPS, 2021) et sert de base aux exercices de crise dans la région[31]. Ainsi, loin de constituer un évènement séditieux, le séisme du Teil remobilise la gouvernance du risque sismique instituée depuis le tournant de 2011.

Le doute sismique pour le risque industriel et nucléaire

Un tout autre régime ordonne la sécurité sismique dans l’industrie. Comme le montre Jean-Baptiste Fressoz, l’histoire de la sécurité industrielle correspond à la production calculée, sur chaque point stratégique et conflictuel, de connaissances désinhibitrices pour légitimer le fait accompli technologique (Fressoz, 2012). Selon cette logique, l’industrie nucléaire a développé les connaissances, outils et modalités de la gestion du risque sismique en France métropolitaine pour autoriser son développement (Quenet, 2011 ; Roger, 2021). Comme le souligne François Ewald, dans le contexte d'une possible catastrophe, le calcul statistique n'est plus pertinent et il faut prendre en compte non pas ce qui est probable ou improbable, mais ce qui est le plus redouté (Ewald et Utz, 2002, p. 286). Les conséquences potentielles d’un accident nucléaire ont incité ses développeurs à explorer le risque sismique en France jusque-là considéré parmi les ingénieurs comme faible, voire inexistant, sur le territoire métropolitain (Forestier, 1965). Les industriels encouragent et contribuent au développement des connaissances et méthodologies désinhibitrices. Plus encore, l’industrie se développe dans un cadre réglementaire souple où les services de l’État délèguent largement la charge du contrôle aux industriels puis, progressivement, à une autorité administrative indépendante (Mangeon et Pallez, 2017). Dans ce régime, les connaissances comme les décisions concernant la sûreté des installations sont élaborées par les experts de la sûreté nucléaire – d’abord au sein du CEA, puis dans l’entrejeu entre experts publics (IRSN), autorité de sûreté nucléaire (ASN) et industrielle (EDF, CEA, Orano, Andra).

L’ancrage de cette gestion du risque sismique dans l’industrie nucléaire la soumet à « la prudence du jugement » plutôt qu’au calcul machinal des probabilités pour reprendre une distinction proposée par Alain Supiot (2015). Placer sa confiance dans la raison de l’ingénieur plutôt que dans la rationalité du chiffre est, en effet, une caractéristique de l’élite technocratique française (Porter, 2017) qui a imprégné le développement de l’industrie nucléaire dans le giron des grands corps d’état (corps des Mines et corps des Ponts et Chaussée en particulier) (Garçon et Belhoste, 2013). Avec la rationalité de l’ingénieur comme avec la prudence du juge, c’est le discernement des experts qui guide l’action par une juste représentation de la vérité : « Le bon juge est donc celui qui tout à la fois sait se scruter lui-même, tenir compte de l’expérience du passé, mesurer la valeur des preuves des faits allégués devant lui et anticiper les effets de sa décision » nous rappelle Supiot (Supiot, 2015, p. 145). Selon cette procédure, les experts jugent des questions de sûreté des installations nucléaires selon une représentation « prudente » et collégiale du risque sismique en France, compatible avec les objectifs techniques et économiques de l’industrie (Roger, 2020).

Concrètement, la gestion du risque sismique définie dans la règle fondamentale de sûreté 2001-01 (ASN, 2001) passe par un scénario maximal crédible[32], le séisme majoré de sécurité (SMS), censée représenter l’aléa sismique maximal plausible pour un site d’implantation. Ce scénario, pouvant être actualisé au fil de l’avancée des connaissances, fonde l’évaluation de la sûreté et donc l’autorisation de fonctionnement des installations nucléaires. La focalisation autour d’un tel scénario réduit la variabilité du phénomène sismique derrière une représentation linéaire de ses effets selon leur intensité ; occultant toute une panoplie de scénarios sismiques moindres. Le bien-fondé de cette logique a été remis en cause dès les années 1970 par les premières études probabilistes (Carlisle, 1997 ; Wellock, 2017), mais a survécu dans la gestion du risque sismique des installations nucléaires en France. Cette survie a d’ailleurs été à l’origine de fortes contestations internationales dans la décennie 2000[33]. Il faut noter enfin que cette approche s’est largement ouverte aux approches probabilistes depuis 2011, pour préparer le prolongement de fonctionnement des centrales nucléaires au-delà de 40 ans et dans le cadre du retour d’expérience de l’accident de Fukushima.

Ce second régime a également été historiquement déterminant dans la gestion du risque sismique pour les installations à risques non nucléaires (chimie, pétrochimie, stockages de produits agro-pharmaceutiques, dépôts de gaz et de liquides inflammables, et cetera). En effet, jusqu’à la publication le 10 mai 1993 d’un arrêté fixant les règles parasismiques applicables aux installations soumises à la législation sur les installations classées, les installations classées pour l’environnement (ICPE) employaient largement la procédure établie pour les installations nucléaires (Mouroux, 1989). Et encore, l’arrêté de 1993 conserve la logique de la définition d’un scénario unique majorant et autorise même l’utilisation de la règle fondamentale de sûreté comme alternative à l’arrêté. C’est véritablement en 2011, à la suite du décret n° 2010-1254 du 22 octobre 2010, que les modes de gestion du risque sismique des deux secteurs industriels vont se distinguer. Les ICPE sont appelés à rejoindre le régime de gestion du risque classique où les services de l’État fournissent et garantissent l’application de la réglementation. Ce transfert implique que les industriels passent de la définition d’un scénario sismique de référence à l’établissement d’un aléa sismique probabiliste établi à partir d’une période de référence de 3 000 ans pour les installations existantes et 5 000 ans pour les nouvelles. Quand survient le séisme du Teil, les ICPE sont encore pris dans cette transition.

Sans avoir directement affecté aucune installation à risque spécial, le séisme du Teil interroge leur sécurité ou leur sûreté[34]. Dans la logique de mobilisation collective par des archétypes qui est très présente dans l’histoire de la gestion des risques technologiques (Lagadec, 1981 ; Llory et Montmayeul, 2018 ; Martinais, 2023 ; Merad et al., 2016), le Teil est une occasion de proposer de nouveaux scénarios. Dans la dynamique du « et si ? », la possibilité théorique d’un séisme analogue à l’aplomb ou à proximité d’une installation à risque spécial, par exemple une usine chimique ou une centrale nucléaire, a largement mobilisé les riverains du Rhône.

D’un côté, deux centrales nucléaires fonctionnent dans un rayon de 25 km autour de l’épicentre, ce qui inquiète la population. Certains médias et organisations antinucléaires rapportent même que « la magnitude de ce séisme est supérieure au « séisme majoré de sécurité » de 5,2 pour lesquelles les centrales du Tricastin et de Cruas ont été construites »[35]. La distance entre l’épicentre du séisme et les deux centrales nucléaires (15 km de Cruas et 25 km de Tricastin) a largement atténué les ondes sismiques. Les vibrations sur les deux sites ne sont pas assez fortes pour entraîner l’arrêt d’urgence des réacteurs. Toutefois, à Cruas, un appareil de mesure enregistre des secousses suffisamment importantes pour que l’Autorité de sûreté nucléaire demande l’arrêt et la vérification de l’état des réacteurs malgré l’absence « de dégât apparent »[36]. Nonobstant, certains experts indépendants saisissent l’occasion pour affirmer que le séisme du Teil est supérieur à la capacité de résistance des centrales nucléaires et qu’un tel séisme, s’il se produisait proche d’un site, pourrait occasionner un accident nucléaire[37]. En particulier, ils argumentent qu’un séisme survenant près du site du Tricastin pourrait rompre la digue du canal de Donzère, entraîner l’inondation du site nucléaire et occasionner un scénario du type de l’accident survenu à la centrale de Fukushima Daiichi en mars 2011 où plusieurs réacteurs se retrouvent simultanément accidentés[38]. Ils ajoutent que 4 centrales nucléaires EDF sur 18 ne seraient pas suffisamment protégées contre la menace sismique, toutes situées dans la vallée du Rhône[39].

Les organismes chargés de la sûreté des installations nucléaires et en particulier l’expert public (IRSN) ont rassuré sur la sûreté des centrales nucléaires face à un séisme du type du Teil. Pour le directeur général adjoint de l’IRSN, ce type de séisme est globalement équivalent, bien qu’a priori en deçà, du scénario type utilisé pour évaluer la sûreté des installations (le SMS) et les installations nucléaires françaises disposent de marges de sécurité par rapport à ce scénario sismique[40]. De plus, les installations ont été renforcées après Fukushima et la sûreté repose plus généralement sur « un corpus réglementaire et des procédures »[41]. Ce directeur fait référence aux tests de résistance (Stress tests) européens réalisés après l’accident de 2011 dont le but était d’évaluer et de renforcer la robustesse des installations aux pires scénarios initiés par des événements naturels (Laurent et al., 2019 ; Saraç-Lesavre et Schmid, 2021a, 2021b). Cette argumentation est diffusée dans les médias nationaux[42] et a fait l’objet d’une émission de décryptage de l’information par la chaîne Arte[43]. En dépit de cette position rassurante, l’IRSN, qui compte un service d’une quinzaine de spécialistes du phénomène sismique, a immédiatement après le séisme investi les lieux, notamment à travers la cellule post-sismique du CNRS et les missions de l’AFPS.

Il n’y a pas de réponse simple à la question de savoir si les deux centrales auraient résisté à un séisme du type du Teil à l’aplomb des sites. L’effet des séismes superficiels est différent de celui des séismes plus profonds, car les ondes transmises par le sol arrivent sans atténuation ni filtration. Les centrales nucléaires sont conçues selon un scénario sismique maximum de type intensité VIII avec une magnitude de 6 à 6,5 et un épicentre à une distance de 30 km. Ce scénario correspond au type d’enregistrement de séisme disponible dans les années 1960 – en particulier californiens – au moment de la conception des réacteurs nucléaires (Roger, 2020). Les experts ne savent pas, faute d’expérience suffisante, comment elles se comporteraient lors d’un séisme toujours d’intensité VIII, mais avec une magnitude et une profondeur plus faible comme celui du Teil. Cette question agite, depuis les années 1970, les débats dans la régulation des risques sismo-nucléaires en France sans trouver d’issue consensuelle (Roger, 2020). Pour certains, suffisamment de preuves ont été amenées depuis le séisme du Frioul de 1976 pour prouver que ce type de séisme n’endommage pas les bâtiments construits selon des règles parasismiques, malgré des accélérations très fortes. Pour d’autres, si l’absence de nocivité peut être attestée au niveau des structures et bâtiments, les études réalisées à ce jour ne suffisent pas à prouver l’absence d’incidence sur le risque d’accident nucléaire au vu de la complexité du fonctionnement de ce type d’installation. Malgré cette incertitude, les organismes du nucléaire sont univoques pour désamorcer rapidement toute controverse en rassurant sur l’existence de marges de sécurité face à cet aléa. Contrairement à ce que cette réaction laisserait présager, les experts du nucléaire sont, depuis l’évènement, fortement mobilisés pour élucider la question[44].

Un scénario analogue au Teil se dessine même à la centrale de Cruas (Viallet et al., 2019) située dans la continuité du système de failles des Cévennes et à proximité d’une autre carrière en exploitation. En revanche, cette centrale est la seule en France à être construite sur des plots antisismiques, assurant une forte atténuation des mouvements venant du sol (et en particulier des ondes à haute fréquence). De ce fait, la centrale de Cruas est théoriquement la mieux armée pour résister à ce type de séisme bien qu’il semble impossible de le prouver. La question reste pour le moment en suspens. Toutefois, le retour d’expérience du séisme du Teil enclenche un doute important parmi les instances de la sûreté nucléaire qui pourrait conduire à la révision de la règle fondamentale de sûreté de 2001 qui régit la détermination des mouvements sismiques à prendre en compte dans la conception et l’évaluation de sûreté des installations nucléaires.

La réactivation d’une faille supposée endormie met, elle aussi, à l’épreuve le bien-fondé de l’approche déployée dans l’industrie nucléaire. Toutefois, il est à noter que l’étude et la prise en compte des failles potentiellement actives sont un prérequis de la réglementation parasismique telle que définie dans la règle fondamentale de sûreté 2001-01. En l’occurrence, la base de données des failles potentiellement actives en France (BDFA) a été développée et est maintenue à jour par des sismologues de l’IRSN (Jomard et al., 2017). Le séisme du Teil remet en cause la suffisance de la méthodologie déployée dans l’industrie nucléaire pour identifier et caractériser les failles actives et invite à une reprise en profondeur de la problématique (Ritz, 2021). Les sismologues du nucléaire sont d’ailleurs des acteurs de premier plan dans l’amorce de cette refonte via leur implication dans l’action transverse sismicité du Réseau sismologique et géodésique français (Résif).

La problématique touche aussi les industries à risques autres que nucléaires. La région Auvergne-Rhône-Alpes est la plus exposée de France aux risques industriels[45]. C’est celle qui compte le plus d’installations nucléaires, mais aussi le plus d’ICPE (plus de 5000), dont 15% des sites SEVESO français, notamment dans « la vallée de la chimie » au sud de Lyon[46].

La publication officielle du nouveau zonage sismique pour la France a été suivie, le 24 janvier 2011, d’un arrêté fixant les règles parasismiques applicables aux installations classées[47]. Celui-ci prévoit une application immédiate du nouveau zonage pour les nouvelles installations et un délai de plusieurs années (avant le 31 décembre 2016 pour les installations situées en zone de sismicité 5 et avant le 31 décembre 2019 pour les installations situées en zone de sismicité 1, 2, 3 ou 4) pour les installations déjà existantes. Le respect de la nouvelle réglementation doit être justifié par une étude sismique dédiée pour chaque installation afin de déterminer les techniques parasismiques nécessaires au maintien de leur conformité[48]. Deux issues sont envisagées : soit ces études démontrent que les mouvements sismiques préconisés dans l’arrêté n’engendrent pas d’effets graves hors du site, moyennant ou pas la mise en œuvre de nouveaux dispositifs de protection ; soit des bureaux d’études ou laboratoires publics agréés[49] démontrent par une étude d’aléa sismique spécifique que l’aléa du site d’implantation est inférieur ou égal à celui d’avant la réforme. En effet, la refonte du zonage sismique de la France de 2010 établit des zones de sismicité indicatives, qui peuvent être contestées et modifiées par des études plus spécifiques. En pratique, dans la vallée du Rhône, les industriels se sont regroupés en consortium pour avancer vers cette deuxième solution pour répondre à la nouvelle réglementation à moindre coût. Une fois ces études validées par la DGPR, le préfet fixe par arrêté l'échéancier de mise en œuvre des moyens techniques nécessaires à la protection parasismique des installations concernées avant le 31 décembre 2017 pour la zone de sismicité 5 et avant le 31 décembre 2020 pour les autres.

La réalisation des études sismiques dans la vallée du Rhône a pris un important retard, dépassant la date limite de décembre 2019 et même celle de validation par le préfet de décembre 2020. Lors du séisme du Teil, la majorité des dossiers de la vallée du Rhône et en particulier celui concernant un regroupement des industriels de la vallée de la Chimie étaient encore attendus à la DGPR)[50]. Suite au séisme, les agents de la DGPR ont profité du retard des dossiers pour demander aux bureaux d’études mobilisés par les industriels d’intégrer les premières leçons du séisme du Teil avant de remettre leurs études d’aléa spécifiques. Mais, la manière dont la DGPR a défini sa demande a été jugée inadéquate sur un plan scientifique par le laboratoire public ISTerre, en charge du dossier le plus conséquent. Concrètement, la demande de la DGPR ajoute dans l’arbre logique de l’étude probabiliste de l’aléa sismique une branche spécifique dédiée au scénario d’un séisme ultra superficiel comme le Teil. Pour ISTerre, ce type de séisme est déjà implicitement pris en compte dans une étude probabiliste et lui consacrer une branche spécifique biaiserait la justesse scientifique de l’étude. Finalement, la DGPR a concédé qu’il était trop tard pour modifier les études en cours. Elle a simplement demandé aux industriels qui n’avaient pas encore remis leur dossier de préciser comment leur démarche compte ce type de séisme superficiel et de garantir l’absence de faille potentiellement active à l’aplomb des installations[51].

Pour les industries à risque, confiner l’expertise semble la priorité après le séisme du Teil. Dans la sûreté nucléaire, le discours médiatique rassurant, en particulier de l’IRSN, l’organisme d’expertise public de la sûreté nucléaire abrège la controverse. Ce discours entend rassurer sur la sûreté des centrales nucléaires de Cruas et Tricastin tout en coupant court à la poursuite du questionnement « et si ? ». Pour autant l’évènement n’est pas balayé d’un revers de main, mais son traitement sera opéré dans un autre contexte, plus serein et apaisé, celui du règlement quotidien des problématiques de sûreté nucléaire dans l’entrejeu confiné de l’expertise. Du côté des ICPE, la situation n’est pas très différente. L’évènement survient au terme d’une décennie dédiée à la mise à jour de la robustesse des installations faisant suite au nouveau décret de 2011. Dans ce contexte, les services de l’État tentent d’incorporer les spécificités des séismes de la vallée du Rhône dans les études encore attendues. Mais le rapport de force est en défaveur des administrations de contrôle (DREAL) face aux bureaux d’études mandatés par les industriels, car certains comptent parmi leurs membres les scientifiques impliqués dans les études post-sismiques et sont, dès lors, auréolés d’une forte légitimité.

Maintenir l’organisation de la gestion du risque sismique

Extrapoler l’hypothèse de Christopher Henke amène à considérer nombre de catastrophes comme des cas potentiels maintenus par convention entre gestionnaires du risque. Les suites du séisme du Teil nous informent sur l’adaptation de l’architecture et des réseaux de dépendance de l’organisation du risque sismique en France.

D’abord, la communauté semble organisée selon des réseaux imbriqués où se mêlent scientifiques académiques, bureaux d’études, services déconcentrés de l’État, agences publiques et industriels. Par exemple, pour évaluer les menaces nucléaires, les experts de l’IRSN participent aux missions post-sismiques dans l’exploration des causes du séisme et dans l’étude des dommages. Ils contribuent pleinement au progrès des connaissances, outils et méthodes de la sismicité en France. Lors du séisme du Teil, l’IRSN se transforme en vulgarisateur scientifique pour désamorcer la controverse en rassurant sur la sûreté des centrales nucléaires. Notons que cet engagement de l’IRSN, auréolé de l’objectivité scientifique attachée à son statut d’expert indépendant, arrange les industriels quasi absents de la lutte médiatique. De même, le laboratoire académique ISTerre analyse le séisme tout en justifiant la conformité parasismique des industriels. Ce laboratoire se trouve en amont du contrôle des services de l’État en caractérisant le phénomène et après en tant que pourvoyeur d’expertise pour le compte des industriels qui lui délèguent la réponse aux contrôles administratifs. De même, à l’instar du BRGM, le laboratoire ISTerre minore la controverse sur l’origine anthropique du séisme qui conduit à détacher la responsabilité du Groupe Lafarge des conséquences du séisme. Le BRGM, l’IRSN et ISTerre sont des organismes bicéphales, comptables d’une double mission contradictoire : améliorer les connaissances pour guider la gestion publique et garantir que la réglementation soit appliquée par les industriels. Qu’il s’agisse de la solidité parasismique des maisons, des établissements publics, des barrages ou des centrales nucléaires, ces centres névralgiques forment bien cette infrastructure de second ordre dont parle Andrew Barry et qui traite en pratique la rencontre entre intérêts publics et privés à l’interface entre l’infrastructure primaire et les forces extérieures, longtemps confondus dans l’emprise étatique sur la gestion des risques, en particulier dans le cadre de monopoles industriels étatiques comme Électricité de France.

La figure 1 représente le fonctionnement de l’organisation du risque sismique. Celle-ci se caractérise d’abord par une séparation nette entre une bureaucratie technique active (Benamouzig et Besançon, 2005 ; Borraz, 2008) et des sujets maintenus dans une passivité latente (Joly et Kaufmann, 2013 ; Latour, 1999). Le premier groupe agissant fortement sur le deuxième en conditionnant ses chances de survie (Pestre, 2014) tandis que le second manque de prise pour faire valoir ses intérêts dans le premier (Chateauraynaud et Debaz, 2017 ; Dolisy, 2018).

Figure 1

Fonctionnement de l’organisation de la gestion du risque

Fonctionnement de l’organisation de la gestion du risque

-> Voir la liste des figures

Le fonctionnement de la bureaucratie technique place au centre l’infrastructure porteuse de danger, déployée par un investissement public ou privé et autorisé par l’élaboration de connaissances désinhibitrices (Fressoz, 2012) par des scientifiques et ingénieurs institués. Toutefois, ces derniers ne sont pas concentrés en un seul corps d’état comme le suggère Nelo Magalhãès, mais en un réseau distribué entre plusieurs entités : des corps d’état, mais aussi des bureaux d’études, des centres académiques, au BCSF, au CNRS ou à ISTerre, des services déconcentrés de l’état comme l’IRSN ou le BRGM, ou encore l’AFPS qui agit comme une association de praticiens.

Les services de l’État confient à cette infrastructure de second ordre la responsabilité de définir et avaliser le respect des conditions d’exploitation des infrastructures matérielles.

Ensuite, les infrastructures matérielles sont subordonnées au progrès des connaissances désinhibitrices pour s’adapter aux contrôles, aux incertitudes et à l’apparition de nouvelles menaces sous peine de fermeture ou suspension d’exploitation. La mainmise de l’infrastructure secondaire sur le développement de ces connaissances est primordiale pour pérenniser les infrastructures.

Soumis au surgissement brutal de la fatalité, pour convenir d’une « solution raisonnable », ce pacte épistémo-materiel limite et contraint fortement le champ d’action des experts dans leur appropriation de l’évènement (ici le séisme du Teil). Face à l’irruption du risque de séisme, de défaillance, d’arrêt de production et de contestation, il faut gagner du temps d’amortissement et de durée d’exploitation en développant de nouvelles connaissances. Notre travail montre une capacité de l’infrastructure secondaire à éviter les débordements par la réduction de la situation à un évènement aux conséquences mineures (pas de morts, pas d’incident nucléaire) et qui confirme le bienfondé des règles parasismiques et invitent à étendre leur application. Sans critères ou seuil clairement arrêtés, cette stratégie confère aux experts le temps dont ils ont besoin pour digérer les paramètres exceptionnels du séisme (réveil d’une faille endormie, éventuelle origine anthropique du déclenchement du séisme, possibilité d’une rupture de surface et importance de l’accélération à l’épicentre du fait de la faible profondeur du séisme).

L’infrastructure secondaire contribue alors bien à « temporiser les crises » selon l’expression de Magalhãès (Magalhãès, 2024, p. 161) par le maintien du cloisonnement entre fonctionnement de la bureaucratie technique et sujets passifs. Les crises émergentes (controverses de la carrière, capacité des centrales nucléaires et de l’industrie à résister à un séisme en champ proche, requalification des failles inactives en failles actives) sont atténuées par un mécanisme de recadrage des experts par maintien dans la cooptation comme pair. Les rapports collectifs CNRS et AFPS, ainsi que la publication d’un article scientifique présentant « une synthèse des premières informations obtenues sur ce séisme par la communauté scientifique française » et comptant 91 cosignataires (Cornou, 2021), sont symptomatiques d’une cohésion de groupe impérative où les voix initialement dissidentes sont recadrées.

Ce repli communautaire permet de préserver un délai d’action discret où réajuster les connaissances à l’aune de l’expérience. Ensuite, les experts de cette infrastructure de second ordre, en position de pivot, actualisent l’autorisation de poursuite d’activité industrielle au prix éventuel d’une baisse de rendement. Par ce qu’il convient d’appeler des boucles d’auto-référencement entre développements des connaissances, en amont, et définitions des conditions de fonctionnement, en aval, ces experts contrôlent l’incidence épistémique, règlementaire, industrielle et économique de l’évènement.

Avec le séisme du Teil, les experts jouent sur l’ambiguïté du caractère rare et extrême de l’évènement. Si ce cas est une opportunité rare à l’échelle de la carrière d’un scientifique ou un sinistre rare à l’échelle de la gestion assurantielle des risques, il l’est beaucoup moins à l’échelle du phénomène sismique et il rentre dans les scénarios de la réglementation probabiliste française. Ainsi, les experts saisissent la concentration des effets maximums dans une petite zone autour de l’épicentre pour sauvegarder le bien-fondé de la réglementation pour le bâti ordinaire. Les surprises du séisme du Teil sont couvertes par l’estimation probabiliste et l’ambition statistique de la protection recherchée par la réglementation.

Dans le cas de l’industrie à risque spécial, la protection sismique recherchée n’est pas statistique, mais bien intrinsèque : il faut protéger ces installations contre de tels phénomènes. Dans cette perspective, la spécificité du Teil débouche sur une nécessaire actualisation des connaissances. Les spécialistes de l’industrie nucléaire participant à l’infrastructure secondaire agissent simultanément sur deux fronts : un discours rassurant garantissant l’étanchéité du fonctionnement de la bureaucratie technique ; un surcroit de recherches scientifiques à propos de ces originalités sismiques, de leur extension géographique et leurs conséquences concrètes sur l’autorisation de fonctionnement des infrastructures matérielles. Ainsi la réaction de clôture de la crise aux frontières de l’infrastructure de second ordre s’accompagne, en interne, d’un investissement de forme (Thevenot, 1986), humains matériels et épistémiques, massif. Le séisme du Teil est d’ores et déjà le mieux connu en France métropolitaine grâce à la quantité et la variété des informations géologiques, géodésiques, sismologiques, sismotectoniques obtenues et produites. Tout laisse à penser que, de séisme aberrant, il deviendra bientôt séisme de référence pour fonder une représentation plus juste et localisée de l’aléa de la vallée du Rhône et peut être au-delà pour les grandes zones intraplaques. Il devrait alors, à terme, constituer la pierre de touche de l’autorisation des futures installations à risques de ce type dans la région.

Conclusion : recadrer l’exceptionnel dans le débat

Amitav Gosh, dans son analyse de l’absence de référence, ou de l’incapacité à faire référence, aux bouleversements climatiques dans la littérature romanesque occidentale émet l’hypothèse d’un manque de reconnaissance de l’improbable, de son éviction pratique de la réalité vers le monde de l’imaginaire (2017). Le roman prend sa forme moderne, nous dit Gosh, en faisant passer l’inédit au second plan et le quotidien sur le devant de la scène. Ce changement de focale révèle que le monde occidental moderne se pense dans une sorte du mirage fait de la croyance dans la stationnarité du monde, infusé à toute la société par la « tranquillité de la vie bourgeoise ». Selon cette logique qui se serait « imposée autant aux arts qu’aux sciences », l’organisation de la gestion du risque s’est instaurée autour de la conjonction entre des régularités statistiques mises en forme par une pratique scientifique positiviste et des politiques publiques d’obédience assurantielle. Cette conjonction s’est mise en ordre par un effort de rationalisation de la société en deux temps : d’abord par la réduction en art des activités manuelles jusqu’au milieu du XIXe siècle (Glatigny et Vérin, 2008) puis de la réduction en nombre de ces « arts » depuis lors (Desrosières, 2013). Or, le dérèglement climatique, la transition écologique, la multiplication des crises et la combinaison des aléas bousculent ces formes de rationalité qui structurent nos organisations de gestion du risque (Amoore, 2013 ; Fassert et al., 2023 ; Zscheischler et al., 2018).

Hors cadre, le séisme du Teil esquisse le mécanisme de réponse de cette organisation « stationnaire » des risques face à un évènement déroutant par le biais de boucles d’auto-référencement produites par une infrastructure de second ordre qui fonde les décisions sur une objectivité scientifique dont elle produit les fondements par ailleurs.

Cette organisation de la gestion du risque sismique en France sanctuarise l’autonomie d’une bureaucratie technique par la centralité de cette infrastructure secondaire composée d’experts, scientifiques ou ingénieurs, appartenant à des organismes pivots, bicéphales dans leur fonctionnement, qui produisent des connaissances utiles à l’évaluation des risques et régulent le fonctionnement des infrastructures dangereuses. Le positionnement institutionnel de ces organismes scientifiques et d’expertise assure les bases rationnelles au fondement d’une prise de décision collégiale. Ces décisions sont difficilement justifiables publiquement, car fondées en grande partie sur des jugements et accords entre experts de facto non-auditables (Power, 2005). La littérature scientifique sur la gestion des risques dépeint souvent le passage de l’évaluation scientifique des risques à leur management par le déploiement d’une science règlementaire qui fixe des seuils en intégrant des enjeux économiques (Boudia et Demortain, 2014 ; Demortain, 2011 ; Joly, 2016) tout en pointant ses dérives associées (Oreskes et Conway, 2016). Dans le cas étudié ici, cette présentation ne correspond pas. Les décisions reposent sur une appréciation collégiale, non formalisée, qui s’élabore au sein des mêmes organismes entre deux pans de leur activité. La vigilance doit alors porter sur l’intériorisation par ses organismes de la pression liée à la validité de leur évaluation, d’une part, et de celles exercées par les enjeux économiques de l’autre.

Le réflexe collégial en cas de surprise permet de maintenir le confinement des espaces discrets où sont stabilisés des compromis entre acteurs (Gilbert et Henry, 2012). Grâce au maintien de l’organisation, l’infrastructure secondaire peut traiter l’événement de manière relativement pacifiée et selon les dispositifs post-sismiques prévus. Le traitement du séisme ressemble pratiquement à un exercice de crise tant il porte en lui tous les éléments qui bousculent les paradigmes sans la catastrophe qui brouille le fonctionnement social (Sorokin, 1942). Ceci confirme la conclusion d’Oliver Borraz et Elza Gisquet qui déplore l’extension du fonctionnement ordinaire des organisations aux situations de crise (2020). Toutefois, cette infrastructure de second ordre n’est ni unifiée ni harmonieuse. Certaines divergences entre experts sont résorbées par un double jeu de pressions des pairs et de temporisation. Les aspects controversés sont extirpés des enjeux présents et renvoyés à des explorations scientifiques ultérieures. Ce compromis temporel ne traduit pourtant pas une connivence entre experts, politiques et industriels. L’IRSN, qui participe dans notre cas activement au mécanisme de replis communautaire, fait l’objet de critiques récurrentes pour sa trop grande transparence. En autre, le rapport de l’ancien PDG d’EDF au Président de la République sur l’avenir de la filière nucléaire de 2010 critique lourdement la publicisation croissante du règlement des questions de sûreté nucléaire (Roussely, 2010, p. 15), ou encore le rapport de la Cour des comptes de 2014 sur le fonctionnement de l’IRSN lui reproche la trop rapide et systématique publicisation de ses avis ainsi que les prises de paroles publiques de ses directeurs (Cour des comptes, 2014, p. 83). Cette attitude est même une des justifications de la réforme actuelle de l’organisation du contrôle de la sûreté nucléaire qui prévoit de fondre l’IRSN dans l’Autorité de sûreté nucléaire (Roger et Mangeon, 2023). Si le séisme du Teil peut sembler être une page refermée à la hâte, il constitue pour l’infrastructure secondaire le début d’un nouveau chapitre de la gestion des risques sismiques en France ; chapitre qui ne manquera pas de conflits et oppositions.

Dans son roman narrant le récit d’une étrangère intégrant le monde du travail japonais, Amélie Nothomb rassemble son impression générale par la mémoire du protocole impérial selon lequel il fallait s’adresser à l’Empereur avec stupeur et tremblements (2009). Cette révérence marque l’état psychologique attendu devant un être divin dont les voies sont impénétrables. Une révérence souhaitable face aux aléas naturels qui échappent souvent aux anticipations.