À chaque fois que la terre tremble, et qu’un séisme provoque des dégâts, comme dans le centre de l'Italie ce 24 août, le public se pose une même question : pourquoi la science n’est-elle pas en mesure de le prédire ? Pour expliquer cette difficulté, il nous faut d’abord bien comprendre ce qui se passe lors de ces évènements.
Thiophene_Guy/Flickr, CC BY-NC-SA
Qu’est-ce qu’un séisme ? Depuis le grand tremblement de terre de San Francisco en 1906, on sait qu’il résulte du glissement brutal (rupture) le long d’une faille limitant deux blocs de roche.
À l’origine, les mouvements des plaques tectoniques qui se déplacent de quelques centimètres par an dans des directions différentes engendrent des accumulations de contraintes : elles se concentrent sur des discontinuités mécaniques de la lithosphère (partie de la croûte terrestre). Soit sur une faille, limite entre deux blocs tectoniques qui se déplacent l’un par rapport à l’autre.
Ces blocs ont un déplacement relatif lent et régulier. Si le contact entre les deux blocs (la faille) était « lisse » ou sans résistance, les blocs glisseraient de manière continue. À l’opposé, si le frottement dû à la rugosité du contact empêche ou ralentit ce mouvement, alors la faille ne glisse pas : elle est bloquée.
Insensibles à ce qui se passe près de leurs frontières, les plaques se déplacent toujours à la même vitesse. C’est donc leurs bordures qui vont bouger en accumulant la déformation élastique créée par le contraste entre le déplacement en « champ lointain » (c’est-à-dire à une certaine distance des limites de plaque) et le blocage (total ou partiel) local.
Le matériau élastique constituant la plaque va accumuler la déformation jusqu’à ce qu’elle soit suffisante pour faire « sauter » le blocage sur la faille : c’est le séisme. Par la suite, la faille va de nouveau se bloquer et le cycle accumulation lente – rupture sismique se reproduira à l’infini.
Relâchement des contraintes
La déformation en limite de plaques présentera donc une courbe typique en « dents de scie », alternant de longues périodes de blocage avec accumulation de déformation et de brefs instants de déplacements quasi instantanés correspondant à la rupture et au relâchement des contraintes.
Les modèles les plus simples, établis dans les années 1980, se fondaient sur un cycle régulier avec la répétition de séismes similaires (on parle de séisme caractéristique) à intervalle de temps constant (on parle de récurrence ou de période de retour).
Ce modèle semble fonctionner dans certains cas, mais des situations plus complexes existent. D’une part, le séisme n’absorbe pas forcément toute la déformation accumulée. D’autre part, les lois de friction sur le plan de faille sont suffisamment complexes pour imaginer qu’elles puissent varier au cours des cycles, par exemple en augmentant si le séisme se fait attendre ou au contraire en diminuant s’il a été particulièrement puissant.
Ces mécanisme de rétroaction positive amènent à concevoir l’existence de longues périodes de quiescence (c’est-à-dire que la faille est collée par une friction d’autant plus forte qu’elle se renforce avec le temps) suivies de cascades de séismes de taille variée (la faille rompt d’autant plus facilement qu’elle a rompu il y a peu). Ce n’est qu’au bout d’un temps assez long, cumulant beaucoup de cycles sismiques différents, que le déplacement cumulé sera comparable à la vitesse long terme des plaques tectoniques.
Difficultés de la prévision
Dans ces conditions, comment prévoir la survenue de séismes ? L’exercice se fonde sur la notion de temps de retour. On a une idée des récurrences sismiques via l’histoire (parfois un millénaire, plus fréquemment quelques centaines d’années), mais aussi par des études sur les temps anciens, dites de paléosismicité (plusieurs millénaires).
Dans le cas simple d’une récurrence stable d’un séisme caractéristique établie sur plusieurs cycles, il est envisageable de prévoir que le prochain séisme s’approchera du séisme caractéristique et se produira au terme de la période de retour.
On parle ici de prévision à long terme, loin d’être parfaite. L’exemple de la faille de Parkfield(Californie) montre que des incertitudes larges, aussi longues que la période de retour, sont à envisager.
Dans tous les autres cas, la prévision se bornera à identifier la localisation et la taille de la zone bloquée qui accumule de la déformation, ainsi que la quantité de déformation accumulée au cours du temps sur cette zone, mais ne permettra de formuler aucune hypothèse sur la taille et la date du prochain séisme.
Approche statistique
La récurrence à long terme des séismes peut néanmoins être approchée statistiquement, à l’échelle régionale, sans connaître le cycle sismique de chaque faille. La distribution du nombre de séismes dépassant une magnitude donnée suit en effet une loi statistique dite de Gutenberg-Richter, essentielle au calcul de l’aléa sismique à long terme, qui établit qu’une unité de magnitude supplémentaire divise par 10 le nombre de séismes.
Cette loi permet de prédire théoriquement la probabilité d’occurrence (période de retour) d’événements de forte magnitude (souvent peu documentés), à partir de la connaissance, bien mesurée, des plus petits.
Mais cette distribution est obtenue en supposant que le taux de sismicité est constant et que la magnitude de chaque séisme est indépendante de celle des séismes précédents, ce qui est une approximation très forte, aujourd’hui largement remise en question.
pablo72/Flickr, CC BY
Enfin la définition d’une magnitude maximale pour une région donnée reste très controversée, ce qui est une difficulté majeure pour certaines évaluations d’aléa sismique, notamment les installations à risque spécial en France. Quant à la prévision à court terme (quelques jours), elle reste impossible tant que l’on ne dispose pas des moyens d’identifier et d’observer les mécanismes précédents et déclenchant la rupture.
Répliques et précurseurs
Tout séisme est suivi de répliques, lesquelles sont simplement d’autres séismes de magnitude dans la plupart des cas inférieure à celle du choc initial, affectant des segments ou aspérités épargnés de la faille principale, ou des failles voisines. Elles sont déclenchées par une augmentation des contraintes statiques ou dynamiques et l’affaiblissement transitoire des failles perturbées.
Le taux de sismicité de ces répliques décroît en inverse du temps écoulé après le séisme (loi d’Omori), et la magnitude de la réplique principale est, en moyenne, inférieure d’environ une unité à celle du choc principal.
Comme tout ensemble de séismes, les répliques obéissent à la loi de Gutenberg-Richter. Une fois encore, ces lois statistiques bien connues sur les corrélations spatio-temporelles des séismes permettent des prédictions probabilistes fiables, mais nécessairement très imprécises sur le lieu, la magnitude, et l’instant des plus grosses répliques.
Cascades sismiques
Il est ainsi possible – mais rare – d’observer des répliques de magnitude équivalente à celle du choc principal : il s’agit alors de « cascades » sismiques, comme un effet de domino d’un segment de faille à l’autre. Il peut aussi être observé, encore plus rarement, des répliques de magnitude supérieure : on parle alors (mais après coup !) de précurseur pour caractériser le séisme initial.
Plus généralement, de nombreuses études ont montré, statistiquement, mais aussi de manière déterministe, que l’occurrence d’un essaim sismique (un grand nombre de séismes de magnitude faible à modérée concentrés dans le temps et l’espace) conduit à une augmentation nette de la probabilité d’occurrence d’autres forts séismes à proximité. Probabilité dont la valeur reste cependant inférieure à la dizaine de pour cent pour le mois à venir, et donc délicate à exploiter à des fins d’alerte.
Une meilleure caractérisation de ces essaims, en particulier par la recherche de leur éventuel forçage par des glissements transitoires des failles profondes et/ou la propagation de « pulses » de pressions de fluides, sont les voies de recherche privilégiées, mais difficiles, pour améliorer nos capacités prédictives.
Haute variabilité
Le mécanisme de rupture est donc à haute variabilité, pour de nombreuses raisons liées au processus d’initiation de la rupture (dit nucléation), à la complexité des failles, à l’hétérogénéité des contraintes accumulées, ou aux propriétés frictionnelles de la faille qui varient avec le temps et la vitesse de glissement (régime « durcissant » favorisant le glissement asismique, ou « adoucissant » favorisant la nucléation de séismes).
Par ailleurs, on sait maintenant que le déclenchement de la rupture sismique est très sensible aux sollicitations statiques et dynamiques provenant d’autres séismes, même à grande distance (plusieurs milliers de kilomètres), la notion de « distance de déclenchement » étant relative à la taille de la source.
Ainsi, la notion de séisme caractéristique est maintenant abandonnée au profit de modèles de rupture plus complexes caractérisés par des cycles variables (en durée et en magnitude), en sus desquels s’insèrent éventuellement des méga-séismes (superquakes) sans que l’on sache exactement s’ils s’inscrivent dans la loi de Gutenberg-Richter et font partie d’un super cycle ou non.
Les mesures géodésiques et sismologiques permettent depuis une quinzaine d’années de cartographier le couplage intersismique entre grandes plaques (notamment dans les zones de subduction) et d’évaluer quelles zones sont bloquées (et donc susceptibles de rompre lors d’un futur grand séisme).
Des zones où le couplage est plus faible (voire nul) sont aussi détectées. Elles modifient le bilan de glissement et l’évaluation du cycle et sont aussi importantes à identifier car elles peuvent jouer le rôle de barrière à la propagation de la rupture sismique.
Enfin des épisodes de glissement lent (appelés séismes lents ou slow slip events, plus lent que les séismes classiques, mais plus rapides que le mouvement séculaire des plaques), ont été observés dans plusieurs zones de subduction.
Ces événements sont parfois équivalents à des séismes de magnitude 7.5. Leur contribution au cycle sismique est difficile à estimer en cela qu’elle dépend de leur capacité à relâcher tout ou partie des contraintes accumulées, et ainsi à retarder le prochain séisme ou à en réduire la magnitude, ou au contraire à préparer l’interface là où se produit le glissement lent à une rupture prochaine, ou encore à déclencher une rupture dans un segment adjacent par augmentation des contraintes.
Tout cela rend encore plus difficile la prédiction de l’occurrence de grands séismes à court terme, sauf si l’on arrivait à repérer des phases d’initiation de la rupture sismique pour qu’elles deviennent des marqueurs. C’est difficile, car contrairement aux météorologues qui disposent de mesures diverses et variées dans l’atmosphère (profils de températures, pression, hygrométrie…) qui leur permettent de prévoir le temps, les sismologues ne disposent pas de capteurs positionnés à l’intérieur de la croûte terrestre. Toutes les mesures se font depuis la surface et renseignent les scientifiques sur ce qui se passe en profondeur de manière indirecte.
Christophe Vigny, Directeur de recherches CNRS, laboratoire de Géologie de l'ENS (UMR8538 du CNRS), Département Geosciences, École Normale Supérieure, École Normale Supérieure (ENS) – PSL
La version originale de cet article a été publiée sur The Conversation.
Après le séisme de 1906. Thiophene_Guy/Flickr, CC...