Forti terremoti e giacimenti di metano: una relazione difficile? (colloquio con Gianluca Valensise)

Sismologo di formazione geologica, dirigente di ricerca dell’INGV, Gianluca Valensise è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Nel 2022 ha pubblicato un articolo, di cui è primo autore, in cui si presenta l’ipotesi che esista una anti-correlazione fra giacimenti di gas e faglie inverse sismogenetiche superficiali. Gli abbiamo rivolto alcune domande.

Nel comunicato stampa (1) dell’Istituto Nazionale di Oceanografia e Geofisica Sperimentale (4 febbraio 2022), rilasciato da questo ente in quanto alcuni autori vi appartengono, si afferma che “che la presenza di una giacimento di metano al di sopra di una grande faglia attiva indica che quella faglia difficilmente genererà terremoti forti”. È così?

Si, è così. L’articolo (2), scritto con quattro colleghi dell’OGS di Trieste, pone un questione intrigante ma in fondo semplice. La più diffusa modalità di creazione di un giacimento di metano è attraverso la generazione di ‘trappole strutturali’, come le anticlinali: porzioni della crosta superiore dove le rocce sono state inarcate dalla tettonica, e dove i vari orizzonti deformati generalmente mostrano una forte differenza di permeabilità (Fig. 1). In Italia, come lungo tutta la fascia di collisione tra Africa e Europa, il metano è molto spesso ospitato in giacimenti (‘gas reservoir’ in Figura 1) formati da rocce granulari, come le arenarie, sovrastate da strati di argille, che impediscono al metano di salire in superficie e disperdersi nell’atmosfera. Ma per generare una anticlinale ci vuole una faglia inversa (più propriamente, una faglia da thrust), ovvero compressiva. Si tenga presente che la struttura di tutto l’Appennino è fatta di faglie inverse e anticlinali generate da un regime tettonico ormai in parte estinto (l’Appennino è un tipico ‘fold-and-thrust belt’): anch’esse possono aver ospitato importanti giacimento di metano, ma il sollevamento che ha interessato tutta la catena durante il Quaternario ha causato l’erosione di quelle rocce più giovani che impedivano al gas di rimanere intrappolato, causandone la lenta ma inesorabile dispersione nell’atmosfera (e, incidentalmente, aumentando l’incidenza dei gas serra). Oggi i giacimenti produttivi sono solo quelli della cosiddetta  ‘avanfossa’  – Pianura Padana, Mar Adriatico e Ionio, canale di Sicilia – dove l’edificio appenninico non è stato ancora sollevato e smantellato (un verbo molto appropriato, in questo caso).

Figura 1 – Rappresentazione schematica del margine compressivo dell’Appennino settentrionale, sepolto sotto i depositi della Pianura Padana.

Ci racconti brevemente come è nata questa idea e come avete provato a verificarla?

Tutto è iniziato dai terremoti del 20 e 29 maggio 2012 nella bassa modenese. Terremoti abbastanza forti ma non straordinari per l’Italia – di magnitudo Mw 6.1 e 5.9, rispettivamente – ma di certo inattesi, quantomeno dai non addetti ai lavori oltre che da alcuni nostri colleghi smemorati. In effetti si è trattato di terremoti normalissimi, ancorché rari, simili ad altri accaduti storicamente nella Pianura Padana. Tuttavia, complice la rarità dei terremoti in quelle zone, e forse complici anche le idee No-Triv che si stavano diffondendo in quegli anni, furono in molti – tra cui anche alcuni noti geologi e geofisici (3) – a sostenere che quei terremoti potevano essere stati innescati dalle attività di sfruttamento degli idrocarburi. Altri invece, tra cui Marco Mucciarelli e il sottoscritto, ritenevano che si trattasse di una mera coincidenza, e che  fosse sbagliato usare le attività di estrazione degli idrocarburi come “capro espiatorio”. Io in particolare, già dal 1999 avevo lavorato e pubblicato sulle faglie sepolte della Panura Padana, nell’ambito di un progetto europeo coordinato da Marco stesso: una di queste era proprio la Faglia di Mirandola, quella che avrebbe poi causato il terremoto del 29 maggio 2012. Una faglia che fu censita nel database DISS (4) già dal prototipo pubblicato nel luglio 2000, e la cui proiezione in superficie è mostrata con il codice ITIS107 nella Figura 2, tratta da un primo articolo che scrivemmo sul tema nel 2015 (5). Marco osservò che intorno alla sorgente del terremoto del 29 maggio tutti i pozzi a metano erano sterili. Ricordo ancora cosa mi disse: “Luca, la ragione per cui in quella zona non ci sono campi a gas è esattamente la presenza di una faglia attiva e sismogenetica”.

Figura 2 – Il rettangolo azzurro mostra l’area di studio dell’articolo pubblicato nel 2015 (5), la proiezione in superficie delle Sorgenti Composite e Individuali (rispettivamente in arancione e in rosso) allora censite nel DISS, e i 455 pozzi analizzati. I simboli in violetto e in verde indicano rispettivamente pozzi produttivi e pozzi sterili.

L’idea era nata. Per l’area padano-adriatica – la regione da cui proviene gran parte del metano estratto in Italia – il database DISS nel 2012 già censiva nove ‘Sorgenti Individuali’ simili a quella di Mirandola (in rosso in Figura 2). Nel 2014 decidemmo di studiare le relazioni spaziali tra le sorgenti sismogenetiche note e la distribuzione di 455 pozzi per estrazione di gas in una porzione di circa 10.000 km2 della Pianura Padana centro-meridionale. L’obiettivo era capire se l’osservazione di Marco, ovvero che le faglie sismogenetiche rendevano sterili i giacimenti a gas posti al di sopra di esse, era sistematica o casuale. Nel citato articolo pubblicato nel 2015 (5) dimostravamo la sistematicità di quanto ipotizzato da Marco, sulla scorta di una validazione statistica della distanza tra la proiezione in superficie delle Sorgenti Composite e Individuali e i pozzi analizzati, produttivi o sterili. Si noti che questi ultimi non vanno confusi con i pozzi che oggi sono improduttivi perché il relativo giacimento è stato sfruttato completamente; questi pozzi, che ai nostri fini rientrano tra quelli produttivi, sono detti ‘depleti’.

Avete un modello che spieghi le cose oppure si tratta di una evidenza di tipo statistico, ancora da interpretare?

Sì. Abbiamo un modello semplice, anche se illustrarlo richiede qualche conoscenza di base di geologia e sismologia. La Figura 3 schematizza l’anticlinale sepolta di Mirandola: una anticlinale più grande della media, generata da una faglia in grado di generare terremoti di magnitudo 5.5 e più, come poi si è visto, e sepolta dai depositi successivi, molto più giovani e quindi meno deformati dalla tettonica, che coprono la struttura profonda come una coperta spessa da centinaia di metri ad alcuni km. Come tutte le grandi anticlinali, anche questa cresce in virtù della compressione, che causa l’avvicinamento dei blocchi crostali sui due lati della struttura. Tra il bordo inferiore della figura, che può corrispondere a una profondità tra 5 e 10 km, e il punto del piano di thrust (indicato in rosso) più vicino alla superficie, a circa 2-3 km, la compressione è accomodata dalla dislocazione sulla faglia stessa: la quale, come già detto, non si propaga fino alla superficie, ma resta “cieca”. Ne consegue che nei primi 2-3 km della crosta le rocce vengono inarcate, ma non fagliate, se non in maniera secondaria. L’inarcamento crea una trappola per i fluidi del sottosuolo che migrano verso l’alto – in questo caso il metano; lo strato impermeabile (in beige) li tiene intrappolati nel sottosuolo.

Figura 3 – Schema dell’anticlinale di Mirandola. Si veda il testo per la discussione delle sue diverse componenti.

Sappiamo anche che non tutte le faglie generano terremoti, anche se attive: una deformazione lenta ma non sismica può essere assorbita dal sistema senza guasti. Ma se la faglia si comporta in modo non asismico ma ‘stick slip’, ovvero caricando deformazione tettonica e poi scaricandola in un istante con un forte terremoto, allora ci dobbiamo aspettare che al di sopra della faglia stessa si creino – e progressivamente si rinnovino – della fratture. Questo avviene perché il forte terremoto richiede dislocazione istantanea su tutto il piano di faglia, massimizzando la formazione di fratture nella porzione più superficiale della crosta. Queste fratture potranno essere sia compressive, causate dal tentativo della faglia primaria di raggiungere la superficie, sia estensionali, create sul culmine dell’anticlinale come effetto secondario dell’inarcamento: queste sono chiamate faglie di estradosso, ed è soprattutto attraverso di esse che il serbatoio di metano può “perdere” e quindi svuotarsi (si veda il simbolo indicato con ‘gas leakage’ in Figura 3).
Torniamo ora alla ricerca di idrocarburi, che si concentra su queste anticlinali sepolte per trovare e sfruttare il metano. Se la struttura della trappola è ideale, come nell’immagine, quasi sicuramente il metano avrà provato a concentrarsi nel nucleo dell’anticlinale: ma dipenderà dal carattere sismico o asismico della sottostante faglia se poi sarà rimasto lì fino ad oggi, consentendo a noi di estrarlo, o si sarà disperso nell’atmosfera. La Figura 4, tratta dal nostro articolo del 2022 (2), documenta nel dettaglio come il metano che nel tempo geologico si era accumulato al nucleo dell’anticlinale di Mirandola potrebbe essersi disperso nell’atmosfera, terremoto dopo terremoto.

Figura 4 – Area delle Terre Calde in prossimità di Medolla (MO). In alto a destra: dettaglio della proiezione in superficie della sorgente sismogenetica già identificata come ITIS107, qui mostrata in giallo, responsabile del terremoto del 29 maggio 2012. In basso a destra: profilo topografico lungo la sezione mostrata da una linea bianca. I tre siti M3, M14 e M20 sono emanazioni di gas dominate dal metano: se ne veda la discussione nel testo. Nella colonna di sinistra sono mostrate le percentuali di metano rilevate sul totale delle emanazioni tra il 2008 e il 2015.

La Figura 4 mostra emanazioni naturali note già dalla fine dell’Ottocento perché causano il riscaldamento del suolo e distruggono la vegetazione, da cui il nome di ‘Terre calde’ dato alla località. Come mostra la sezione topografica, le emanazioni ricadono esattamente lungo l’asse di massimo inarcamento dell’anticlinale sepolta, dove è attesa l’esistenza di faglie normali secondarie di estradosso. Misure effettuate tra 2008 e 2015 (6) mostrano chiaramente sia un segnale di fondo pre-terremoto, sia un forte aumento iniziato in corrispondenza del terremoto e protrattosi per oltre due anni. Questo quadro è congruente con le ipotesi da noi formulate, ovvero che i giacimenti che si trovano al di sopra di faglie sismogenetiche siano soggetti a perdite continue, e sembra dimostrare il ruolo delle faglie di estradosso nel fungere da via di fuga preferenziale del metano.

Questa vostro risultato può avere un notevole impatto sia sugli aspetti legati alla estrazione che su quelli della pericolosità sismica. In particolare state sostenendo che si possono individuare faglie potenzialmente sismogenetiche che potrebbero essere “rimosse” dalle valutazioni di pericolosità sismica, giusto?

Esattamente. Il nostro lavoro ha una tripla valenza: ai fini della ricerca degli idrocarburi, perché sarà possibile dirigere l’esplorazione evitando in partenza aree quasi certamente prive di giacimenti produttivi; nei riguardi del rapporto tra terremoti potenzialmente disastrosi ed esplorazione per idrocarburi, perché dallo studio si evince che terremoti come quello del 29 maggio 2012 devono essere accaduti ripetutamente nel passato geologico, dunque senza responsabilità umane; e per una corretta valutazione della pericolosità sismica locale, perché la mera presenza di un giacimento a metano potrà essere assunta come una prova del comportamento asismico della faglia sottostante.
Sia chiaro: che esistano grandi faglie asismiche lo si sa da sempre: noi abbiamo solo proposto un criterio utile a riconoscerle e discriminarle. E come tu stesso hai sottolineato, una faglia che si muove in modo non sismico va studiata e censita, ma non è di interesse per la pericolosità sismica. A questo riguardo voglio sottolineare che il DISS è uno strumento che censisce sorgenti sismogenetiche potenziali: grandi faglie evidenziate soprattutto per via geologica o geofisica, ma per le quali non sempre si ha la prova che abbiano causato forti terremoti, cosa che potrebbe essere avvenuta in epoca preistorica. E ovviamente, se quelle faglie hanno generato terremoti in passato, ne genereranno altri in futuro.

Figura 5 – Slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale.

La Figura 5 mostra gli slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale, scelte tra quelle che mostrano cinematica compressiva e sono ‘cieche’, ovvero non arrivano ad interessare la superficie topografica. Si nota che i valori – espressi in millimetri/anno, equivalenti a metri/ millennio – decrescono lentamente da est a ovest.

Figura 6 – Sismicità della stessa area mostrata in Fig. 5, dal catalogo CFTI5Med.

La Figura 6 mostra invece la sismicità della stessa area, tratta dal catalogo CFTI5Med (7). Per quanto riguarda il lato appenninico (meridionale) della Pianura Padana, si nota una rarefazione della sismicità procedendo verso ovest, mentre sul lato sud-alpino (settentrionale) la sismicità è molto limitata e quasi assente a ovest di Brescia, con la sola eccezione del terremoto di Soncino del 1802 (mostrato da un asterisco rosso poco a nordest di Crema). Il rapporto tra l’energia sismica storicamente rilasciata in una determinata area e quella che le faglie censite in quell’area potrebbero generare (in funzione delle loro dimensioni e del loro slip rate) è detto ‘efficienza sismica’ o ‘accoppiamento sismico’. In Pianura Padana questo parametro è basso, nell’ordine del 20-30%.
La nostra interpretazione complessiva è che solo alcune delle strutture compressive censite, a ciascuna delle quali corrisponde una anticlinale e un giacimento di metano almeno potenziale, sono in grado di generare terremoti prossimi alla magnitudo massima tipica di questo settore, che è intorno a 6.0 o poco più. Le altre – che sono la maggioranza – si muovono in modo asisimico, e quindi dovrebbero essere escluse del tutto in una valutazione di pericolosità sismica a scala regionale, in quanto non in grado di generare forti terremoti ma al massimo sismicità di fondo.

Stiamo parlando di qualche cosa di tipicamente italiano oppure generalizzabile anche altrove, e eventualmente dove?

La nostra ricerca e le nostre ipotesi valgono solo per i giacimenti associati a faglie compressive, attraverso il meccanismo che ho delineato (creazione di una anticlinale e migrazione degli idrocarburi al nucleo della stessa). Questo è il tipo di giacimenti molto comune in Italia, ma non necessariamente in tutto il resto del globo. Un’area in cui la nostra ipotesi si potrebbe applicare è la catena montuosa degli Zagros, in Iran. Si tratta di uno dei distretti di produzione di idrocarburi più importanti al mondo, dove studi ormai consolidati basati su dati sismologici e geodetici mostrano che l’efficienza sismica è molto bassa, addirittura intorno al 10%. Condizioni simili si osservano in altri paesi del Medio Oriente, in California, nel Maghreb, ma non nelle aree stabili del pianeta, come il cratone russo-siberiano all’interno del blocco eurasiatico: zone dove peraltro il problema sismico non si pone affatto, e dove la presenza o assenza di idrocarburi dipende da altri meccanismi.

Oltre alla tua presentazione al Convegno del Gruppo Nazionale per la Geofisica della Terra Solida (GNGTS) di Ferrara del 2024, avete presentato altrove i vostri risultati? Che ricevimento ha ottenuto l’articolo in ambito scientifico, nazionale e internazionale? Mi sembra che la portata delle cose in ballo avrebbero dovuto suscitare molto interesse…..

L’articolo è stato presentato nel 2024 in una delle riunioni periodiche del Co2Geonet (8), un consorzio europeo nato nel 2004 per trattare le problematiche poste dalla pratica dello stoccaggio geologico permanente della CO2. Questa pratica condivide molti aspetti con quella dello stoccaggio temporaneo di metano, che prevede di pompare il gas in vecchi giacimenti ormai esauriti in estate per poi recuperarlo d’inverno, quando la richiesta di energia è maggiore. Devo però ammettere a malincuore che almeno fino ad oggi le nostre conclusioni non hanno suscitato un interesse all’altezza delle aspettative (quantomeno le mie).
Per quanto riguarda la prima e la seconda valenza del nostro lavoro, che riguardano la ricerca di idrocarburi e le possibili ‘colpe’ derivanti dal loro sfruttamento, io speravo che i nostri risultati potessero contribuire a tranquillizzare tutti coloro i quali temono che l’attività estrattiva o di stoccaggio possa causare forti terremoti. Ma la questione posta dai NoTriv evidentemente non è più così pressante, perché di nuove trivellazioni si parla sempre meno; e comunque, i giacimenti di metano più promettenti sono nel Mar Adriatico e nel Canale di Sicilia, quindi relativamente distanti dai centri abitati, e di conseguenza meno critici dal punto di vista ambientale.
Per quanto riguarda la terza valenza, quella relativa alla pericolosità sismica, osservo che:

(a) nelle valutazioni di pericolosità a scala regionale, l’uso diretto delle sorgenti sismogenetiche come quelle fornite dal DISS è tuttora in una fase iniziale;

(b) esiste una certa ritrosia a trattare il dualismo sismico/asismico, forse per la difficoltà di valutare questo carattere per ciascuna sorgente;

(c) al momento non sono in corso nuovi progetti di rivalutazione della pericolosità sismica a scala italiana. Questo ovviamente non impedisce ai ricercatori operanti su questo tema di intraprendere iniziative a scala più limitata: esperienze-pilota eventualmente estendibili a scala più ampia.

State proseguendo questa ricerca?

Al momento no: siamo in una pausa di riflessione, motivata sia da quanto ho appena scritto sul finora limitato recepimento dei nostri risultati, sia dal fatto che probabilmente abbiamo raggiunto un punto oltre il quale sarà difficile spingersi, perché:

(a) dal punto di vista delle osservazioni e di un possibile rafforzamento delle nostre ipotesi, annoto che nell’articolo del 2022 abbiamo correlato 1.651 pozzi a metano, sterili e produttivi, con 18 sorgenti sismogenetiche. Sappiamo che questi dati non aumenteranno né miglioreranno in un prossimo futuro, se non in misura marginale;

(b) per dimostrare che il fenomeno non è solo italiano si potrebbe esplorare come vanno le cose in altre aree del globo; ma purtroppo non sono molti i paesi per i quali si dispone di dati ordinati e di buona qualità come quelli che abbiamo avuto la fortuna di usare noi;

 (c) si potrebbe poi esplorare meglio il meccanismo dal punto di vista teorico, ma onestamente non saprei da dove partire e comunque non avrei l’expertise necessario..

Nel campo delle applicazioni alla pericolosità sismica invece ci sarebbe molto da fare: ne farò un esempio pratico. Il DISS censisce sorgenti sismogenetiche che passano sotto grandi città come Bergamo e Brescia, e si avvicinano a Cremona e persino alla stessa Milano: tutte ben documentate da affidabili dati di sottosuolo forniti nel secondo dopoguerra dalla stessa esplorazione per la ricerca degli idrocarburi. Fino ad oggi queste sorgenti sono entrate in misura limitata nelle valutazioni di pericolosità – mi riferisco al modello MPS19, completato dall’INGV ormai qualche anno fa (9); ma ritengo che se entrassero con decisione aumenterebbero non poco la pericolosità sismica stimata per quelle città, a fronte di una sismicità storica e strumentale molto limitata.

Nell’articolo pubblicato nel 2022 abbiamo proposto che in future applicazioni si tenga conto di quanto da noi evidenziato: ma di certo il percorso da compiere sarebbe lungo, articolato, e non facilmente digeribile neppure dalla comunità scientifica di riferimento. Per spiegarmi meglio provo a fare un passo indietro e una sintesi:

–    come già detto, le sorgenti sismogenetiche del DISS, ovvero derivate da dati geologici e geofisici, sono ancora poco usate nei modelli probabilistici, anche se si sta diffondendo il loro uso in applicazioni di tipo deterministico;

–    nel corso del processo di individuazione delle sorgenti è aumentata la consapevolezza che anche in Italia esistono grandi faglie che hanno un comportamento prevalentemente asismico, e come tali non contribuiscono a creare pericolosità sismica. Una situazione abbastanza paradossale, in virtù della quale chiunque potrebbe chiedersi se il DISS non crei più dubbi di quanti ne dissolve;

–   queste ‘faglie asismiche’ andrebbero identificate una per una, così da poterle “spegnere” selettivamente ai fini dei calcoli di pericolosità; ma questa identificazione non l’abbiamo ancora avviata, a causa di varie difficoltà e incertezze tra gli stessi geologi;

–    il caso vuole che queste faglie asismiche siano localizzate soprattutto nel nord del Paese, in aree densamente popolate: questo rende qualsiasi scelta ancora più critica;

–    per di più, parliamo di faglie cieche, sepolte sotto un paesaggio pianeggiante, il che nell’immaginario collettivo contrasta con i contesti montuosi che caratterizzano la maggior parte dei grandi terremoti italiani, come quelli del 2016-2017 nell’Appennino centrale. Faglie cieche che, per un ulteriore paradosso, sono ben illuminate dalla sismica d’esplorazione condotta a partire dal secondo dopoguerra per la ricerca di idrocarburi, e finiscono per essere meglio identificabili e note di molte delle faglie sismogenetiche che attraversano l’Appennino.

Potrebbe quindi crearsi un problema di ‘pubblica accettazione’ di questi risultati della ricerca. Per dirla in una battuta, bisognerebbe prima avvertire i lombardi – e non solo loro – che sotto i loro piedi esistono delle faglie simili a quelle che affliggono altre zone dell’Italia, e un attimo dopo rassicurarli spiegando che molte di quelle faglie in effetti sono innocue.
Quello che si dovrebbe fare a questo punto è lanciare un progetto-pilota per quantificare sia l’impatto dell’introduzione massiccia delle sorgenti sismogenetiche nei calcoli di pericolosità dell’Italia settentrionale, sia l’effetto del loro “spegnimento selettivo” alla luce delle considerazioni fin qui svolte. Anzi, approfitto di questa tua intervista per sollecitare contributi dialettici a questo dibattito e concrete proposte di collaborazione nella direzione che ho appena indicato. E ti ringrazio per aver creato questa occasione di dialogo.

Bibliografia

(1) https://www.ogs.it/it/press/nuovi-risultati-sulla-relazione-tra-giacimenti-di-metano-e-forti-terremoti

(2) https://www.nature.com/articles/s41598-022-05732-8

(3) https://www.science.org/doi/10.1126/science.345.6196.501

(4) https://diss.ingv.it

(5) https://nhess.copernicus.org/articles/15/2201/2015/nhess-15-2201-2015.html

(6) https://www.nature.com/articles/s41598-017-14500-y

(7) https://storing.ingv.it/cfti/cfti5/

(8) https://conference2024.co2geonet.com

(9) https://www.annalsofgeophysics.eu/index.php/annals/article/view/8579

A proposito di terremoti “di origine antropica”: la situazione in Italia (conversazione con Enrico Priolo)

Di seguito viene pubblicata la seconda parte del post A proposito di terremoti “di origine antropica”: aspetti generali pubblicato in precedenza (https://terremotiegrandirischi.com/2023/02/27/a-proposito-di-terremoti-di-origine-antropica-aspetti-generali-conversazione-con-enrico-priolo/)
Questo secondo post è dedicato alla situazione italiana.

Schermata 2023-02-27 alle 09.46.03Raffigurazione delle differenti tipologie di attività che possono indurre o innescare sismicità. In un articolo pubblicato dalla rivista Reviews of Geophysics nel 2017, Grigoli et al. fanno il punto sulla sismicità indotta e analizzano le possibili strategie di controllo delle attività e mitigazione della sismicità che si stanno sviluppando. Figura tratta da Grigoli and Wiemer (2017).
Tra le attività rappresentate nella figura, in Italia non sono svolte: la produzione di olio o gas dalle rocce di scisto, con la meglio nota tecnica del fracking; la produzione di energia geotermica da rocce anidre con fratturazioni stimolate; il confinamento del CO2 nel sottosuolo, anche se per quest’ultima è prevista la costruzione di un impianto a Ravenna nel prossimo futuro.

Quali sono le tipologie di terremoti di origine antropica riscontrate nel nostro paese?
Vorrei iniziare con una premessa. In Italia, l’argomento della sismicità indotta è stato trascurato per lunghissimo tempo. In un articolo del 2013 Mucciarelli, riprendendo delle considerazioni fatte da Caloi nel 1970, riconduceva questo disinteresse alla (micro-)sismicità registrata prima del distacco della frana che portò al disastro del Vajont. Non era il primo caso di sismicità indotta in Italia, ma “ La possibile correlazione al Vajont tra sismicità indotta ed il seguente distacco franoso creava un precedente di cui alcuni avrebbero preferito tacere e dimenticare al più presto”. Mentre l’articolo andava in pubblicazione avvenne il terremoto dell’Emilia, che dette impulso a nuovi studi e iniziative. Una ricognizione della sismicità indotta in Italia fu effettuata nel 2014 da un tavolo di lavoro coordinato da ISPRA (ISPRA, 2014), e fu successivamente completata da alcune pubblicazioni scientifiche (es: Braun et al., 2018). Il quadro che ne scaturisce evidenzia poco più di una quindicina di casi/siti interessati da attività per i quali si è verificata sismicità potenzialmente indotta. Tuttavia, per circa metà di questi casi il fatto che la sismicità sia stata causata dalle attività umane svolte è solo una ipotesi.
Ci sono 6 casi di sismicità associata ai bacini idrici, tutti di magnitudo piuttosto ridotta (M<3), eccetto uno per il bacino di Campotosto in Abruzzo, più forte ma solo ipotizzato. Altri 6 casi sono quelli associati alla geotermia, la maggior parte localizzati nell’area del Monte Amiata e Larderello e la cui causa umana è ancora solo ipotizzata (tra questi spicca l’evento di magnitudo M4.9 del Monte Amiata del 2000).
Sono poi censiti tre eventi legati alle attività di produzione di idrocarburi, di cui due sono ipotizzati associati alla estrazione di olio (Caviaga (LO) 1951 ed Emilia 2012) e uno è associato alla reintroduzione di fluidi di produzione in profondità (Montemurro 2006). Tornerò in seguito su questi tre eventi.
Un altro evento è infine associato, ma solo come ipotesi, alle attività minerarie svolte a Raibl/Predil (Friuli – Venezia Giulia); per questo evento, avvenuto nel 1965, in una area di rilevante sismicità naturale, è stata stimata solo l’intensità macrosismica, ovvero gli effetti generati, che è stata valuta pari a V MCS (appena sotto la soglia del danno).
Come già accennato, i casi probabilmente più noti in Italia per i quali venne attribuita inizialmente una origine umana sono quelli dei terremoti dell’Emilia del 2012 (con Mmax 5.9) e degli eventi avvenuti a Caviaga nel 1951 (Mmax 5.4). Entrambi gli eventi furono associati all’attività di produzione di idrocarburi, rispettivamente il primo per l’estrazione di olio e reiniezione delle acque di strato residue all’interno del giacimento presso la concessione di Mirandola-Cavone, e il secondo per l’estrazione di gas presso l’omonimo deposito naturale. In entrambi i casi, tuttavia, studi successivi hanno mostrato come essi siano plausibilmente legati a cause naturali, cioè tettoniche, e non innescati dalle attività svolte in loco. Come già detto, la scarsità di dati osservazionali pone grandi difficoltà nell’interpretazione univoca dei fenomeni potenzialmente ritenuti indotti, e questo è estremamente grave se pensiamo che questa situazione era vera pochi anni fa e non è ancora risolta dappertutto.

Restando nell’ambito della produzione di idrocarburi, i campi della Val D’Agri rappresentano una delle aree cui è rivolta la maggiore attenzione in questo periodo, sia per la vastità della zona coinvolta (i depositi della Val d’Agri, per quanto considerati non enormi a livello mondiale, sono il più grosso giacimento di olio on-shore europeo) sia perché, con lo scopo di ridurre l’impatto ambientale del trasporto a distanza delle acque residue (le cosiddette acque di strato) per il loro smaltimento, era stato avviato un progetto di sperimentazione per iniettare queste acque in un pozzo profondo all’interno di strati posti ben al di sotto del giacimento. Quest’attività provocò un terremoto di poco inferiore a magnitudo 2 nel 2014 che destò molta preoccupazione, dato che la Val d’Agri si colloca in una zona considerata tra le più pericolose d’Italia dal punto di vista sismico e nel 1857 fu teatro di uno dei terremoti più forti mai avvenuti in Italia (magnitudo stimata 7.1) e per il quale il sistema di faglie causativo è ancora in discussione. Sia a seguito di questo evento sia per la contiguità del bacino artificiale del Pertusillo, si è proceduto a un notevole irrobustimento delle reti locali di monitoraggio che oggi producono dati molto dettagliati.

Tornando ai casi di sismicità indotta in Italia, si noti anche che per la maggior parte dei casi, la sismicità associata ai bacini idrici è ben documentata e quindi non vi sono dubbi circa la sua natura. Questo fatto non è casuale, in quanto le dighe sono da sempre soggette a monitoraggio accurato in Italia, per questioni di sicurezza. Per contro, stupisce la scarsità di dati —per lo meno, dati pubblicamente disponibili— relativamente alle attività legate alla produzione di idrocarburi. È difficile stabilire se queste attività siano effettivamente meno “pericolose” o se il supposto minore impatto derivi da una mancanza di informazioni frutto di scelte deliberate da parte delle compagnie del settore. L’esperienza del terremoto dell’Emilia del 2012 mostra, a mio parere, che l’assenza o la inadeguatezza dei monitoraggi sia stata controproducente per tutto il paese e, probabilmente, anche per le compagnie stesse.
Riguardo agli idrocarburi, ricordo anche che l’Italia ha circa una quindicina di stoccaggi sotterranei di gas ed è il sesto/settimo paese al mondo per capacità complessiva di stoccaggio. Per questi stoccaggi non ci sono segnalazioni di sismicità indotta correlata all’attività svolta. Sottolineo però che solo alcuni di questi stoccaggi sono dotati da alcuni anni di monitoraggi sismici e della deformazione molto efficienti (ad esempio i siti di Collalto, Cornegliano Laudense e Minerbio) e per questi l’assenza di sismicità è un fatto scientificamente comprovato (es. Romano et al., 2019), che dimostra che se l’attività è ben progettata e ben gestita può non causare sismicità pericolosa per l’uomo. Ricordo anche che la maggior parte delle aree dove si effettuano queste attività è comunque soggetta a terremoti naturali che prima o poi avverranno indipendentemente dalle attività, dunque la riduzione del rischio sismico resta una priorità per vivere in sicurezza.
Infine, vale la pena sottolineare, anche se ormai dovrebbe essere piuttosto noto, che in Italia non viene praticato il “fracking”: ciò perché, al di là di scelte politiche circa l’opportunità o meno di praticare questa tecnica, la risorsa primaria, cioè gli scisti che contengono gas, non esiste in Italia.

E per quanto riguarda la recente vicenda dei terremoti emiliani del 2012?
A mio avviso, l’aspetto importante di questo caso, oltre a quello umano e dei danni economici, è rappresentato dall’insieme delle iniziative messe in atto dal governo nazionale e dall’amministrazione regionale per stabilire se gli eventi disastrosi fossero stati causati, o meno, da alcune attività umane svolte vicino all’area colpita. Il terremoto ebbe origine in strutture di faglie attive, già note nella letteratura scientifica. Dato che praticamente tutta l’Italia è un paese esposto ai terremoti, già solo l’ipotesi di una possibile attribuzione di causa antropica al terremoto, comportava una rivalutazione della potenziale pericolosità di tutte le attività simili esistenti o per le quali era in corso la concessione di nuove licenze. Per almeno due anni furono bloccate tutte le istanze di nuovi permessi di ricerca nel sottosuolo.
Le perplessità e la difficoltà a giungere a conclusioni ultimative era dovuta alla scarsità di dati osservazionali adeguati. La scarsità di monitoraggi specifici e di informazioni pubbliche circa le attività svolte nel sottosuolo favorirono la diffusione di una moltitudine di affermazioni false o distorte, creando in Italia un ambiente assolutamente ostile a una valutazione serena dei fatti e influenzando l’opinione pubblica e della classe politica riguardo alle azioni future da intraprendere in tema di politica energetica. Oggi assistiamo a una precipitosa inversione di rotta, che temo possa portare ad allentare le procedure di controllo e monitoraggio, anche con detrimento per gli avanzamenti in termini di conoscenza scientifica.

FOTO DEI LETTORI: SISMA EMILIA, SEI VITTIME
I danni del terremoto dell’Emilia 2012 sul campanile di Finale Emilia (LaPresse/Gianfilippo Oggioni)

Quali sono state le iniziative adottate in Italia a seguito del terremoto dell’Emilia e qual è oggi la posizione dell’Italia relativamente al problema della sismicità indotta sia a livello politico sia riguardo all’opinione pubblica?
Dopo il terremoto dell’Emilia, il Ministero dello Sviluppo Economico (MiSE), allora competente per le attività svolte nel sottosuolo, istituisce la commissione scientifica internazionale ICHESE con il compito di stabilire se il terremoto possa essere attribuito a tre attività svolte nell’area circostante, e cioè la produzione di olio nella concessione di Mirandola-Cavone, l’estrazione di acqua calda a Casaglia per il teleriscaldamento della zona ovest di Ferrara, e le attività di ricerca presso la concessione di Rivara per un futuro stoccaggio di gas, comprendenti perforazioni profonde. La Commissione ICHESE rilascia il proprio rapporto a inizio 2014 (ICHESE, 2014), non escludendo che le attività svolte a Mirandola-Cavone possano avere contribuito a generare il terremoto e insistendo fortemente sulla necessità di dotare le attività svolte nel sottosuolo di monitoraggi di dettaglio per la sismicità, le deformazioni superficiali e le pressioni di poro nel sottosuolo. A seguito dei risultati della Commissione ICHESE viene bloccato il rilascio di nuove concessioni di “coltivazione” e il MiSE istituisce un gruppo di lavoro con lo scopo di definire delle linee guida per l’attuazione di monitoraggi dedicati per le attività svolte nel sottosuolo riguardanti l’estrazione di idrocarburi, lo stoccaggio di gas e la reintroduzione di fluidi in profondità. Le risultanze dell’attività di questo gruppo di lavoro vengono pubblicato in un rapporto a fine 2014 (MISE, 2014), e seguono la pubblicazione del rapporto di un altro gruppo scientifico, coordinato da ISPRA (2014), che fa lo stato dell’arte delle conoscenze sulla sismicità indotta in Italia. A seguito di queste iniziative, viene avviata una sperimentazione delle Linee Guida presso la concessione di Mirandola-Cavone di concerto con la Regione Emilia Romagna, che si concluderà alcuni anni dopo. Nel 2016 il MiSE rilascia un ulteriore documento che integra le Linee Guida anche per le attività geotermiche a media e alta entalpia (MISE, 2016).
Ritengo che l’attività del gruppo di lavoro che ha redatto gli Indirizzi e Linee Guida sia stato molto importante perché si sono cercate di definire le migliori modalità e pratiche di monitoraggio e di eventuale intervento sulle attività sulla base delle conoscenze scientifiche allora disponibili. Mancando in Italia una solida esperienza in questo settore (o, se vogliamo, appartenendo l’esperienza diretta solo alle compagnie private che gestiscono l’attività in proprio) si era prevista una fase di sperimentazione successiva. Per alcune (poche) attività avviate successivamente sono stati realizzati dei monitoraggi in linea con i suggerimenti delle Linee Guida (una prima riflessione sull’esperienza di applicazione delle Linee Guida è stata pubblicata da Braun et al, 2020), ma siamo ancora distanti dall’avere una modalità ben strutturata di condivisione e accesso anche pubblico ai dati rilevati, sia per quanto riguarda i monitoraggi sia per le attività. Questo è ancor più vero per le concessioni già esistenti. Direi quindi che c’è molto da fare in tal senso: da una verifica ex-post delle Linee Guida e un eventuale loro aggiornamento, alla verifica dello stato dei monitoraggi in essere per le varie attività esistenti, alla realizzazione di un punto di riferimento unico, ben strutturato e che favorisca l’accesso e l’uso, anche da parte del pubblico, di tutti i dati e le informazioni raccolti.
Certamente i cambi di Governo e delle competenze assegnate ai Ministeri nel corso del tempo non agevolano questa evoluzione. E credo anche che le compagnie vedano nella trasparenza più un rischio che un valore per le loro attività, anche se ho notato una progressiva, seppur lenta, modifica nell’atteggiamento. Purtroppo, questi vuoti lasciano campo libero alle interpretazioni di parte avversa e alle ipotesi più varie, spesso prive di fondamento scientifico.
Il panorama delle difficoltà connesse alla gestione delle attività in atto nel sottosuolo non riguarda solo l’Italia, ma genericamente tutti i paesi, seppur con alcune rilevanti differenze. Ci sono alcuni punti chiave comuni a tutti che devono assolutamente essere affrontati e risolti meglio, quali: l’esercizio del controllo sulle attività svolte (qui mi riferisco nello specifico all’uso dei monitoraggi come quelli suggeriti dall’ICHESE) da parte di enti indipendenti rispetto al concessionario e legati all’interesse pubblico; la diffusione di  informazioni complete in modo trasparente e autorevole; e di conciliare le necessità energetiche e di risorse di un paese con gli interessi delle compagnie private e con i diritti delle popolazioni residenti sia in termini di serenità che di utilizzo del territorio.

Come noto, capita spesso che i terremoti che interessano la fascia costiera marchigiana vengano messi in relazione alle attività di ricerca e di estrazione di idrocarburi. Ricordiamo il caso della sequenza sismica dell’anconetano nel 1972 e anche dei recenti terremoti al largo di Fano. Che cosa si può dire al riguardo?
Tutta la fascia a Est degli Appennini è ricca di risorse di idrocarburi. Molte infrastrutture di estrazione/produzione si concentrano lungo la costa a partire dall’area al confine tra Veneto e Romagna fino all’Abruzzo. Nell’area marchigiana, molte installazioni si trovano off-shore nella zona prospicente Pesaro-Ancona approssimativamente dai 20 ai 60 km dalla costa. Un’altra concentrazione si trova lungo la costa a sud di Ancona, nell’area di Civitanova Marche e Porto S. Elpidio.
D’altra parte, è ben noto che la fascia costiera marchigiana è in grado di rilasciare terremoti moderati (cioè fino a circa M6) sia lungo la costa sia off-shore. La localizzazione fornita dall’INGV colloca i terremoti avvenuti a fine 2022 all’interno della fascia dove si trovano le concessioni di estrazione di idrocarburi, tuttavia bisogna dire che, dato che le stazioni usate per localizzare si trovano per la maggior parte dal medesimo lato (quello costiero) e distano almeno 25 km dall’evento, la localizzazione non può essere ben vincolata. A maggior ragione, mancando stazioni al di sopra dell’evento, anche la profondità stimata in 5 km è mal vincolata. Pertanto non è possibile determinare con sufficiente accuratezza quanto i terremoti recenti siano vicini ai giacimenti di estrazione. Il meccanismo focale stimato è totalmente in linea con lo stile compressivo già riconosciuto in passato per eventi occorsi in quell’area e attribuito a strutture di sovrascorrimento che sono effettivamente presenti. Non è stata rilevata alcuna sismicità nei giorni precedenti.
Non ho altre informazioni riguardo alle attività in corso, e, in assenza di situazioni eclatanti di cui non vi è notizia, penso che l’evento si inquadri coerentemente nella sismicità naturale che caratterizza l’area.

Come possiamo concludere queste riflessioni?
Spero che si sia compreso perché sia così importante rilevare la microsismicità e altre grandezze fisiche, in sostanza disporre di monitoraggi efficaci, nelle zone dove vengono svolte le attività nel sottosuolo. Avere una rete di monitoraggio che permette di riconoscere i microsismi (per intenderci fino a magnitudo compresa tra 0 e 1, ma anche meno se necessario) consente di vedere da subito la fenomenologia in atto e di capire se il sistema complessivo si evolve o è stabile. Inoltre il rapporto tra il numero di terremoti piccoli e più grandi è riconosciuto come parametro che può aiutare a discriminare la sismicità naturale da quella indotta. È su questo gioco “di anticipo” che si sviluppano oggi le linee di ricerca scientifica per cercare di prevenire dinamiche che possano sfuggire dal controllo (cfr. ad esempio Grigoli et al., 2017).
A differenza dei terremoti naturali, quando si parla di sismicità indotta vi è sempre la necessità di dovere attribuire o meno gli eventi a delle attività svolte. Purtroppo, eccetto che per alcuni casi eclatanti, l’interpretazione è sempre difficile, e ciò è tanto più vero se le attività sono svolte in zone sismiche, come in pratica è tutt’Italia. Non è sufficiente né agevole stabilire una correlazione tra un episodio di sismicità e le attività svolte, a meno di situazioni che si ripetono regolarmente, come ad esempio la microsismicità legata alle fluttuazioni dei bacini idrici. La ricchezza e la qualità dei dati di monitoraggio è una base fondamentale e imprescindibile per poter effettuare interpretazioni che abbiano un minimo di solidità. Non sono completamente convinto che oggi si stia procedendo con la necessaria determinazione in questa direzione.
Vorrei insistere ancora su due concetti che devono essere assolutamente rinforzati, quali l’indipendenza degli enti che acquisiscono e interpretano i dati osservativi, e la trasparenza e il libero accesso alle informazioni e ai dati sia per le attività svolte sia per i monitoraggi effettuati. Solo in questo modo si potrà ridurre la diffusione di una moltitudine di affermazioni false o distorte e favorire, in Italia e altrove, un clima adatto a una valutazione serena dei fatti e delle azioni da intraprendere in tema di politica energetica per il futuro.
Infine, è evidente nel periodo che stiamo vivendo quanto sia importante per un paese avanzato, come l’Italia vorrebbe essere, poter disporre di energia e poter svolgere attività che portino occupazione e progresso. Tutto ciò ha un costo, anche in termini di rischi e il concetto di rischio zero non è sostenibile né praticabile, neanche a livello personale. Se vogliamo dare spazio al progresso dobbiamo investire parallelamente in controllo, sicurezza e trasparenza, ma non come mera pratica burocratica. Un altro aspetto collegato a questa considerazione è quello dell’utilizzo delle “royalties”, cioè degli indennizzi, dati dalle compagnie alle amministrazioni dei territori dove le attività si svolgono. Penso in tal senso che, dato che una delle principali argomentazioni di opposizione da parte dei residenti sia quella relativa ai terremoti, sarebbe opportuno che molti di questi soldi fossero investiti per la riduzione del rischio sismico a livello locale anziché per altre iniziative che magari sono ritenute più remunerative per acquisire consenso nell’immediato.
Qualsiasi tipo di produzione di energia ha effetti collaterali e capire su quali attività investire e come queste debbano essere gestite al meglio è frutto di scelte politiche che in democrazia dovrebbero essere condivise. Per esempio, si pensa (e si spera) che molta dell’energia del futuro potrà venire dall’idrogeno. Si tenga però presente che l’idrogeno dovrà essere contenuto in qualche posto, e che, per le grandi quantità che saranno necessarie, lo stoccaggio sotterraneo rappresenterà l’opzione più favorevole. E qui si riaprono le danze …

Riferimenti
Braun T., Cesca S., Kühn D., Martirosian-Janssen A., Dahm T. (2018).  Anthropogenic seismicity in Italy and its relation to tectonics: State of the art and perspectives. Anthropocene, 21, 80–94; https://doi.org/10.1016/j.ancene.2018.02.001
Braun T, Danesi S., Morelli A. (2020). Application of monitoring guidelines to induced seismicity in Italy. J. Seismol., 24,  1015–1028; https://doi.org/10.1007/s10950-019-09901-7
Caloi P. (1970). Come la natura reagisce all’intervento dell’uomo – Responsabilità di chi provoca e di chi intrepreta tali reazioni, Annali di Geofisica, XXII, 247-282.
Grigoli, F., Cesca, S., Priolo, E., Rinaldi, A.P., Clinton, J.F., Stabile, T.A., Dost, B., Garcia Fernandez, M., Wiemer, S., and Dahm, T. (2017). Current challenges in monitoring, discrimination, and management of induced industrial activities: a European Perspective, Rev. Geophys., 55, https://doi:10.1002/2016RG000542
Grigoli, F., and Wiemer, S. (2017), The challenges posed by induced seismicity, Eos, 98, https://doi.org/10.1029/2018EO074869. Published on 09 June 2017.
ICHESE (2014). International Commission on Hydrocarbon Exploration and Seismicity in the Emilia Region – Report on the hydrocarbon exploration and seismicity in Emilia region, February 2014, http://geo.regione.emilia-romagna.it/gstatico/documenti/ICHESE/ICHESE_Report.pdf
ISPRA (2014) Rapporto sullo stato delle conoscenze riguardo alle possibili relazioni tra attività̀ antropiche e sismicità indotta/innescata in Italia. Tavolo di Lavoro ai sensi della Nota ISPRA Prot. 0045349 del 12 novembre 2013, 71 pp.
MISE (2014). Indirizzi e linee guida per il monitoraggio della sismicità, delle deformazioni del suolo e delle pressioni di poro nell’ambito delle attività antropiche. https://unmig.mise.gov.it/unmig/agenda/upload/85_238.pdf
MISE (2016). Linee guida per l’utilizzazione della risorsa geotermica a media e alta entalpia. https://unmig.mite.gov.it/risorse-geotermiche/linee-guida-per-lutilizzazione-della-risorsa-geotermica-a-media-e-alta-entalpia/
Mucciarelli M. (2013). Induced Seismicity and Related Risk in Italy. Ingegneria Sismica, XXX (1-2), 118-125.
Romano M. A., Peruzza L., Garbin M., Priolo E., and Picotti V. (2019). Microseismic Portrait of the Montello Thrust (Southeastern Alps, Italy) from a Dense High-Quality Seismic Network. Seismol. Res. Lett., 90(4), 1502-1517; https://doi:10.1785/0220180387

A proposito di terremoti “di origine antropica”: aspetti generali (conversazione con Enrico Priolo)

Premessa. Attorno ai terremoti chiamati “di origine antropica” vi è molta confusione, generata soprattutto dai media ma anche, forse inconsapevolmente, da alcuni addetti ai lavori. L’immaginario più diffuso vorrebbe che questi terremoti siano una categoria completamente a parte rispetto ai terremoti di origine naturale; in definitiva che senza l’intervento dell’uomo non verrebbero generati. Le cose non stanno esattamente così; non va trascurato, tra le altre cose, il fatto che l’energia rilasciata da un terremoto deve essersi accumulata in qualche modo: occorre dunque capire se le attività umane sono del tutto responsabili di questo accumulo, e ciò pone ulteriori difficoltà, anche considerando le possibili conseguenze in termini di eventuali responsabilità.
Per cercare di fare un po’ di chiarezza abbiamo rivolto qualche domanda a Enrico Priolo. Poiché l’argomento è complesso e necessita di approfondimento, questa conversazione è divisa in due parti: la prima è dedicata agli aspetti generali, la seconda alla situazione italiana.

Enrico Priolo è stato per quasi quarant’anni ricercatore presso l’OGS, e direttore del Centro di Ricerche Sismologiche dell’OGS dal 2003 al 2008. È stato responsabile delle reti di monitoraggio delle attività di stoccaggio sotterraneo di gas a Collalto in Veneto e Cornegliano Laudense in Pianura Padana. Inoltre, è stato membro del gruppo di esperti nominato dal Ministero dello Sviluppo Economico per la stesura degli Indirizzi e Linee Guida per il monitoraggio delle attività svolte nel sottosuolo, ed è membro dell’Innovation Advisory Commettee del Thematic Core Service Anthropogenic Hazard del consorzio EPOS.

3CD_3B7_446698_905291284_6

Campi con torri di perforazione per l’estrazione del gas di scisto in Wyoming (USA). L’immissione di acque/fluidi di scarto di produzione derivanti dalla produzione di gas di scisto ma anche di altre attività industriali può innescare eventi sismici nel sottosuolo. Credito: Bruce Gordon, EcoFlight, CC BY 2.0

Puoi precisare ai lettori quali sono le tipologie di attività antropiche che possono contribuire a generare terremoti cui la ricerca scientifica fa riferimento?
La maggior parte delle attività che può generare terremoti è legata allo sfruttamento di risorse naturali, in particolar modo alla produzione di energia, argomento molto attuale. Storicamente, le miniere (di materiali lapidei, di carbone, e di diamanti) sono state i primi ambienti dove l’uomo ha generato terremoti. I terremoti si manifestano in forma molto simile a scoppi e sono dovuti al cedimento improvviso della roccia che, sottoposta naturalmente a sforzi tettonici e a compressione per il carico del materiale sovrastante, si riequilibra quando viene rimossa una porzione di materiale.
Poi, anche in ordine cronologico, ci sono i bacini idrici artificiali, che sono spesso identificati attraverso le dighe che intercettano e accumulano l’acqua lungo il corso dei fiumi. I meccanismi con cui i bacini idrici possono produrre terremoti sono principalmente due: a) l’effetto gravitativo, cioè il peso della massa d’acqua accumulata che agisce sulla roccia sottostante, e in particolare sulle faglie (discontinuità o frattura della roccia) eventualmente esistenti nel sottosuolo; b) l’effetto della pressione di poro, ovvero quello legato alla imbibizione e diffusione dell’acqua in profondità nel sottosuolo. Nel primo caso viene modificato lo stato delle forze statiche; il bacino idrico col suo carico può destabilizzare (ma anche stabilizzare) una faglia nel sottosuolo, a seconda delle caratteristiche geometriche della faglia e del campo di stress tettonico esistente. Nel secondo caso, l’acqua si infiltra e si muove all’interno di tutti i vuoti esistenti e, nel caso di faglie esistenti e già sottoposte naturalmente a carichi tettonici, trasmette tutte le variazioni di pressione, agendo talvolta come una sorta di lubrificante tra le superfici della faglia stessa; in sostanza agevolando, ovvero anticipando, la rottura di una faglia già prossima alla rottura. Per i bacini idrici artificiali, la fase più pericolosa per quanto riguarda la sismicità indotta è quella dei primi anni di riempimento e messa in esercizio. Successivamente, quando il sistema si stabilizza, si manifesta una micro-sismicità prevalentemente legata alle fluttuazioni del livello d’acqua dell’invaso.

Un altro tipo di attività è quello legato alla produzione di idrocarburi. L’estrazione di idrocarburi (olio o gas) svuota i depositi in profondità e crea uno stato di tensione nella crosta terrestre circostante che può dare origine a terremoti. Nei giacimenti di idrocarburi (spesso confinati, cioè in cui il deposito è sigillato da barriere di roccia o acqua che impediscono la comunicazione della pressione con l’esterno) si usa re-iniettare le acque reflue di produzione, le cosiddette acque di strato; esse in parte compensano la perdita di pressione interna e non creano problemi dal punto di vista della sismicità. Tuttavia, l’estrazione di olio o gas genera molti “scarti”, che devono essere smaltiti; nei decenni recenti si è affermata la pratica di re-iniettare questi fluidi esternamente al giacimento in pozzi profondi, all’interno di strati che stanno al di sotto dei livelli produttivi. C’è dunque una maggiore possibilità che i fluidi iniettati intercettino zone sismogenetiche, in quanto sottoposte a stress tettonico. E ciò è tanto più vero quanto più i volumi dei fluidi iniettati aumentano e si diffondono all’interno degli strati profondi.
Questa pratica di re-iniezione delle acque reflue in profondità è diventata una prassi in particolari tipi di giacimenti che sfruttano la presenza di microscopiche frazioni di idrocarburi dispersi nella roccia madre, come i giacimenti in rocce di scisto (oil- e gas-shales), che in Italia, peraltro, non esistono. Con la tecnica chiamata fracking (idro-fratturazione delle rocce ad alta pressione) vengono estratti idrocarburi a fronte della produzione di enormi quantità di scarti liquidi. Il fracking, di per sé, produce solo microsismi —con mini-cariche esplosive si frattura la roccia per liberare gli idrocarburi in essa contenuti— che hanno impatto per lo più trascurabile per l’uomo. E’ la reintroduzione dei fluidi in profondità, invece, la causa dell’enorme aumento dei terremoti indotti a livello mondiale e, in conseguenza, delle preoccupazioni e dell’ostilità da parte della popolazione.

Ci sono poi gli stoccaggi sotterranei di gas per i quali, nel mondo, sono usate diverse modalità. Essi possono provocare terremoti, ma bisogna anche dire che tra le varie modalità di stoccaggio sotterraneo ve ne sono alcune ritenute particolarmente sicure anche riguardo la sismicità indotta, come quella di usare depositi di gas naturali esauriti (cioè dove il gas si è creato naturalmente e già sfruttati per la produzione). Questo tipo di stoccaggi è l’unico utilizzato in Italia, e naturalmente è fondamentale che essi siano ben gestiti e controllati. Altra attività attuale per la produzione di energia in modo sostenibile è la geotermìa. Anche in questo caso vi sono svariate modalità di recupero del calore dal sottosuolo, e non tutte sono “pulite”. I maggiori problemi in termini di sismicità indotta si generano in due situazioni. La prima è quando il sistema di circolazione di acque calde profonde viene alimentato con ulteriore (molta) acqua a temperatura più bassa, per “estrarre” il calore residuo delle rocce. La seconda è la cosiddetta stimolazione di sistemi anidri (ovvero rocce prive di acqua) ad elevata temperatura, tecnica con cui vengono dapprima generate fratturazioni artificiali per aumentare la permeabilità della roccia anidra e successivamente viene iniettata acqua per estrarre il calore. Basta pensare a cosa succede se si riempie di acqua fredda un bicchiere rovente appena uscito dalla lavastoviglie, per capire cosa succede. C’è una forte sperimentazione di queste tecniche perché si ritiene che la risorsa geotermica possa essere una delle soluzioni per il futuro per generare energia in modo sufficientemente pulito e sostenibile. Spesso l’attività di sfruttamento geotermico si svolge in prossimità di grandi città, perché è lì che c’è il massimo bisogno di energia, e sfortunatamente ci sono stati alcuni casi importanti di terremoti a seguito di stimolazioni geotermiche avvenuti vicino a grandi centri (es. Basilea nel 2006 e Pohang in Corea nel 2017). Tuttavia vi sono altri casi in cui ciò non è successo e la produzione di energia procede in modo regolare (es. Helsinki).
Concludo questa carrellata, per completezza, con le altre attività umane, talvolta meno note,che possono generare sismicità e non sono legate allo sfruttamento di georisorse. La realizzazione di infrastrutture (gallerie, tunnel sottomarini); la costruzione di edifici, che esercitano pressioni molto localizzate (ricordiamo il caso del grattacielo di Taipei a Taiwan, che si ritiene abbia innescato un terremoto M3.8 nel 2004). Infine, impianti industriali (es. cementifici) e mezzi di trasporto (treni e veicoli pesanti) non generano terremoti in senso stretto, ma producono vibrazioni sismiche che possono avere un certo impatto sull’edificato e causare gran disturbo alla popolazione.

Da quanto detto sembra che i terremoti di origine antropica si possano diversificare a seconda delle attività umane. Se ciò è vero, quali sono le principali tipologie di terremoti di questa origine?

Volendo distinguere le tipologie di terremoti che l’uomo può generare ci dovremmo riferire alle diverse tipologie di sorgenti, perché il campo sismico propagato risponde alla medesima fisica per tutte le sorgenti. Questa distinzione ha interesse soprattutto scientifico, ma relativamente scarsa rilevanza per quanto riguarda la percezione da parte della popolazione e i danni potenzialmente causati. Riconoscere e studiare le modalità con cui la sismicità indotta si produce è però estremamente importante dal punto di vista scientifico, perché questo è l’unico modo che possiamo usare per sviluppare criteri e metodologie di gestione delle attività attraverso le quali si possa contenere, se non proprio controllare, la sismicità generata entro livelli accettabili.
Un concetto importante per comprendere meglio come si generano molti terremoti indotti è quello di stato di sforzo critico in cui si trova la crosta terrestre, che, sottoposta a enormi ma lenti movimenti tettonici, accumula al suo interno stress (in italiano, sforzo) meccanico. Questo accumulo di stress è molto difficile da quantificare, e quindi in generale non siamo in grado di sapere se le rocce in profondità siano in uno stato prossimo alla rottura (appunto, stato critico), tale che basti una minima perturbazione dello stato di sforzo per anticipare (ma, talvolta, anche ritardare) il rilascio del terremoto che comunque si starebbe preparando. Va detto che queste perturbazioni del campo di stress sono prodotte anche da numerose cause naturali, come ad esempio altri terremoti, le precipitazioni piovose, lo spessore del manto dei ghiacci, etc.
Ritornando alla domanda, si riconoscono due tipologie principali di terremoti di origine antropica, rispettivamente quelli “indotti” in senso stretto e quelli “attivati” o “innescati” (dall’inglese “triggered”). Si parla di terremoti indotti, in senso stretto, quando le attività antropiche sono responsabili della gran parte delle variazioni del campo di stress che genera la sismicità. In un terremoto indotto, la sorgente rilascia l’energia che è stata accumulata a seguito delle attività svolte. Si usa invece il termine di terremoti innescati per quegli eventi che sono generati da una perturbazione ridotta rispetto allo stato di sforzo in cui la roccia (prossima allo stress critico) si trova già; questa perturbazione può essere o un incremento dello stress lungo direzioni che favoriscono la rottura o una riduzione della forza d’attrito all’interno delle faglie presenti. Per un terremoto innescato, la sorgente rilascia energia che è fondamentalmente “naturale” (di origine tettonica), tuttavia l’uomo induce ovvero facilita/accelera la rottura come effetto indiretto della propria attività. Da quanto detto si intuisce anche che le attività̀ antropiche non sono in grado di indurre (in senso stretto) grandi e disastrosi eventi sismici ma possono invece innescarli.
Vi sono però terremoti che non ricadono in maniera netta in nessuna di queste due tipologie, ovvero sono un misto delle due. Ad esempio i terremoti che avvengono a seguito delle stimolazioni appartengono a questa tipologia. In generale, comunque, si può sempre parlare di sismicità indotta, o terremoti indotti, comprendendo tutti i casi enunciati, e la distinzione sulla tipologia di terremoto indotto viene menzionata solo se si vogliono meglio specificare certi fattori.

Tornando alle due tipologie principali, le principali cause di innesco di terremoti possono essere: a) la rimozione o l’aggiunta di grandi masse di materiale; b) l’estrazione o iniezione di fluidi in profondità in volumi confinati; c) l’iniezione o la percolazione o la circolazione di fluidi in profondità. Per a e b viene perturbato lo stato di sforzo nell’intorno della zona di attività, mentre per c, il fluido, penetrando in profondità all’interno delle fessure e delle faglie, esercita una pressione che allenta l’adesione delle due parti a contatto e riduce quindi la capacità della faglia di resistere allo stato di sforzo cui è già sottoposta.
Vorrei infine sottolineare l’importanza della profondità nella generazione della sismicità a seguito delle attività antropiche, dato che è a profondità elevate (alcuni km) che si accumula lo stress tettonico. Quindi l’iniezione di grandi volumi di fluidi è pericolosa se fatta in profondità perché la loro diffusione aumenta la probabilità di intercettare faglie pronte alla rottura. Similmente per le stimolazioni geotermiche (per le quali si cerca di scendere in profondità per trovare alte temperature) lo stress termico può avere un effetto maggiore in rocce già sottoposte a elevato stress tettonico.

Da quanto tempo si è cominciato a ipotizzare scientificamente la possibilità che alcuni terremoti siano di origine antropica?

La parola “scientificamente” mi costringe, giustamente, a non parlare delle ipotesi che ritengono la genesi dei terremoti come una punizione divina per dei comportamenti da parte dell’uomo ritenuti scellerati dal punto di vista morale; ciò non solo nei tempi antichi, ma anche di recente, come è ad esempio emerso da alcune dichiarazioni pubbliche durante l’ultima sequenza sismica che ha colpito l’Italia Centrale.
I primi studi scientifici sistematici sulla sismicità indotta sono stati sviluppati già negli anni ’50 per le miniere (soprattutto nel Regno Unito) e negli anni ‘60-’70 a seguito di alcuni casi importanti quali l’attività di produzione di olio con re-introduzione delle acque residue di strato in profondità a Rangely (Colorado), l’attività estrattiva di gas a Lacq (Francia) e a Gazli (Uzbekistan), e la realizzazione del bacino idrico con la diga di Koyna (India).
In Italia, vanno ricordati alcuni studi condotti da Pietro Caloi, geofisico dell’allora Istituto Nazionale di Geofisica, per il terremoto di Caviaga nel 1951, associato all’attività di estrazione del gas dal deposito omonimo (uno dei depositi considerati giganti che diede impulso allo sviluppo dell’allora AGIP), e successivamente, all’inizio degli anni ’60, per i microsismi provocati dal movimento della massa rocciosa che poi avrebbe causato il disastro del Vajont.
Collocando delle date importanti riguardo alla fenomenologia della sismicità indotta, direi che un altro periodo importante è rappresentato dalla prima decade degli anni 2000. Relativamente a questo periodo, ritengo utile ricordare alcune esperienze: ognuna di queste è stata seguita da numerosissimi studi scientifici e ha determinato sostanziali avanzamenti nelle conoscenze scientifiche e nella “coscienza” pubblica.
La prima è quella del terremoto M3.4 di Basilea del 2006, a seguito della sperimentazione di geotermia stimolata. Il terremoto produsse numerosi danni di debole entità e spavento in città e il progetto dell’impianto fu bloccato. La scossa principale si verificò a seguito di numerosi sciami di sismicità debole, per lo più non percepita dalla popolazione, effetto dei test di stimolazione. Probabilmente l’evento forte si sarebbe potuto evitare attuando modalità di controllo differenti, ma questa è una considerazione fatta con il senno di poi, dato che l’esperienza quella volta era limitata. Il caso di Basilea ha aperto la strada a una miriade di studi scientifici e di conoscenze che da allora sono progredite.
Un altro caso importante è quello dell’attività di produzione di gas olandese, di cui Groeningen è il principale centro. L’area di Groeningen (Olanda settentrionale) ospita il più grande giacimento di gas naturale europeo in terraferma e la produzione di gas, iniziata negli anni ’60, valeva fino a pochi anni fa più del 10% dell’intero bilancio olandese. Dal 1986, oltre a importanti fenomeni superficiali (subsidenza) incominciò a manifestarsi una sismicità inizialmente debole, ma che divenne via via più significativa, generando più di mille scosse nel corso degli anni successivi e un terremoto di magnitudo 3.6 nel 2012. Considerando che l’area non conosceva alcuna sismicità nel passato e gli edifici non erano stati costruiti seguendo criteri antisismici, questi fenomeni produssero danni, seppur lievi, in moltissimi edifici e generarono una forte opposizione nella popolazione locale.
La terza esperienza è lo studio pubblicato da W. Ellsworth nel 2013 in cui viene mostrata la prima evidenza a livello statistico (quindi di grandi numeri) della sismicità indotta. In pratica, questo studio mostra che, a partire dall’inizio degli anni 2000, il numero complessivo dei terremoti rilevato negli Stati Uniti, cresciuto fino a quel momento in modo uniforme, comincia ad aumentare con un tasso molto più elevato: questo incremento, mai riscontrato fino a quel momento, non è dovuto a cause naturali ma è effetto della sismicità indotta dalle attività umane, e principalmente —anche se non unicamente— allo sviluppo della tecnologia di estrazione mediante fracking. I “nuovi” terremoti comprendono numerosissimi eventi deboli con magnitudo da meno di 2 a 3, ma anche alcuni eventi più forti come il terremoto M5.7 avvenuto in Oklahoma nel 2011. Dato che le stime di pericolosità sismica si basano sul sul tasso di occorrenza dei terremoti, questo evidente incremento di sismicità innescò svariate discussioni sull’aggiornamento delle mappe di pericolosità adottate a livello nazionale.
L’ultima esperienza che voglio citare è quella di “Castor”. Il progetto Castor consisteva nello sviluppo di un impianto di stoccaggio di gas sotterraneo utilizzando come deposito il giacimento esaurito di olio di Amposta, situato nel Golfo di Valencia a circa 20 km dalla costa spagnola. L’iniezione di gas iniziò nel settembre 2013 e culminò con un terremoto M4.3 il 4 ottobre 2013, che è stato uno dei più forti associati a operazioni di stoccaggio del gas. Studi successivi spiegarono che la pressione dovuta all’iniezione del gas aveva attivato un ramo secondario del sistema di faglie di Amposta, situato direttamente sotto il giacimento. Questo caso mostrò che, per lo stoccaggio del gas, l’uso dei giacimenti di petrolio esauriti è più critico rispetto di quello dei giacimenti di gas esauriti, soprattutto nelle fasi iniziali, perché, dato che l’olio originariamente contenuto è molto più denso e viscoso del gas iniettato per stoccaggio, non è detto che il serbatoio sia in grado di garantire la tenuta del gas al suo interno. Inoltre, a causa del sistema di monitoraggio troppo povero, non fu rilevata tempestivamente la microsismicità risultante dalla migrazione del gas iniettato verso il sistema di faglie. Questi fattori, insieme alla lentezza decisionale e alla “prudenza” nell’interrompere le attività in corso per motivi industriali, fecero sì che i fenomeni di sismicità indotta andassero fuori controllo. Il danno economico fu enorme, con l’ulteriore beffa che i debiti conseguenti furono addossati allo stato, ovvero alla popolazione spagnola. Relativamente a questa esperienza, consiglio vivamente di ascoltare la presentazione (in italiano) di M. Garcia-Fernandez che ho inserito in bibliografia.

Schermata 2023-02-18 alle 16.45.49Rappresentazione grafica di uno dei meccanismi di innesco di terremoti da parte di attività svolte nel sottosuolo. La comprensione di questi meccanismi e la capacità di riconoscere e seguire l’evoluzione dei fenomeni che avvengono nel sottosuolo, in primis quelli sismici, sono argomenti di ricerca molto attuali. A questo argomento è dedicato una sezione speciale dell’importante rivista Journal of Geophysical Research – Solid Earth, dal titolo “Understanding and Anticipating Induced Seismicity: From Mechanics to Seismology”, da cui la presente figura è tratta.  

Quali sono i livelli energetici “massimi” riferibili ai terremoti antropogenici?

Prima di rispondere è necessario fare una premessa e introdurre un paio di concetti. La premessa riguarda le fonti di dati parametrici sui terremoti di natura antropica. Pur essendoci varie fonti, direi che quella più esaustiva, in termini di eventi principali, deriva dal progetto di ricerca internazionale HiQuake (Foulger et al, 2018) che censisce gli eventi indotti o supposti indotti in seguito a studi scientifici. I dati sono riportati in un sito, regolarmente aggiornato, cui si può accedere liberamente (http://inducedearthquakes.org/) e da cui si possono ricavare moltissime informazioni (nella bibliografia in fondo a questa intervista ho riportato i link diretti al database e alla pagina dei riferimenti bibliografici). Sono inclusi nel database, e dunque sono classificati come indotti, eventi per i quali anche un solo lavoro scientifico ipotizza la possibile origine antropica; dunque, per molti casi queste informazioni vanno prese con molta, sottolineo, molta prudenza. Gli autori di HiQuake non necessariamente aggiungono lavori successivi che reinterpretano in qualche modo gli eventi, quindi eventi ipotizzati come indotti magari da un solo lavoro iniziale mantengono la classificazione di “evento indotto” senza possibilità di remissione. Questo è il caso, per esempio, dei due terremoti avvenuti in Pianura Padana nella località di Caviaga nel 1951. Il lettore tenga ben presente queste considerazioni nel prosieguo.
Il primo concetto è che la sismicità antropogenica deriva nella maggior parte dei casi dal progressivo accumulo di certe quantità correlate alle attività svolte: per esempio, accumulo di acqua che si infiltra e diffonde nel sottosuolo, accumulo di stress meccanico dovuto all’estrazione di materiale, accumulo di stress poro-elastico dovuto all’iniezione o estrazione di gas, accumulo di stress termico dovuto all’iniezione di fluidi in rocce calde. Eccetto che per le esplosioni o l’impatto di grandi masse, lo sviluppo di sismicità è quindi progressivo e parte, di norma, con il manifestarsi di micro-sismicità, inizialmente localizzate nelle zone di origine dell’attività e che poi via via si diffonde.
Poi, riguardo ai livelli energetici della sismicità indotta, la prima cosa da dire è che, in genere, essa si manifesta inizialmente come microsismicità localizzata in un intorno abbastanza stretto dell’attività svolta. Poi, nel tempo, se non viene raggiunto uno stato di equilibrio e se l’accumulo dei fattori influenti prosegue, la sismicità può aumentare e diffondersi in volumi di roccia via via più ampi fino a interessare zone di faglia anche importanti. Perciò la magnitudo dipende spesso dai sistemi faglia intercettati più che dall’attività stessa —è ovvio che qui ci stiamo riferendo alla sismicità innescata—, ed è quindi difficile definire in modo univoco una magnitudo massima che può essere indotta da una data attività. Inoltre, dobbiamo sempre tenere presente che in molti casi non è certa, ma solo possibile, l’attribuzione di un terremoto ad una certa attività, quindi i valori di magnitudo massima possono essere certamente sovrastimati.
Tuttavia, seguendo i principi già esposti si riescono a trarre delle considerazioni di carattere generale (per dati di base e i valori di magnitudo massima mi riferirò a quanto riportato da HiQuake, mentre ulteriori considerazioni sono mie personali). Bacini idrici, estrazione di acque dal sottosuolo e produzione di olio e gas convenzionale sono le tre classi per cui HiQuake documenta le magnitudo massime più elevate, con valori che superano il 7.
I bacini idrici, soprattutto quelli profondi oltreché grandi, sono i principali candidati a generare terremoti forti, soprattutto nei primi anni di messa in esercizio. Numerosi terremoti di magnitudo superiore a 6 e in qualche caso anche a 7 sono attribuiti ai bacini idrici (ricordo, per esempio, il terremoto di M6.3 di Koyna (India) del 1967, due terremoti in Grecia, rispettivamente M6.2 di Kremasta nel 1966 e M6.5 di Polyphyto nel 1995; ma anche per il terremoto M7.9 del Sichuan (o Wenchuan), Cina, avvenuto nel 2008 si ipotizza —sottolineo il “si ipotizza”— una possibile origine antropica dovuta al bacino formato dalla diga Three Gorges. Un caso molto noto è quello del terremoto M5.7 di Assuan (Egitto) del 1981, che avvenne 15 anni dopo il riempimento dell’invaso delimitato dalla diga omonima.  Inoltre, si ipotizza che l’estrazione di acque sotterranee possa aver causato il terremoto M7.8 di Ghorka (Nepal) del 2015. HiQyake attribuisce circa 200 casi ai bacini idrici e circa una decina all’estrazione di acque sotterranee.
Per l’estrazione convenzionale di olio e gas, sono citati tre terremoti di magnitudo superiore a 7.  Tra questi troviamo il terremoto M7.3 di Gazli (Usbekistan) del 1976, ben noto in letteratura, avvenuto relativamente vicino a un giacimento gigante da cui veniva estratto gas, e per il quale vi sono lavori scientifici di orientamento diverso. Tuttavia, troviamo anche due eventi molto forti, quali il terremoto M7.5 avvenuto nel 1995 a Neftegorsk all’estremo est della Russia, e il terremoto M7.4 avvenuto a Izmit in Turchia nel 1999, che si ipotizza possano essere causati dall’uomo in base a singoli studi, con argomentazioni che, a mio parere, dovrebbero essere come minimo approfondite. Per gli altri casi documentati (più di un centinaio) le magnitudo si attestano da circa 6 in giù.
Per la geotermia, su una settantina di casi censiti si documentano due casi con magnitudo 6.6 (in Messico e Islanda), poi si scende dal 5.5 in giù. Come caso importante ricordiamo il recente terremoto M5.5 di Pohang (Corea del Sud) nel 2017.
Per le miniere sono documentati circa 300 casi, e le magnitudo si sgranano da magnitudo 6.1 (terremoto generato da una miniera di carbone a Bachatsky, Russia, nel 2013) in giù.
Più di 400 casi sono documentati per il fracking, con magnitudo massima di 5.2 per un evento avvenuto in Cina nel 2018. Tuttavia il database distingue la categoria di “fracking” e quella di “reiniezione di fluidi di scarto” di vario tipo, la quale include in maniera massiccia i fluidi di scarto derivanti dal fracking stesso. Sicché, la categoria di reiniezione di fluidi di scarto nel sottosuolo registra una ulteriore cinquantina di casi, con magnitudo massima 5.8, i cui casi più forti sono due terremoti ben noti in ambiente scientifico avvenuti entrambi in Oklahoma, rispettivamente a Pawnee nel 2016 e Prague nel 2011, entrambi dovuti ad attività di produzione di idrocarburi con la tecnica del fracking.
Infine menziono anche il caso del grattacielo Taipei 101 di Taiwan, responsabile di un terremoto 3.8 nel 2004.

Vuoi aggiungere qualche commento, a conclusione di questa riflessione?

Solo un breve commento per inquadrare correttamente quanto detto finora. Abbiamo visto che le attività umane possono causare o favorire terremoti, anche grossi se sono in grado di attivare faglie importanti. Tutto il discorso è stato focalizzato al fatto che è possibile che ciò accada. Vorrei tuttavia sottolineare che non è detto che ogni attività debba generare terremoti pericolosi o dannosi, anzi, sono numerosissime le attività svolte nel sottosuolo che non hanno portato a problemi e questo dipende molto da come queste sono gestite. È una valutazione di rischio e di azioni atte a ridurlo. Per fare un paragone è come se ci concentrassimo sugli incidenti stradali causati dagli autoveicoli. Gli incidenti ci sono e sono numerosi, ma non per questo è stato proibito l’uso dei veicoli. Invece sono state realizzate azioni atte a prevenire gli incidenti e a causare feriti o morti. Queste vanno dalla maggiore sicurezza dei veicoli stessi, a norme di guida più stringenti, alla formazione alla guida dei conducenti, all’educazione stradale dei cittadini, fino al miglioramento delle strade e alla realizzazione di segnalazioni adeguate. Ecco, il mio commento è solo per dire che abbiamo visto il problema della sismicità indotta da una certa angolatura e nella seconda parte avremo sicuramente la possibilità di vederlo in modo più completo.

Come anticipato, la seconda parte di questa conversazione sarà dedicata alla situazione italiana.

Bibliografia
Ellsworth, W. L. (2013). Injection-induced earthquakes, Science, 341(6142), 1225942.
Foulger, G. R., Wilson, M. P. , Gluyasa, J. G. , Julian, B. R. , Davies, R. J. (2018). Global review of human-induced earthquakes. Earth-Sci. Rev., 178, 438-514, https://doi.org/10.1016/j.earscirev.2017.07.008
Garcia-Fernandez M. (2015). CASTOR: Contesto scientifico e socio-economico. Workshop su “Sismicità indotta e innescata”, Roma 12 giugno 2015, Ministero dello Sviluppo Economico; https://www.youtube.com/watch?v=-tUApwW_V3k
HiQuake Database: http://inducedearthquakes.org/wp-content/uploads/2022/06/The_Human_Induced_Earthquake_Database_v11.16.22.xlsx
HiQuake Bibliography: http://inducedearthquakes.org/bibliography/

 

.

La nuova versione di DISS, il database delle sorgenti sismogenetiche (colloquio con Gianluca Valensise)

Gianluca Valensise, sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Gli abbiamo chiesto di commentare l’ultima versione, pubblicata di recente.

Gianluca, puoi spiegare ai non addetti ai lavori in che cosa consiste questo database?

Il Database of Individual Seismogenic Sources, o DISS, è uno strumento ideato per censire le sorgenti sismogenetiche, ovvero le faglie in grado di generare forti terremoti che esistono su uno specifico territorio, esplorandone le dimensioni, la geometria e il comportamento atteso, espresso dallo slip rate e dalla magnitudo degli eventi più forti che tali faglie possono generare. Presenta delle somiglianze con un catalogo/database della sismicità storica, nella misura in cui fornisce informazione georeferenziata sul verificarsi dei forti terremoti, potendo fungere da base di partenza per l’elaborazione di modelli di pericolosità sismica a varie scale spaziali e temporali; tuttavia se ne differenzia per due ragioni fondamentali. La prima è quella di essere principalmente basato su informazione geologica, geofisica e sismometrica, e in parte anche storica. La seconda, che ne rappresenta la vera forza, e quella di “guardare in avanti” in modo esplicito, proponendo dove potrebbero accadere i terremoti del futuro e con quali caratteristiche. Anche un catalogo storico può essere utilizzato con le stesse finalità, sulla base del principio-cardine della Geologia per cui è possibile “ribaltare sul futuro” gli eventi naturali che abbiamo visto nel passato; ma l’immagine del futuro che potrà derivare da quest’operazione è certamente meno nitida di quella che si può ottenere ipotizzando l’attivazione futura di sorgenti sismogenetiche delle quali, almeno nell’ambito di incertezze anche ampie, riteniamo di conoscere le caratteristiche fondamentali, come lunghezza, profondità, cinematica e magnitudo del terremoto più forte che possono generare.

Perché ‘sorgenti sismogenetiche’ e non semplicemente ‘faglie’?

Questo è un quesito importante, che richiede un flashback di circa mezzo secolo. Un’acquisizione relativamente recente nel campo delle Scienze della Terra – parliamo di qualcosa che ha iniziato ad emergere sostanzialmente sugli anni ’70 e gli anni ’80, quantomeno in Italia – è che le faglie che attraversano e dislocano la crosta terrestre sono fortemente gerarchizzate. Fino ad allora aveva prevalso una visione decisamente “piatta” del problema, in virtù della quale tutte le faglie indistintamente venivano considerate in grado di generare terremoti, purché attive; inoltre si tendeva a non cogliere la loro tridimensionalità, anche perché questa caratteristica si scontrava con l’incapacità del geologo di osservare il pianeta a profondità superiore a poche decine di metri, se non attraverso trivellazioni o attraverso l’esecuzione di profili sismici, usando tecnologie sviluppate a partire dal secondo dopoguerra dalla nascente industria degli idrocarburi. A quell’epoca i sismologi venivano soprattutto dal mondo della Fisica, dunque avevano una chiara percezione delle dimensioni e della tridimensionalità della sorgente di un forte terremoto ma non erano in grado di inquadrarla nella realtà geologica; per loro la faglia era al massimo un piano idealizzato nello spazio. Quella realtà ovviamente la maneggiavano bene i geologi, i quali però in quel momento del fenomeno sismico coglievano soprattutto gli effetti di scuotimento, ed eventualmente la loro variabilità legata alla geologia di superficie.

Il punto di svolta che ha riavvicinato queste due culture, un tempo quasi contrapposte, è rappresentato dal terremoto dell’Irpinia del 1980 e dalle successive ricerche sul terreno. Le ricerche sugli aspetti geologici di questo terremoto iniziarono subito ma finirono già nel 1981, quando io ero ancora studente; ripresero nel 1984, per merito di due studiosi inglesi, e furono poi proseguite da Daniela Pantosti e dal sottoscritto nel novembre 1986. Seguirono a ruota nuove ricerche sui terremoti del 1915 nella Marsica e del 1908 nello Stretto di Messina.
Alla fine degli anni ’80 iniziarono quindi ad essere indagati a fondo i terremoti più forti del secolo scorso, per i quali erano disponibili sia dati strumentali, sia osservazioni di terreno su come ciascun evento si inquadrava nell’evoluzione della geologia recente e del paesaggio. Apparve finalmente chiaro anche ai geologi italiani che un forte terremoto è generato da una grande faglia, lunga anche 50 km (in Italia); talora inaccessibile all’indagine diretta, ma che attraverso il suo movimento ripetuto nel tempo diventa l’attore principale dell’evoluzione della geologia e del paesaggio dell’area in cui si trova. L’attività di questo elemento di ordine zero, che noi chiamiamo sorgente sismogenetica e che non necessariamente appare in superficie (si parla allora di una faglia ‘cieca’), determina a sua volta la formazione di un complesso reticolo di faglie gerarchicamente subordinate nel volume di roccia in cui è immerso. Queste faglie minori, che per lo più non sono in grado di generare terremoti, rappresentano certamente una evidenza diretta dell’esistenza della sorgente profonda e sono certamente ‘attive’ in senso geologico; ma allo stesso tempo è difficile – se non impossibile – evincere da esse i caratteri della sorgente profonda.

Dunque in che cosa il DISS si differenzia dai database delle faglie attive?

La risposta discende direttamente da quanto ho appena asserito. Il DISS (si veda l’immagine, che mostra la pagina di ingresso alla consultazione della versione 3.3.0 del database, pubblicata a dicembre del 2021), si propone di censire con la massima accuratezza delle sorgenti sismogenetiche, ovvero delle strutture di ordine gerarchico principale che possono causare forti terremoti; anche se, come spesso accade, tali strutture sono cieche, ovvero prive di un’espressione superficiale diretta, cioè fragile, o sono addirittura in mare. Un’ampia sintesi di cosa è il DISS e di cosa contiene, seppure non molto aggiornata, è fornita in Basili et al. (2008). Ovviamente prima di censirle bisogna identificarle, queste sorgenti, verificando i rapporti di ciascuna con quelle adiacenti: un tema di ricerca che ancora oggi non viene insegnato in alcun ateneo, per quello che mi risulta.
A sua volta, un database di faglie attive – in Italia abbiamo ITHACA (ITaly HAzard from CApable faults), nato nel 2000 e gestito dall’ISPRA – tende a censire tutte le faglie che interessano un determinato territorio e che si sono mosse in tempi relativamente recenti (a seconda dei casi si ragiona sugli ultimi 10.000 anni, o sugli ultimi 40.000 anni, o anche su tempi più lunghi). Tuttavia, essendo basato quasi esclusivamente sull’evidenza di superficie, questo database difficilmente potrà contenere faglie cieche di qualunque ordine gerarchico, incluse quelle primarie, e tantomeno faglie a mare.

Schermata 2022-05-04 alle 22.53.42Si badi bene che dietro questo dualismo ci sono due visioni molto differenti della ricerca sulla sismogenesi. Il DISS “parte dai terremoti”, mentre ITHACA (così come tutte le compilazioni simili in giro per il mondo) “parte dalle faglie”. Dove c’è stato un forte terremoto ci deve essere per forza una grande sorgente sismogenetica, e questo spiega anche perché il DISS sia nato in qualche modo “imparentato” con il CFTI, il Catalogo dei Forti Terremoti in Italia, che non a caso è arrivato a piena maturazione fra il 1997 e il 2000. Sapendo che i grandi trend sismogenetici sono relativamente pochi e relativamente regolari, l’obiettivo iniziale del DISS era quello di ricostruire al meglio che fosse possibile questa “litania” di sorgenti sismogenetiche, messe in fila come un trenino. C’era un fatto certo, il terremoto – e questo implicava anche una sconfinata fiducia nelle capacità e nell’importanza della sismologia storica, che io ancora oggi difendo strenuamente – e c’era un esito incerto, ovvero la nostra capacità di “capire” la sorgente di quel terremoto. Viceversa, nella ricerca sulle faglie attive di superficie prima di tutto contano le faglie stesse, ovvero conta la capacità – mai scontata – di identificare importanti dislocazioni sul terreno e di certificarne “l’attività”; i terremoti semmai arrivano dopo, venendo “calati,” talvolta addirittura “forzati”, sulle strutture individuate, con la sola eccezione di quei pochissimi casi in cui siamo stati testimoni diretti sia dello scuotimento sismico, sia degli effetti geologici di superficie.

Un caso per tutti è quello del terremoto del 1693 nell’area iblea, che si trovò a essere assegnato alla cosiddetta scarpata ibleo-maltese, distante qualche decina di chilometri dall’area dei maggiori effetti di quell’evento, e che oggi in molti riteniamo essere in terraferma, probabilmente sotto la dorsale del Monte Lauro. Ritenevo – e a maggior ragione ritengo oggi ­– che quello fu un errore concettuale, basato sulla presunzione che tutte le faglie sismogenetiche abbiano un’espressione superficiale, e per di più, che siano ‘poche’. Ma era una presunzione, appunto, perché come già accennato, molte grandi faglie sismogenetiche sono parzialmente o totalmente cieche; ed erano gli stessi terremoti a mostrarci qualcosa che le faglie attive di superficie, evidentemente un sottoinsieme di tutte le faglie che attraversano la crosta terrestre, non avrebbero mai potuto insegnarci. Mi riferisco al terremoto del 1980 in Irpinia, generato da un faglia che arrivava in superficie ma che mai avrebbe potuto essere identificata a priori (in compenso ne venivano identificate numerose altre, che però quel 23 novembre 1980 non si mossero); al terremoto del 1908, un evento di magnitudo superiore a 7.0 generato da una faglia sorprendentemente ma evidentemente cieca; o anche al terremoto di San Giuliano di Puglia del 2002, generato da una faglia profonda 10-20 km che nessun geologo di terreno avrebbe mai potuto vedere e mappare. Le mie possono suonare come critiche sgradevoli, ma a 25 anni dall’inizio della vicenda che sta narrando credo sia giusto fare anche i conti con la storia, con i suoi successi e con gli eventuali errori; anche miei ovviamente.

Tornando al dualismo sorgenti vs. faglie attive (di superficie, è sottinteso), devo riconoscere che sto molto semplificando il tema, ma solo perché per me questa distinzione è chiarissima, e tuttavia, su questo dualismo negli ultimi 25 anni non sono mancati gli equivoci. Tra le faglie attive esistono in piccola misura anche elementi primari, ovvero elementi che rappresentano l’espressione diretta della fagliazione in profondità; ma resta vero che per la gran parte, le faglie attive sono in realtà faglie passive, che non è un gioco di parole ma indica il fatto che esse si mobilizzano esclusivamente se e quando si muove la sottostante sorgente sismogenetica, ovvero l’elemento strutturale di ordine gerarchico principale.
Fortunatamente questa mia affermazione si sta consolidando sempre di più negli ultimi anni, ma sono sicuro che esistono ancora molti geologi “duri e puri” che non ci si riconoscono, sia in Italia sia in molte altre regioni sismiche del globo. Su questo tema è utile mostrare una immagine tratta da Bonini et al. (2014), e che riguarda la sorgente del terremoto di L’Aquila del 2009:

Schermata 2022-05-04 alle 22.53.57

La figura mostra due sezioni geologiche attraverso la faglia che ha generato quel terremoto, indicata in rosso e ben delineata dalla sismicità. Nell’articolo si tentò di gerarchizzare tutte le faglie che hanno avuto un ruolo in quel forte terremoto: dalla principale, che è poi la sorgente sismogenetica, indicata come Categoria 1, a dei piani di sovrascorrimento antichi che hanno limitato la dimensione della faglia principale “confinandola” tra circa 3 e circa 10 km di profondità e limitando così la magnitudo del terremoto(Categoria 2), alle faglie di superficie generate ex-novo (Categoria 4) o riattivate passivamente in quanto pre-esistenti (Categoria 5) dal movimento della faglia profonda.
Come dicevo sopra e come la figura mostra chiaramente, ricostruire la geometria di una sorgente sismogenetica profonda a partire dei soli elementi fragili di superficie è come minimo fonte di gravi ambiguità, perché si rischia di mappare come elementi primari e indipendenti delle faglie che in effetti si muovono solo in corteo e come risposta al movimento di un elemento di ordine gerarchico superiore, e come massimo impossibile. Idealmente una sorgente sismogenetica viene ricostruita a partire da dati strumentali di varia natura, che possono essere poi confrontati con l’evidenza di terreno; ma per i terremoti di epoca pre-strumentale bisogna ricorrere a un mix ben strutturato di dati storici, geologici e geomorfologici, che illustrino una evoluzione estesa su un orizzonte relativamente lungo, per esempio un milione di anni, e di dati geofisici, se disponibili, come ad esempio le tante linee sismiche industriali realizzate in Italia nell’ambito della ricerca degli idrocarburi.
La conoscenza delle faglie attive e delle sorgenti sismogenetiche è utile per tante ragioni, ma la sua applicazione più ovvia è nella stima della pericolosità sismica. E anche qui per me la distinzione è semplice e diretta. Conoscere le sorgenti sismogenetiche aiuta in modo anche sostanziale a valutare la pericolosità sismica da scuotimento (ground shaking hazard), che include anche la pericolosità dovuta a frane e liquefazioni, ma dice poco sui possibili effetti geologici ‘fragili’ di superficie di un forte terremoto. Viceversa, conoscere la distribuzione delle faglie attive dice poco o nulla sulla sismogenesi, ma ci consente di valutare pericolosità sismica da fagliazione superficiale (surface faulting hazard), ovvero gli effetti ‘fragili’ appena citati, con implicazioni evidenti sul corretto uso del territorio nelle aree che si trovano al di sopra di una grande faglia sismogenetica; anche perché dallo scuotimento ci si può sempre difendere, almeno in linea di principio, mentre ben poco si può fare di fronte alla possibilità che le fondamenta di un’infrastruttura critica vengono brutalmente dislocate da una scarpata di faglia, anche di un metro o più.
Si tratta quindi di due strumenti non alternativi ma del tutto complementari, perché ciascuno porta informazioni che l’altro non è strutturalmente in grado di fornire; ed è per promuovere questo principio che io e i miei colleghi più vicini ci siamo molto adoperati negli ultimi anni. Anche la Protezione Civile nazionale è ben consapevole di questo dualismo, tanto da aver finanziato già da alcuni anni un progetto che coinvolge INGV e ISPRA e che punta a rendere culturalmente, scientificamente e informaticamente interoperabili i due database DISS e ITHACA; questo avvantaggerà molto tutti coloro che si avvicinano a questi due strumenti, non sempre cogliendone le differenze.

DISS è nato nel 2000. Puoi ripercorrere brevemente le tappe della sua evoluzione?

Nel luglio 2000 abbiamo presentato il prototipo del DISS, che veniva distribuito su un CD-ROM insieme a un software GIS in uso gratuito; ma in effetti la sperimentazione era iniziata nel 1996, addirittura nell’ambito di una tesi di laurea, collegata ad un progetto europeo in cui l’INGV (allora ancora ING) collaborava con l’ISMES di Bergamo. Nel luglio 2001, esattamente un anno dopo, abbiamo presentato la versione 2.0 del DISS, che era accompagnata da un volumetto degli Annali di Geofisica, da un poster e da un CD-ROM.
L’accoglienza fu entusiastica, ma si trattava ancora di uno strumento molto rudimentale, che conteneva solo quelle che oggi chiamiamo “sorgenti individuali”, ovvero delle rappresentazioni semplificate – ma pienamente tridimensionali – delle sorgenti di numerosi forti terremoti del passato e anche di qualche possibile terremoto futuro. In quella fase pionieristica giocavano un ruolo centrale le “sorgenti macrosismiche”, di cui dirò nel seguito. Negli anni successivi però si capì che bisognava dare più spazio alla Geologia, che era l’unico modo per anticipare i terremoti del futuro e rendere il DISS uno strumento prognostico realmente utilizzabile per analisi di pericolosità sismica, ovvero “completo”.

Fu così che nel 2005 vennero introdotte le “sorgenti composite”, che affiancavano informazione geologica a quella sismologica condensata nelle “sorgenti individuali”. Lo scopo era quello di identificare tutti i principali sistemi di faglia estesi, senza poterli però segmentare, come si dice nel nostro gergo, nelle singole porzioni di questi sistemi che generanno un singolo forte terremoto. La prospettiva dichiarata – ma forse solo con la pretesa ­– era quella di costruire un insieme completo rispetto a tutte le sorgenti sismogenetiche che esistono sul territorio italiano, così come i sismologi storici si sforzano di rendere i loro cataloghi completi almeno per un congruo numero di secoli.
Le “sorgenti composite” sono definite con minor dettaglio di quanto non lo siano le individuali, ma si spingono coraggiosamente in zone dove non abbiamo ancora visto grandi terremoto ma è legittimo ritenere se ne potranno verificare nel futuro.

Ne 2009 sono state poi introdotte le “sorgenti dibattute”, ovvero delle faglie attive proposte in letteratura ma che non riteniamo ancora mature per una trasformazione in sorgenti vere e proprie, e le “zone di subduzione”; non solo quella ionico-tirrenica, ma anche quella dell’Arco Egeo – un’area del Mediterraneo in grado di generare forti terremoti e maremoti che possono interessare anche l’Italia – e quella, in larga misura disattivata, che si estende al di sotto dell’Appennino centrale e settentrionale.

In oltre 20 anni di storia il DISS è cresciuto molto (invito tutti a vedere la piccola ma eloquente animazione in cima a questa pagina di sintesi e a verificare l’evoluzione delle diverse versioni), anche attraverso la pubblicazione di sintesi regionali a cura degli autori del DISS e grazie all’avvio di collaborazioni con altri istituti di ricerca, italiani e stranieri. Abbiamo esteso il numero delle sorgenti composite, che sono triplicate, passando da 65 nel 2005 a 197 nel 2021; il numero dei riferimenti bibliografici, più che raddoppiato nello stesso intervallo di tempo, da 1.720 a 4.057, e il numero delle immagini associate alla descrizioni delle sorgenti, da 550 a 1.192; tutte le novità sono state attentamente registrate in un file di “Accompanying Notes” e il contenuto di ogni versione è stato “congelato” con l’assegnazione di un DOI (tutte le versioni sono scaricabili on-line).

Dal 2000 a oggi sono “solo” aumentate le conoscenze o sono intervenuti anche cambiamenti di punti di vista?

Questa è una domanda a cui mi fa molto piacere rispondere perché contiene l’essenza dello sforzo fatto in questi ultimi 25 anni. Premetto che il DISS non è un database nel senso stretto, ovvero uno strumento che si limita ad accumulare e rappresentare un certo set di conoscenze; al contrario, è uno strumento i cui contenuti sono sempre approvati e sottoscritti dai componenti del gruppo di lavoro, i quali in qualche modo “ci mettono la faccia”. Qualunque scelta, qualunque affermazione è riconducibile a uno o più autori, i quali hanno proposto e portato all’attenzione di tutto il gruppo di lavoro  ipotesi scientifiche basate su proprie convinzioni o sull’analisi della letteratura. Ciò detto, si, l’orizzonte è molto cambiato rispetto ai primordi. Per sintetizzare al massimo, il DISS è partito come uno strumento basato da un lato su pochi forti terremoti del XX secolo, studiati o reinterpretati a partire da dati sismologici, geofisici, geodetici e storici, e dall’altro su un gran numero di terremoti storici, analizzati con la tecnica Boxer, non a caso pubblicata nel 1999. Boxer consentiva di estrarre una pseudo-sorgente sismica da un quadro macrosismico, purché ragionevolmente denso e ben distribuito geograficamente intorno all’area epicentrale. Questo modo di procedere era l’applicazione pedissequa del principio che ho enunciato, e cioè del fatto che è necessario partire dai terremoti e poi marciare a ritroso per studiare le faglie che li hanno generati; ma era anche il modo migliore per non impelagarsi nelle difficoltà intrinseche nella ricerca delle faglie attive, una volta stabilito che forse il 50% delle sorgenti dei grandi terremoti sono cieche, e al massimo causano in superficie un quadro deformativo che è difficile ricondurre alla sorgente primaria.
Con l’uscita della versione 3.0, nel 2005, c’è stata una prima rivoluzione. Abbiamo deciso di uscire da una fase pionieristica in cui era inevitabile utilizzare in maniera preponderante il dato storico e si è cercato di aprire una nuova fase in cui invece diventasse dominante la tipologia di dato che ci era più congeniale, ovvero quello geologico-sismotettonico. Come già accennato, nacquero le “sorgenti composite” e uscirono di scena  le sorgenti basate esclusivamente su informazioni macrosismiche, anche se il dato storico non spariva del tutto ma continuava essere uno degli elementi principali nella costruzione delle sorgenti, particolarmente quelli individuali; tuttavia, a differenza di quello che avveniva in precedenza, tutte le sorgenti riflettevano in misura variabile un’informazione geologica, geofisica, e nei casi più favorevoli, sismometrica e geodetica.
Questo cambio di passo è stato reso obbligato dalla necessità – o comunque dal desiderio – di iniziare a mappare anche sorgenti sismogenetiche in mare, sfruttando la grande mole di dati geofisici disponibili per i bacini italiani. Difficilmente queste sorgenti, che includono anche l’area di subduzione ionico-tirrenica, possono essere caratterizzate con riferimento alla sismicità, sia storica che strumentale, e solo occasionalmente sono disponibili evidenze dirette di fagliazione sul fondo marino.
Tra i cambiamenti di filosofia, per così dire, c’è stata anche la decisione di migliorare l’accessibilità dei dati, in un processo che ha seguito e sfruttato la rapida evoluzione degli strumenti GIS, e negli ultimi 15 anni anche web-GIS. La versione 3.3.0 è interoperabile con diverse banche-dati pertinenti, quali il CPTI-DBMI, il CFTI, la banca-dati strumentale dell’INGV denominata ISIDe, oltre che, come già detto, con ITHACA. La base geografica può essere scelta in un ventaglio di proposte e possono essere aggiunti i confini amministrativi ISTAT e misurate distanze, come se ci si trovasse in un vero GIS da desktop. È quindi possibile realizzare immagini di grande ricchezza, caratterizzando il rapporto tra sorgenti sismogenetiche, sismicità del passato e sismicità strumentale. Va infine ricordata la possibilità di consultare il DISS attraverso Google Earth, con tutte le opportunità che a sua volta questa piattaforma consente.
La circolazione dei dati proposti da DISS è stata resa più facile dalla possibilità di scaricarli in vari formati di scambio e dal fatto che gli stessi dati oggi si interfacciano in modo diretto con OpenQuake, il software per il calcolo della pericolosità sismica di base che si sta rapidamente imponendo a scala globale. La sfida più recente riguarda la possibilità di rendere il pubblico degli utenti del DISS più partecipe dell’evoluzione di questa banca-dati, anche attraverso una presenza capillare sui social networks; questo sia per renderne l’uso più diffuso, sia per sollecitare possibili contributi esterni utili a migliorare la definizione delle sorgenti esistenti o a introdurne delle nuove.

Quali sono gli utilizzi attuali di DISS?

Noi monitoriamo costantemente gli accessi al DISS e riceviamo diverse sollecitazioni dagli utenti, ma è arduo capire chi c’è dietro ogni indirizzo IP; al massimo possiamo fare delle inferenze. Sappiamo dai record bibliometrici che il DISS viene consultato e attivamente utilizzato per scopi di ricerca, prevalentemente da colleghi italiani ma anche da studiosi del resto del mondo. Vediamo dati e immagini tratti dal DISS in numerose relazioni tecniche, realizzate dalle amministrazioni o da singoli professionisti, ad esempio nel contesto di attività di microzonazione a diversi livelli o di attività di rivalutazione della pericolosità sismica di siti di specifico interesse, come le reti di trasporto e le dighe.
C’è poi l’uso più “nobile”, che è particolarmente delicato perché impegna la banca-dati nella sua interezza: mi riferisco alla elaborazione di modelli di pericolosità a scala regionale o nazionale, come nel caso del recente modello MPS19. Il DISS entra in questi modelli direttamente, attraverso le “sorgenti composite” e relativi ratei di attività (ottenuti dagli slip rates), ma anche in altri modi meno diretti, come nella definizione della magnitudo massima attesa nelle diverse aree, nella delineazione di zone a sismicità omogenea, o nella definizione di macroaree in cui effettuare scelte operative diverse  – ad esempio nella scelta delle relazioni di attenuazione più adatte a ciascuna area – e infine nella definizione delle aree da considerare di near-field.

L’idea di DISS è stata estesa all’Europa?

Certamente. Un primissimo tentativo data addirittura al periodo 1998-2000, quando le esperienze in corso in ambito DISS vennero estese al resto dell’Europa nel quadro del progetto comunitario Faust, di cui conserviamo gelosamente in vita il sito originario.
Tra il 2009 e il 2013 il DISS è stato adottato come una sorta di template per la costruzione di EDSF13 (oggi aggiornato in EFSM20) dal progetto comunitario SHARE , che aveva come obiettivo primario la realizzazione di un nuovo modello di pericolosità a scala europea. Le “sorgenti composite” sono state scelte come elemento di base di una mappatura da estendere a tutto il continente europeo, o almeno della sua porzione in cui esistono faglie in grado di generare forti terremoti. In quegli stessi anni era attivo il progetto EMME, un omologo di SHARE che si proponeva di realizzare un modello di pericolosità per la Turchia e il Medio Oriente, e il modello EDSF venne così armonizzato con l’imponente raccolta di faglie sismogenetiche che caratterizza quei territori.
ll modello DISS è stato poi mutuato – in alcuni casi con il relativo software – da alcuni altri singoli paesi europei. Citerò qui solo il caso del GreDaSS (Greek Database of Seismogenic Sources), realizzato dalle università di Ferrara e di Salonicco.

Esistono realizzazioni simili in altre parti del mondo?

Esistono alcune decine di compilazioni di “faglie attive”, “faglie sismogenetiche”, “lineamenti” e tutte le categorie intermedie; molte sono censite dal progetto GEM-Global Active Faults, che non a caso nelle sue fasi iniziali prese ad esempio proprio il DISS-EDSF (si veda il report del progetto GEM-Faulted Earth). Ma a onor del vero – e mi si perdoni l’immodestia – quasi nessuna di queste compilazioni offre tutta la ricchezza di informazione immagazzinata dal DISS, con la sola eccezione della California: una ricchezza dovuta soprattutto al fatto che l’Italia possiede una storia sismica ricchissima, una comunità delle Scienze della Terra molto attiva, e molti dati di esplorazione geofisica, ed è sede di terremoti che vengono registrati e studiati con grande attenzione. Anche altri paesi godono di queste prerogative, ma per ragioni che non so spiegarmi i loro modelli della sismogenesi basati su faglie attive sono ancora molto essenziali: valga per tutti l’esempio del Gia­ppone, dove ancora si fatica a trattare in modo naturale persino la terza dimensione delle faglie, quella verticale: cruciale per la pericolosità sismica, ma decisamente ostica per il geologo tradizionale.

È possibile valutare la “completezza” di DISS?

Temo che la risposta sia negativa, o comunque non semplice. È un fatto che l’introduzione delle “sorgenti composite” nel 2005 servisse proprio a “rincorrere” la completezza, ma è arduo dire a che punto siamo oggi. Un esercizio utile può essere quello di confrontare gli earthquake rupture forecasts (ERFs) proposti da Visini et al. (2021) nel quadro della elaborazione della MPS19, e ragionare sulle differenze tra il modello “DISS based” (MF1) e gli altri modelli non basati su sorgenti sismogenetiche (spero che qualcuno elabori queste differenze e ci scriva sopra un articolo, che sarebbe utilissimo). Un giorno lontano potremmo valutare questa completezza attraverso dati GPS, come hanno fatto Carafa et al. (2020) per una porzione dell’Appennino centrale, in via sperimentale.

What next?

What next…. Dal punto di vista dei contenuti è relativamente facile ipotizzare che continuerà incessante la ricerca di nuovi dati e di nuove sorgenti, ma che la struttura della banca-dati resterà abbastanza stabile per qualche anno almeno. Mi è più difficile rispondere per ciò che riguarda gli utilizzi del DISS: le possibili applicazioni sono numerose, ma ho spesso la sensazione che siamo stati più veloci noi a crearlo, nonostante che ormai siano passati esattamente 25 anni dai primi esperimenti, che non il mondo dei possibili utenti a sfruttarlo.

Normalmente in un modello di pericolosità a scala nazionale o regionale entrano tre set di dati di ingresso, che idealmente possono essere usati per costruire modelli della sismogenesi in teoria indipendenti, ma in pratica variamente intrecciati tra loro, come ho raccontato finora. Li descriverò brevemente in ordine crescente di complessità:

  • modelli a sismicità diffusa (smoothed seismicity), che si basano esclusivamente sui terremoti già accaduti, talora con piccoli correttivi di natura sismotettonica, e che letteralmente “spalmano” la sismicità già vista su zone più ampie. La produttività sismica è quindi strettamente proporzionale a quello che arriva dal catalogo sismico utilizzato;
  • modelli di zonazione sismogenetica, nei quali il territorio è suddiviso in aree indipendenti all’interno di ciascuna delle quali si assume che la sismicità abbia caratteristiche costanti, indipendentemente dal punto esatto che si considera, inclusa la produttività sismica; quello che si ottiene è un patchwork di zone più o meno grandi all’interno delle quali la sismicità è omogenea;
  • modelli di sorgente sismogenetica, ovvero modelli quali il DISS, nei quali la delineazione delle sorgenti è guidata anche dalla conoscenza dei forti terremoti del passato, ma la produttività sismica è calcolata in modo indipendente sulla base delle stime dei ratei di dislocazione delle faglie (gli slip rates). Quello che si ottiene è un andamento delle sismicità che segue fedelmente le strutture sismogenetiche riconosciute.

Il modello MF1, l’unico ad essere stato derivato esclusivamente dalle sorgenti del DISS, offre evidentemente una migliore risoluzione spaziale, come fosse un quadro disegnato con un pennello più sottile; consentendo da un lato di determinare con maggior accuratezza quale sarà lo scuotimento atteso al di sopra delle sorgenti, ovvero nel cosiddetto near-field (al netto di altri effetti di sorgente come la direttività e di eventuali e onnipresenti effetti di sito, ovviamente), dall’altro di non ‘portare pericolosità’ in zone in cui l’evidenza geologica, corroborata da quella storica e strumentale, non mostra la presenza di simili sorgenti sismogenetiche. Il DISS offre questa informazione: se non dovunque, in molti luoghi dell’Italia.

L’immagine qui di seguito (Fig. 3 di Meletti et al., 2021) mostra che da ognuno di questi modelli è possibile calcolare dei ratei di sismicità ai nodi di una griglia regolare e con un passo adeguato a non creare singolarità indesiderate (in genere qualche km).

Schermata 2022-05-04 alle 22.59.20

Le due immagini che seguono mostrano la differenza tra il modello di pericolosità sismica elaborato per la Turchia nel 1996 (sopra), basato essenzialmente su un modello di zonazione sismogenetica tradizionale, e il modello pubblicato nel 2018 (sotto), che fa tesoro delle conoscenze sulle sorgenti sismogenetiche raccolte grazie ai già citati progetti SHARE e EMME. Si percepisce distintamente la differenza di potere risolvente dei due modelli, particolarmente evidente nel settore occidentale del paese; e si percepisce anche l’aumento della ‘dinamica’ del modello del 2018, che mostra valori di accelerazioni alti a cavallo delle sorgenti sismogenetiche e valori bassi i quasi nulli lontano da esse.

Schermata 2022-05-04 alle 22.57.49

Da: https://www.researchgate.net/publication/270704802_Turkey%27s_grand_challenge_Disaster-proof_building_inventory_within_20_years/figures?lo=1

Schermata 2022-05-04 alle 22.57.57

Da: https://www.researchgate.net/profile/Abide-Asikoglu/publication/334094188/figure/fig1/AS:774777023262721@1561732645307/Seismic-hazard-map-of-Turkey-4.png

Fino ad oggi in Italia non siamo riusciti a cogliere del tutto questa opportunità, che potrebbe contribuire a rendere più accurato il modello di pericolosità sismica. I motivi veri non mi sono chiari, anche se qualcuno ritiene che DISS non sia sufficientemente maturo a questo scopo, senza peraltro spiegarlo in modo opportuno.

_______________

Chiudo ringraziandoti per l’opportunità che mi hai dato di riflettere e scrivere su questi 25 anni di storia, che peraltro ci hanno visto sempre ragionare in buona sintonia (anche se inizialmente eravamo su due fronti opposti, quali sono stati ING e GNDT fino al 2001, anno di nascita dell’INGV). Ringrazio anche tutti coloro che avranno avuto la pazienza di arrivare a leggere questi pensieri fino in fondo.

Early Warning: facciamo il punto (colloquio con Marco Olivieri)

Periodicamente i media riportano notizie che riguardano il cosiddetto “Early Warning”, proponendolo come un sistema di allarme sismico (per inciso, il termine viene usato in una casistica estesa, non solamente sismica, dalle frane alle inondazioni ai movimenti di borsa ecc.).
In realtà l’Early Warning “sismico” non rappresenta un allarme pre-terremoto in senso stretto, ma un “avviso” che stanno per arrivare onde sismiche potenzialmente distruttive.
Per capirci: a molti di voi sarà capitato di sentire un terremoto, e magari di riuscire a distinguere l’arrivo delle onde compressionali, dette P, dall’effetto prevalentemente sussultorio, e in seguito le onde trasversali, dette S, dall’effetto prevalentemente ondulatorio. Ecco, se ciascuno di noi fosse in grado di discernere con precisione l’arrivo delle onde P potrebbe disporre di un certo numero di secondi per prepararsi all’arrivo delle onde S.
L’Early Warning rappresenta un perfezionamento tecnologico di questo principio semplice e geniale: in sostanza è il terremoto stesso che, una volta avvenuto, “avvisa” – mediante le onde P, le più veloci – che stanno per arrivare le onde S e quelle superficiali, più lente ma distruttive.
Più sotto riportiamo alcuni riferimenti ad articoli “divulgativi” italiani; uno di questi è addirittura firmato dall’attuale Ministro per la Ricerca, Gaetano Manfredi.
Per cercare di fare chiarezza ne discutiamo con Marco Olivieri, ricercatore all’Istituto Nazionale di Geofisica e Vulcanologia, competente su queste tematiche. 

Ci spieghi in modo più preciso su che principio si basa l’Early Warning sismico?

Un sistema di Early Warning si basa su 2 ipotesi:

  • bastano i tempi di arrivo delle onde P registrate a poche stazioni intorno all’epicentro per localizzare accuratamente il terremoto.
  • bastano pochi secondi di forma d’onda P per determinare la magnitudo. 

La seconda ipotesi è quella più complessa, presume che già nei primi istanti di propagazione della rottura sulla faglia sia contenuta l’informazione sulla completa rottura della faglia che può non essere ancora completata.
Se il territorio è monitorato da una densa rete di stazioni sismiche possiamo avere una stima dei parametri di sorgente entro pochi secondi, meno di 10. In 10 secondi le onde S hanno viaggiato per circa 40 km.
Stimati questi parametri di sorgente (localizzazione, profondità e magnitudo), un sistema di Early Warning è in grado di predire lo scuotimento atteso (in termini di intensità o accelerazione) nell’area non ancora investita dalle onde S e fornire questo dato, con una realistica barra di errore o con una probabilità associata, alla popolazione o a chi può e deve prendere decisioni e agire (o non agire).
Vista la descrizione appena fatta, la traduzione che in italiano rende meglio l’idea di cosa sia un Early Warning è “avviso in anticipo”, cioè che arriva prima delle onde distruttive.

La partita si gioca dunque sul fattore tempo?

Si, oggi abbiamo la capacità tecnologica e le competenze scientifiche per conoscere quanto forte sarà l’effetto di un terremoto prima che le onde S investano una più o meno vasta area intorno all’epicentro e, per forti terremoti, prima ancora che la rottura della faglia sia completata.
Per schematizzare la questione, un sistema di Early Warning funziona così:

  1. al tempo ZERO succede un terremoto e le onde P (veloci ma non distruttive) e le onde S (lente ma potenzialmente distruttive) si mettono in viaggio;
  2. Dopo T secondi le onde P hanno raggiunto le 4 stazioni sismiche più vicine e si fa la prima localizzazione (questo tempo variabile dipende dalla densità della rete intorno all’epicentro);
  3. Dopo circa altri 4 secondi abbiamo la stima della magnitudo;
  4. Dopo circa un ulteriore secondo abbiamo una predizione dello scuotimento atteso per tutti i luoghi del territorio in cui sarà risentito il terremoto.
  5. Dopo un altro secondo l’allerta verrà ricevuto da tutte le realtà o persone interessate.

Nel frattempo, le onde S avranno raggiunto una determinata area, che viene definita “zona d’ombra” (“shadow zone” in inglese) in quanto all’interno di essa l’allerta non sarà efficace: lo sarà invece al di fuori di detta area.
Questo ci ricorda anche che un Early Warning sismico non è pensato per l’area più vicina all’epicentro, quello che in termini giornalistici viene chiamato “cratere”. Lì la difesa di infrastrutture e persone può essere fatta solo costruendo e ristrutturando a regola d’arte secondo le norme antisismiche e prendendo le precauzioni opportune.
Oltre al fattore tempo c’è un altro fattore cruciale per l’utilizzo di un sistema di Early Warning ed è la comunicazione tra chi produce un’allerta e chi lo deve utilizzare. Perché l’allarme non sia vano deve essere affidabile (pochi o nessun falso sia positivo che negativo) e una accurata barra di errore che permetta all’utente di usarlo in modo automatico, quantificando il rischio di fare e di non fare in funzione dei parametri forniti dal sistema.

Da quando la ricerca ha cominciato a implementare questa tecnologia? In quali paesi in particolare?

Direi da dopo il terremoto del Messico del 1985, anche se in quel caso si puntava solo a fornire un Early Warning a Città del Messico [1]. Parallelamente, la diffusione dei sismometri a larga banda e della trasmissione dei dati a larga banda in tempo reale ha permesso, all’inizio degli anni duemila, la concettualizzazione di un dispositivo di Early Warning Sismico in Giappone e in California. Penso alle idee di Yutaka Nakamura ed il suo Uredas [2] dedicato alle Ferrovie Giapponesi con lo scopo di bloccare i “bullet trains” ed a quelle di Richard Allen e Hiroo Kanamori con ElarmS [3]. Da questi lavori molti sismologi hanno preso ispirazione per capire se e come un sistema di Early Warning possa funzionare in Italia, a Taiwan, in Romania o in Turchia. Permettimi di ricordare qui il ruolo di Paolo Gasparini che tra il 2006 e il 2009 portò, con un progetto europeo chiamato SAFER, i migliori esperti mondiali a dialogare con i sismologi europei per capire un po’ meglio le cose.

In quali paesi vi sono delle applicazioni “ufficiali”?

In Messico il sistema SAS gestito dal CIRES (Centro de Instrumentación y Registro Sísmico, A. C.)[4] è operativo dall’inizio degli anni ‘90. Detto a grandi linee, il sistema mira ad allertare la popolazione di Città del Messico nel caso di un forte terremoto sulla costa (sulla faglia del terremoto del 1985). Una rete di stazioni sismiche è stata installata sulla costa, in grado di registrare il terremoto pochi secondi dopo la sua occorrenza e disseminare l’allerta alcune decine di secondi prima che le onde S arrivino nella capitale. Se non ricordo male la maggior parte delle famiglie tiene una radio FM sintonizzata su un canale specifico ed a volume alto. Questo canale è sempre muto a parte quando un forte terremoto sulla costa genera un’allerta. 

Da poco tempo è attivo ShakeAlert [5] in California, da USGS (Il Servizio Geologico degli Stati Uniti) in sinergia con un consorzio di Stati ed Università tra cui UCBerkeley e Caltech. Questo è uno strumento molto più sofisticato, i terremoti sono attesi anche nelle zone densamente popolate (la Faglia di San Andreas interessa San Francisco e Los Angeles) e il sistema qui produce una mappa di scuotimento predittiva dando per ciascun punto una accelerazione attesa ed una probabilità. La metropolitana della Bay Area è completamente automatizzata e, interfacciandosi con i dati di ShakeAlert, il sistema in automatico decide quali metropolitane fermare, quali far viaggiare e quali deviare. Però parliamo di un paese, la California, con una consapevolezza enorme. Penso solo al fatto che esiste una banca dati informatizzata con il massimo scuotimento che può sopportare ciascun ponte della città. 

Riassumendo, un sistema di Early Warning è operativo a scala nazionale in Giappone, Taiwan e California; a scala regionale o locale in Messico, Romania, British Columbia (Canada).

Ci puoi segnalare dei casi positivi di applicazione?

Si, un esempio è il terremoto del 11 Marzo del 2011, il terremoto “di Fukushima” in Giappone. Fu un terremoto di magnitudo 9.0 con zona sorgente a circa 150 km dalla costa. il sistema di Early Warning giapponese, in funzione dal 2007, fu in grado di disseminare una allerta con 10-30 secondi di anticipo rispetto all’arrivo del forte scuotimento. In Giappone l’allerta automatica viene inviata a cellulari, tv e radio ma anche usata per fermare treni, ascensori o impianti industriali [6]

Un altro esempio, più recente, è la sequenza di terremoti di Ridgecrest, California. Qui ShakeAlert è stato in grado di stimare i parametri di sorgente in 8 secondi lasciando circa 48 secondi utili al centro di Los Angeles [7]. In questo caso però l’allerta sui cellulari che a Los Angeles utilizzano la app non sono stati allertati poiché l’intensità predetta era al di sotto della soglia predefinita.

Che cosa c’è di particolare in quanto è stato diffuso dai media recentemente?

La notizia, da quel che capisco leggendo l’articolo di The Verge[1], è che i telefoni Android avranno a disposizione la app “shakealert” che riceve le allerte del sistema di Early Warning californiano. Nei progetti, o nelle ambizioni di Google, che come sempre pensa in grande, c’è l’idea di usare gli accelerometri dei milioni di cellulari nel mondo per integrare i dati che attualmente sono solo quelli della rete sismica gestita dalla collaborazione tra USGS, Caltech e UCBerkeley, e permettere quindi una estensione del servizio di Early Warning potenzialmente a tutto il mondo. Pertanto al momento la notizia è positiva solo per chi vive in una regione dotata di Early Warning e che lo dissemina alla popolazione. 

Ci sono studi di questo tipo in corso in Italia ?

Sì, ci sono diversi gruppi e ricercatori che lavorano su questi temi da tempo, in particolare all’Università di Napoli guidati dal Aldo Zollo e all’Istituto Nazionale di Geofisica e Vulcanologia. Recentemente è uscito anche un lavoro scritto da ricercatori dell’Istituto Nazionale di Oceanografia e di Geofisica Sperimentale (Trieste) e questo fa ben sperare. A questo mi preme aggiungere che, essendo la Terra una, come pure sono unici sia il meccanismo di nucleazione dei terremoti che la teoria di propagazione delle onde sismiche, la sismologia e con essa lo studio dei sistemi di Early Warning Sismico non conosce i confini nazionali.

Date le caratteristiche dei terremoti italiani, quali possono essere le applicazioni da noi?

Per rispondere alla domanda, penso a due cose che influenzano l’applicabilità di un Early Warning in Italia. La prima è che l’Italia è un paese densamente antropizzato, in cui i terremoti spesso hanno epicentro ed area di maggior scuotimento nei pressi di città e paesi. La seconda è che per la maggior parte del territorio italiano la massima magnitudo attesa, o magnitudo caratteristica che dir si voglia, è grande ma raramente supera la magnitudo 7-7.5. La combinazione delle due cose, oltre al fatto che il tempo di ritorno dei terremoti in Italia è lungo (edifici ed infrastrutture vecchie anche di secoli nei centri urbani…) fa sì che la zona di danneggiamento, soprattutto nel caso di terremoti di magnitudo moderata, sia piccola e vicina all’epicentro, spesso per buona parte all’interno della “shadow zone”. Viceversa le aree di risentimento, ma senza danno, o con danni minori, spesso sono ampie.

Ho divagato. Dopo la lunga premessa rispondo: l’applicabilità in Italia è la stessa che negli altri paesi soggetti a forti terremoti: fermare i treni diretti in zona epicentrale e non fermarli quando lo scuotimento predetto non implica un danno alle strutture. Per le scuole in cui, posto che siano state costruite o adeguate sismicamente a regola d’arte, un’allerta preventiva potrebbe fornire al docente l’informazione necessaria a decidere se evacuare la classe o tranquillizzare gli studenti. Per i grandi impianti industriali, in cui grazie ad un’allerta preventiva e accurata, si potrebbe decidere se applicare un rapido spegnimento o proseguire la produzione, in funzione dei rischi e dei costi connessi alle due cose. Per i singoli cittadini che, opportunamente informati potrebbero avere la risposta a quella classica domanda “a posteriori” che si e ci pongono: ho sentito il terremoto, cosa devo fare?

Per entrare in dettaglio, In Italia quel tempo T di cui parlavamo più sopra è in media di circa 5 secondi, quindi è ragionevole pensare che un’allerta di Early Warning possa essere disponibile 11-12 secondi dopo il tempo ZERO. Da uno studio in corso sui terremoti italiani del passato posso dire che questo renderebbe inutile un sistema di Early Warning per quasi tutte (meno del 10%) quelle località in cui l’intensità è stata pari a 9 o superiore, ovvero quelle pesantemente danneggiate. Ma questo rapporto cambia enormemente per tutti quei luoghi in cui abbiamo una intensità pari a 7, che significa danni comunque consistenti. In questo caso infatti circa il 30% del territorio con intensità pari a 7 riceverebbe l’allerta prima dell’arrivo delle onde S.
Quanto prima? Posto che per fare una delle cose elencate sopra basta veramente poco, forse meno di un secondo, nel 70% dei casi, se ci troviamo fuori dalla zona d’ombra per il terremoto che subiremo con intensità pari a 7 o superiore avremo più di 2 secondi tra l’allerta e l’arrivo delle S.

E’ in circolazione una app per iPhone ed Android che si chiama Rilevatore Terremoto. Svolge un servizio, in parte o in toto, simile ad un sistema di Early Warning?

Non ne conosco i dettagli, e non l’ho installata sul mio telefono. Ma leggendo la descrizione e sentendo i commenti di un collega che la usa, questa app sembra sfruttare tre tipi di informazioni: le rilevazioni dell’accelerometro interno al telefono, le informazioni fornite da chi, sentendo un terremoto o allertato dalla app stessa, clicca sulla app indicando se il terremoto sia stato leggero, forte o molto forte e le localizzazioni ufficiali rilasciate da diverse agenzie nazionali ed internazionali. Combinando queste informazioni e geolocalizzando l’utente, la app è in grado di funzionare come un sistema di Early Warning informando l’utente che si trovi al di fuori della zona d’ombra. E’ un bell’esempio di quella che si chiama “citizen science” in cui la popolazione contribuisce allo studio di un argomento. Non saprei giudicare questa app in termini di robustezza ed accuratezza che è la principale preoccupazione di chi sviluppa sistemi di Early Warning, ma l’autore, Francesco Finazzi, ha pubblicato recentemente un articolo scientifico su questo [9].

La grande curiosità e la grande aspettativa con cui vengono accolte le notizie sull’ Early Warning  in Italia e più in generale le notizie sulla possibilità di previsione, anche solo statistica, dei terremoti, lascia trapelare una scarsa fiducia, da parte dei cittadini, nell’approccio di prevenzione dei danni alle costruzioni. Non dovrebbe essere così, giusto?

Penso che sia giusto che ci siano aspettative rispetto alle innovazioni e al miglioramento che esse possono portare. Il problema come sempre è spiegare bene le cose e aver voglia di capire a cosa servono. Facendo un esempio legato alla vita di tutti i giorni: immagino che qualcuno abbia pensato che le informazioni di Isoradio in autostrada possano servire per andare serenamente più forte o per non usare la cintura. E così ci sarà qualcuno che pensa che le previsioni, o gli Early Warning, servano a poter continuare a costruire case scadenti. Ma penso anche che quelle persone lo avrebbero fatto anche senza le innovazioni a cui la comunità scientifica sta lavorando. 

Early Warning, prevenzione e previsione sono tre strumenti di difesa dai terremoti complementari. Una casa non potrà mai smettere di essere costruita a regola d’arte e in modo da resistere ai terremoti, ma io credo che ci sarà un giorno in cui sapremo che per quella data è previsto un terremoto, pochi secondi prima riceveremo un’allerta che ci avvisa che effettivamente le onde S stanno arrivando e ci faranno ballare forte e l’unica azione che dovremo fare sarà stringere un po’ più forte il calice di vino che stiamo sorseggiando per ingannare l’attesa nel salotto della nostra casa perfettamente antisismica.

 

[1] http://cires.mx/docs_info/CIRES_033.pdf

https://en.wikipedia.org/wiki/Mexican_Seismic_Alert_System

[2] https://link.springer.com/chapter/10.1007/978-3-540-72241-0_13

https://en.wikipedia.org/wiki/Earthquake_Early_Warning_(Japan)

[3] https://www.shakealert.org/eew-research/elarms-2/

https://science.sciencemag.org/content/300/5620/786/tab-pdf

[4] http://www.cires.org.mx/

[5] https://www.shakealert.org/

[6] https://spectrum.ieee.org/tech-talk/computing/networks/japans-earthquake-earlywarning-system-worked

[7] https://www.scec.org/publication/9607

[8] https://www.theverge.com/2020/8/11/21362370/android-earthquake-detection-seismometer-epicenter-shakealert-google?scrolla=5eb6d68b7fedc32c19ef33b4&amp;utm_

[9] https://www.frontiersin.org/articles/10.3389/feart.2020.00243/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Earth_Science&id=536741

https://www.ingenio-web.it/1589-early-warning-uno-strumento-per-la-riduzione-del-rischio-sismico

https://www.scienzainrete.it/articolo/ma-l%E2%80%99early-warning-dei-terremoti-%C3%A8-cosa-seria/aldo-zollo/2015-01-26

Gravimoti: la discussione continua (Patrizio Petricca e Giuseppe De Natale)

Patrizio Petricca (Università Sapienza, Roma). Caro Gianluca, grazie per questa tua intervista che alimenta la discussione alla base della ricerca scientifica, importante sia tramite canali ufficiali (le riviste peer-reviewed) che, in qualche modo, su blog come questo. Condivido ciò che dice nel suo commento Giuseppe De Natale, che riprende un concetto di Popper, ovvero che la Scienza progredisce attraverso nuove proposte che spingono la comunità scientifica a chiarire meglio i concetti ed a trovare precisamente gli errori. Vedo con soddisfazione che l’argomento genera interesse e spero che in futuro il modello venga confutato o confermato da nuovi studi.

Il modello dei graviquakes, che tratto come autore o coautore in vari lavori, è spesso criticato sulla base del meccanismo di doppia coppia, che è un sistema di rappresentazione di forze non in contrasto con quanto previsto dal collasso gravitativo. Questo punto viene spesso sollevato e utilizzato come argomento a sfavore con “darebbe osservazioni diverse dal modello di doppia coppia”. Sarebbe interessante capire quali siano le differenze nelle osservazioni (sismologiche) di uno stesso risultato (scivolamento del tetto lungo la faglia) controllato però da due meccanismi differenti (accumulo di energia elastica o gravitazionale).

Non posso non notare, nel tuo post e nei commenti, una certa confusione tra la critica al modello generale e a uno dei suoi osservabili (o meglio al metodo utilizzato per evidenziarlo). Nell’articolo di Segall e Heimisson (2019), in effetti, si critica il metodo utilizzato per il calcolo del “volume unbalance” e si dimostra che per generare i valori di sollevamento/subsidenza descritti in Bignami et al. (2019) è sufficiente utilizzare una sorgente puntiforme (anche se con una discrepanza nei risultati del 20% che non è un valore trascurabile). Mi astengo dal commentare il metodo DinSAR poichè non conosco la materia. Il punto è che il risultato di Segall e Heimisson non confuta affatto il “volume unbalance” ma lo descrive a partire da un’ipotesi differente. Quanto discusso in quel lavoro si concentra su uno degli osservabili che il modello dei graviquakes cerca di giustificare teoricamente. Di conseguenza non vedo come il loro risultato possa perdipiù confutare (come confermi anche tu in un commento successivo) il modello generale. Il rasoio di Occam si applica quindi al volume unbalance, al metodo utilizzato per calcolarlo o al modello generale? Sono cose diverse.

Il mio commento non voleva però entrare nel merito del modello dei “graviquakes” (in quanto gia fatto da Carlo Doglioni nel post di risposta a questo tuo articolo). Piuttosto vorrei riportare, brevemente, alcune considerazioni che a me inducono a ragionare su un modello del ciclo sismico diverso (qualunque esso sia) e dubitare del convenzionale.

La teoria dell’elastic dislocation. Tu dici che, per descrivere il campo di deformazione generato da un forte terremoto questa teoria è comunemente accettata. Nel commento di De Natale leggo “La teoria della dislocazione elastica è estremamente generale, estremamente elegante e, in senso fisico-matematico, estremamente semplice. Le osservazioni fondamentali sono estremamente d’accordo con la teoria”. Quindi mi domando, la teoria della dislocazione elastica è il modello ultimo e abbiamo l’unico obiettivo di migliorarla e raffinarla? Approfondendo la letteratura al riguardo si hanno impressioni diverse. Ad esempio questa teoria è comunemente “utilizzata” (e non accettata) perchè, questo si, è “semplice”. La comunità dei ricercatori che si occupa di hazard sismico ne è consapevole, ed emerge chiaramente sia nei numerosi lavori che la criticano sia in quelli, altrettanto numerosi, che la utilizzano. Le osservazioni fondamentali non sono “estremamente” d’accordo con la teoria; tuttaltro. Questo si può leggere e approfondire in numerosi articoli scientifici (si vedano ad esempio Stein et al., 2012; Wyss, 2015; Geller et al., 2016). Gli osservabili non sono così in accordo con quanto previsto dal modello (rimando ancora alla risposta di Doglioni). Le difese appassionate di tale modello (elastico) non mancano anche se il suo utilizzo ha portato in passato a numerosi errori di previsione.

Ad ogni modo il mio commento a tutta la discussione è che, a prescindere se i gravimoti rappresentino o meno un nuovo paradigma, bisogna ammettere che nella letteratura si percepisce dell’incertezza sull’argomento, che porta a farsi domande e forse nasconde la necessità di una teoria alternativa. Ben venga il dibattito.

Bignami, C., Valerio, E., Carminati, E., Doglioni, C. and Tizzani, P. (2019). Volume unbalance on the 2016 Amatrice – Norcia (central Italy) seismic sequence and insights on normal fault earthquake mechanism. Scientific Reports, 9:4250.

Geller, R.J., Mulargia, F. and Stark., P.B. (2016). Why we need a new paradigm of earthquake occurrence. Subduction dynamics: From mantle flow to mega disasters, geophysical monograph 211, 183-191.

Segall P. and Heimisson, H.R. (2019). On the Integrated Surface Uplift for Dip-Slip Faults. Bulletin of the Seismological Society of America, 109 (6): 2738-2740.

Stein, S., Geller, R.J. and Liu, M. (2012). Why earthquake hazard maps often fail and what to do about it. Tectonophysics, 562, 1-25.

Wyss, M. (2015). Testing the basic assumption for probabilistic seismic‐hazard assessment: 11 failures. Seismological Research Letters, 86(5), 1405-1411.

Giuseppe De Natale (INGV, Napoli). Entro di nuovo nella discussione per commentare alcune affermazioni di Patrizio Petricca, sulle quali mi sento in dovere di fare delle precisazioni; che riguardano di fatto non la Sismologia ma il metodo scientifico.

So che sembra strano dover discutere di argomenti basilari che nella ricerca scientifica dovrebbero essere dati per scontati. Sembra però che negli ultimi anni il proliferare delle riviste scientifiche, e la stessa ossessione per le pubblicazioni come valore ‘metrico’ (vedi H-index), e non per il valore intrinseco di ciò che affermano, abbia portato spesso a dimenticare i concetti di base; che quindi vorrei qui ribadire.

Innanzitutto, non era mia intenzione, nel commento al post di Gianluca Valensise, scomodare Popper. Popper è nato nel 1902; le basi del metodo scientifico risalgono a molto prima (Occam è del 1300, Bacone del 1200; Galileo, pietra miliare del metodo scientifico, del 1600). La Scienza va avanti così, da sempre. E dunque voglio spiegare meglio, visto che non sembra essere stato ben compreso, il senso del mio commento.
La teoria della dislocazione elastica è una elaborazione fisico-matematica assolutamente universale, validata da tutte le osservazioni di qualunque tipo su qualsiasi materiale (anche quelli recenti di sintesi, polimeri, ecc.) che, entro certi limiti, abbia un comportamento molto vicino a quello di un solido elastico ‘ideale’. Poi, la teoria della dislocazione elastica viene applicata ‘anche’ per spiegare l’origine dei terremoti; ed anche qui non c’è mai stata alcuna ‘forte discrepanza’ che non possa essere motivata dalla non piena corrispondenza tra i materiali rocciosi dell’interno della Terra e i mezzi elastici ‘ideali’; colpisce semmai, come dicevo, l’incredibile corrispondenza con quanto realmente osservato anche in mezzi estremamente complessi.

Il senso del mio commento, necessariamente dai toni sfumati per il dovere di presupporre che certi concetti di base siano ben noti a tutti coloro che si occupano di ricerca, voleva puntualizzare appunto che non si può confutare una teoria ‘universale’, applicabile in innumerevoli ambiti, sulla base di ipotetiche piccole ‘deviazioni’, la cui significatività è tutta da dimostrare (e finora assolutamente indimostrata), che esisterebbero in un ambito estremamente ristretto (i terremoti di faglia normale). D’altra parte, il mio commento nell’ultima frase aggiungeva un’altra cosa che evidentemente non è stata compresa. Ossia che, a parte il ‘volume unbalance’ che, come si è detto, non è realmente misurabile con la precisione affermata, ma anche se lo fosse sarebbe ‘dimostrabilmente’ in accordo con i modelli di dislocazione elastica, non c’è alcuna osservazione fondamentale che il modello ‘graviquakes’ riesca a spiegare e la teoria della dislocazione elastica no.

D’altra parte, quando si afferma appunto (qualitativamente peraltro) che il modello ‘graviquakes’ produrrebbe dati sismologici equivalenti a quelli previsti dalla teoria della dislocazione elastica (sorvolo sul fatto che secondo me non è vero, nel senso che il modello ‘graviquakes’ non spiegherebbe molte osservazioni fondamentali), si sta esattamente dicendo che non ci sono implicazioni sostanzialmente differenti e tali da giustificare l’abbandono di una teoria universalmente validata ‘anche’ per i terremoti di faglia normale. E quindi, quali sarebbero i motivi per abbandonare un modello ancorato ad una teoria ‘universalmente riconosciuta’ in favore di qualcosa di diverso, valido solo in un ambito molto locale, che produrrebbe gli stessi osservabili?

Stavolta cito veramente Popper, e dico che un modello non ‘falsificabile’ non ha molto senso. E lo posso dire anche molto più semplicemente, come probabilmente lo spiegavano i filosofi del ‘200: affermare che la pioggia non è prodotta dalla condensazione del vapore acqueo che ricade dalle nuvole, ma il risultato del pianto di tanti angioletti invisibili e giammai rilevabili in alcun modo, non ha evidentemente senso. Questo discorso, ovviamente, non va assolutamente confuso con altri: tipo ‘previsione dei terremoti’, ‘ciclo sismico’, ‘determinazione della pericolosità sismica’.

Questi problemi, che nel post di Petricca sembrerebbero l’argomento principale di confutazione della teoria della dislocazione elastica (e difatti quasi tutta la letteratura portata ad esempio verte su tali questioni), sono di tutt’altra natura. Rappresentano infatti il nostro limite nella conoscenza e nella trattazione di fenomeni estremamente complessi come l’accumulo e la dissipazione di sforzi tettonici; oppure, nel caso delle stime di pericolosità, rappresentano scelte ‘convenzionali’ (ossia dettate dall’utilità e dagli scopi) per difenderci dai danni dei terremoti. Ma questi, che sono ‘modelli’ (empirici) nel senso stretto della definizione, non hanno nulla a che fare con la validità o meno della teoria della dislocazione elastica, che deriva invece dallo sviluppo di equazioni che descrivono il comportamento fondamentale dei solidi; né tantomeno possono metterla in discussione.

Che poi anch’io abbia letto su alcuni quotidiani (ed ascoltato personalmente in alcuni seminari, non senza essermi alzato per puntualizzare il mio dissenso scientifico), dopo alcuni forti terremoti recenti, che i massimi danni avverrebbero nella zona di abbassamento prodotta dalle faglie normali per effetti ‘gravitativi’, non voglio neanche commentarlo; da Sismologo (e da persona che si occupa di Scienza) preferisco dimenticarlo.
Spero stavolta di essermi espresso in maniera meno ‘sfumata’, in modo comprensibile a tutti.

Gravimoti: altri commenti (Giuseppe De Natale e Roberto Devoti)

E’ chiaro che non è possibile in questa sede trattare rigorosamente di Sismologia, che è una disciplina complessa e richiede una trattazione matematica molto avanzata. Potrei certamente commentare alcuni concetti espressi da Doglioni: ad esempio, le sue affermazioni sul fatto che in profondità non esistano sforzi tensionali ‘assoluti’ non aggiungono nulla al problema, in quanto ciò che conta nel modello di terremoto a doppia coppia sono gli sforzi deviatorici. E certamente il meccanismo di ‘collasso gravitativo’, in termini di meccanismo focale, darebbe osservazioni sismiche significativamente diverse dal modello a doppia coppia.Ci sarebbe anche da discutere sul valore ‘assoluto’ dei dati positivi e negativi nelle immagini SAR; problema comunque superato in ogni caso dalle considerazioni contenute nel lavoro citato del BSSA. Ma il problema non è questo, che certamente non sarebbe affrontabile in questa sede. Il problema è quello in gran parte affrontato e chiarito appunto nel lavoro di Segall e Heimisson, e che tu hai giustamente richiamato in forma discorsiva/divulgativa. Nella sua forma più generale, esso è sintetizzato nelle frasi finali del lavoro citato, ma è molto più profondo: la Scienza è di per sè conservativa; quando si vuol proporre un nuovo modello per sostituire quello accreditato, è necessario prima di tutto che quello finora adottato sia chiaramente incapace di spiegare alcune osservazioni fondamentali; poi, che il nuovo spieghi perfettamente tutte le osservazioni pregresse, almeno come il vecchio modello, e in più spieghi le nuove.

La teoria della dislocazione elastica è estremamente generale, estremamente elegante e, in senso fisico-matematico, estremamente semplice. Le osservazioni fondamentali sono estremamente d’accordo con la teoria, entro i limiti delle approssimazioni implicite in fenomeni così complessi. Le stesse immagini SAR, da quando esistono, forniscono osservazioni incredibilmente in accordo con la teoria, sviluppata in mezzi puramente elastici, quindi ‘ideali’, pur riferendosi a mezzi, come le rocce terrestri, molto più complessi ed ‘imperfetti’. E’ qui il nocciolo della questione: non ha molto senso contestare un modello fisico-matematico semplice, elegante, ed universalmente in grado di spiegare le osservazioni principali in base a piccole differenze nelle osservazioni, che (se anche ci fossero) dipendono essenzialmente dal fatto che la teoria si riferisce necessariamente a modelli ‘ideali’ elastici che possono solo approssimare il comportamento del mezzo reale. In gergo, si direbbe che si vuole ‘interpolare il noise’, ossia dar peso a dettagli che non riguardano il problema fisico bensì gli errori, di misura o di approssimazione del modello.

Nel nostro caso, le osservazioni di dettaglio, dovute alla differenza tra il mezzo elastico ideale ed il mezzo ‘reale’, geologico, possono essere certamente localmente interessanti da analizzare, per i motivi più diversi: ma sono su un altro piano, non certo confrontabile con il modello fisico-matematico, universale, che spiega la sismicità di qualunque natura (perché non dimentichiamo che la teoria della dislocazione elastica non spiega soltanto la sismicità tettonica, a doppia coppia, ma quella dovuta ad ogni tipo di sorgente: comprese le esplosioni, che anzi, quelle nucleari, sono state la ragione principale del grande sviluppo della Sismologia tra gli anni ’60 ed ‘80). Tutto questo, Segall ed Heimisson l’hanno sintetizzato nella frase relativa al ‘Rasoio di Occam’ (dal nome del frate francescano che, già nel 1300, espresse uno dei più importanti principi che ancora oggi guidano la Scienza; e che consente di distinguere le vere ‘scoperte’ da semplici ipotesi ridondanti e non necessarie).

In conclusione, credo sia proprio la mancanza di reali implicazioni fondamentali del modello ‘graviquakes’ (termine anch’esso a mio avviso improprio, perché earthquake significa ‘moto della terra’, che è indipendente da come sia generato), significativamente diverse dal modello acclarato di dislocazione elastica, che a mio avviso ha fatto sì che finora, e con la sola eccezione di Segall e Heimisson, la comunità scientifica se ne sia di fatto disinteressata; anche nell’eventuale critica.

Roberto Devoti (INGV, Roma). Ho letto con attenzione i vari interventi: la questione mi sembra importante perché riguarda i fondamenti dell’avanzamento della conoscenza. Mi sento di riportare solo una breve considerazione che non ho visto rimarcata con il dovuto rilievo.

La pubblicazione di Segall e Heimisson, 2019, una nota breve apparentemente marginale nel corpo della letteratura scientifica e con la pretesa di commentare una pubblicazione specifica sull’argomento “gravimoto” (Bignami et al., 2019), nasconde in realtà una vera e propria chicca scientifica, una piccola scoperta che lascia stupiti anche gli esperti del settore. Gli autori, Paul Segall un professore di geofisica all’Università di Stanford ed Elías Heimisson uno studente brillante appena dottorato, hanno ricavato una formula matematica semplice nella sua struttura ma che esprime una legge di conservazione fondamentale, sconosciuta finora ai libri di testo in sismologia.

Nell’ambito della teoria della dislocazione elastica, la formula quantifica il disavanzo di volumi spostati della crosta terrestre in caso di terremoto, cioè la differenza tra il volume sollevato e quello abbassato. Esprime cioè la deformazione della superficie terrestre indotta dai terremoti nell’ipotesi che la crosta terrestre sia assimilabile ad un materiale comprimibile ed elastico. Tale deformazione è spazialmente simmetrica solo in casi molto particolari (faglie verticali) e dalla misura di tale asimmetria si possono ricavare informazioni sulla sorgente causale del terremoto. Questa deformazione risulta ora misurabile con tecniche satellitari (ad es. InSAR) e quindi la formula di Segall & Heimisson appare ancor più preziosa permettendo di mettere alla prova la teoria.

Cosa prevede dunque la formula di Segall & Heimisson per il terremoto di Norcia 2016? Un semplice calcolo, assumendo valori medi dei parametri elastici per la crosta terrestre, rivela che il disavanzo di volumi è negativo e vale -0.08 km3. Il lavoro di Bignami et al., 2019 riporta un valore misurato con tecniche InSAR del disavanzo pari a -0.1 km3. La differenza tra teoria e misura è del 20%, uno scarto assai piccolo considerando che le ipotesi di partenza sono estremamente semplificate. Questo semplice risultato permette a Segall & Heimisson di suggerire la lex parsimoniae di Ockham per rigettare (per ora) le teorie alternative che si pongono in contrapposizione alla dislocazione elastica.

Gravimoti: alcuni commenti all‘intervista di Valensise (Carlo Doglioni)

Riceviamo da Carlo Doglioni questo commento, che pubblichiamo come contributo indipendente, all’intervista a Gianluca Valensise
https://terremotiegrandirischi.com/2019/12/17/gravimoti-un-nuovo-paradigma-intervista-a-gianluca-valensise/
 
Carlo Doglioni, geologo, è professore di geodinamica all’Università Sapienza di Roma dal 1997. Dal 2009 al 2014 è stato presidente della Società Geologica Italiana; dal 2009 è membro dell’Accademia dei Lincei e dal 2011 dell’Accademia dei XL. Dal 27 aprile 2016 è presidente dell’Istituto Nazionale di Geofisica e Vulcanologia.

La teoria del rimbalzo elastico è stata una grande innovazione all’inizio del secolo scorso. Questo modello assumeva l’ipotesi che le faglie sismogenetiche fossero “prevedibili” nel loro comportamento e che tendessero alla rottura in modo simile e con la stessa magnitudo in un ciclo potenzialmente infinito. Questa assunzione, indistinta per gli ambienti tettonici estensionali, compressivi o trascorrenti, si è dimostrata poco attinente alla realtà più complessa del ciclo sismico.
I terremoti estensionali hanno per esempio un certo numero di differenze rispetto a quelli compressivi che non possono essere spiegate se non con meccanismi genetici diversi.

Sono stato revisore dell’articolo di Segall & Heimisson (BSSA, 2019) e quindi parlo con conoscenza di causa. Gli autori travisano il comportamento elastico della crosta superiore con l’energia elastica accumulata nell’intersismico negli ambienti estensionali, che non c’è, quantomeno quella necessaria al rimbalzo elastico.

Uno dei principali osservabili “accantonato” nella teoria del rimbalzo elastico, considerato invece nel modello dei gravimoti, è la distribuzione dello stress con la profondità. Notoriamente, negli ambienti estensionali, lo stress massimo è all’incirca verticale e parallelo al carico litostatico. Quello che nel modello del rimbalzo elastico, e di conseguenza anche nell’articolo di Segall & Heimisson non funziona clamorosamente è l’assumere che la crosta sia soggetta ad un tiro estensionale: ciò è falso perché sotto 1 km circa di profondità, la crosta è in compressione anche negli ambienti estensionali perché il carico litostatico si ripartisce nel volume e va ad annullare ed invertire la componente orizzontale negativa (estensione) dello stress minimo, che diventa positivo e quindi necessariamente compressivo.

Schermata 2019-12-19 alle 11.12.48
Questa condizione, nota anche nei libri di testo, previene ogni possibilità di avere un tiro orizzontale (con stress minimo, cioè il sigma 3, negativo) che possa generare un rimbalzo elastico. Il carico litostatico aumenta di circa 25-27 MPa/km e sotto 1 km anche il sigma minimo diventa positivo, cioè compressivo: si legga per esempio Twiss & Moores, “Structural Geology” pag 190-191:

Schermata 2019-12-19 alle 11.13.15

Note that the plot of minimum values of sigma3 in Figure 10.5A indicates that actual tensile stresses (negative values of the normal stress) cannot exist below a depth of about 1 km. In fact, tensile stresses have not been measured within the Earth at all.

Figure 10.5A Il sigma minimo (3) sotto 1 km è sempre positivo (compressivo), anche negli ambienti estensionali.

Schermata 2019-12-19 alle 11.13.28

Fig. 9.20 Orientation of the most critically stressed Griffith crack under applied confined compression. The crack is closed, and the orientation of the most criticallynstressed crack falls in the range 45°<b°<90°. A local tensile stress concentration develops near, but not at, the crack tips and is maximum at an angle d°>0°. The local tensile stress maximum sigma1 is oriented such that the crack grows progressively toward parallelism with d1. Crack growth must be accommodated by frictional sliding on the closed part of the crack surface. 

Nel modello dei gravimoti, la crosta superiore ha una reologia sostanzialmente elastica, ma questo non è il punto: il modello di Okada, per esempio, non è messo in discussione dai gravimoti, perché si riferisce alla deformazione modellabile una volta assunto un piano di una certa dimensione e con un determinato slip in un mezzo elastico. Tutto ciò rimane valido e verificato. Il punto nodale è la forza che ha generato il movimento: l’energia sprigionata dai terremoti è accumulata nei volumi e le faglie rilasciano la componente elastica che viene dissipata durante lo slip.
Un’altra mistificazione dei gravimoti è che non generino la doppia coppia: questa è garantita dallo scivolamento lungo il piano di faglia normale e quindi lo shear relativo è rappresentabile come una doppia coppia. Non è dunque un argomento che possa mettere in discussione il modello dei gravimoti. La doppia coppia non ha nulla a che vedere con i volumi ma è un sistema di rappresentazione delle forze, che non è in contrasto con lo scivolamento del tetto della faglia dovuto alla gravità e non a un tiro orizzontale.

Le differenze tra gli ambienti tettonici compressivi ed estensionali sono numerose:

  • Il b-value della Gutenberg-Richter a scala globale è 1.1 per le faglie normali, mentre è 0.9 per i sovrascorrimenti (Schorlemmer et al., 2005): infatti i terremoti estensionali hanno magnitudo anche di due gradi inferiori.
  • La magnitudo massima, di conseguenza è minore per i terremoti estensionali (raramente supera i 7.5) rispetto ai terremoti compressivi che sappiamo arrivare almeno a M 9.5.
  • Nella crosta, i volumi coinvolti dalla tettonica estensionale e di conseguenza la lunghezza delle faglie per i terremoti estensionali hanno una lunghezza che è circa 3 volte lo spessore sismogenetico per gli ambienti estensionali, mentre può superare le 25 volte in quelli compressivi.
  • Gli aftershock durano molto di più per le faglie normali e quindi la legge di Omori ha un esponente diverso per la durata delle sequenze estensionali. Questo è coerente col fatto che i volumi si muovono in favore di gravità negli ambienti distensivi e continuano a muoversi finché non raggiungono il proprio equilibrio gravitazionale, esattamente il contrario degli ambienti compressivi in cui i volumi devono muoversi contro la gravità.
  • Un’altra asimmetria tra terremoti estensionali e compressivi, a parità di magnitudo, è lo stress drop che è maggiore per i terremoti compressivi rispetto a quelli estensionali (si veda Cocco & Rovelli, 1989, JGR).
  • Gli eventi compressivi si enucleano preferibilmente in aree a basso sigma3 (carico litostatico), mentre gli eventi estensionali aumentano di magnitudo con la crescita del sigma1 (carico litostatico), oltre ad avere una migrazione della rottura spesso opposta; si veda Carminati et al. (2004).
  • Il comportamento dei fluidi nel cosismico è opposto tra i due sistemi tettonici (Doglioni et al., 2014); i fluidi sono contenuti nelle fratture e la loro espulsione necessita la chiusura di queste discontinuità formatesi precedentemente nell’intersismico. A questo proposito l’aumento del rapporto Vp/Vs conforta questa interpretazione (Lucente et al. 2010). Pre-, ma soprattutto rialzi cosismici delle falde, aumento della portata delle sorgenti, dei contenuti salini e delle temperature sono stati ampiamente documentati e questi rilasci di fluidi necessitano il restringimento della porosità di frattura preesistente (Barberio et al., 2017; Petitta et al., 2018, ecc.).

Negli articoli sui gravimoti (https://www.nature.com/articles/srep12110), al di là della terminologia e classificazione per identificare fenomeni diversi della natura, così come avviene per la tassonomia delle piante, l’energia rilasciata dal collasso gravitazionale è enormemente superiore a quella liberata dalle onde sismiche: questo ha un doppio significato, cioè 1) l’energia gravitazionale è di gran lunga maggiore rispetto a quella rilasciata dalle onde sismiche ed è quindi più che sufficiente per mobilizzare i volumi a tetto delle faglie normali e generare terremoti estensionali e 2) l’energia in eccesso spiega la deformazione tramite piegamento e fratturazione del volume a tetto (e in parte anche a letto) dei piani di faglia, e il calore di frizione.

Veniamo ai volumi dilatati nell’intersismico negli ambienti estensionali che sono previsti da tutte le modellazioni numeriche al di sopra della transizione fragile-duttile (per esempio Doglioni et al., PEPI 2011). Il rimbalzo elastico necessita di un rimbalzo cosismico prevalente orizzontale, mentre in realtà il movimento dominante è verticale. In un ambiente estensionale il volume comprime verso il basso e può ‘richiudere’ almeno parzialmente il cuneo pre-dilatato durante l’intersismico.

Le rocce fratturate hanno un coefficiente di Poisson minore rispetto a quelle non fratturate. Inoltre il coefficiente di Poisson dipende dalla temperatura e dalla pressione che aumentano con la profondità. Proprio per le proprietà meccaniche, le rocce sovracompresse possono accumulare molta più energia elastica di quanto ne possano accumulare in trazione. Le rocce si fratturano in estensione con un’energia almeno 10 volte inferiore a quella necessaria in contrazione. Anche questo implica una profonda differenza di comportamento meccanico tra le due condizioni tettoniche e di resistenza alla deformazione. Le rocce, una volta fratturate perdono gran parte della loro elasticità. Il paradosso che non esiste trazione negli ambienti estensionali perché tutti e tre i tensori di sforzo sono compressivi è superato dallo stress deviatorico, che agisce in maniera differenziale tra il livello fragile e quello duttile, avendo strain-rate diversi per la loro reologia opposta. Quindi il volume extra che subisce la subsidenza cosismica è naturalmente maggiore negli ambienti estensionali perché va a riprendersi il volume dilatatosi nell’intersismico, ma ciò vale all’opposto anche per gli ambienti compressivi che nel cosismico dilatano invece il volume sovracompresso nell’intersismico a tetto della rampa del sovrascorrimento e che sfogano l’energia, muovendo un volume maggiore verso l’alto (in atmosfera o in mare), senza confinamento, piuttosto che nel sottosuolo.

Segall & Heimisson travisano il contenuto dell’articolo di Bignami et al. 2019 ignorando le basi della geodinamica. Il loro modello assume, come già in Okada, un semispazio elastico infinito isotropico, senza considerare la transizione fragile duttile alla base, condizioni abbastanza irrealistiche. Il modello di Segall & Heimisson non spiega inoltre dove vada a finire il volume mancante in sollevamento. Il loro articolo dice che il volume mancante è un artificio della finitezza del dominio di integrazione, senza escludere che i volumi siano differenti e che per dirimere la questione sia necessario trattare in maniera più approfondita gli errori di misura e di metodo. Inoltre confermano la geometria superficiale in funzione della dislocazione, come già dimostrato da Okada.

Bignami et al. (2019), ma anche Valerio et al. (2018), dimostrano invece che con una tecnica oramai consolidata e di grande risoluzione in termini di minimizzazione dell’errore, c’è uno sbilanciamento di volumi oltre 7 volte maggiore per il volume abbassatosi, che è plausibile solo se vi è un volume pre-dilatato in profondità in grado di assorbire questa grande differenza di massa non riconciliabile con ritiri elastici istantanei. Bignami et al. dimostrano che la deformazione gravitazionale di un mezzo elastico non corrisponde necessariamente a una sorgente energetica di energia elastica.

Segall & Heimisson utilizzano una sorgente puntiforme certamente non in grado di raggiungere la raffinatezza che viene ottenuta oramai dai dati SAR. E’ utile ricordare che l’utilizzo del rimbalzo elastico, che loro invocano, e di ciò che ne consegue (terremoto caratteristico e relativi tempi di ritorno) hanno portato in passato a numerosi errori di valutazione.

Che i graviquakes siano ancora poco accettati è certamente vero, ma ciò non significa che siano sbagliati e rimane il fatto che almeno una decina di riviste internazionali e loro revisori ne hanno ‘promosso’ le evidenze e la modellazione. Qualcuno inoltre inizia a considerare la sismicità estensionale come legata principalmente alla gravità: si veda per esempio Thomson & Parson (2017, PNAS).

In questo breve commento ho omesso per brevità gli ambienti trascorrenti che sono controllati dall’elasticità del mezzo e del rapporto tra la frizione statica del volume crostale con la frizione statica sui piani di faglia, piani che possono essere molto numerosi (si veda la recente sequenza di Ridgecrest 2019, dove sono state mappate oltre 200 faglie attivatesi durante i due mainshock). Solo quando la tettonica trascorrente diventa transtensiva, la componente elastica deve sommarsi alla componente gravitazionale, diminuendo mano a mano che da transtensione si passa a estensione pura.

Vale la pena aggiungere alcuni chiarimenti sulla metodologia utilizzata, a riprova della inesatta analisi dei dati riportati nel citato Bignami et al. 2019, sia da parte di Segall & Heimisson che dal commento di Valensise, e del fatto che il metodo è del tutto corretto. Se si osserva la mappa dei punti che ricadono nell’intervallo -3cm/+3cm (figura in basso) si evince che tale intervallo di deformazioni è praticamente distribuito su tutta la mappa, ad esclusione delle are in subsidenza e sollevamento causate dal terremoto del 2016:

Schermata 2019-12-19 alle 11.13.43

L’analisi statistica di questi dati ci dice che questi punti (sono 663533) con deformazione compresa tra -3 e +3 cm hanno valor medio pari a 0.4437 cm, il che significa che l’immagine, globalmente, ha un bias verso l’alto di circa 4.4 mm che, in quanto tale, non incide sulla differenza tra volumi in sollevamento e volumi in subsidenza.

Schermata 2019-12-19 alle 11.13.51

Se sommiamo le deformazioni dei punti (algebricamente e con bias incluso) si ottiene uno spostamento totale di superficie (ERRATO perché c’è un bias) pari a: 0.00258 km3 (ancora al di sotto del 20% di sottostima). Ma questo conto è errato, proprio per il bias sopracitato, altrimenti dovremmo pensare che si è sollevata mezza Italia tutta insieme. Rimuovendo in modo del tutto corretto il bias, che è indifferente rispetto al calcolo volume up/down relativo, si ottiene un numero ben diverso: -1.02222E-06 km3.
Questo conferma che le misure SAR sono assolutamente affidabili e accurate, molto più di un estremante semplice modello puntiforme proposto da Segall & Heimisson.

L’articolo di Valensise contiene anche altre inesattezze relativamente alla presunta deformazione verso l’Adriatico, dedotte da fonti che presumiamo siano diverse dall’articolo di Bignami et al. 2019. I dati di quest’ultimo mostrano che la deformazione si assesta intorno allo zero man mano che ci si allontana dall’epicentro verso est:

Schermata 2019-12-19 alle 11.14.00

Zoomando nella parte più a est si nota che la deformazione è entro la fascia -3/+ 3 cm di tolleranza, con tendenza anche in abbassamento:

Schermata 2019-12-19 alle 11.14.10
D’altra parte la citata figura 5 tratta da Bignami et al., è ben lontana dalla zona costiera, e non dà informazioni rispetto a cosa succede allontanandosi dell’area epicentrale.

Si fa notare che il SAR non è “cieco” in quel range -3/+3 cm, che è semplicemente la fascia di incertezza per questa specifica mappa fatta con questi specifici dati, un rumore sulla misura che non ci consente di discriminare tra deformazione certamente positiva e certamente negativa, motivo per cui sono state utilizzate tali soglie. Infine, a riprova della scarsa attenzione prestata nella lettura, i dati usati da Bignami et al. 2019, non sono dei satelliti Sentinel dell’Agenzia Spaziale Europea (ESA), bensì del satellite ALOS2, dell’Agenzia Spaziale Giapponese.

Per concludere chiediamoci: negli ambienti estensionali la forza accumulata è dunque l’energia elastica di trazione che non esiste, o è invece la componente gravitazionale che è certa? Questa seconda naturale interpretazione non inficia lo slip in un mezzo elastico. Anche una molla che cade rilascia energia gravitazionale.

Il rasoio di Occam è un percorso mentale utilissimo, ma non può essere un alibi per omettere i dati di fatto. Anzi, Il rasoio di Occam è a favore della energia gravitazionale che sicuramente esiste, in quanto non richiede l’esistenza della trazione elastica che sarebbe una forza aggiuntiva per gli ambienti estensionali.

Carlo Doglioni

Barberio, M.D., Barbieri, M., Billi, A., Doglioni, C., Petitta, M., 2017. Hydrogeochemical changes before and during the 2016 Amatrice-Norcia seismic sequence (central Italy). Scientific Reports, 7, 11735, doi:10.1038/s41598-017-11990-8, https://www.nature.com/articles/s41598-017-11990-8

Barberio M.D., Gori F., Barbieri M., Billi A., Devoti R., Doglioni C., Petitta M., Riguzzi F., Rusi S. 2018. Diurnal and semidiurnal cyclicity of Radon (222Rn) in groundwater, Giardino Spring, central Apennines, Italy. Water, 10, 1276; doi:10.3390/w10091276. https://www.mdpi.com/2073-4441/10/9/1276

Bignami C., Valerio E., Carminati E., Doglioni C., Tizzani P. 2019. Volume unbalance on the 2016 Amatrice – Norcia (central Italy) seismic sequence and insights on normal fault earthquake mechanism. Scientific Reports, 9:4250 | https://doi.org/10.1038/s41598-019-40958-z

Carminati E., Bignami C., Doglioni C., Smeraglia L., 2020. Lithological control on multiple surface ruptures during the 2016-2017 Amatrice-Norcia seismic sequence. Journal of Geodynamics, in press. doi.org/10.1016/j.jog.2019.101676

Carminati E., Doglioni C. & Barba S. (2004): Reverse migration of seismicity on thrusts and normal faults. Earth Science Reviews, 65, 195–222.

Cocco M. & Rovelli A., 1989. Evidence for the Variation of Stress Drop Between Normal and Thrust Faulting Earthquake in Italy. J. Geophys. Res. 94, B7, 9399-9416.

Doglioni C., Barba S., Carminati E. Riguzzi F., 2015. Fault on-off versus strain rate and earthquakes energy. Geoscience Frontiers 6, 265-276, doi: http://dx.doi.org/10.1016/j.gsf.2013.12.007

Doglioni C., Barba S., Carminati E. Riguzzi F., 2014. Fault on-off versus coseismic fluids reaction. Geoscience Frontiers, v. 5, issue 6, pp. 767–780, doi.org/10.1016/j.gsf.2013.08.004

Doglioni C., Carminati E., Petricca P., Riguzzi F. 2015 Normal fault earthquakes or graviquakes. Scientific Reports, 5, 12110 doi:10.1038/srep12110. https://www.nature.com/articles/srep12110

Doglioni, C., Barba, S., Carminati, E. & Riguzzi, F. 2011. Role of the brittle-ductile transition on fault activation. Phys. Earth Planet. Int., 184, 160–171, https://www.sciencedirect.com/science/article/pii/S0031920110002384

Liberatore, D., Doglioni, C., Al Shawa, O., Atzori, S., Sorrentino, L. 2018. Effects of coseismic ground vertical motion on masonry constructions damage during the 2016 Amatrice-Norcia (Central Italy) earthquakes. Soil Dynamics and Earthquake Engineering, 120 (2019) 423–435, https://doi.org/10.1016/j.soildyn.2019.02.015

Lucente, F.P., De Gori, P., Margheriti, L., Piccinini, D., Di Bona, M., Chiarabba, C., Piana Agostinetti, N., 2010. Temporal variation of seismic velocity and anisotropy before the 2009 Mw 6.3 L’Aquila earthquake, Italy. Geology 38 (11), 1015e1018. http://dx.doi.org/10.1130/G31463.1.

Moro, M., Saroli, M., Stramondo, S., Bignami, C., Albano, M., Falcucci, E., Gori, S., Doglioni, C., Polcari, M., Tallini, M., Macerola, L., Novali, F., Costantini, M., Malvarosa, F. and Wegmüller, U., 2017. New insights into earthquake precursors from InSAR. Scientific Reports, 7, 12035, doi:10.1038/s41598-017-12058-3, https://www.nature.com/articles/s41598-017-12058-3

Petitta M., Mastrorillo L., Preziosi E., Banzato F., Barberio M.D., Billi A., Cambi C., De Luca G., Di Carlo P., Di Curzio D., Di Salvo C., Nanni T., Palpacelli S., Rusi S., Saroli M., Tallini M., Tazioli A., Valigi D., Vivalda P., Doglioni C., 2018. Water table and discharge changes associated with the 2016-2017 seismic sequence in central Italy: hydrogeological data and conceptual model for fractured carbonate aquifers. Hydrogeology Journal, https://doi.org/10.1007/s10040-017-1717-7

Petricca P., Barba S., Carminati E., Doglioni C., Riguzzi F. 2015. Graviquakes in Italy. Tectonophysics, 656, 202–214, doi:10.1016/j.tecto.2015.07.001

Petricca, P., Carminati, E., Doglioni, C. and Riguzzi, F., 2018. Brittle-ductile transition depth versus convergence rate: impact on seismicity. Physics of the Earth and Planetary Interior, doi.org/10.1016/j.pepi.2018.09.002

Petricca P., Carminati E. and Doglioni C., 2019. The Decollement Depth of Active Thrust Faults in Italy: Implications on Potential Earthquake Magnitude. Tectonics, 38. https://doi.org/10.1029/ 2019TC005641

Plastino W., Panza G.F., Doglioni C., Frezzotti M.L., Peccerillo A., De Felice P., Bella F., Povinec P.P., Nisi S., Ioannucci L., Aprili P., Balata M., Cozzella M.L., Laubenstein M., 2011. Uranium groundwater anomalies and active normal faulting. J Radioanal Nucl Chem, 288, 101–107.

Riguzzi, F. Crespi, M., Devoti, R., Doglioni, C. Pietrantonio, G. and Pisani, A.R., 2012. Geodetic strain rate and earthquake size: New clues for seismic hazard studies. Physics of the Earth and Planetary Interiors 206-207, 67–75, https://www.sciencedirect.com/science/article/pii/S0031920112001264

Riguzzi F., Crespi M., Devoti R., Doglioni C., Pietrantonio G., Pisani A.R., 2013. Strain rate relaxation of normal and thrust faults in Italy. Geophysical Journal International. doi: 10.1093/gji/ggt304

Schorlemmer, D., Wiemer, S. & Wyss, M. 2005. Variations in earthquake-size distribution across different stress regimes. Nature 437, 22.

Segall P. & Heimisson E.R., 2019. On the Integrated Surface Uplift for Dip‐Slip Faults. Bulletin of the Seismological Society of America (2019) 109 (6): 2738-2740.
https://doi.org/10.1785/0120190220

Smeraglia L., Bernasconi S.M., Berra F., Billi A., Boschi C., Caracausi A., Carminati E., Castorina F., Doglioni C., Italiano F., Rizzo A.L., Uysal T., Zhao X-J. 2018. Crustal-scale fluid circulation and co-seismic shallow comb-veining along the longest normal fault of the central Apennines, Italy. Earth Planet. Sci. Lett., 498, 152-168, https://doi.org/10.1016/j.epsl.2018.06.013.

Thompson, G. A. & Parsons, T. 2017. From coseismic offsets to fault-block mountains. PNAS 114, 9820–9825, https://doi.org/10.1073/pnas.1711203114 (2017).

Valerio, E. Tizzani, P., Carminati, E., Doglioni C., 2017. Longer aftershocks duration in extensional tectonic settings. Scientific Reports, 7, 16403 doi:10.1038/s41598-017-14550-2, https://www.nature.com/articles/s41598-017-14550-2

Valerio, E., Tizzani, P., Carminati, E., Doglioni, C., Pepe, S., Petricca, P., De Luca, C., Bignami, C., Solaro, G., Castaldo, R., De Novellis, V. and Lanari, R. 2018. Ground Deformation and Source Geometry of the 30 October 2016 Mw 6.5 Norcia Earthquake (Central Italy) Investigated Through Seismological Data, DInSAR Measurements, and Numerical Modelling. Remote Sensing, 10, 1901, doi:10.3390/rs10121901, https://www.mdpi.com/2072-4292/10/12/1901

Gravimoti: un nuovo paradigma? (intervista a Gianluca Valensise)

Gianluca Valensise, del Dipartimento Terremoti, INGV, Roma, è sismologo di formazione geologica.Dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).  Ha dedicato oltre 30 anni della sua carriera a esplorare i rapporti tra tettonica attiva e sismicità storica, con l’obiettivo di fondere le osservazioni geologiche con l’evidenza disponibile sui grandi terremoti del passato.
Da qualche anno è emerso, nel panorama geo-sismologico italiano, il termine “gravimoti”: gli abbiamo chiesto di commentare l’origine e il significato.

Da qualche anno abbiamo cominciato a sentire parlare di “gravimoti”, in alcuni casi come alternativa al termine “terremoti”. Ci puoi riassumere da dove nasce questa idea e a cosa si riferisce?

Si tratta di un concetto totalmente nuovo per la Sismologia e abbastanza complesso. La parola “gravimoti” è stata coniata da Doglioni e coautori in un articolo pubblicato sull’autorevole rivista Scientific Reports nel 2015. In genere si ritiene che i terremoti siano generati dal rilascio di energia elastica accumulata nel corso di secoli o millenni. Secondo questi autori, invece, nelle aree del globo sottoposte a estensione crostale, come ad esempio nel nostro Appennino, la maggior fonte di energia disponibile è rappresentata dalla forza di gravità. Ne consegue che le faglie estensionali, che in geologia si chiamano anche faglie normali, sono caratterizzate da un meccanismo di accumulo e dissipazione di energia diverso rispetto a quello di altri contesti geodinamici, come quelli compressivi e trascorrenti, nei quali l’energia elastica consente il movimento dei blocchi posti ai due lati di una faglia anche contro la forza di gravità.

Doglioni e coautori ritengono quindi che i terremoti per faglia normale seguano un meccanismo completamente diverso dal modello ideale dello elastic rebound, o rimbalzo elastico, teorizzato da Harry Fielding Reid nel 1910 sulla base di osservazioni della faglia che aveva generato il grande terremoto di San Francisco del 1906. E poiché ritengono che i terremoti per faglia normale siano dominati dalla gravità, questi autori propongono di definirli graviquakes – traducibile appunto con “gravimoti” in italiano – mentre tutti gli altri terremoti sarebbero degli elastoquakes, termine traducibile in “elastomoti”.

Come è stato recepito questo paradigma dagli altri ricercatori? E come se ne può dimostrare la validità oltre ogni ragionevole dubbio?

A essere onesti, a oggi i graviquakes non hanno ricevuto un’accoglienza entusiastica da parte della comunità scientifica, nonostante che nel frattempo i loro fondamenti teorici siano stati ripresi da Petricca et al. nel 2015. Le critiche principali vengono dagli esperti di meccanica delle rocce, che ritengono non derogabile il meccanismo noto come doppia-coppia che è alla base del calcolo dei meccanismi focali di tutti i terremoti.

Esiste in effetti un modo relativamente semplice per verificare l’ipotesi dei graviquakes. Un normale terremoto causato dall’accumulo e dal successivo improvviso rilascio di energia elastica causa il sollevamento di alcune porzioni della regione interessata dalla fagliazione e lo sprofondamento di altre. Poiché nel processo di generazione di un terremoto non c’è aggiunta o rimozione di volumi rocciosi, e poiché le rocce che formano la litosfera hanno una compressibilità limitata, il volume delle rocce di cui il terremoto – o meglio il movimento della faglia sismogenetica – ha causato lo sprofondamento deve necessariamente essere molto simile al volume delle rocce che ne sono state sollevate. Secondo gli autori citati questo non è però vero per i graviquakes, i quali, essendo dominati dalla forza di gravità, determinano uno sprofondamento di entità molto superiore al sollevamento, causando nel contempo l’espulsione di fluidi profondi ospitati in fratture preesistenti.

In un articolo pubblicato nel 2019 [1], sempre su Scientific Reports, Bignami e coautori hanno analizzato se questa ipotesi sia stata verificata dalla sequenza di Amatrice, Norcia e Visso del 2016, culminata con la scossa di magnitudo 6.5 del 30 ottobre 2016: una serie di terremoti che hanno causato deformazioni molto importanti della superficie topografica – nella Piana di Castelluccio è stato misurato uno sprofondamento massimo dell’ordine di circa un metro – e che sono state registrate da una moltitudine di strumenti e sensori di diversa natura (si veda in proposito la Figura 5 dell’articolo in questione):

Fig.5 Bignami

per la spiegazione si veda qui:
https://www.nature.com/articles/s41598-019-40958-z/figures/5.

In particolare Bignami e coautori hanno analizzato i dati di interferometria differenziale – DInSAR nella letteratura in lingua inglese – forniti dalla costellazione di satelliti europei Sentinel. Questi consentono di misurare con precisione la forma della superficie del pianeta e le sue eventuali variazioni tra passaggi successivi del satellite sulla stessa zona, cosa che alle nostre latitudini avviene con una frequenza media di una volta ogni 3-5 giorni. Le variazioni misurate, opportunamente processate, consentono di rappresentare con straordinaria precisione e con grande risoluzione spaziale gli effetti in superficie del movimento della faglia sismogenetica, incluse le eventuali deformazioni pre- e post-sismiche, ma anche di studiare la dinamica di vulcani attivi, l’evoluzione di grandi corpi franosi, e persino le deformazioni del suolo causate dall’estrazione o immissione di fluidi profondi.

Ebbene, secondo i calcoli di Bignami e coautori il movimento delle faglie che hanno generato i tre terremoti principali (24 agosto, 26 ottobre e 30 ottobre 2016) ha causato lo sprofondamento di un volume di circa 0,120 km3, mentre la somma delle porzioni crostali sollevate non supera i 0,016 km3 (si veda la Figure 7 dell’articolo):

Fig. 7 Bignami

https://www.nature.com/articles/s41598-019-40958-z/figures/7.

Gli autori concludono che il terremoto ha causato un volume unbalance di circa 7,5 volte, in accordo con quanto previsto dalla teoria dei graviquakes. Come ha scritto Carlo Doglioni in un blog divulgativo della Sapienza [2], questo risultato “… getta nuova luce e conferme sul ruolo della forza di gravità nei terremoti”; lo stesso Doglioni ha poi aggiunto che “…Prossimo obiettivo è la caccia ai volumi crostali in cui lungo l’Appennino vi siano zone dilatate, pronte a generare un futuro evento sismico”. Da quest’ultima affermazione consegue che, se l’esistenza dei graviquakes fosse confermata, i sismologi disporrebbero di un nuovo metodo per prevedere i terremoti a breve e medio termine, ancorché solo nelle aree sottoposte a tettonica estensionale (a riguardo ricordo che i terremoti estensionali sono largamente dominanti nel contesto geodinamico italiano). Una applicazione sistematica di questo metodo potrebbe consentire, se non proprio di prevedere i terremoti, quantomeno di identificare “zone di attenzione” prioritarie.

 Dunque i manuali di geofisica e di sismologia sono da riscrivere?

Come ho già detto, la comunità scientifica nazionale è rimasta abbastanza fredda sui graviquakes, ma finora non ha espresso le proprie perplessità con pubblicazioni su riviste peer-reviewed, le uniche adatta ad ospitare un eventuale contraddittorio. Però la scienza è globale, e a maggior ragione lo sono i meccanismi che presiedono alla generazione dei terremoti. E così, a sorpresa, due ricercatori di oltre-Atlantico hanno recentemente deciso di impugnare le conclusioni di Bignami et al. e confutare la tesi di fondo dei graviquakes. Si tratta di Segall e Heimisson, dell’Università di Stanford in Californa, che in un breve ma concettoso articolo apparso sul Bulletin of the Seismological Society of America, una storica rivista considerata molto autorevole dai sismologi, discutono a tutto campo le conclusioni degli autori dell’articolo in questione.

Come prima cosa richiamano uno storico lavoro di Ward del 1986, nel quale si argomenta sul fatto che i volumi crostali mobilitati da un forte terremoto non devono necessariamente azzerarsi tra sollevamento e subsidenza: o meglio, prima o poi lo faranno, ma nell’immediato del verificarsi del terremoto è normale che si riscontri un certo disequilibrio – a favore della subsidenza nei regimi estensionali e a favore del sollevamento in quelli compressivi – proprio in virtù del fatto che la porzione più profonda della crosta terrestre ha un comportamento essenzialmente viscoelastico. In altre parole, la reologia delle rocce che formano la crosta terrestre è tale da rendere accettabile un modesto e transitorio volume unbalance.

Ma la critica principale ai risultati di Bignami e coautori riguarda il metodo utilizzato da questi ricercatori per i loro calcoli. Va premesso che secondo la teoria della elastic dislocation, comunemente accettata per descrivere il campo di deformazione generato da un forte terremoto, nel caso di una faglia normale la subsidenza si presenta concentrata in una depressione allungata come la faglia sismogenetica e poco più lunga della faglia stessa: un’area lunga intorno ai 20 km nel caso del terremoto del 30 ottobre 2016, nella quale, come ho già ricordato, sono stati registrati sprofondamenti fino a un metro circa. Viceversa, l’evidenza sperimentale rappresentata dall’andamento dei dati satellitari mostra che il sollevamento interessa una zona molto più grande, che nel caso in questione arriva fino alla costa adriatica, con valori assoluti che si riducono progressivamente da un massimo di 15 cm circa fino a zero (si veda sempre quanto mostrato nella Figure 5 di Bignami e coautori).

Segall e Heimisson fanno intanto notare che i calcoli sono stati effettuati in modo improprio: in particolare, sono state omesse tutte le aree dove il sollevamento misurato con la tecnica DInSAR dà un valore compreso tra +3 cm e -3 cm. Si tratta di una scelta obbligata, perché il sensore del satellite Sentinel è “cieco” per differenze di valore inferiore a 3 cm, ma che per le ragioni che ho ricordato poco sopra porta a sottovalutare drasticamente il volume della porzione del campo di dislocazione in cui i dati satellitari mostrano un sollevamento. Fanno poi notare che se i volumi fossero stati calcolati correttamente, cioè tenendo conto anche di quella zona molto ampia in cui il sollevamento registrato non è risolvibile con la tecnica usata, il volume unbalance dovrebbe ridursi ad un 20% circa; e concludono che, stando così le cose, i dati DInSAR del terremoto del 30 ottobre resterebbero pienamente compatibili con quanto previsto dalla classica elastic dislocation theory e con quanto asserito da Ward nel 1986.

Segall e Heimisson concludono la loro analisi con una frase che deve far riflettere sull’uso dei dati scientifici per promuovere o confutare una nuova teoria scientifica:

We do not claim that the elastic dislocation model is unique. Occam’s razor, however, suggests that a simpler, well-tested theory (elastic dislocation theory) should be preferred.

Credo che questa chiosa interpreti bene l’accoglienza abbastanza fredda fino ad oggi riservata ai graviquakes dalla comunità sismologica, prima nazionale e ora anche internazionale. Per parte mia posso solo osservare che applicando la metodologia di analisi proposta da Bignami e coautori al caso di faglie inverse, come quelle che hanno generato i terremoti del 20 e 29 maggio 2012 nella Bassa modenese – peraltro analizzati proprio da Bignami e coautori nel 2012 – probabilmente si otterrebbe lo stesso risultato, ma a parti invertite: si misurerebbe principalmente del sollevamento, e la subsidenza apparrebbe del tutto subordinata. Un risultato di questo tipo mostrerebbe senza necessità di ulteriori prove che il volume unbalance di quasi un ordine di grandezza invocato da Bignami e coautori è un artefatto del metodo di calcolo utilizzato, non una proprietà intrinsca del nostro pianeta, e renderebbe inveitabile riconsiderare i fondamenti della teoria dei graviquakes.

La parola torna ora a coloro che hanno inizialmente proposto l’esistenza dei graviquakes, nella speranza che accettino il suggerimento di usare i terremoti del 2012 per capire se quello che stanno vedendo e ipotizzando per la zona di Norcia – e per tutte le faglie normali in giro per il pianeta – è una reale e importante novità scientifica, o se si tratta solo di un artefatto modellistico.

[1] https://www.nature.com/articles/s41598-019-40958-z

[2] https://www.uniroma1.it/it/notizia/terremoti-del-centro-italia-dove-e-il-volume-fantasma

Nota: una risposta di Carlo Doglioni alle considerazione di Gianluca Valensise è stata pubblicata qui

Gravimoti: alcuni commenti all‘intervista di Valensise (Carlo Doglioni)

 Bibliografia citata

Bignami C., P. Burrato, V. Cannelli, M. Chini, E. Falcucci, A. Ferretti, S. Gori, C. Kyriakopoulos, D. Melini, M. Moro, F. Novali, M. Saroli, S. Stramondo, G. Valensise e P. Vannoli (2012). Coseismic deformation pattern of the Emilia 2012 seismic sequence imaged by Radarsat-1 interferometry, Annals of Geophysics, 55, 789-795, ISSN: 1593-5213, doi: 10.4401/ag-6157.

Bignami C., E. Valerio, E. Carminati, C. Doglioni, P. Tizzani, e R. Lanari (2019). Volume unbalance on the 2016 Amatrice-Norcia (Central Italy) seismic sequence and insights on normal fault earthquake mechanism, Sci. Rep. 9, no. 1, 4250.

Doglioni C., E. Carminati, P. Petricca, e F. Riguzzi (2015). Normal fault earthquakes or graviquakes. Sci Rep 2015;5:12110. https://doi.org/10.1038/srep12110, 2015.

Petricca P., S. Barba, E. Carminati, C. Doglioni, e F. Riguzzi F. (2015). Graviquakes in Italy. Tectonophysics, 656(12):202–2014. https://doi.org/10.1016/j.tecto.2015.07. 001.

Segall P., e H. R. Heimisson (2019). On the Integrated Surface Uplift for Dip-Slip Faults. Bulletin of the Seismological Society of America, Vol. XX, No. XX, pp. –, – 2019, doi: 10.1785/0120190220

Reid H. F. (1910). The mechanics of the earthquake, The California earthquake of April 18, 1906. Report of the State Investigation Commission (Carnegie Institution of Washington, Washington, D.C., 1910).

Ward S. N. (1986). A note on the surface volume change of shallow earthquakes, Geophys. J. Int. 85, no. 2, 461–466.

La scala macrosismica EM-98 è stata pubblicata in italiano: intervista a Andrea Tertulliani, Raffaele Azzaro e Giacomo Buffarini

La traduzione italiana della scala macrosismica europea (EMS-98), compilata da gruppo di lavoro della ESC (European Seismological Commission) nel decennio 1988-1998, esce a notevole distanza (21 anni) dalla pubblicazione della versione inglese, dopo che quest’ultima è stata utilizzata sul campo e sperimentata in occasioni di numerosi terremoti italiani, dalla sequenza di Colfiorito del 1997 (nell’occasione venne usata la versione 1992 della scala stessa) fino agli eventi del 2016-2017. Vale la pena ricordare le maggiori innovazioni introdotte dalla versione 1992, consolidate nella versione 1998: i) la definizione operativa di intensità macrosismica; ii) l’introduzione della nozione di vulnerabilità sismica come superamento delle tradizionali tipologie costruttive; iii) la compilazione di una guida all’utilizzo della scala stessa. Ne parliamo oggi con i curatori della versione italiana.

La traduzione italiana della scala macrosismica europea (EMS-98), compilata da gruppo di lavoro della ESC (European Seismological Commission) nel decennio 1988-1998, esce a notevole distanza (21 anni) dalla pubblicazione della versione inglese, dopo che quest’ultima è stata utilizzata sul campo e sperimentata in occasioni di numerosi terremoti italiani, dalla sequenza di Colfiorito del 1997 (nell’occasione venne usata la versione 1992 della scala stessa) fino agli eventi del 2016-2017. Vale la pena ricordare le maggiori innovazioni introdotte dalla versione 1992, consolidate nella versione 1998: i) la definizione operativa di intensità macrosismica; ii) l’introduzione della nozione di vulnerabilità sismica come superamento delle tradizionali tipologie costruttive; iii) la compilazione di una guida all’utilizzo della scala stessa. Ne parliamo oggi con i curatori della versione italiana.

Andrea Tertulliani (INGV). Lavoro come sismologo all’INGV (prima ING) da oltre 30 anni e mi sono quasi sempre occupato di effetti dei terremoti, sia di quelli attuali che di quelli storici. In questo periodo ho svolto i rilievi macrosismici di quasi tutti i terremoti significativi avvenuti in Italia per studiare le caratteristiche dei loro effetti. Attualmente sono coordinatore di QUEST, un gruppo di colleghi esperti in rilievo macrosismico che si attiva per ogni evento. Una curiosità: sono particolarmente interessato agli effetti rotazionali che i terremoti inducono sugli oggetti e i manufatti.

Raffaele Azzaro (INGV). Sono Primo Ricercatore, geologo. Ho iniziato a lavorare nel campo della macrosismica partecipando ai rilievi dei maggiori terremoti italiani, dal 1996 in poi, con una ovvia “preferenza” per quelli in Sicilia e sull’Etna in particolare; parallelamente mi sono occupato anche di analisi di sismologia storica. Successivamente ho ampliato il campo di ricerca agli aspetti di sismotettonica, geologia del terremoto e pericolosità sismica.

Giacomo Buffarini (ENEA). Sono Primo Ricercatore, Ingegnere Strutturista. Lavoro in un gruppo che si è occupato di “Sisma” sin dagli anni 80 del secolo scorso, sia dal punto di vista della pericolosità (in origine per i siting delle centrali nucleari), sia dal punto di vista della vulnerabilità. Monitoraggio dinamico, valutazioni di vulnerabilità sismica, isolamento sismico sono alcune delle attività in cui sono coinvolto, sempre fianco a fianco con colleghi geologi, sismologi e quindi con il privilegio di avere un approccio al problema “Terremoto” da diversi punti di vista.

La traduzione italiana della EMS-98 esce oggi per iniziativa di INGV e ENEA (http://quest.ingv.it/). Come mai questa iniziativa?

AT. L’idea di tradurre le linee guida della EMS-98 è piuttosto vecchia, e se non ricordo male fu proprio tua. Tralasciando il percorso accidentato che ci ha portato sin qui, direi che sono stati gli ultimi terremoti avvenuti in Italia, per il rilievo dei quali abbiamo usato sistematicamente questa scala, la molla principale. Siamo uno dei paesi dove la scala è più usata e abbiamo ritenuto fosse una utile iniziativa per venire incontro anche ai tecnici che non conoscono l’inglese. Inoltre è molto utile, in generale, tradurre la terminologia tecnica all’uso italiano. Infine era nostra intenzione rimarcare che la scala macrosismica è diventato uno strumento ampiamente condiviso tra sismologi e ingegneri.

Una scala macrosismica consiste essenzialmente in un numero limitato di descrizioni di effetti (word pictures in inglese) che vengono confrontate con quanto si riscontra sul campo (rilievo macrosismico), o quanto si deduce dalle informazioni storiche. Il grado di intensità – ovvero il livello degli effetti – del terremoto in un dato luogo viene assegnato con riferimento alla descrizione che più si avvicina alla situazione reale. La scala EM-98 è stata molto usata per eseguire rilievi macrosismici a seguito di terremoti. Ci potete riassumere il suo utilizzo in Italia?

RA. Sin dal momento della sua prima uscita, nel 1993 (la prima versione, poi modificata nel 1998 appunto), c’è stato un grande interesse da parte della nostra piccola comunità macrosismica. Molti di noi lavoravano con la scala MSK, altri con la MCS – e gli aspetti innovativi introdotti dalla EM-98 rendevano “più facile” operare sul campo. Le grandi sequenze sismiche italiane hanno rappresentato il banco di prova per eccellenza per imparare ad usare la scala: la prima timida applicazione, prototipale, in Umbria-Marche nel 1997; l’uso massivo, anche a scala urbana, per il terremoto de L’Aquila nel 2009; con gli eventi poi del 2012 in Emilia Romagna e poi quelli del 2016-17 in centro Italia, direi che tutti gli operatori hanno acquisito una notevole dimestichezza, passando nel contempo per molti terremoti meno distruttivi.
Comunque, ogni sequenza ci ha insegnato qualcosa, e fatto capire concretamente pregi e limiti della scala. In figura la mappa delle località alle quali, dopo la scossa del 24 agosto 2016, è stato assegnato un grado di intensità secondo la EMS98.

Senza titolo

Una delle novità più importanti della EMS-98 è stata la differenziazione dei tipi di costruzioni in classi di vulnerabilità. Ci potete commentare questa tabella alla luce della esperienza italiana?

Schermata 2019-05-26 alle 11.42.42

GB. Il patrimonio edilizio italiano è caratterizzato da una grande prevalenza di edilizia storica, quindi in muratura per la quale l’EMS-98 ha permesso di distinguere, sostanzialmente, in due classi: “A” e “B”, dove la “B” raccoglie la gran parte degli edifici mentre nella “A” vengono facilmente relegati i casi patologici. Rari sono i casi di sconfinamento in “C” e rarissimi in “D” (muratura armata). Questo perché per la muratura le normative tecniche, fino agli anni 80 del secolo scorso, fornivano essenzialmente regole di buona esecuzione e nessun calcolo vero e proprio; addirittura solo dal 2003 sono state introdotte le verifiche sismiche. Anche nelle recenti NTC 2018 per “costruzioni semplici”, che rispettano certe regole e limiti, gran parte dei calcoli vengono o semplificati o, addirittura, non richiesti.

Più complessa è la situazione del Cemento Armato; l’espansione urbanistica post bellica, avvenuta in maniera rapida e incontrollata, il fenomeno dell’abusivismo e una certa propensione tutta italiana di vedere la struttura come qualcosa di secondario rispetto agli aspetti estetici, ha portato ad un risultato in cui è più complesso collocare il singolo edificio nella corretta classe. Se poi aggiungiamo gli scempi spesso subiti, sempre dalle strutture, per l’inserimento o il rifacimento di impianti o per ristrutturazioni architettoniche, l’evoluzione della classificazione sismica, della normativa sismica, risulta molto complicato l’utilizzo della “tavola di vulnerabilità”, soprattutto nel rapido rilievo che si effettua per la valutazione macrosismica.

Quali sono i maggiori pregi della EMS-98 utilizzata sul campo e quali le maggiori difficoltà incontrate nella sua applicazione?

AT. Senza entrare troppo nel dettaglio si può dire che il vantaggio maggiore della EMS-98 è proprio la possibilità di poter classificare l’edificato in diverse classi di vulnerabilità, relative a edifici che rispondono diversamente all’azione sismica. Possiamo quindi osservare nel dettaglio come edifici diversi reagiscono al terremoto. Le scale precedenti consideravano complessivamente il danno a tutto l’edificato, conducendo a volte a valutazioni fuorvianti specie dove gli edifici sono molto diversi tra di loro. Inoltre questa caratteristica spinge l’operatore a raccogliere dati con maggiore cura che in passato, con evidente beneficio per le successive analisi e una maggiore robustezza del risultato. Di contro, e veniamo alle difficoltà, questo presuppone una preparazione più scrupolosa da parte del rilevatore e anche un maggior dispendio di tempo in campagna.

La EMS-98 e le sue componenti sembrano avere avuto un discreto successo presso gli ingegneri, ma per finalità diverse da quelle strettamente macrosismiche (addirittura viene utilizzata nel decreto “Sismabonus”). Ci potete commentare questo punto? Significa che gli aspetti ingegneristici della scala sono descritti in modo opportuno?

GB. Ritengo che gli aspetti ingegneristici siano affrontati nella maniera corretta, stante la finalità che la scala si prefigge. Per scopi di pianificazione a grande scala, per studi di scenario a fronte di eventi sismici, una classificazione come quella macrosismica non solo è utile, ma è anche l’unica realizzabile in maniera diffusa. Inoltre l’assegnazione della classe di vulnerabilità macrosismica è anche utile come primo approccio al problema della sicurezza del singolo fabbricato a due condizioni: che venga eseguita da un esperto in materia e che gli venga dato il suo reale valore, ossia non considerarla una verifica di sicurezza per la quale è indispensabile procedere secondo i dettami rigorosi della scienza e della tecnica delle costruzioni e rispettando la normativa sismica.

In Italia si continua a usare la cosiddetta scala MCS (di cui – per inciso – non si riesce a trovare una versione “ufficiale”), soprattutto per i terremoti storici, i database macrosismici e i cataloghi sismici, ma anche per i terremoti recenti. Ci potete commentare questo aspetto? C’è molta differenza fra le stime nelle due scale?

RA. In effetti, la gran parte dei dati macrosismici contenuti nei cataloghi e banche-dati, sono espressi secondo l’intensità MCS; fortunatamente la situazione sta cambiando molto dal 2009 in poi, e il numero di dati di intensità valutati secondo la EM-98 è aumentato significativamente. Questo decennio di “sovrapposizione”, tra applicazioni sul campo e studi storici, ci ha fatto capire le principali differenza nelle stime: con la EM-98 la soglia del danno è fissata al V grado, mentre con la MCS si va formalmente al VI grado, anche se in molti studi in caso di danni lievi e occasionali si preferiva assegnare il V-VI. Per i gradi intermedi in genere c’è una buona corrispondenza tra le due scale, mentre per quelli più alti (diciamo dal IX grado in su) in alcuni casi la differenza può essere più marcata, con valori della MCS tendenzialmente più alti.

I media e il pubblico fanno ancora un sacco di confusione fra magnitudo e intensità. Cosa potete suggerire?

GB. Posso riportare quanto mi disse un mio amico aquilano (e quindi già tristemente esperto di terremoti!!) dopo la scossa del 30 Ottobre 2016 in cui le primissime stime davano, addirittura, una magnitudo oltre 7 “….è vero, l’intensità era 7 ma per non dare i contributi l’hanno abbassata a 6!!!”. In tempi di fake news, almeno la stampa e i media in generale dovrebbero limitare l’invasione di campo in ambito tecnico-scientifico e gli esperti cercare si di farsi intendere semplificando la comunicazione, mantenendo però il necessario minimo rigore per non creare fraintendimenti.

RA. La confusione fra magnitudo e intensità rimane l’errore più mortificante in cui ci imbattiamo come operatori del settore. A proposito dell’aneddoto accennato sopra, al mio interlocutore spiego sempre che il valore della magnitudo strumentale è bene che venga rivisto via via che arrivano ulteriori dati dalle stazioni della rete sismica, ma quello che interessa soprattutto ai fini applicativi è avere stime affidabili della intensità macrosismica.

AT: Sulla confusione tra magnitudo e intensità mi sembra che non ci sia altro da dire, se non che è dovuto ad una diffusa ignoranza scientifica di base, purtroppo cronica nel nostro paese. E su questo INGV sta cercando di mettere “una pezza” sia con progetti educativi verso le scuole, sia con attività divulgative sui propri canali social che riscuotono notevole successo.

Un elenco di studi macrosismici eseguiti negli ultimi 20 anni è rintracciabile allo stesso indirizzo http://quest.ingv.it/
Utile può essere anche una lettura sulla storia delle scale macrosismiche scaricabile qui: http://editoria.rm.ingv.it/quaderni/2019/quaderno150/