Forti terremoti e giacimenti di metano: una relazione difficile? (colloquio con Gianluca Valensise)

Sismologo di formazione geologica, dirigente di ricerca dell’INGV, Gianluca Valensise è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Nel 2022 ha pubblicato un articolo, di cui è primo autore, in cui si presenta l’ipotesi che esista una anti-correlazione fra giacimenti di gas e faglie inverse sismogenetiche superficiali. Gli abbiamo rivolto alcune domande.

Nel comunicato stampa (1) dell’Istituto Nazionale di Oceanografia e Geofisica Sperimentale (4 febbraio 2022), rilasciato da questo ente in quanto alcuni autori vi appartengono, si afferma che “che la presenza di una giacimento di metano al di sopra di una grande faglia attiva indica che quella faglia difficilmente genererà terremoti forti”. È così?

Si, è così. L’articolo (2), scritto con quattro colleghi dell’OGS di Trieste, pone un questione intrigante ma in fondo semplice. La più diffusa modalità di creazione di un giacimento di metano è attraverso la generazione di ‘trappole strutturali’, come le anticlinali: porzioni della crosta superiore dove le rocce sono state inarcate dalla tettonica, e dove i vari orizzonti deformati generalmente mostrano una forte differenza di permeabilità (Fig. 1). In Italia, come lungo tutta la fascia di collisione tra Africa e Europa, il metano è molto spesso ospitato in giacimenti (‘gas reservoir’ in Figura 1) formati da rocce granulari, come le arenarie, sovrastate da strati di argille, che impediscono al metano di salire in superficie e disperdersi nell’atmosfera. Ma per generare una anticlinale ci vuole una faglia inversa (più propriamente, una faglia da thrust), ovvero compressiva. Si tenga presente che la struttura di tutto l’Appennino è fatta di faglie inverse e anticlinali generate da un regime tettonico ormai in parte estinto (l’Appennino è un tipico ‘fold-and-thrust belt’): anch’esse possono aver ospitato importanti giacimento di metano, ma il sollevamento che ha interessato tutta la catena durante il Quaternario ha causato l’erosione di quelle rocce più giovani che impedivano al gas di rimanere intrappolato, causandone la lenta ma inesorabile dispersione nell’atmosfera (e, incidentalmente, aumentando l’incidenza dei gas serra). Oggi i giacimenti produttivi sono solo quelli della cosiddetta  ‘avanfossa’  – Pianura Padana, Mar Adriatico e Ionio, canale di Sicilia – dove l’edificio appenninico non è stato ancora sollevato e smantellato (un verbo molto appropriato, in questo caso).

Figura 1 – Rappresentazione schematica del margine compressivo dell’Appennino settentrionale, sepolto sotto i depositi della Pianura Padana.

Ci racconti brevemente come è nata questa idea e come avete provato a verificarla?

Tutto è iniziato dai terremoti del 20 e 29 maggio 2012 nella bassa modenese. Terremoti abbastanza forti ma non straordinari per l’Italia – di magnitudo Mw 6.1 e 5.9, rispettivamente – ma di certo inattesi, quantomeno dai non addetti ai lavori oltre che da alcuni nostri colleghi smemorati. In effetti si è trattato di terremoti normalissimi, ancorché rari, simili ad altri accaduti storicamente nella Pianura Padana. Tuttavia, complice la rarità dei terremoti in quelle zone, e forse complici anche le idee No-Triv che si stavano diffondendo in quegli anni, furono in molti – tra cui anche alcuni noti geologi e geofisici (3) – a sostenere che quei terremoti potevano essere stati innescati dalle attività di sfruttamento degli idrocarburi. Altri invece, tra cui Marco Mucciarelli e il sottoscritto, ritenevano che si trattasse di una mera coincidenza, e che  fosse sbagliato usare le attività di estrazione degli idrocarburi come “capro espiatorio”. Io in particolare, già dal 1999 avevo lavorato e pubblicato sulle faglie sepolte della Panura Padana, nell’ambito di un progetto europeo coordinato da Marco stesso: una di queste era proprio la Faglia di Mirandola, quella che avrebbe poi causato il terremoto del 29 maggio 2012. Una faglia che fu censita nel database DISS (4) già dal prototipo pubblicato nel luglio 2000, e la cui proiezione in superficie è mostrata con il codice ITIS107 nella Figura 2, tratta da un primo articolo che scrivemmo sul tema nel 2015 (5). Marco osservò che intorno alla sorgente del terremoto del 29 maggio tutti i pozzi a metano erano sterili. Ricordo ancora cosa mi disse: “Luca, la ragione per cui in quella zona non ci sono campi a gas è esattamente la presenza di una faglia attiva e sismogenetica”.

Figura 2 – Il rettangolo azzurro mostra l’area di studio dell’articolo pubblicato nel 2015 (5), la proiezione in superficie delle Sorgenti Composite e Individuali (rispettivamente in arancione e in rosso) allora censite nel DISS, e i 455 pozzi analizzati. I simboli in violetto e in verde indicano rispettivamente pozzi produttivi e pozzi sterili.

L’idea era nata. Per l’area padano-adriatica – la regione da cui proviene gran parte del metano estratto in Italia – il database DISS nel 2012 già censiva nove ‘Sorgenti Individuali’ simili a quella di Mirandola (in rosso in Figura 2). Nel 2014 decidemmo di studiare le relazioni spaziali tra le sorgenti sismogenetiche note e la distribuzione di 455 pozzi per estrazione di gas in una porzione di circa 10.000 km2 della Pianura Padana centro-meridionale. L’obiettivo era capire se l’osservazione di Marco, ovvero che le faglie sismogenetiche rendevano sterili i giacimenti a gas posti al di sopra di esse, era sistematica o casuale. Nel citato articolo pubblicato nel 2015 (5) dimostravamo la sistematicità di quanto ipotizzato da Marco, sulla scorta di una validazione statistica della distanza tra la proiezione in superficie delle Sorgenti Composite e Individuali e i pozzi analizzati, produttivi o sterili. Si noti che questi ultimi non vanno confusi con i pozzi che oggi sono improduttivi perché il relativo giacimento è stato sfruttato completamente; questi pozzi, che ai nostri fini rientrano tra quelli produttivi, sono detti ‘depleti’.

Avete un modello che spieghi le cose oppure si tratta di una evidenza di tipo statistico, ancora da interpretare?

Sì. Abbiamo un modello semplice, anche se illustrarlo richiede qualche conoscenza di base di geologia e sismologia. La Figura 3 schematizza l’anticlinale sepolta di Mirandola: una anticlinale più grande della media, generata da una faglia in grado di generare terremoti di magnitudo 5.5 e più, come poi si è visto, e sepolta dai depositi successivi, molto più giovani e quindi meno deformati dalla tettonica, che coprono la struttura profonda come una coperta spessa da centinaia di metri ad alcuni km. Come tutte le grandi anticlinali, anche questa cresce in virtù della compressione, che causa l’avvicinamento dei blocchi crostali sui due lati della struttura. Tra il bordo inferiore della figura, che può corrispondere a una profondità tra 5 e 10 km, e il punto del piano di thrust (indicato in rosso) più vicino alla superficie, a circa 2-3 km, la compressione è accomodata dalla dislocazione sulla faglia stessa: la quale, come già detto, non si propaga fino alla superficie, ma resta “cieca”. Ne consegue che nei primi 2-3 km della crosta le rocce vengono inarcate, ma non fagliate, se non in maniera secondaria. L’inarcamento crea una trappola per i fluidi del sottosuolo che migrano verso l’alto – in questo caso il metano; lo strato impermeabile (in beige) li tiene intrappolati nel sottosuolo.

Figura 3 – Schema dell’anticlinale di Mirandola. Si veda il testo per la discussione delle sue diverse componenti.

Sappiamo anche che non tutte le faglie generano terremoti, anche se attive: una deformazione lenta ma non sismica può essere assorbita dal sistema senza guasti. Ma se la faglia si comporta in modo non asismico ma ‘stick slip’, ovvero caricando deformazione tettonica e poi scaricandola in un istante con un forte terremoto, allora ci dobbiamo aspettare che al di sopra della faglia stessa si creino – e progressivamente si rinnovino – della fratture. Questo avviene perché il forte terremoto richiede dislocazione istantanea su tutto il piano di faglia, massimizzando la formazione di fratture nella porzione più superficiale della crosta. Queste fratture potranno essere sia compressive, causate dal tentativo della faglia primaria di raggiungere la superficie, sia estensionali, create sul culmine dell’anticlinale come effetto secondario dell’inarcamento: queste sono chiamate faglie di estradosso, ed è soprattutto attraverso di esse che il serbatoio di metano può “perdere” e quindi svuotarsi (si veda il simbolo indicato con ‘gas leakage’ in Figura 3).
Torniamo ora alla ricerca di idrocarburi, che si concentra su queste anticlinali sepolte per trovare e sfruttare il metano. Se la struttura della trappola è ideale, come nell’immagine, quasi sicuramente il metano avrà provato a concentrarsi nel nucleo dell’anticlinale: ma dipenderà dal carattere sismico o asismico della sottostante faglia se poi sarà rimasto lì fino ad oggi, consentendo a noi di estrarlo, o si sarà disperso nell’atmosfera. La Figura 4, tratta dal nostro articolo del 2022 (2), documenta nel dettaglio come il metano che nel tempo geologico si era accumulato al nucleo dell’anticlinale di Mirandola potrebbe essersi disperso nell’atmosfera, terremoto dopo terremoto.

Figura 4 – Area delle Terre Calde in prossimità di Medolla (MO). In alto a destra: dettaglio della proiezione in superficie della sorgente sismogenetica già identificata come ITIS107, qui mostrata in giallo, responsabile del terremoto del 29 maggio 2012. In basso a destra: profilo topografico lungo la sezione mostrata da una linea bianca. I tre siti M3, M14 e M20 sono emanazioni di gas dominate dal metano: se ne veda la discussione nel testo. Nella colonna di sinistra sono mostrate le percentuali di metano rilevate sul totale delle emanazioni tra il 2008 e il 2015.

La Figura 4 mostra emanazioni naturali note già dalla fine dell’Ottocento perché causano il riscaldamento del suolo e distruggono la vegetazione, da cui il nome di ‘Terre calde’ dato alla località. Come mostra la sezione topografica, le emanazioni ricadono esattamente lungo l’asse di massimo inarcamento dell’anticlinale sepolta, dove è attesa l’esistenza di faglie normali secondarie di estradosso. Misure effettuate tra 2008 e 2015 (6) mostrano chiaramente sia un segnale di fondo pre-terremoto, sia un forte aumento iniziato in corrispondenza del terremoto e protrattosi per oltre due anni. Questo quadro è congruente con le ipotesi da noi formulate, ovvero che i giacimenti che si trovano al di sopra di faglie sismogenetiche siano soggetti a perdite continue, e sembra dimostrare il ruolo delle faglie di estradosso nel fungere da via di fuga preferenziale del metano.

Questa vostro risultato può avere un notevole impatto sia sugli aspetti legati alla estrazione che su quelli della pericolosità sismica. In particolare state sostenendo che si possono individuare faglie potenzialmente sismogenetiche che potrebbero essere “rimosse” dalle valutazioni di pericolosità sismica, giusto?

Esattamente. Il nostro lavoro ha una tripla valenza: ai fini della ricerca degli idrocarburi, perché sarà possibile dirigere l’esplorazione evitando in partenza aree quasi certamente prive di giacimenti produttivi; nei riguardi del rapporto tra terremoti potenzialmente disastrosi ed esplorazione per idrocarburi, perché dallo studio si evince che terremoti come quello del 29 maggio 2012 devono essere accaduti ripetutamente nel passato geologico, dunque senza responsabilità umane; e per una corretta valutazione della pericolosità sismica locale, perché la mera presenza di un giacimento a metano potrà essere assunta come una prova del comportamento asismico della faglia sottostante.
Sia chiaro: che esistano grandi faglie asismiche lo si sa da sempre: noi abbiamo solo proposto un criterio utile a riconoscerle e discriminarle. E come tu stesso hai sottolineato, una faglia che si muove in modo non sismico va studiata e censita, ma non è di interesse per la pericolosità sismica. A questo riguardo voglio sottolineare che il DISS è uno strumento che censisce sorgenti sismogenetiche potenziali: grandi faglie evidenziate soprattutto per via geologica o geofisica, ma per le quali non sempre si ha la prova che abbiano causato forti terremoti, cosa che potrebbe essere avvenuta in epoca preistorica. E ovviamente, se quelle faglie hanno generato terremoti in passato, ne genereranno altri in futuro.

Figura 5 – Slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale.

La Figura 5 mostra gli slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale, scelte tra quelle che mostrano cinematica compressiva e sono ‘cieche’, ovvero non arrivano ad interessare la superficie topografica. Si nota che i valori – espressi in millimetri/anno, equivalenti a metri/ millennio – decrescono lentamente da est a ovest.

Figura 6 – Sismicità della stessa area mostrata in Fig. 5, dal catalogo CFTI5Med.

La Figura 6 mostra invece la sismicità della stessa area, tratta dal catalogo CFTI5Med (7). Per quanto riguarda il lato appenninico (meridionale) della Pianura Padana, si nota una rarefazione della sismicità procedendo verso ovest, mentre sul lato sud-alpino (settentrionale) la sismicità è molto limitata e quasi assente a ovest di Brescia, con la sola eccezione del terremoto di Soncino del 1802 (mostrato da un asterisco rosso poco a nordest di Crema). Il rapporto tra l’energia sismica storicamente rilasciata in una determinata area e quella che le faglie censite in quell’area potrebbero generare (in funzione delle loro dimensioni e del loro slip rate) è detto ‘efficienza sismica’ o ‘accoppiamento sismico’. In Pianura Padana questo parametro è basso, nell’ordine del 20-30%.
La nostra interpretazione complessiva è che solo alcune delle strutture compressive censite, a ciascuna delle quali corrisponde una anticlinale e un giacimento di metano almeno potenziale, sono in grado di generare terremoti prossimi alla magnitudo massima tipica di questo settore, che è intorno a 6.0 o poco più. Le altre – che sono la maggioranza – si muovono in modo asisimico, e quindi dovrebbero essere escluse del tutto in una valutazione di pericolosità sismica a scala regionale, in quanto non in grado di generare forti terremoti ma al massimo sismicità di fondo.

Stiamo parlando di qualche cosa di tipicamente italiano oppure generalizzabile anche altrove, e eventualmente dove?

La nostra ricerca e le nostre ipotesi valgono solo per i giacimenti associati a faglie compressive, attraverso il meccanismo che ho delineato (creazione di una anticlinale e migrazione degli idrocarburi al nucleo della stessa). Questo è il tipo di giacimenti molto comune in Italia, ma non necessariamente in tutto il resto del globo. Un’area in cui la nostra ipotesi si potrebbe applicare è la catena montuosa degli Zagros, in Iran. Si tratta di uno dei distretti di produzione di idrocarburi più importanti al mondo, dove studi ormai consolidati basati su dati sismologici e geodetici mostrano che l’efficienza sismica è molto bassa, addirittura intorno al 10%. Condizioni simili si osservano in altri paesi del Medio Oriente, in California, nel Maghreb, ma non nelle aree stabili del pianeta, come il cratone russo-siberiano all’interno del blocco eurasiatico: zone dove peraltro il problema sismico non si pone affatto, e dove la presenza o assenza di idrocarburi dipende da altri meccanismi.

Oltre alla tua presentazione al Convegno del Gruppo Nazionale per la Geofisica della Terra Solida (GNGTS) di Ferrara del 2024, avete presentato altrove i vostri risultati? Che ricevimento ha ottenuto l’articolo in ambito scientifico, nazionale e internazionale? Mi sembra che la portata delle cose in ballo avrebbero dovuto suscitare molto interesse…..

L’articolo è stato presentato nel 2024 in una delle riunioni periodiche del Co2Geonet (8), un consorzio europeo nato nel 2004 per trattare le problematiche poste dalla pratica dello stoccaggio geologico permanente della CO2. Questa pratica condivide molti aspetti con quella dello stoccaggio temporaneo di metano, che prevede di pompare il gas in vecchi giacimenti ormai esauriti in estate per poi recuperarlo d’inverno, quando la richiesta di energia è maggiore. Devo però ammettere a malincuore che almeno fino ad oggi le nostre conclusioni non hanno suscitato un interesse all’altezza delle aspettative (quantomeno le mie).
Per quanto riguarda la prima e la seconda valenza del nostro lavoro, che riguardano la ricerca di idrocarburi e le possibili ‘colpe’ derivanti dal loro sfruttamento, io speravo che i nostri risultati potessero contribuire a tranquillizzare tutti coloro i quali temono che l’attività estrattiva o di stoccaggio possa causare forti terremoti. Ma la questione posta dai NoTriv evidentemente non è più così pressante, perché di nuove trivellazioni si parla sempre meno; e comunque, i giacimenti di metano più promettenti sono nel Mar Adriatico e nel Canale di Sicilia, quindi relativamente distanti dai centri abitati, e di conseguenza meno critici dal punto di vista ambientale.
Per quanto riguarda la terza valenza, quella relativa alla pericolosità sismica, osservo che:

(a) nelle valutazioni di pericolosità a scala regionale, l’uso diretto delle sorgenti sismogenetiche come quelle fornite dal DISS è tuttora in una fase iniziale;

(b) esiste una certa ritrosia a trattare il dualismo sismico/asismico, forse per la difficoltà di valutare questo carattere per ciascuna sorgente;

(c) al momento non sono in corso nuovi progetti di rivalutazione della pericolosità sismica a scala italiana. Questo ovviamente non impedisce ai ricercatori operanti su questo tema di intraprendere iniziative a scala più limitata: esperienze-pilota eventualmente estendibili a scala più ampia.

State proseguendo questa ricerca?

Al momento no: siamo in una pausa di riflessione, motivata sia da quanto ho appena scritto sul finora limitato recepimento dei nostri risultati, sia dal fatto che probabilmente abbiamo raggiunto un punto oltre il quale sarà difficile spingersi, perché:

(a) dal punto di vista delle osservazioni e di un possibile rafforzamento delle nostre ipotesi, annoto che nell’articolo del 2022 abbiamo correlato 1.651 pozzi a metano, sterili e produttivi, con 18 sorgenti sismogenetiche. Sappiamo che questi dati non aumenteranno né miglioreranno in un prossimo futuro, se non in misura marginale;

(b) per dimostrare che il fenomeno non è solo italiano si potrebbe esplorare come vanno le cose in altre aree del globo; ma purtroppo non sono molti i paesi per i quali si dispone di dati ordinati e di buona qualità come quelli che abbiamo avuto la fortuna di usare noi;

 (c) si potrebbe poi esplorare meglio il meccanismo dal punto di vista teorico, ma onestamente non saprei da dove partire e comunque non avrei l’expertise necessario..

Nel campo delle applicazioni alla pericolosità sismica invece ci sarebbe molto da fare: ne farò un esempio pratico. Il DISS censisce sorgenti sismogenetiche che passano sotto grandi città come Bergamo e Brescia, e si avvicinano a Cremona e persino alla stessa Milano: tutte ben documentate da affidabili dati di sottosuolo forniti nel secondo dopoguerra dalla stessa esplorazione per la ricerca degli idrocarburi. Fino ad oggi queste sorgenti sono entrate in misura limitata nelle valutazioni di pericolosità – mi riferisco al modello MPS19, completato dall’INGV ormai qualche anno fa (9); ma ritengo che se entrassero con decisione aumenterebbero non poco la pericolosità sismica stimata per quelle città, a fronte di una sismicità storica e strumentale molto limitata.

Nell’articolo pubblicato nel 2022 abbiamo proposto che in future applicazioni si tenga conto di quanto da noi evidenziato: ma di certo il percorso da compiere sarebbe lungo, articolato, e non facilmente digeribile neppure dalla comunità scientifica di riferimento. Per spiegarmi meglio provo a fare un passo indietro e una sintesi:

–    come già detto, le sorgenti sismogenetiche del DISS, ovvero derivate da dati geologici e geofisici, sono ancora poco usate nei modelli probabilistici, anche se si sta diffondendo il loro uso in applicazioni di tipo deterministico;

–    nel corso del processo di individuazione delle sorgenti è aumentata la consapevolezza che anche in Italia esistono grandi faglie che hanno un comportamento prevalentemente asismico, e come tali non contribuiscono a creare pericolosità sismica. Una situazione abbastanza paradossale, in virtù della quale chiunque potrebbe chiedersi se il DISS non crei più dubbi di quanti ne dissolve;

–   queste ‘faglie asismiche’ andrebbero identificate una per una, così da poterle “spegnere” selettivamente ai fini dei calcoli di pericolosità; ma questa identificazione non l’abbiamo ancora avviata, a causa di varie difficoltà e incertezze tra gli stessi geologi;

–    il caso vuole che queste faglie asismiche siano localizzate soprattutto nel nord del Paese, in aree densamente popolate: questo rende qualsiasi scelta ancora più critica;

–    per di più, parliamo di faglie cieche, sepolte sotto un paesaggio pianeggiante, il che nell’immaginario collettivo contrasta con i contesti montuosi che caratterizzano la maggior parte dei grandi terremoti italiani, come quelli del 2016-2017 nell’Appennino centrale. Faglie cieche che, per un ulteriore paradosso, sono ben illuminate dalla sismica d’esplorazione condotta a partire dal secondo dopoguerra per la ricerca di idrocarburi, e finiscono per essere meglio identificabili e note di molte delle faglie sismogenetiche che attraversano l’Appennino.

Potrebbe quindi crearsi un problema di ‘pubblica accettazione’ di questi risultati della ricerca. Per dirla in una battuta, bisognerebbe prima avvertire i lombardi – e non solo loro – che sotto i loro piedi esistono delle faglie simili a quelle che affliggono altre zone dell’Italia, e un attimo dopo rassicurarli spiegando che molte di quelle faglie in effetti sono innocue.
Quello che si dovrebbe fare a questo punto è lanciare un progetto-pilota per quantificare sia l’impatto dell’introduzione massiccia delle sorgenti sismogenetiche nei calcoli di pericolosità dell’Italia settentrionale, sia l’effetto del loro “spegnimento selettivo” alla luce delle considerazioni fin qui svolte. Anzi, approfitto di questa tua intervista per sollecitare contributi dialettici a questo dibattito e concrete proposte di collaborazione nella direzione che ho appena indicato. E ti ringrazio per aver creato questa occasione di dialogo.

Bibliografia

(1) https://www.ogs.it/it/press/nuovi-risultati-sulla-relazione-tra-giacimenti-di-metano-e-forti-terremoti

(2) https://www.nature.com/articles/s41598-022-05732-8

(3) https://www.science.org/doi/10.1126/science.345.6196.501

(4) https://diss.ingv.it

(5) https://nhess.copernicus.org/articles/15/2201/2015/nhess-15-2201-2015.html

(6) https://www.nature.com/articles/s41598-017-14500-y

(7) https://storing.ingv.it/cfti/cfti5/

(8) https://conference2024.co2geonet.com

(9) https://www.annalsofgeophysics.eu/index.php/annals/article/view/8579

La nuova versione di DISS, il database delle sorgenti sismogenetiche (colloquio con Gianluca Valensise)

Gianluca Valensise, sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Gli abbiamo chiesto di commentare l’ultima versione, pubblicata di recente.

Gianluca, puoi spiegare ai non addetti ai lavori in che cosa consiste questo database?

Il Database of Individual Seismogenic Sources, o DISS, è uno strumento ideato per censire le sorgenti sismogenetiche, ovvero le faglie in grado di generare forti terremoti che esistono su uno specifico territorio, esplorandone le dimensioni, la geometria e il comportamento atteso, espresso dallo slip rate e dalla magnitudo degli eventi più forti che tali faglie possono generare. Presenta delle somiglianze con un catalogo/database della sismicità storica, nella misura in cui fornisce informazione georeferenziata sul verificarsi dei forti terremoti, potendo fungere da base di partenza per l’elaborazione di modelli di pericolosità sismica a varie scale spaziali e temporali; tuttavia se ne differenzia per due ragioni fondamentali. La prima è quella di essere principalmente basato su informazione geologica, geofisica e sismometrica, e in parte anche storica. La seconda, che ne rappresenta la vera forza, e quella di “guardare in avanti” in modo esplicito, proponendo dove potrebbero accadere i terremoti del futuro e con quali caratteristiche. Anche un catalogo storico può essere utilizzato con le stesse finalità, sulla base del principio-cardine della Geologia per cui è possibile “ribaltare sul futuro” gli eventi naturali che abbiamo visto nel passato; ma l’immagine del futuro che potrà derivare da quest’operazione è certamente meno nitida di quella che si può ottenere ipotizzando l’attivazione futura di sorgenti sismogenetiche delle quali, almeno nell’ambito di incertezze anche ampie, riteniamo di conoscere le caratteristiche fondamentali, come lunghezza, profondità, cinematica e magnitudo del terremoto più forte che possono generare.

Perché ‘sorgenti sismogenetiche’ e non semplicemente ‘faglie’?

Questo è un quesito importante, che richiede un flashback di circa mezzo secolo. Un’acquisizione relativamente recente nel campo delle Scienze della Terra – parliamo di qualcosa che ha iniziato ad emergere sostanzialmente sugli anni ’70 e gli anni ’80, quantomeno in Italia – è che le faglie che attraversano e dislocano la crosta terrestre sono fortemente gerarchizzate. Fino ad allora aveva prevalso una visione decisamente “piatta” del problema, in virtù della quale tutte le faglie indistintamente venivano considerate in grado di generare terremoti, purché attive; inoltre si tendeva a non cogliere la loro tridimensionalità, anche perché questa caratteristica si scontrava con l’incapacità del geologo di osservare il pianeta a profondità superiore a poche decine di metri, se non attraverso trivellazioni o attraverso l’esecuzione di profili sismici, usando tecnologie sviluppate a partire dal secondo dopoguerra dalla nascente industria degli idrocarburi. A quell’epoca i sismologi venivano soprattutto dal mondo della Fisica, dunque avevano una chiara percezione delle dimensioni e della tridimensionalità della sorgente di un forte terremoto ma non erano in grado di inquadrarla nella realtà geologica; per loro la faglia era al massimo un piano idealizzato nello spazio. Quella realtà ovviamente la maneggiavano bene i geologi, i quali però in quel momento del fenomeno sismico coglievano soprattutto gli effetti di scuotimento, ed eventualmente la loro variabilità legata alla geologia di superficie.

Il punto di svolta che ha riavvicinato queste due culture, un tempo quasi contrapposte, è rappresentato dal terremoto dell’Irpinia del 1980 e dalle successive ricerche sul terreno. Le ricerche sugli aspetti geologici di questo terremoto iniziarono subito ma finirono già nel 1981, quando io ero ancora studente; ripresero nel 1984, per merito di due studiosi inglesi, e furono poi proseguite da Daniela Pantosti e dal sottoscritto nel novembre 1986. Seguirono a ruota nuove ricerche sui terremoti del 1915 nella Marsica e del 1908 nello Stretto di Messina.
Alla fine degli anni ’80 iniziarono quindi ad essere indagati a fondo i terremoti più forti del secolo scorso, per i quali erano disponibili sia dati strumentali, sia osservazioni di terreno su come ciascun evento si inquadrava nell’evoluzione della geologia recente e del paesaggio. Apparve finalmente chiaro anche ai geologi italiani che un forte terremoto è generato da una grande faglia, lunga anche 50 km (in Italia); talora inaccessibile all’indagine diretta, ma che attraverso il suo movimento ripetuto nel tempo diventa l’attore principale dell’evoluzione della geologia e del paesaggio dell’area in cui si trova. L’attività di questo elemento di ordine zero, che noi chiamiamo sorgente sismogenetica e che non necessariamente appare in superficie (si parla allora di una faglia ‘cieca’), determina a sua volta la formazione di un complesso reticolo di faglie gerarchicamente subordinate nel volume di roccia in cui è immerso. Queste faglie minori, che per lo più non sono in grado di generare terremoti, rappresentano certamente una evidenza diretta dell’esistenza della sorgente profonda e sono certamente ‘attive’ in senso geologico; ma allo stesso tempo è difficile – se non impossibile – evincere da esse i caratteri della sorgente profonda.

Dunque in che cosa il DISS si differenzia dai database delle faglie attive?

La risposta discende direttamente da quanto ho appena asserito. Il DISS (si veda l’immagine, che mostra la pagina di ingresso alla consultazione della versione 3.3.0 del database, pubblicata a dicembre del 2021), si propone di censire con la massima accuratezza delle sorgenti sismogenetiche, ovvero delle strutture di ordine gerarchico principale che possono causare forti terremoti; anche se, come spesso accade, tali strutture sono cieche, ovvero prive di un’espressione superficiale diretta, cioè fragile, o sono addirittura in mare. Un’ampia sintesi di cosa è il DISS e di cosa contiene, seppure non molto aggiornata, è fornita in Basili et al. (2008). Ovviamente prima di censirle bisogna identificarle, queste sorgenti, verificando i rapporti di ciascuna con quelle adiacenti: un tema di ricerca che ancora oggi non viene insegnato in alcun ateneo, per quello che mi risulta.
A sua volta, un database di faglie attive – in Italia abbiamo ITHACA (ITaly HAzard from CApable faults), nato nel 2000 e gestito dall’ISPRA – tende a censire tutte le faglie che interessano un determinato territorio e che si sono mosse in tempi relativamente recenti (a seconda dei casi si ragiona sugli ultimi 10.000 anni, o sugli ultimi 40.000 anni, o anche su tempi più lunghi). Tuttavia, essendo basato quasi esclusivamente sull’evidenza di superficie, questo database difficilmente potrà contenere faglie cieche di qualunque ordine gerarchico, incluse quelle primarie, e tantomeno faglie a mare.

Schermata 2022-05-04 alle 22.53.42Si badi bene che dietro questo dualismo ci sono due visioni molto differenti della ricerca sulla sismogenesi. Il DISS “parte dai terremoti”, mentre ITHACA (così come tutte le compilazioni simili in giro per il mondo) “parte dalle faglie”. Dove c’è stato un forte terremoto ci deve essere per forza una grande sorgente sismogenetica, e questo spiega anche perché il DISS sia nato in qualche modo “imparentato” con il CFTI, il Catalogo dei Forti Terremoti in Italia, che non a caso è arrivato a piena maturazione fra il 1997 e il 2000. Sapendo che i grandi trend sismogenetici sono relativamente pochi e relativamente regolari, l’obiettivo iniziale del DISS era quello di ricostruire al meglio che fosse possibile questa “litania” di sorgenti sismogenetiche, messe in fila come un trenino. C’era un fatto certo, il terremoto – e questo implicava anche una sconfinata fiducia nelle capacità e nell’importanza della sismologia storica, che io ancora oggi difendo strenuamente – e c’era un esito incerto, ovvero la nostra capacità di “capire” la sorgente di quel terremoto. Viceversa, nella ricerca sulle faglie attive di superficie prima di tutto contano le faglie stesse, ovvero conta la capacità – mai scontata – di identificare importanti dislocazioni sul terreno e di certificarne “l’attività”; i terremoti semmai arrivano dopo, venendo “calati,” talvolta addirittura “forzati”, sulle strutture individuate, con la sola eccezione di quei pochissimi casi in cui siamo stati testimoni diretti sia dello scuotimento sismico, sia degli effetti geologici di superficie.

Un caso per tutti è quello del terremoto del 1693 nell’area iblea, che si trovò a essere assegnato alla cosiddetta scarpata ibleo-maltese, distante qualche decina di chilometri dall’area dei maggiori effetti di quell’evento, e che oggi in molti riteniamo essere in terraferma, probabilmente sotto la dorsale del Monte Lauro. Ritenevo – e a maggior ragione ritengo oggi ­– che quello fu un errore concettuale, basato sulla presunzione che tutte le faglie sismogenetiche abbiano un’espressione superficiale, e per di più, che siano ‘poche’. Ma era una presunzione, appunto, perché come già accennato, molte grandi faglie sismogenetiche sono parzialmente o totalmente cieche; ed erano gli stessi terremoti a mostrarci qualcosa che le faglie attive di superficie, evidentemente un sottoinsieme di tutte le faglie che attraversano la crosta terrestre, non avrebbero mai potuto insegnarci. Mi riferisco al terremoto del 1980 in Irpinia, generato da un faglia che arrivava in superficie ma che mai avrebbe potuto essere identificata a priori (in compenso ne venivano identificate numerose altre, che però quel 23 novembre 1980 non si mossero); al terremoto del 1908, un evento di magnitudo superiore a 7.0 generato da una faglia sorprendentemente ma evidentemente cieca; o anche al terremoto di San Giuliano di Puglia del 2002, generato da una faglia profonda 10-20 km che nessun geologo di terreno avrebbe mai potuto vedere e mappare. Le mie possono suonare come critiche sgradevoli, ma a 25 anni dall’inizio della vicenda che sta narrando credo sia giusto fare anche i conti con la storia, con i suoi successi e con gli eventuali errori; anche miei ovviamente.

Tornando al dualismo sorgenti vs. faglie attive (di superficie, è sottinteso), devo riconoscere che sto molto semplificando il tema, ma solo perché per me questa distinzione è chiarissima, e tuttavia, su questo dualismo negli ultimi 25 anni non sono mancati gli equivoci. Tra le faglie attive esistono in piccola misura anche elementi primari, ovvero elementi che rappresentano l’espressione diretta della fagliazione in profondità; ma resta vero che per la gran parte, le faglie attive sono in realtà faglie passive, che non è un gioco di parole ma indica il fatto che esse si mobilizzano esclusivamente se e quando si muove la sottostante sorgente sismogenetica, ovvero l’elemento strutturale di ordine gerarchico principale.
Fortunatamente questa mia affermazione si sta consolidando sempre di più negli ultimi anni, ma sono sicuro che esistono ancora molti geologi “duri e puri” che non ci si riconoscono, sia in Italia sia in molte altre regioni sismiche del globo. Su questo tema è utile mostrare una immagine tratta da Bonini et al. (2014), e che riguarda la sorgente del terremoto di L’Aquila del 2009:

Schermata 2022-05-04 alle 22.53.57

La figura mostra due sezioni geologiche attraverso la faglia che ha generato quel terremoto, indicata in rosso e ben delineata dalla sismicità. Nell’articolo si tentò di gerarchizzare tutte le faglie che hanno avuto un ruolo in quel forte terremoto: dalla principale, che è poi la sorgente sismogenetica, indicata come Categoria 1, a dei piani di sovrascorrimento antichi che hanno limitato la dimensione della faglia principale “confinandola” tra circa 3 e circa 10 km di profondità e limitando così la magnitudo del terremoto(Categoria 2), alle faglie di superficie generate ex-novo (Categoria 4) o riattivate passivamente in quanto pre-esistenti (Categoria 5) dal movimento della faglia profonda.
Come dicevo sopra e come la figura mostra chiaramente, ricostruire la geometria di una sorgente sismogenetica profonda a partire dei soli elementi fragili di superficie è come minimo fonte di gravi ambiguità, perché si rischia di mappare come elementi primari e indipendenti delle faglie che in effetti si muovono solo in corteo e come risposta al movimento di un elemento di ordine gerarchico superiore, e come massimo impossibile. Idealmente una sorgente sismogenetica viene ricostruita a partire da dati strumentali di varia natura, che possono essere poi confrontati con l’evidenza di terreno; ma per i terremoti di epoca pre-strumentale bisogna ricorrere a un mix ben strutturato di dati storici, geologici e geomorfologici, che illustrino una evoluzione estesa su un orizzonte relativamente lungo, per esempio un milione di anni, e di dati geofisici, se disponibili, come ad esempio le tante linee sismiche industriali realizzate in Italia nell’ambito della ricerca degli idrocarburi.
La conoscenza delle faglie attive e delle sorgenti sismogenetiche è utile per tante ragioni, ma la sua applicazione più ovvia è nella stima della pericolosità sismica. E anche qui per me la distinzione è semplice e diretta. Conoscere le sorgenti sismogenetiche aiuta in modo anche sostanziale a valutare la pericolosità sismica da scuotimento (ground shaking hazard), che include anche la pericolosità dovuta a frane e liquefazioni, ma dice poco sui possibili effetti geologici ‘fragili’ di superficie di un forte terremoto. Viceversa, conoscere la distribuzione delle faglie attive dice poco o nulla sulla sismogenesi, ma ci consente di valutare pericolosità sismica da fagliazione superficiale (surface faulting hazard), ovvero gli effetti ‘fragili’ appena citati, con implicazioni evidenti sul corretto uso del territorio nelle aree che si trovano al di sopra di una grande faglia sismogenetica; anche perché dallo scuotimento ci si può sempre difendere, almeno in linea di principio, mentre ben poco si può fare di fronte alla possibilità che le fondamenta di un’infrastruttura critica vengono brutalmente dislocate da una scarpata di faglia, anche di un metro o più.
Si tratta quindi di due strumenti non alternativi ma del tutto complementari, perché ciascuno porta informazioni che l’altro non è strutturalmente in grado di fornire; ed è per promuovere questo principio che io e i miei colleghi più vicini ci siamo molto adoperati negli ultimi anni. Anche la Protezione Civile nazionale è ben consapevole di questo dualismo, tanto da aver finanziato già da alcuni anni un progetto che coinvolge INGV e ISPRA e che punta a rendere culturalmente, scientificamente e informaticamente interoperabili i due database DISS e ITHACA; questo avvantaggerà molto tutti coloro che si avvicinano a questi due strumenti, non sempre cogliendone le differenze.

DISS è nato nel 2000. Puoi ripercorrere brevemente le tappe della sua evoluzione?

Nel luglio 2000 abbiamo presentato il prototipo del DISS, che veniva distribuito su un CD-ROM insieme a un software GIS in uso gratuito; ma in effetti la sperimentazione era iniziata nel 1996, addirittura nell’ambito di una tesi di laurea, collegata ad un progetto europeo in cui l’INGV (allora ancora ING) collaborava con l’ISMES di Bergamo. Nel luglio 2001, esattamente un anno dopo, abbiamo presentato la versione 2.0 del DISS, che era accompagnata da un volumetto degli Annali di Geofisica, da un poster e da un CD-ROM.
L’accoglienza fu entusiastica, ma si trattava ancora di uno strumento molto rudimentale, che conteneva solo quelle che oggi chiamiamo “sorgenti individuali”, ovvero delle rappresentazioni semplificate – ma pienamente tridimensionali – delle sorgenti di numerosi forti terremoti del passato e anche di qualche possibile terremoto futuro. In quella fase pionieristica giocavano un ruolo centrale le “sorgenti macrosismiche”, di cui dirò nel seguito. Negli anni successivi però si capì che bisognava dare più spazio alla Geologia, che era l’unico modo per anticipare i terremoti del futuro e rendere il DISS uno strumento prognostico realmente utilizzabile per analisi di pericolosità sismica, ovvero “completo”.

Fu così che nel 2005 vennero introdotte le “sorgenti composite”, che affiancavano informazione geologica a quella sismologica condensata nelle “sorgenti individuali”. Lo scopo era quello di identificare tutti i principali sistemi di faglia estesi, senza poterli però segmentare, come si dice nel nostro gergo, nelle singole porzioni di questi sistemi che generanno un singolo forte terremoto. La prospettiva dichiarata – ma forse solo con la pretesa ­– era quella di costruire un insieme completo rispetto a tutte le sorgenti sismogenetiche che esistono sul territorio italiano, così come i sismologi storici si sforzano di rendere i loro cataloghi completi almeno per un congruo numero di secoli.
Le “sorgenti composite” sono definite con minor dettaglio di quanto non lo siano le individuali, ma si spingono coraggiosamente in zone dove non abbiamo ancora visto grandi terremoto ma è legittimo ritenere se ne potranno verificare nel futuro.

Ne 2009 sono state poi introdotte le “sorgenti dibattute”, ovvero delle faglie attive proposte in letteratura ma che non riteniamo ancora mature per una trasformazione in sorgenti vere e proprie, e le “zone di subduzione”; non solo quella ionico-tirrenica, ma anche quella dell’Arco Egeo – un’area del Mediterraneo in grado di generare forti terremoti e maremoti che possono interessare anche l’Italia – e quella, in larga misura disattivata, che si estende al di sotto dell’Appennino centrale e settentrionale.

In oltre 20 anni di storia il DISS è cresciuto molto (invito tutti a vedere la piccola ma eloquente animazione in cima a questa pagina di sintesi e a verificare l’evoluzione delle diverse versioni), anche attraverso la pubblicazione di sintesi regionali a cura degli autori del DISS e grazie all’avvio di collaborazioni con altri istituti di ricerca, italiani e stranieri. Abbiamo esteso il numero delle sorgenti composite, che sono triplicate, passando da 65 nel 2005 a 197 nel 2021; il numero dei riferimenti bibliografici, più che raddoppiato nello stesso intervallo di tempo, da 1.720 a 4.057, e il numero delle immagini associate alla descrizioni delle sorgenti, da 550 a 1.192; tutte le novità sono state attentamente registrate in un file di “Accompanying Notes” e il contenuto di ogni versione è stato “congelato” con l’assegnazione di un DOI (tutte le versioni sono scaricabili on-line).

Dal 2000 a oggi sono “solo” aumentate le conoscenze o sono intervenuti anche cambiamenti di punti di vista?

Questa è una domanda a cui mi fa molto piacere rispondere perché contiene l’essenza dello sforzo fatto in questi ultimi 25 anni. Premetto che il DISS non è un database nel senso stretto, ovvero uno strumento che si limita ad accumulare e rappresentare un certo set di conoscenze; al contrario, è uno strumento i cui contenuti sono sempre approvati e sottoscritti dai componenti del gruppo di lavoro, i quali in qualche modo “ci mettono la faccia”. Qualunque scelta, qualunque affermazione è riconducibile a uno o più autori, i quali hanno proposto e portato all’attenzione di tutto il gruppo di lavoro  ipotesi scientifiche basate su proprie convinzioni o sull’analisi della letteratura. Ciò detto, si, l’orizzonte è molto cambiato rispetto ai primordi. Per sintetizzare al massimo, il DISS è partito come uno strumento basato da un lato su pochi forti terremoti del XX secolo, studiati o reinterpretati a partire da dati sismologici, geofisici, geodetici e storici, e dall’altro su un gran numero di terremoti storici, analizzati con la tecnica Boxer, non a caso pubblicata nel 1999. Boxer consentiva di estrarre una pseudo-sorgente sismica da un quadro macrosismico, purché ragionevolmente denso e ben distribuito geograficamente intorno all’area epicentrale. Questo modo di procedere era l’applicazione pedissequa del principio che ho enunciato, e cioè del fatto che è necessario partire dai terremoti e poi marciare a ritroso per studiare le faglie che li hanno generati; ma era anche il modo migliore per non impelagarsi nelle difficoltà intrinseche nella ricerca delle faglie attive, una volta stabilito che forse il 50% delle sorgenti dei grandi terremoti sono cieche, e al massimo causano in superficie un quadro deformativo che è difficile ricondurre alla sorgente primaria.
Con l’uscita della versione 3.0, nel 2005, c’è stata una prima rivoluzione. Abbiamo deciso di uscire da una fase pionieristica in cui era inevitabile utilizzare in maniera preponderante il dato storico e si è cercato di aprire una nuova fase in cui invece diventasse dominante la tipologia di dato che ci era più congeniale, ovvero quello geologico-sismotettonico. Come già accennato, nacquero le “sorgenti composite” e uscirono di scena  le sorgenti basate esclusivamente su informazioni macrosismiche, anche se il dato storico non spariva del tutto ma continuava essere uno degli elementi principali nella costruzione delle sorgenti, particolarmente quelli individuali; tuttavia, a differenza di quello che avveniva in precedenza, tutte le sorgenti riflettevano in misura variabile un’informazione geologica, geofisica, e nei casi più favorevoli, sismometrica e geodetica.
Questo cambio di passo è stato reso obbligato dalla necessità – o comunque dal desiderio – di iniziare a mappare anche sorgenti sismogenetiche in mare, sfruttando la grande mole di dati geofisici disponibili per i bacini italiani. Difficilmente queste sorgenti, che includono anche l’area di subduzione ionico-tirrenica, possono essere caratterizzate con riferimento alla sismicità, sia storica che strumentale, e solo occasionalmente sono disponibili evidenze dirette di fagliazione sul fondo marino.
Tra i cambiamenti di filosofia, per così dire, c’è stata anche la decisione di migliorare l’accessibilità dei dati, in un processo che ha seguito e sfruttato la rapida evoluzione degli strumenti GIS, e negli ultimi 15 anni anche web-GIS. La versione 3.3.0 è interoperabile con diverse banche-dati pertinenti, quali il CPTI-DBMI, il CFTI, la banca-dati strumentale dell’INGV denominata ISIDe, oltre che, come già detto, con ITHACA. La base geografica può essere scelta in un ventaglio di proposte e possono essere aggiunti i confini amministrativi ISTAT e misurate distanze, come se ci si trovasse in un vero GIS da desktop. È quindi possibile realizzare immagini di grande ricchezza, caratterizzando il rapporto tra sorgenti sismogenetiche, sismicità del passato e sismicità strumentale. Va infine ricordata la possibilità di consultare il DISS attraverso Google Earth, con tutte le opportunità che a sua volta questa piattaforma consente.
La circolazione dei dati proposti da DISS è stata resa più facile dalla possibilità di scaricarli in vari formati di scambio e dal fatto che gli stessi dati oggi si interfacciano in modo diretto con OpenQuake, il software per il calcolo della pericolosità sismica di base che si sta rapidamente imponendo a scala globale. La sfida più recente riguarda la possibilità di rendere il pubblico degli utenti del DISS più partecipe dell’evoluzione di questa banca-dati, anche attraverso una presenza capillare sui social networks; questo sia per renderne l’uso più diffuso, sia per sollecitare possibili contributi esterni utili a migliorare la definizione delle sorgenti esistenti o a introdurne delle nuove.

Quali sono gli utilizzi attuali di DISS?

Noi monitoriamo costantemente gli accessi al DISS e riceviamo diverse sollecitazioni dagli utenti, ma è arduo capire chi c’è dietro ogni indirizzo IP; al massimo possiamo fare delle inferenze. Sappiamo dai record bibliometrici che il DISS viene consultato e attivamente utilizzato per scopi di ricerca, prevalentemente da colleghi italiani ma anche da studiosi del resto del mondo. Vediamo dati e immagini tratti dal DISS in numerose relazioni tecniche, realizzate dalle amministrazioni o da singoli professionisti, ad esempio nel contesto di attività di microzonazione a diversi livelli o di attività di rivalutazione della pericolosità sismica di siti di specifico interesse, come le reti di trasporto e le dighe.
C’è poi l’uso più “nobile”, che è particolarmente delicato perché impegna la banca-dati nella sua interezza: mi riferisco alla elaborazione di modelli di pericolosità a scala regionale o nazionale, come nel caso del recente modello MPS19. Il DISS entra in questi modelli direttamente, attraverso le “sorgenti composite” e relativi ratei di attività (ottenuti dagli slip rates), ma anche in altri modi meno diretti, come nella definizione della magnitudo massima attesa nelle diverse aree, nella delineazione di zone a sismicità omogenea, o nella definizione di macroaree in cui effettuare scelte operative diverse  – ad esempio nella scelta delle relazioni di attenuazione più adatte a ciascuna area – e infine nella definizione delle aree da considerare di near-field.

L’idea di DISS è stata estesa all’Europa?

Certamente. Un primissimo tentativo data addirittura al periodo 1998-2000, quando le esperienze in corso in ambito DISS vennero estese al resto dell’Europa nel quadro del progetto comunitario Faust, di cui conserviamo gelosamente in vita il sito originario.
Tra il 2009 e il 2013 il DISS è stato adottato come una sorta di template per la costruzione di EDSF13 (oggi aggiornato in EFSM20) dal progetto comunitario SHARE , che aveva come obiettivo primario la realizzazione di un nuovo modello di pericolosità a scala europea. Le “sorgenti composite” sono state scelte come elemento di base di una mappatura da estendere a tutto il continente europeo, o almeno della sua porzione in cui esistono faglie in grado di generare forti terremoti. In quegli stessi anni era attivo il progetto EMME, un omologo di SHARE che si proponeva di realizzare un modello di pericolosità per la Turchia e il Medio Oriente, e il modello EDSF venne così armonizzato con l’imponente raccolta di faglie sismogenetiche che caratterizza quei territori.
ll modello DISS è stato poi mutuato – in alcuni casi con il relativo software – da alcuni altri singoli paesi europei. Citerò qui solo il caso del GreDaSS (Greek Database of Seismogenic Sources), realizzato dalle università di Ferrara e di Salonicco.

Esistono realizzazioni simili in altre parti del mondo?

Esistono alcune decine di compilazioni di “faglie attive”, “faglie sismogenetiche”, “lineamenti” e tutte le categorie intermedie; molte sono censite dal progetto GEM-Global Active Faults, che non a caso nelle sue fasi iniziali prese ad esempio proprio il DISS-EDSF (si veda il report del progetto GEM-Faulted Earth). Ma a onor del vero – e mi si perdoni l’immodestia – quasi nessuna di queste compilazioni offre tutta la ricchezza di informazione immagazzinata dal DISS, con la sola eccezione della California: una ricchezza dovuta soprattutto al fatto che l’Italia possiede una storia sismica ricchissima, una comunità delle Scienze della Terra molto attiva, e molti dati di esplorazione geofisica, ed è sede di terremoti che vengono registrati e studiati con grande attenzione. Anche altri paesi godono di queste prerogative, ma per ragioni che non so spiegarmi i loro modelli della sismogenesi basati su faglie attive sono ancora molto essenziali: valga per tutti l’esempio del Gia­ppone, dove ancora si fatica a trattare in modo naturale persino la terza dimensione delle faglie, quella verticale: cruciale per la pericolosità sismica, ma decisamente ostica per il geologo tradizionale.

È possibile valutare la “completezza” di DISS?

Temo che la risposta sia negativa, o comunque non semplice. È un fatto che l’introduzione delle “sorgenti composite” nel 2005 servisse proprio a “rincorrere” la completezza, ma è arduo dire a che punto siamo oggi. Un esercizio utile può essere quello di confrontare gli earthquake rupture forecasts (ERFs) proposti da Visini et al. (2021) nel quadro della elaborazione della MPS19, e ragionare sulle differenze tra il modello “DISS based” (MF1) e gli altri modelli non basati su sorgenti sismogenetiche (spero che qualcuno elabori queste differenze e ci scriva sopra un articolo, che sarebbe utilissimo). Un giorno lontano potremmo valutare questa completezza attraverso dati GPS, come hanno fatto Carafa et al. (2020) per una porzione dell’Appennino centrale, in via sperimentale.

What next?

What next…. Dal punto di vista dei contenuti è relativamente facile ipotizzare che continuerà incessante la ricerca di nuovi dati e di nuove sorgenti, ma che la struttura della banca-dati resterà abbastanza stabile per qualche anno almeno. Mi è più difficile rispondere per ciò che riguarda gli utilizzi del DISS: le possibili applicazioni sono numerose, ma ho spesso la sensazione che siamo stati più veloci noi a crearlo, nonostante che ormai siano passati esattamente 25 anni dai primi esperimenti, che non il mondo dei possibili utenti a sfruttarlo.

Normalmente in un modello di pericolosità a scala nazionale o regionale entrano tre set di dati di ingresso, che idealmente possono essere usati per costruire modelli della sismogenesi in teoria indipendenti, ma in pratica variamente intrecciati tra loro, come ho raccontato finora. Li descriverò brevemente in ordine crescente di complessità:

  • modelli a sismicità diffusa (smoothed seismicity), che si basano esclusivamente sui terremoti già accaduti, talora con piccoli correttivi di natura sismotettonica, e che letteralmente “spalmano” la sismicità già vista su zone più ampie. La produttività sismica è quindi strettamente proporzionale a quello che arriva dal catalogo sismico utilizzato;
  • modelli di zonazione sismogenetica, nei quali il territorio è suddiviso in aree indipendenti all’interno di ciascuna delle quali si assume che la sismicità abbia caratteristiche costanti, indipendentemente dal punto esatto che si considera, inclusa la produttività sismica; quello che si ottiene è un patchwork di zone più o meno grandi all’interno delle quali la sismicità è omogenea;
  • modelli di sorgente sismogenetica, ovvero modelli quali il DISS, nei quali la delineazione delle sorgenti è guidata anche dalla conoscenza dei forti terremoti del passato, ma la produttività sismica è calcolata in modo indipendente sulla base delle stime dei ratei di dislocazione delle faglie (gli slip rates). Quello che si ottiene è un andamento delle sismicità che segue fedelmente le strutture sismogenetiche riconosciute.

Il modello MF1, l’unico ad essere stato derivato esclusivamente dalle sorgenti del DISS, offre evidentemente una migliore risoluzione spaziale, come fosse un quadro disegnato con un pennello più sottile; consentendo da un lato di determinare con maggior accuratezza quale sarà lo scuotimento atteso al di sopra delle sorgenti, ovvero nel cosiddetto near-field (al netto di altri effetti di sorgente come la direttività e di eventuali e onnipresenti effetti di sito, ovviamente), dall’altro di non ‘portare pericolosità’ in zone in cui l’evidenza geologica, corroborata da quella storica e strumentale, non mostra la presenza di simili sorgenti sismogenetiche. Il DISS offre questa informazione: se non dovunque, in molti luoghi dell’Italia.

L’immagine qui di seguito (Fig. 3 di Meletti et al., 2021) mostra che da ognuno di questi modelli è possibile calcolare dei ratei di sismicità ai nodi di una griglia regolare e con un passo adeguato a non creare singolarità indesiderate (in genere qualche km).

Schermata 2022-05-04 alle 22.59.20

Le due immagini che seguono mostrano la differenza tra il modello di pericolosità sismica elaborato per la Turchia nel 1996 (sopra), basato essenzialmente su un modello di zonazione sismogenetica tradizionale, e il modello pubblicato nel 2018 (sotto), che fa tesoro delle conoscenze sulle sorgenti sismogenetiche raccolte grazie ai già citati progetti SHARE e EMME. Si percepisce distintamente la differenza di potere risolvente dei due modelli, particolarmente evidente nel settore occidentale del paese; e si percepisce anche l’aumento della ‘dinamica’ del modello del 2018, che mostra valori di accelerazioni alti a cavallo delle sorgenti sismogenetiche e valori bassi i quasi nulli lontano da esse.

Schermata 2022-05-04 alle 22.57.49

Da: https://www.researchgate.net/publication/270704802_Turkey%27s_grand_challenge_Disaster-proof_building_inventory_within_20_years/figures?lo=1

Schermata 2022-05-04 alle 22.57.57

Da: https://www.researchgate.net/profile/Abide-Asikoglu/publication/334094188/figure/fig1/AS:774777023262721@1561732645307/Seismic-hazard-map-of-Turkey-4.png

Fino ad oggi in Italia non siamo riusciti a cogliere del tutto questa opportunità, che potrebbe contribuire a rendere più accurato il modello di pericolosità sismica. I motivi veri non mi sono chiari, anche se qualcuno ritiene che DISS non sia sufficientemente maturo a questo scopo, senza peraltro spiegarlo in modo opportuno.

_______________

Chiudo ringraziandoti per l’opportunità che mi hai dato di riflettere e scrivere su questi 25 anni di storia, che peraltro ci hanno visto sempre ragionare in buona sintonia (anche se inizialmente eravamo su due fronti opposti, quali sono stati ING e GNDT fino al 2001, anno di nascita dell’INGV). Ringrazio anche tutti coloro che avranno avuto la pazienza di arrivare a leggere questi pensieri fino in fondo.

L’ossessione della mappa di pericolosità sismica (di Massimiliano Stucchi)

Questo post è il seguito di “Ferma restando l’autonomia scientifica”
https://terremotiegrandirischi.com/2021/11/09/ferma-restando-lautonomia-scientifica-di-massimiliano-stucchi
in cui si è analizzato il tentativo di INGV di “sganciarsi” dal controllo che DPC eserciterebbe sull’ente tramite la gestione di una parte dei suoi finanziamenti, limitandone così l’autonomia scientifica, senza che sia emersa alcuna evidenza di come questa limitazione si sia fin qui manifestata.
In questo post si dimostra che, se un lettore attento cerca nei documenti citati i motivi che mettono a repentaglio l’autonomia scientifica delle attività svolte da INGV per DPC trova ben poco. Trova solo critiche non nuove, inconsistenti e mal documentate, alla mappa di pericolosità sismica prodotta dall’INGV nel 2004: una vera e propria ossessione del suo attuale Presidente.

Un argomento che potrebbe prestarsi a una discussione seria sull’autonomia scientifica riguarda la Commissione nazionale per la previsione e la prevenzione dei grandi rischi, comunemente chiamata “Commissione Grandi Rischi” (CGR); questa è organo di consulenza tecnico-scientifica del Dipartimento della protezione civile, come recita ad esempio il Decreto del Presidente del Consiglio dei Ministri del 16.09.2020, ultimo di una lunga serie di aggiustamenti.
La Commissione è costituita, in ciascuno dei settori in cui si articola, da ricercatori esperti nei settori di competenza e “fornisce pareri tecnico-scientifici su quesiti e argomenti posti dal Capo del Dipartimento della protezione civile”.

Della Commissione fanno parte anche i Presidenti (o loro delegati) dei Centri di competenza del DPC nei vari settori, centri che intrattengono rapporti di convenzione con il DPC stesso; pertanto può sorgere il sospetto che questi rapporti possano in qualche modo limitare l’autonomia di giudizio dei componenti della Commissione (il caso più noto è rappresentato dalle accuse che seguirono la riunione della CGR del 30 marzo 2009 e dal processo che ne scaturì, processo dalla cui celebrazione nacque questo blog).

Tuttavia non risulta che questo aspetto sia mai stato posto in modo esplicito. Come detto nel post precedente, le accuse pesanti a DPC di voler limitare l’autonomia scientifica di INGV o addirittura di voler controllarne le attività
https://www.huffingtonpost.it/entry/doglioni-la-protezione-civile-vuole-gestire-i-finanziamenti-dellingv-per-poterne-controllare-le-attivita_it_615c09d0e4b075408bdb42c9
non sono corredate da evidenze, tanto meno con particolare riferimento al tema del monitoraggio sismico vulcanico, cui è dedicata la parte maggiore dei finanziamenti in questione.

Lincei imprecisi. A leggere bene l’intervista rilasciata dai vertici dei Lincei
https://www.huffingtonpost.it/entry/la-liberta-dellingv-e-durata-quanto-la-vita-di-una-farfalla-di-r-antonelli-g-parisi_it_61557414e4b05025422edf27
in realtà si trova un accenno a un caso di presunta volontà coercitiva del DPC. Antonelli e Parisi affermano infatti che

...la Protezione Civile impone all’INGV molti dei criteri con cui svolgere queste attività. Tra questi, per esempio, anche quelli della mappa di pericolosità sismica nazionale, che detta le norme con cui costruire in modo antisismico. I criteri scientifici per fare questa mappa devono essere decisi da un ente scientifico, non da una struttura non scientifica…“.

Spiace leggere tante affermazioni imprecise da parte di persone tanto importanti in così poco spazio. Come coordinatore del Gruppo di Lavoro che ha realizzato nel 2004 la mappa di pericolosità sismica mi sento in dovere di fare qualche precisazione
(per una analisi più estesa si veda https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/).

I criteri generali con cui sono state compilate le mappe di pericolosità sismica non sono “stati imposti da DPC” a INGV ma:

a) nel caso di MPS04 erano fissati da una norma dello stato (Ordinanza del Presidente del Consiglio dei Ministri, OPCM, 3274/2003) cui aveva contribuito primariamente una commissione di ricercatori istituita – su iniziativa dell’allora Presidente INGV – dal Presidente del Consiglio dei Ministri. Tali criteri generali erano stabiliti per indirizzare la compilazione di qualsivoglia mappa di pericolosità finalizzata alla normativa sismica, a livello nazionale o regionale, al fine di garantirne la qualità e la omogeneità. MPS04 era stata una di queste;
b) nel caso della più recente MPS19 (2019), già pubblicata ma il cui utilizzo è ancora in stand-by presso la CGR, i criteri sono stati fissati dopo un’ampia consultazione della comunità ingegneristica, rifacendosi ai criteri precedenti e con riferimento all’aggiornamento della normativa tecnica per le costruzioni.

In queste operazioni DPC ha funzionato da tramite fra INGV e Governo, agevolando di fatto il rapporto con il Ministero delle Infrastrutture e Trasporti che, in quanto titolare delle Norme Tecniche, dovrebbe in realtà essere il Committente delle mappe di pericolosità sismica, ma la cui velocità di esecuzione è purtroppo molto bassa.

Viceversa, i criteri scientifici sono stati fissati dai due gruppi di ricerca che nei due casi si sono fatti carico di realizzare le mappe. Nel caso di MPS04, tra l’altro, DPC non ha nemmeno fornito un contributo finanziario; INGV ha coordinato l’esecuzione dei lavori con fondi propri, mentre DPC ha istituito un board di review internazionale che ha assistito criticamente la compilazione, come avviene nei maggiori progetti scientifici. Nel caso di MPS19, DPC ha co-finanziato i lavori mediante convenzioni con INGV, regolarmente sottoscritte dal suo Presidente.
Infine, “last but not least”, la mappa non “detta” le norme che, redatte dal Consiglio Superiore dei Lavori Pubblici, sono rappresentate da apposito “corpus” cui le valutazioni di pericolosità contribuiscono per la propria parte.

Insomma, spiace osservare che le affermazioni di Antonelli e Parisi sono gravemente imprecise: fatto inaccettabile per degli scienziati da cui di solito ci si aspetta che si documentino prima di fare affermazioni importanti, senza limitarsi a utilizzare fonti di seconda mano.

Altri equivoci, al Senato. Che il tema della compilazione della mappa di pericolosità sismica sia di fatto l’unico argomento messo in campo per provare una eventuale “limitazione” dell’autonomia scientifica esercitata da DPC nei confronti di INGV è dimostrato anche da una recente audizione del Presidente dell’INGV al Senato, https://webtv.senato.it/Leg18/4621?video_evento=238625, nella fase di conversione in legge del Decreto dello scorso settembre (per la successione cronologica degli atti legislativi qui discussi si veda il post precedente). In questa audizione il Presidente ha ripreso in buona sostanzale argomentazioni dell’articolo dei Lincei sostenendo, erroneamente come già spiegato più sopra, che i criteri di compilazione delle mappe di pericolosità siano fissati da DPC. Poi, come ulteriore prova della presunta limitazione della azione scientifica, ha citato la seguente tabella, che fa parte dell’All.1 alla OPCM 3274/2003:

che a suo dire vincolerebbe, nella colonna di sinistra, i risultati della compilazione della mappa di pericolosità sismica, parlando addirittura di “accelerazione imposte”.
È stato spiegato in tutte le sedi possibili che la colonna di sinistra non aveva il compito di determinare le azioni sismiche di progetto ma di stabilire, per la prima volta nella storia italiana, dei criteri scientifici per l’assegnazione dei Comuni italiani a una delle quattro zone sismiche (in gergo riclassificazione sismica). A ciascuna zona la stessa OPCM 3274/2003 assegna uno spettro di risposta elastico, di cui in tabella (parte destra) vengono rappresentati i valori di ancoraggio.

Da dove provenivano i valori di soglia contenuti nella colonna di sinistra? Da scelte eseguite dalla citata commissione sulla base degli elaborati di pericolosità sismica resi disponibili -prima del 2003 – per l’Italia. Va comunque osservato che i valori determinati in seguito da MPS04 (2004), dal progetto europeo SHARE (2013) e di recente da MPS19 (2019) per lo stesso parametro di pericolosità sismica (accelerazione orizzontale su suolo rigido con probabilità di superamento del 10% in 50 anni) sono distribuiti più o meno intorno alla stessa scala di valori.
Le parole del Presidente (2:46:00 e segg.) potrebbero quasi adombrare che i valori della colonna di sinistra abbiano in qualche modo influenzato la compilazione di MPS04, quasi che quest’ultima avesse dovuto adeguarsi a essi, senza considerare – tra l’altro – gli esiti molto positivi del processo di revisione scientifica indipendente (peer-review) della mappa stessa.

Il Presidente ha poi mostrato il solito confronto con i valori di PGA registrati in occasione dei terremoti del 2016, avvenuti quindi dopo la compilazione di MPS04, senza segnalare che, rispetto al 2004:

•     la normativa per le costruzioni in zona sismica (NTC08 e NTC18) è cambiata, ovvero gli spettri di risposta elastici sono determinati in altro modo rispetto alla OPCM 3274/2003;

•     le zone sismiche di fatto non hanno più influenza sulle modalità di costruzione.

È vero che i terremoti del 2016 hanno fatto registrare valori elevati di scuotimento, superiori a quelli proposti da MPS04 per una probabilità di superamento del 10% in 50 anni: ma è altrettanto vero che il modello MPS04, così come il recente MPS19, rendono disponibili valori più elevati per probabilità di superamento inferiori. Senza contare che i valori forniti dai due modelli di pericolosità si riferiscono a condizioni standard del sito, ovvero non considerano le eventuali amplificazioni locali che vengono valutate a parte dal progettista.

Colpisce infine che non si voglia riflettere – o chiedere a chi ha elaborato le Norme Tecniche – come mai la normativa del 2018 non abbia modificato le caratteristiche dell’input sismico rispetto a quelle del 2008, precedenti i terremoti del 2016. Una analisi del problema dal punto di vista ingegneristico è contenuta qui
https://terremotiegrandirischi.com/2021/04/08/quando-le-azioni-sismiche-di-progetto-vengono-superate-colloquio-con-iunio-iervolino/
da cui emerge che la questione della sicurezza degli edifici – per chi ha voglia di affrontarla seriamente – non risiede nelle modalità di calcolo della pericolosità sismica ma dall’approccio integrale delle Norme Tecniche.

Qualche domanda. Il Presidente dell’INGV dovrebbe essere consapevole del fatto che MPS04 è un elaborato che tra l’altro ha da tempo esaurito il compito per il quale è stato prodotto (si veda ad esempio https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/).
Allo stesso modo non ignora certo che è stato il successo di MPS04 a consegnare a INGV un ruolo-guida in un settore che fino al 2004 era stato appannaggio di altri enti di ricerca; e che questo ruolo poi ha portato a INGV – oltre che un ritorno di immagine- ulteriori finanziamenti.

Ci si può chiedere allora perché – da quando è Presidente e solo sui media – ha prodotto critiche unilaterali che non sono mai sfociate in interventi di tipo e formato scientifico, e tanto meno in pubblicazioni scientifiche?
Perché, se ritiene di avere visioni e proposte scientifiche diverse, non ha mai promosso confronti scientifici sul tema, in particolare all’interno dell’INGV come peraltro è stato più volte sollecitato a fare, e quando sono stati organizzati da altri non vi ha partecipato?
Perché non ha ricercato il dialogo aperto con la comunità ingegneristica che predispone le norme tecniche e, quindi, determina le modalità più opportune per esprimere la valutazione della pericolosità sismica a supporto delle norme stesse?
Perché, in presenza di articoli di stampa o trasmissioni televisive a dir poco fuorvianti non ha preso l’iniziativa di difendere i prodotti dell’ente che presiede, e nemmeno ha permesso che i principali compilatori di MPS04 li difendessero sul blog del Dipartimento Terremoti?

E per concludere: il fatto che DPC, dipartimento della Presidenza del Consiglio, abbia richiesto a INGV, che ha accettato, la realizzazione di un prodotto scientifico secondo formati e modalità idonei al suo utilizzo non significa certo che INGV non sia libero di produrne infiniti altri, secondo i criteri più diversificati.
Perché dunque queste critiche contro le MPS (04 e 19) non hanno finora trovato riscontro nella produzione – all’interno dell’INGV – di mappe o modelli di pericolosità alternativi? I costi non sarebbero elevatissimi, i tempi neppure; non è necessario un CERN per realizzarle.

Norme tecniche per le costruzioni, modelli di pericolosità sismica e sicurezza degli edifici (colloquio con Antonio Occhiuzzi)

Anche se l’interesse maggiore di questi tempi è ovviamente per l’emergenza Covid, abbiamo ritenuto utile proporre una interessante analisi sul problema della sicurezza sismica degli edifici in relazione alle norme tecniche e ai modelli di pericolosità sismica.

Antonio Occhiuzzi, napoletano e tifoso del Napoli, è professore di Tecnica delle Costruzioni presso l’Università Parthenope. E’ laureato in ingegneria a Napoli e al MIT di Boston, ha un dottorato di ricerca in ingegneria delle strutture, materia cui si dedica da sempre.
Dal 2014 dirige l’Istituto per le Tecnologie della Costruzione (ITC), ossia la struttura del CNR che si occupa di costruzioni, con sedi a Milano, Padova, L’Aquila, Bari e Napoli.

Caro Antonio, tempo fa avevi commentato un mio post di risposta a un articolo dell’Espresso in cui veniva riproposta, come avviene periodicamente, la questione del superamento dei valori di progetto in occasione dei terremoti recenti e, di conseguenza, la presunta fallacia dei modelli di pericolosità e delle normative basate su di essi, quasi che entrambi fossero responsabili dei crolli e delle vittime. https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/

Poichè in questa problematica si intrecciano aspetti sismologici e ingegneristici, ti ho invitato a approfondire la tematica.

Caro Max, l’avevo commentato perché ero assolutamente d’accordo con te. L’articolo dell’Espresso, rivolto al grande pubblico, risulta ingannevole per il non addetto ai lavori perché vengono mescolate considerazioni ragionevoli a clamorose inesattezze. Il giornalista si basa su di un’intervista a un geofisico, la figura professionale più credibile per studiare i fenomeni fisici del nostro pianeta: tuttavia, quando poi si passa agli effetti di tali fenomeni sulle costruzioni, il geofisico diventa, come lo sarebbe un medico o un letterato, un incompetente, perché si “entra” nei temi dell’ingegneria strutturale e, in particolare, di quella antisismica. Temi che non fanno parte degli studi e delle esperienze di geologi, fisici, medici e letterati (tra i tanti).

Le mappe, o meglio I modelli, di pericolosità sismica vengono compilati – nella maggior parte delle nazioni e anche dei progetti internazionali – secondo un approccio probabilistico, poiché questo viene “richiesto” dagli utilizzatori dei modelli stessi, ovvero dagli ingegneri progettisti. Ci puoi spiegare perché?

La progettazione strutturale e antisismica è, in tutto il mondo evoluto, basata su concetti probabilistici, anche per quanto concerne le azioni, incluse quelle sismiche. E questo approccio non è in discussione nella comunità mondiale dell’ingegneria strutturale (e antisismica). Il motivo, che spesso sfugge a chi non è del mestiere, è che la progettazione strutturale è dominata dalle incertezze: incertezze nella definizione delle azioni, sui modelli utilizzati, sulle resistenze dei materiali. Per tale motivo, la progettazione strutturale è convenzionale: nessuno al mondo pensa che nei solai di abitazione ci sia un carico variabile uniformemente distribuito pari a 2 kN/mq, che sarebbe a dire che in ogni stanza della casa c’è un allagamento con l’acqua alta 20 cm. Tuttavia, praticamente tutte le case del mondo sono progettate secondo questo tipo di ipotesi, per la quale gli effetti dei carichi che possono realmente interessare gli ambienti di una casa sono probabilisticamente minori di quelli corrispondenti a quella specie di “piscina” di cui parlavo prima. L’approccio probabilistico cerca di coniugare accuratezza e fattibilità operativa: in alternativa, ad esempio, un progettista dovrebbe prevedere, nell’ambito di un soggiorno, quale possa mai essere la disposizione dell’arredo e la posizione degli occupanti, eseguire i calcoli e imporre di non spostare divani, tavoli e pianoforte e di sedersi sempre tutti allo stesso posto. Sarebbe la “maximum credible furniture position”, concetto analogo a quello di “maximum credible earthquake” descritto nell’articolo dell’Espresso. In entrambi i casi, inutilizzabile per l’ingegneria antisismica: ti assicuro che prima o poi il pianoforte lo spostano e che il prossimo terremoto che arriva in un’area avrà caratteristiche che ai fini della sicurezza delle costruzioni saranno differenti da quelle previste: occorre progettare senza avere la presunzione di “sapere tutto”, ma gestendo “probabilisticamente” le incertezze.

Per inciso, è corretto dire che le azioni proposte dalla normativa rappresentano un valore minimo, obbligatorio, ma che se un proprietario decide di adottare valori superiori per ottenere una sicurezza maggiore è libero di farlo?

E’ corretto. Il “minimo obbligatorio” è frutto di un compromesso tra esigenze diverse e “contrastanti”. Nell’ambito delle costruzioni, due esigenze contrastanti sono la “resistenza al crollo” e il “danneggiamento delle componenti non strutturali”. Aumentare l’intensità delle azioni corrisponde a costruzioni più resistenti e più rigide: questo corrisponde ad accelerazioni ai piani più elevate e, di conseguenza, a danneggiamenti più elevati per partizioni esterne e interne, impianti, finiture, etc. Se diminuisce l’intensità delle azioni attese, la costruzione è meno resistente, meno rigida e durante un terremoto subisce accelerazioni ai piani più modeste: meno danni, ma aumenta il “rischio crollo” (per semplificare). Il “punto di equilibrio”, basato sull’esperienza, è – per ora – quel 10% in 50 anni.
Se però io avessi un minuto da dedicare a ciascun proprietario di casa, lo utilizzerei dicendogli di non fare soppalchi abusivi, non nascondere i radiatori realizzando nicchie nelle murature portanti, non tagliare o comunque danneggiare travi e pilastri in calcestruzzo armato per fare spazio agli impianti tecnologici, di risparmiare e poi spendere qualche soldo per le verifiche strutturali e per il consolidamento strutturale. Il minuto sarebbe finito e non sarei pentito di non avere avuto il tempo di parlargli dell’ultimo dei problemi, ossia la modifica di dettaglio dell’intensità dell’azione sismica rispetto a una definizione che va già sostanzialmente bene.

E’ però vero che in alcuni paesi si cominciano a adottare azioni con probabilità di superamento più basse, così come avviene, per inciso, per opere pubbliche di particolare rilevanza. E qualcuno spinge per adottare il massimo terremoto atteso, sempre ammesso che lo si sappia valutare.

Mi perdonerai la franchezza, ma questo è un falso problema. Ti racconto un aneddoto. Alla fine del 2008 partecipai alla progettazione di un nuovo padiglione dell’ospedale di Fivizzano, in Garfagnana. Proposi subito l’adozione delle allora recenti NTC 2008: tutti, committente, tecnici, persino i colleghi del locale Genio Civile mi dicevano “siamo nel periodo transitorio, perché non vai con le norme del 1996?”. Insistetti, e l’edificio fu realizzato secondo le NTC 2008, forse uno dei primi in Italia, all’inizio del 2009, prima del terremoto di L’Aquila. Nel giugno 2013 accadde un terremoto, non un evento epocale (M=5.1), ma con epicentro molto prossimo a Fivizzano. Nel plesso ospedaliero c’è una stazione accelerometrica della rete nazionale: guardando PGA e spettro di risposta in accelerazione ricavati dal segnale registrato, mi accorsi che si trovavano ben al di sopra dello spettro di progetto allo SLD e al di sotto di quello allo SLU. Un sopralluogo permise di constatare che gli unici danni rilevati nel nuovo padiglione riguardarono due piccole lesioni nei componenti non strutturali di partizione esterna. La riparazione durò mezza giornata. Voglio dire che mentre ci sono testimonianze empiriche, come quella che ti ho raccontato, del fatto che la scelta di utilizzare una certa probabilità di superamento in un dato periodo “ha funzionato”, non esiste alcun caso reale, per edifici progettati e realizzati secondo le norme attuali (dalle NTC 2008 in poi), che mostri che le scelte alla base di tali normative sono sbagliate.

Uno degli argomenti più usati – strumentalmente – per attaccare modelli di pericolosità e normativa sismica basata su di essi è l’avvenuto superamento dei valori di progetto in occasione di terremoti recenti. Premesso che, a parte gli svarioni che vengono commessi nell’effettuare questi confronti,  i valori adottati per la progettazione sono “superabili” per definizione se si accetta un x% di probabilità di superamento in x anni, l’idea che viene trasmessa al pubblico è che se le azioni sismiche superano quelle di progetto la costruzione crolla. E’ così?

 In generale non è così. Come dicevamo prima, l’approccio attuale dell’ingegneria antisismica mondiale è fondato su basi probabilistiche. Questo significa che l’impostazione normativa prevede esplicitamente che non sia nota, ad esempio, l’entità dell’azione sismica (ovviamente in un certo, ragionevole intervallo). Per esemplificare, se la PGA di progetto allo Stato Limite Ultimo (SLU) è, per un dato sito, pari a 0,27g, puoi star sicuro che un edificio correttamente progettato avrà il comportamento previsto anche per valori superiori della PGA. Naturalmente, se impattiamo un asteroide e il moto del suolo arriva a punte di accelerazione molto maggiori, ad esempio 10 volte maggiori, questo discorso non vale più. Ma per una data area, l’attuale impostazione progettuale tiene in considerazione il fatto che le azioni possano essere ragionevolmente superiori a quelle di progetto senza che la sicurezza della costruzione ne risenta significativamente. A tale risultato si perviene per due strade principali.
La prima concerne i coefficienti di sicurezza (parziali) previsti dalle norme vigenti, che riguardano le azioni, le resistenze e i modelli di valutazione. La questione è un po’ sottile, per addetti ai lavori: i coefficienti parziali sono parzialmente esplicitati nelle norme, ma sono spesso invisibili ai “non specialisti” e pertanto applicati spesso senza che progettisti ed esecutori ne abbiano esatta contezza. Semplificando in maniera estrema, e perdendo quindi in rigore scientifico, posso dirti che l’effetto globale dei coefficienti parziali (espliciti e nascosti) comporta per una costruzione in calcestruzzo armato un margine di sicurezza compreso tra 2,5 e 3, che aumenta nel caso di meccanismi di rottura fragile (di nuovo, roba da super-specialisti). Questo significa che azioni, modelli e resistenze previste in progetto possono essere sbagliati – complessivamente – fino al 150-200% prima di causare un crollo. Può sembrare tanto, ma al momento in tutto il mondo questa è più o meno la riserva di resistenza che viene ritenuta necessaria.
La seconda è il concetto di duttilità. Secondo le attuali norme di progettazione e di esecuzione, gli organismi strutturali sono in grado di resistere ad azioni maggiori di quelle previste in progetto utilizzando meccanismi di duttilità e di dissipazione energetica e purché non insorgano meccanismi di rottura fragile (accuratamente evitati mediante l’applicazione di coefficienti parziali di modello e del concetto di “gerarchia delle resistenze”). Aggiungo, inoltre, che le costruzioni moderne dispongono di “riserve di resistenza” aggiuntive delle quali non si tiene conto nella progettazione, ma che comunque esistono.
Per quanto detto, quindi, la tesi che accelerazioni sismiche effettive alla base superiori a quelle convenzionali di progetto (di quanto: 10, 20, 50%?) siano in qualche modo un problema che riguarda la sicurezza delle costruzioni è priva di qualsiasi riscontro nel mondo dell’ingegneria antisismica.

Tornando al problema principale, possiamo affermare che i crolli che riscontriamo in occasione di molti terremoti non sono dovuti al superamento delle azioni di progetto? Sei a conoscenza di casi in cui questo si sia verificato in modo dimostrato?

Le costruzioni realizzate a partire delle recenti normative antisismiche (dall’Ordinanza PCM del 2003 in poi) hanno un grado di sicurezza nei riguardi delle azioni sismiche molto elevato (la sicurezza “assoluta” non esiste!). Quelle che hanno “sofferto” e soffriranno per i terremoti sono sostanzialmente costruzioni non realizzate secondo criteri antisismici o oggetto di manomissioni operate con poco scrupolo. Sintetizzando, fino ad oggi hanno fatto più morti i soppalchi e le aperture abusive che la PGA.

Qui ovviamente si apre la questione del come mai questo avvenga. Che crollino alcune costruzioni non realizzate secondo criteri antisismici, ad esempio prima che il relativo Comune venisse inserito nelle zone sismiche, ci può stare: tuttavia ci sono fior di costruzioni di quel tipo che hanno superato in maniera decente la prova del terremoto. Come mai avviene questo?

L’ingegneria antisismica è una disciplina relativamente moderna. Fino agli anni ’80 è rimasta confinata nei dipartimenti (allora erano istituti) universitari, la prima generazione di laureati in ingegneria civile con l’esame di costruzioni in zona sismica nel libretto è apparsa sul mercato del lavoro nella decade a cavallo del nuovo millennio. I crolli registrati in Italia in corrispondenza dei terremoti sono riferiti, nella stragrande maggioranza dei casi, a costruzioni in muratura non ingegnerizzate o a edifici in calcestruzzo armato non progettati e realizzati secondo criteri antisismici. Anche per questo tipo di costruzioni, però, esiste una capacità, ancorché limitata, di resistere alle azioni sismiche. Una muratura regolare, ben conservata, con aperture geometricamente ordinate può essere in grado di sostenere azioni orizzontali significative anche se chi l’ha realizzata non lo sapeva.

Anche senza tirare in ballo probabilità di superamento, argomento sempre ostico e scivoloso ad ogni semplificazione, si può dire che il modello di pericolosità ha fornito alcuni “terremoti” di riferimento di entità crescente, per ogni località Italiana. Le NTC hanno deciso di usare (per civile abitazione) due di questi, richiedendo ai progettisti di superarne uno senza danni e l’altro senza crolli.  Alla luce delle esperienze degli ultimi anni, ritieni ancora questa assegnazione la migliore (per lo Stato e per il proprietario) o c’è spazio per un passaggio dall’approccio “salva vite” a quello “limitazione del danno”, per avere in futuro crateri ancora più piccoli e meno danneggiati?”

Caro Max, devo dire che ancora una volta siamo “fuori fuoco”. Le vite perdute e i danni occorsi durante i terremoti italiani delle ultime decadi sono dovuti a due diversi fattori, tra i quali certamente non c’è la scelta operata in sede di NTC. Il primo è che morti e danni hanno riguardato costruzioni precedenti all’attuale assetto normativo. Sotto questo profilo è fuorviante associare i danni e le tragedie che osserviamo al telegiornale con l’attuale norma tecnica. Il secondo è che morti e danni hanno riguardato molto spesso costruzioni malamente manipolate e per questo indebolite nei riguardi della sicurezza strutturale e antisismica (ricordi la “casa dello studente” di L’Aquila? O le foto di Amatrice con le murature portanti “tagliate” in corrispondenza di improbabili soppalchi?). Ovviamente, tutto è migliorabile, anche le mappe di pericolosità e l’uso che se ne fa nell’ingegneria antisismica: tuttavia, questi aspetti oggi sono molto meno importanti del dramma di avere in tutto il Paese una maggioranza di costruzioni irrispettose di qualsiasi criterio antisismico anche minimo.

A volte, perdonami la franchezza, mi sembra che il dibattito scada nel paradossale osservando che una diversa modellazione delle azioni sismiche porta a oscillare il rapporto tra capacità e domanda (ossia il livello di sicurezza antisismica) tra 0,9 e 1,1 mentre la stragrande maggioranza delle costruzioni italiane delle zone sismiche 1 e 2, ivi incluse scuole, tribunali, edifici sportivi e case, ha valori prossimi a 0,3, offrendo quindi una sicurezza strutturale pari a circa un terzo di quella che viene richiesta oggi alle nuove costruzioni!

Parlare di terremoti e di pericolosità sismica, oggi? (Massimiliano Stucchi)

Meglio di no, certo. Ci sono ben altri problemi, oggi; anche se, inevitabilmente, qualcuno azzarda paragoni con l’epidemia, a volte azzeccati, a volte maldestri.
Anche la puntata di “Presa Diretta”, che doveva continuare l’opera di critica nei confronti del modello di pericolosità sismica adottato dalla Normativa Tecnica per le Costruzioni, già rinfocolata da L’Espresso lo scorso agosto e ripresa addirittura da una indagine della Corte dei Conti (!), è stata rinviata.

Rimandare alla fase 2? La fase 3? Ma quando comincia la fase 2, e soprattutto come sarà questa fase 2? Molti si ingegnano a cercare il “picco” attraverso modelli più o meno complessi, che cercano di utilizzare dati abbastanza farlocchi. Altri protestano perché non viene spiegata in dettaglio la fase 2; altri ancora se la prendono con i “trasgressori” del lockdown, che impediscono la discesa della curva. Si aprono inchieste, giuste ma forse non prioritarie, quando si pensa ai degenti del Triulzio o di altre RSA ancora vivi, da proteggere (vogliamo parlare di che cosa si fa per loro, oggi?).

E da parte dei media continua, imperterrita, la ricerca del parere degli esperti, più spesso per evidenziare eventuali disaccordi che non per fornire al pubblico elementi di informazione e di conoscenza. Come nel caso di terremoti, appunto.

Nell’autunno scorso, con Carlo Meletti, avevamo scritto un articolo che voleva fare il punto sul modello di pericolosità sismica MPS04 e cercava di smontare bufale e fake news in proposito.
Anzi, cercava di fare di più: di ragionare sul problema.

Questo articolo sta per essere pubblicato sul prossimo numero di “Progettazione Sismica”, che ringrazio per aver reso disponibile una preview al seguente link

https://drive.google.com/file/d/1bFNXPSqZL2K6I6njQJlFy9tu_a7EyJDe/view

Ho pensato di renderlo disponibile comunque.

In aggiunta, succede che mercoledì 15 aprile, alle ore 12, parlerò proprio di questi temi nel corso di un Webinar organizzato dalla Università di Camerino, in particolare da Emanuele Tondi, che è anche direttore della locale sede INGV.

Doveva essere un seminario per studenti, in loco: le circostanze l’hanno trasformato in un webinar aperto a tutti, che potrà essere seguito da questo link

https://unicam.webex.com/meet/emanuele.tondi

Niente di speciale, cose forse già dette. Per studenti che vogliono continuare a studiare, capire e prepararsi alle prossime fasi.

La colpa è dei modelli di pericolosità sismica? (Massimiliano Stucchi)

Premessa. In questi giorni si discutono problemi ben più gravi e urgenti. Tuttavia l’apparizione di un articolo, su l’Espresso, che approfitta della ricorrenza del terremoto di Amatrice del 2016 per gettare discredito sul modello di pericolosità sismica corrente e sulle norme dello Stato, utilizzando fake news e argomenti inconsistenti mi ha mandato in bestia.

Ce lo si poteva aspettare. Cosa meglio di una ricorrenza di un terremoto (Amatrice, 2016) e delle sue vittime per tornare a accusare terremoti e sismologia? Dopo L’Aquila c’era stato addirittura un processo (anzi, più di uno; uno – civile – ancora in corso, al quale sono stato convocato per testimoniare in settembre, senza spiegazione alcuna, dalla parte che accusa lo Stato e chiede risarcimenti).Dopo Amatrice e Norcia 2016 nulla di così grave, anche se qualche polemichetta era uscita da parte di chi pretende di leggere i dati e gli elaborati sismologici come se fosse il suo pane quotidiano. Ora però (25 agosto 2019, L’Espresso http://m.espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?fbclid=IwAR2G7stT6dZRMqJfipfldqSy7Y4e5RS1rYGmoqzxCso3k1J3d6Q2PvTyxws esce con un “j’accuse” formale: il modello in vigore (quello che supporta la tanto celebrata mappa di pericolosità sismica) “ha sottostimato i pericoli sismici ma, incredibilmente, è ancora in vigore”.

Ci avevano già provato dopo L’Aquila 2009, e avevamo dimostrato che avevano fatto male i conti (1). Ci hanno riprovato dopo l’Emilia-Romagna del 2012; anche in quel caso avevano fatto male i conti, confrontando le registrazioni su terreno di consistenza media con quelle previste su roccia (2). E lo ripropongono paro paro anche nell’articolo citato: una autentica fake news.
Nel caso del 2016 invece è successo: sì, in alcuni punti, e per alcune scosse, le accelerazioni registrate hanno superato i valori proposti dal modello di pericolosità (con il 10% di probabilità di superamento in 50 anni).

Questo significa dunque che il modello ha sottostimato? Facciamo a capirci. Prima di tutto, adottare una certa probabilità di superamento significa ammettere che i valori proposti possano essere superati, qualche volta: non rappresentano dunque il massimo possibile e sotto vediamo perché. Poi: il modello di pericolosità sismica offre svariate elaborazioni relative a diverse probabilità di superamento in diversi intervalli di tempo (complicato, lo so: ma se uno ci si mette ce la può fare). Ad esempio, alcuni valori di picco registrati nel 2016 sono di poco superiori a quelli relativi al 2% di probabilità di superamento in 50 anni, ma sono inferiori a quelli relativi all’1% di probabilità di superamento nello stesso intervallo. Dunque?

Occorre poi ricordare che il confronto andrebbe fatto (se del caso; ma ci sono buone ragioni per sostenere che non ha molto significato) su tutti i valori dello spettro di risposta e non solo sul valore di accelerazione di picco, valore che tra l’altro non viene utilizzato nella progettazione. Ovvero, può succedere che la accelerazione al suolo superi quella proposta dalla normativa in piccole porzioni dello spettro stesso, magari non interessanti per alcuni tipi di costruzione.

Il problema, comunque, risiede principalmente nella scelta dell’intervallo e della probabilità di superamento adottati dalla normativa, appunto il 10% in 50 anni – ovvero periodo di ritorno 475 anni. Questa scelta la fa lo Stato (parliamo di normativa, appunto), sulla base di una consuetudine abbastanza condivisa a livello internazionale. Le ragioni di questa scelta dovrebbero essere spiegate meglio dagli ingegneri; con le mie parole dico che questa scelta significa garantire, se la costruzione è fatta bene, che non crolli, accettando più o meno implicitamente che si possa danneggiare in modo ragionevolmente riparabile. Perché? questione di ottimizzazione del rapporto costi-benefici. Gli ingegneri che leggono potranno inserire commenti e correzioni, che saranno benvenuti.

Vanno poi aggiunte altre considerazioni. La prima è che l’eventuale superamento delle accelerazioni proposte dalla normativa non determina automaticamente il crollo della costruzione; anche in questo caso gli ingegneri potrebbero spiegare meglio di me.
Non sono a conoscenza di alcun crollo recente avvenuto solamente per tale, eventuale superamento, e mi chiedo: perché invece di accuse teoriche non viene presentato un caso, almeno uno?
Sono a conoscenza, viceversa, di crolli avvenuti per difetti di costruzione, nemmeno lievi, tali da chiedersi come funzioni la catena progetto-controllo. Sono anche a conoscenza di edifici che hanno sopportato le accelerazioni “eccedenti” senza crollare.
La seconda – repetita juvant – è che la normativa stabilisce un valore minimo delle azioni di progetto ma non vieta certo di progettare per azioni superiori, se il proprietario e il progettista lo desiderano e sono disposti a spendere di più. Ma anche su questo c’è scarsa informazione.
La terza, più importante, è che la maggior parte degli edifici crollati per causa dei terremoti era stata costruita prima dell’entrata in vigore della normativa (NTC08, entrata in vigore nel giugno 2009), quindi con riferimento ad altre azioni sismiche e soprattutto ad altra norma costruttiva. L’articolo dice che la ricostruzione di Norcia post-1997 è stata fatta sulla base della mappa probabilistica, che uscì solo nel 2004, pensa te! E per attirare l’attenzione mostra la Basilica di San Benedetto, costruita qualche tempo prima, credo…..
Ancora una volta si confrontano mele con pere e si propongono fake news.

L’articolo in questione ripropone il confronto fra metodo probabilistico e deterministico. Anche questo  confronto è mal posto. L’approccio deterministico privilegia il massimo evento (scuotimento) possibile (evidentemente con la presunzione di poterlo determinare con esattezza). E’ bene ricordare che i valori ottenuti con questo metodo – tradotti in termini ingegneristici, ossia spettri – sono del tutto confrontabili con quelli offerti dal metodo probabilistico per probabilità di superamento più basse e intervalli di tempo più elevati rispetto a quelli previsti dalla normativa in vigore.

Perché non adottare come riferimento il “massimo”, ovvero un periodo di riferimento più lungo? Ovunque nel mondo le scelte in materia le fanno gli ingegneri, che hanno scelto ovunque il probabilistico. Tocca a loro spiegare perché, soprattutto al pubblico e ai media che ne avrebbero molto bisogno (come sempre per i media l’Italia è più avanti: prevede i terremoti con i vari autodidatti, ha i metodi migliori per diminuire i danni da terremoto, ecc.; il tutto a opera di minoranze oppresse e inascoltate).
Sicuramente costruire secondo il “massimo” scuotimento atteso costerebbe di più e non è detto che i benefici varrebbero lo sforzo; ma questo è un paese in cui prima del terremoto si minimizza e si risparmia, dopo il terremoto si protesta e si sarebbe pronti a scialare (in teoria).

Alla serie di fake news e di imprecisioni contenute in questo articolo, provenienti da un gruppo molto ristretto di ricercatori (gruppo che ha vari, lontani nel tempo e poco nobili motivi di astio con il fondatore dell’INGV), dovrebbe rispondere il Governo, visto che parliamo di accuse gravi a leggi dello Stato e non a “papers” scientifici; magari tramite il Ministro delle Infrastrutture e/o il Dipartimento della Protezione Civile, che sono di fatto i gestori della materia (Casa Italia dà scarsi segni di vita. Possibilmente in modo diverso da quanto  fece il Ministro dell’Ambiente del Governo Monti nel 2012, che disse che le “mappe di rischio sono forse da rivedere” (come no, se ci sono stati dei crolli devono essere sbagliate le mappe….).
Ma in questi giorni vi sono cose più importanti.

Ricorrenze a parte, ci vuole un bel coraggio a cercare di scaricare ancora le responsabilità di crolli e morti sulle mappe di pericolosità e comunque sul terremoto, come fa l’articolo terminando con il ricordo di San Giuliano di Puglia, 2002. Vergogna!
Sarebbe veramente ora che dalla comunità ingegneristica si alzino voci forti e chiare in proposito. Le scelte in materia di protezione dai terremoti sono ingegneristiche; i modelli di pericolosità sismica non decidono proprio niente, offrono i materiali per tutte le possibili scelte.

Prima o poi uscirà il nuovo modello di pericolosità INGV, che ha avuto tutte le verifiche, battesimi e riconoscimenti scientifici possibili. C’è grande attesa. Si tratterà di capirlo, prima di tutto, e usarlo come si deve. Qualche numeretto cambierà e – temo – inizierà la solita solfa che i valori precedenti erano sbagliati, ecc. Ad esempio, chi ha calcolato con il modello precedente l’indice di sicurezza di un edificio così come previsto dalla normativa, potrà ricalcolarlo con il nuovo modello e, senza che la vulnerabilità dell’edificio sia stata modificata di una virgola, potrebbe d’incanto ritrovarsi con un valore dell’indice un po’ maggiore (o anche minore), ovvero con un edificio teoricamente un  po’ più sicuro (o anche meno).

Via, su; cerchiamo di fare i seri, guardiamo la luna e non il dito. Le mappe di pericolosità sono il dito, mentre la luna sono, in questo caso, le nostre case, con il loro deficit di sicurezza accumulato in anni di normativa non applicata, controlli mancati, usura, modifiche strutturali (e non) eseguite senza criterio, frodi, condoni, abusivismo.
La colpa dei disastri non è dei modelli di pericolosità sismica!

(1) Crowley, H. et al, 2009. Uno sguardo agli spettri delle NTC08 in relazione al terremoto de L’Aquila, https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/view

(2) Stucchi, M. et al. 2012. I terremoti del maggio 2012 e la pericolosità sismica dell’area: che cosa è stato sottostimato? https://drive.google.com/file/d/1yh3R_rg_39cyUYmja-MSTfke-fS8HbLQ/view

 

Do seismic hazard models kill? (Massimiliano Stucchi)

Introduction. The appearance of an article, on the weekly magazine L’Espresso (http://espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?ref=HEF_RULLO&preview=true), which took advantage of the 2016 Amatrice earthquake anniversary to discredit the Italian seismic hazard model and the national building code based on it, using fake news and inconsistent arguments, made me angry.
What follows is a comment written for the benefit of the international readers.
The original version in Italian which can be found here (https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/), which can easily be translated by means of the improved https://translate.google.com/.

As in many countries, since 2008 the Italian building code (NTC08 and now NTC18) makes reference to design spectra; they are taken from the results of the 2004 PSHA model (1). A new PSHA assessment is been published soon.

On the other hand, since a few years a very small group of Italian researchers proposes a so called alternative method for the evaluation of seismic hazard, based on the neo-deterministic approach. No problem, it is a current scientific discussion. Things became more complex when this group claims that their method should be taken as a basis for the building code; it becomes boorish when, like in the above mentioned article, they claim that the seismic actions proposed by the PSHA model, adopted by the building code, have been overcome in recent earthquakes, and that casualties are due to that “wrong” seismic actions, by making use of “fake news”.
Let’s see.

The article repeats, once again, the fake news that recorded PGA overcame the PGA estimated by the PSHA model, in the occasion of 2009 (L’Aquila) and 2012 (Emilia-Romagna) earthquakes. It has been proved that the above statement is not true (2) (3); simply, comparison are wrongly made between soft ground recordings and hard ground estimates!
In the case of the 2016 Amatrice and Norcia earthquakes, yes, recorded PGA did overcome PSHA estimated PGA. Does it mean that the model did underestimate?

It must first be considered that estimated PGA comes with some % probability of being exceeded in xx years (the most common figures being 10% and 50 years). Moreover, the comparison should be made (if really needed) on the whole design spectrum, not on PGA which is not used for building design; but such comparisons are not recommendable (4). Finally,  the main point is that the PSHA model is a model; it offers various elaborations related to different probabilities of exceedance in different time-intervals. For example, some peak values recorded in 2016 are slightly higher than those related to the 2% probability of exceeding in 50 years, but are lower than those related to the 1% probability of exceeding in the same interval.

So the matter comes back to the main point: do we need to design against the maximum expected shaking (and how to assess it?), or to a shaking with a lower probability of exceedance with respect to the adopted one which, by the way, is adopted in many countries of the world?

This is not a seismological – nor a SHA – problem. SHA models offer a variety of possible solutions and then someone decides. It is a political decision which, usually, is in fact taken by engineers (cost-benefits analysis); unfortunately, this often happens without or with little explanation. We know for instance that source of the “475 return period” is close to casual, but it seems to represent a “satisfactory” compromise. Would be nice if it was explained better, however, so to allow that part of the public, which is not ready to follow scandal claims, to understand by itself.

Are the detractors of the PSHA model and the building code able to provide one example, only one, of a building, designed according the NTC08 without executions mistakes, which collapsed because the design spectra values were overcome by the recorded ones? It would be a good, practical case history, instead of a theoretical clash. This question was already asked for, without getting an answer.
And, even more important: why to give the wrong idea to the public that, as soon as design spectra are exceeded, buildings collapse?

The article, and the scientists behind, quotes the reconstruction of Norcia after the 1979 earthquake and the San Benedetto Basilica (which did stood it); both have little to do with NTC08 and related design spectra. The worst, however, comes with the reference to the collapse of the school in San Giuliano di Puglia (2002), “renovated according to inadequate criteria”. Shame on you, who mix this event with your crusade against PSHA and NTC08! That school was restored in the absence – at that time – of the building code (responsibility of the Ministries which delayed the expansion of the building code to all Italy with all their power), and according to a questionable design.

Seismic hazard models do not kill; buildings do, with the help of fake news!

Verso il nuovo modello di pericolosità sismica per l’Italia (colloquio con Carlo Meletti)

English version at

https://terremotiegrandirischi.com/2018/07/03/towards-the-new-seismic-hazard-model-of-italy-interview-with-carlo-meletti/

Nel 2004 un piccolo gruppo di ricerca, coordinato da INGV, rilasciò la Mappa di Pericolosità Sismica del territorio italiano (MPS04), compilata secondo quanto prescritto dalla Ordinanza n. 3274 del Presidente del Consigli dei Ministri (PCM) del 2003. La mappa doveva servire come riferimento per le Regioni, cui spetta il compito di aggiornare la classificazione sismica dei rispettivi territori. La mappa fui poi resa “ufficiale” dalla Ordinanza n. 3519 del Presidente del Consiglio dei Ministri (28 aprile 2006) e dalla conseguente pubblicazione nella Gazzetta Ufficiale (n. 108 del 11 maggio 2006).
Nel seguito, utilizzando lo stesso impianto concettuale, alla mappa furono aggiunti altri elaborati che andarono a costituire il primo modello di pericolosità sismica per l’Italia. In particolare per la prima volta furono rilasciate stime per diversi periodi di ritorno e per svariate accelerazioni spettrali. Questo modello divenne poi la base per la normativa sismica contenuta nelle Norme Tecniche 2008 (NTC08), divenute operative nel 2008 ed è stato adottato anche dalle Norme Tecniche 2018.
Caratteristiche e vicende legate al successo di MPS04 sono descritte, tra l’altro, in due post di questo blog: 

https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/

https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/

Come avviene in molti paesi sismici, da qualche anno un gruppo di ricerca sta compilando un nuovo modello di pericolosità, che utilizzi dati e tecniche aggiornate.
Massimiliano Stucchi ne discute con Carlo Meletti il quale, dopo aver contribuito in modo importante a MPS04, coordina la nuova iniziativa attraverso il Centro di Pericolosità Sismica dell’INGV.

MPS04, pur compilata abbastanza “di fretta” per soddisfare le esigenze dello Stato, ha avuto un notevole successo, sia in campo tecnico-amministrativo sia – dopo qualche anno – a livello di pubblico. Che cosa spinge alla compilazione di un nuovo modello?

C’è la consapevolezza che dopo oltre 10 anni siamo in grado di descrivere meglio la pericolosità sismica in Italia. Un modello di pericolosità è la sintesi di conoscenze, dati e approcci disponibili al momento della sua compilazione. Nel frattempo abbiamo accumulato tantissimi dati nuovi o aggiornati (non solo un importante revisione del catalogo storico dei terremoti, ma anche del database delle faglie e sorgenti sismogenetiche, nonché tutte le registrazioni accelerometriche dei terremoti forti italiani degli ultimi 10 anni).
Abbiamo pertanto ritenuto di dover verificare quanto cambia la definizione della pericolosità. E’ una prassi normale nei paesi più evoluti (ogni 6 anni negli Stati Uniti, ogni 5 in Canada, ogni 10 in Nuova Zelanda). Noi siamo partiti da un’esigenza di tipo scientifico, ma anche il Dipartimento della Protezione Civile ha sostenuto questa iniziativa per verificare il possibile impatto sulla normativa sismica (classificazione dei comuni e norme per le costruzioni).

Ci puoi riassumere brevemente le fasi di questa nuova iniziativa e anticipare, se possibile, la data di rilascio nel nuovo modello? Continua a leggere

La mappa di pericolosità sismica (parte seconda); usi, abusi, fraintendimenti (di Massimiliano Stucchi)

Nella prima parte abbiamo analizzato la mappa MPS04 dal punto di vista scientifico: che cosa descrive, che cosa non descrive, come è stata compilata, ecc.
Le reazioni di chi ha commentato su Twitter sono interessanti: la maggior parte ha confermato però l’aspetto “iconico” che la mappa riveste oggi. Ci torneremo.
In questa seconda parte parliamo delle sue applicazioni: la materia non è semplice e neppure troppo semplificabile; ci ho provato e mi scuso se non ci sono riuscito del tutto.

6) A chi spetta il compito di aggiornare l’elenco dei comuni inseriti in zona sismica?
Fino al 1999 spettava allo Stato il potere/compito di dichiarare “sismico” un dato Comune, associandolo a una zona sismica, o categoria: prima, seconda, e terza solo dal 1981. La zona sismica determinava il livello di severità delle azioni sismiche da considerare in sede di progetto: tre livelli in tutto, quindi. Segnaliamo comunque una caratteristica tutta italiana, e cioè il fatto che alcuni Comuni, dopo essere stati inseriti in zona sismica a seguito di alcuni terremoti, hanno chiesto e ottenuto di esserne esclusi dopo pochi anni “in quanto non erano più venuti terremoti”. Continua a leggere

Che cos’è la mappa di pericolosità sismica? Prima parte (di Massimiliano Stucchi)

Premessa
Fino al 2009, la mappa di pericolosità (MPS04) se la sono filata in pochi.

mps04

Era stata compilata fra il 2003 e il 2004, in meno di un anno – ovvero in un tempo brevissimo per questo tipo di elaborati – e senza finanziamenti ad hoc da un gruppetto di ricercatori coordinati da INGV, su richiesta della Commissione Grandi Rischi (CGR) per adempiere a quanto previsto dalla Ordinanza Presidenza del Consiglio dei Ministri (PCM) 3274/2003. Tuttavia era stata: Continua a leggere

Quando comincia l’emergenza sismica? (Massimiliano Stucchi)

Uno dei tanti messaggi devianti che l’esito e la sentenza del processo “Grandi Rischi“ ha diffuso a piene mani è che la riunione incriminata della Commissione, tenutasi il 31 marzo 2009, fosse stata convocata in una fase di “emergenza sismica”, legata in qualche modo al perdurare dello sciame da alcune settimane.
Naturalmente questa immagine si è formata concretamente solo dopo il terremoto del 6 aprile, quando per molti – con il senno di poi – è stato facile fare due più due: Continua a leggere