Forti terremoti e giacimenti di metano: una relazione difficile? (colloquio con Gianluca Valensise)

Sismologo di formazione geologica, dirigente di ricerca dell’INGV, Gianluca Valensise è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Nel 2022 ha pubblicato un articolo, di cui è primo autore, in cui si presenta l’ipotesi che esista una anti-correlazione fra giacimenti di gas e faglie inverse sismogenetiche superficiali. Gli abbiamo rivolto alcune domande.

Nel comunicato stampa (1) dell’Istituto Nazionale di Oceanografia e Geofisica Sperimentale (4 febbraio 2022), rilasciato da questo ente in quanto alcuni autori vi appartengono, si afferma che “che la presenza di una giacimento di metano al di sopra di una grande faglia attiva indica che quella faglia difficilmente genererà terremoti forti”. È così?

Si, è così. L’articolo (2), scritto con quattro colleghi dell’OGS di Trieste, pone un questione intrigante ma in fondo semplice. La più diffusa modalità di creazione di un giacimento di metano è attraverso la generazione di ‘trappole strutturali’, come le anticlinali: porzioni della crosta superiore dove le rocce sono state inarcate dalla tettonica, e dove i vari orizzonti deformati generalmente mostrano una forte differenza di permeabilità (Fig. 1). In Italia, come lungo tutta la fascia di collisione tra Africa e Europa, il metano è molto spesso ospitato in giacimenti (‘gas reservoir’ in Figura 1) formati da rocce granulari, come le arenarie, sovrastate da strati di argille, che impediscono al metano di salire in superficie e disperdersi nell’atmosfera. Ma per generare una anticlinale ci vuole una faglia inversa (più propriamente, una faglia da thrust), ovvero compressiva. Si tenga presente che la struttura di tutto l’Appennino è fatta di faglie inverse e anticlinali generate da un regime tettonico ormai in parte estinto (l’Appennino è un tipico ‘fold-and-thrust belt’): anch’esse possono aver ospitato importanti giacimento di metano, ma il sollevamento che ha interessato tutta la catena durante il Quaternario ha causato l’erosione di quelle rocce più giovani che impedivano al gas di rimanere intrappolato, causandone la lenta ma inesorabile dispersione nell’atmosfera (e, incidentalmente, aumentando l’incidenza dei gas serra). Oggi i giacimenti produttivi sono solo quelli della cosiddetta  ‘avanfossa’  – Pianura Padana, Mar Adriatico e Ionio, canale di Sicilia – dove l’edificio appenninico non è stato ancora sollevato e smantellato (un verbo molto appropriato, in questo caso).

Figura 1 – Rappresentazione schematica del margine compressivo dell’Appennino settentrionale, sepolto sotto i depositi della Pianura Padana.

Ci racconti brevemente come è nata questa idea e come avete provato a verificarla?

Tutto è iniziato dai terremoti del 20 e 29 maggio 2012 nella bassa modenese. Terremoti abbastanza forti ma non straordinari per l’Italia – di magnitudo Mw 6.1 e 5.9, rispettivamente – ma di certo inattesi, quantomeno dai non addetti ai lavori oltre che da alcuni nostri colleghi smemorati. In effetti si è trattato di terremoti normalissimi, ancorché rari, simili ad altri accaduti storicamente nella Pianura Padana. Tuttavia, complice la rarità dei terremoti in quelle zone, e forse complici anche le idee No-Triv che si stavano diffondendo in quegli anni, furono in molti – tra cui anche alcuni noti geologi e geofisici (3) – a sostenere che quei terremoti potevano essere stati innescati dalle attività di sfruttamento degli idrocarburi. Altri invece, tra cui Marco Mucciarelli e il sottoscritto, ritenevano che si trattasse di una mera coincidenza, e che  fosse sbagliato usare le attività di estrazione degli idrocarburi come “capro espiatorio”. Io in particolare, già dal 1999 avevo lavorato e pubblicato sulle faglie sepolte della Panura Padana, nell’ambito di un progetto europeo coordinato da Marco stesso: una di queste era proprio la Faglia di Mirandola, quella che avrebbe poi causato il terremoto del 29 maggio 2012. Una faglia che fu censita nel database DISS (4) già dal prototipo pubblicato nel luglio 2000, e la cui proiezione in superficie è mostrata con il codice ITIS107 nella Figura 2, tratta da un primo articolo che scrivemmo sul tema nel 2015 (5). Marco osservò che intorno alla sorgente del terremoto del 29 maggio tutti i pozzi a metano erano sterili. Ricordo ancora cosa mi disse: “Luca, la ragione per cui in quella zona non ci sono campi a gas è esattamente la presenza di una faglia attiva e sismogenetica”.

Figura 2 – Il rettangolo azzurro mostra l’area di studio dell’articolo pubblicato nel 2015 (5), la proiezione in superficie delle Sorgenti Composite e Individuali (rispettivamente in arancione e in rosso) allora censite nel DISS, e i 455 pozzi analizzati. I simboli in violetto e in verde indicano rispettivamente pozzi produttivi e pozzi sterili.

L’idea era nata. Per l’area padano-adriatica – la regione da cui proviene gran parte del metano estratto in Italia – il database DISS nel 2012 già censiva nove ‘Sorgenti Individuali’ simili a quella di Mirandola (in rosso in Figura 2). Nel 2014 decidemmo di studiare le relazioni spaziali tra le sorgenti sismogenetiche note e la distribuzione di 455 pozzi per estrazione di gas in una porzione di circa 10.000 km2 della Pianura Padana centro-meridionale. L’obiettivo era capire se l’osservazione di Marco, ovvero che le faglie sismogenetiche rendevano sterili i giacimenti a gas posti al di sopra di esse, era sistematica o casuale. Nel citato articolo pubblicato nel 2015 (5) dimostravamo la sistematicità di quanto ipotizzato da Marco, sulla scorta di una validazione statistica della distanza tra la proiezione in superficie delle Sorgenti Composite e Individuali e i pozzi analizzati, produttivi o sterili. Si noti che questi ultimi non vanno confusi con i pozzi che oggi sono improduttivi perché il relativo giacimento è stato sfruttato completamente; questi pozzi, che ai nostri fini rientrano tra quelli produttivi, sono detti ‘depleti’.

Avete un modello che spieghi le cose oppure si tratta di una evidenza di tipo statistico, ancora da interpretare?

Sì. Abbiamo un modello semplice, anche se illustrarlo richiede qualche conoscenza di base di geologia e sismologia. La Figura 3 schematizza l’anticlinale sepolta di Mirandola: una anticlinale più grande della media, generata da una faglia in grado di generare terremoti di magnitudo 5.5 e più, come poi si è visto, e sepolta dai depositi successivi, molto più giovani e quindi meno deformati dalla tettonica, che coprono la struttura profonda come una coperta spessa da centinaia di metri ad alcuni km. Come tutte le grandi anticlinali, anche questa cresce in virtù della compressione, che causa l’avvicinamento dei blocchi crostali sui due lati della struttura. Tra il bordo inferiore della figura, che può corrispondere a una profondità tra 5 e 10 km, e il punto del piano di thrust (indicato in rosso) più vicino alla superficie, a circa 2-3 km, la compressione è accomodata dalla dislocazione sulla faglia stessa: la quale, come già detto, non si propaga fino alla superficie, ma resta “cieca”. Ne consegue che nei primi 2-3 km della crosta le rocce vengono inarcate, ma non fagliate, se non in maniera secondaria. L’inarcamento crea una trappola per i fluidi del sottosuolo che migrano verso l’alto – in questo caso il metano; lo strato impermeabile (in beige) li tiene intrappolati nel sottosuolo.

Figura 3 – Schema dell’anticlinale di Mirandola. Si veda il testo per la discussione delle sue diverse componenti.

Sappiamo anche che non tutte le faglie generano terremoti, anche se attive: una deformazione lenta ma non sismica può essere assorbita dal sistema senza guasti. Ma se la faglia si comporta in modo non asismico ma ‘stick slip’, ovvero caricando deformazione tettonica e poi scaricandola in un istante con un forte terremoto, allora ci dobbiamo aspettare che al di sopra della faglia stessa si creino – e progressivamente si rinnovino – della fratture. Questo avviene perché il forte terremoto richiede dislocazione istantanea su tutto il piano di faglia, massimizzando la formazione di fratture nella porzione più superficiale della crosta. Queste fratture potranno essere sia compressive, causate dal tentativo della faglia primaria di raggiungere la superficie, sia estensionali, create sul culmine dell’anticlinale come effetto secondario dell’inarcamento: queste sono chiamate faglie di estradosso, ed è soprattutto attraverso di esse che il serbatoio di metano può “perdere” e quindi svuotarsi (si veda il simbolo indicato con ‘gas leakage’ in Figura 3).
Torniamo ora alla ricerca di idrocarburi, che si concentra su queste anticlinali sepolte per trovare e sfruttare il metano. Se la struttura della trappola è ideale, come nell’immagine, quasi sicuramente il metano avrà provato a concentrarsi nel nucleo dell’anticlinale: ma dipenderà dal carattere sismico o asismico della sottostante faglia se poi sarà rimasto lì fino ad oggi, consentendo a noi di estrarlo, o si sarà disperso nell’atmosfera. La Figura 4, tratta dal nostro articolo del 2022 (2), documenta nel dettaglio come il metano che nel tempo geologico si era accumulato al nucleo dell’anticlinale di Mirandola potrebbe essersi disperso nell’atmosfera, terremoto dopo terremoto.

Figura 4 – Area delle Terre Calde in prossimità di Medolla (MO). In alto a destra: dettaglio della proiezione in superficie della sorgente sismogenetica già identificata come ITIS107, qui mostrata in giallo, responsabile del terremoto del 29 maggio 2012. In basso a destra: profilo topografico lungo la sezione mostrata da una linea bianca. I tre siti M3, M14 e M20 sono emanazioni di gas dominate dal metano: se ne veda la discussione nel testo. Nella colonna di sinistra sono mostrate le percentuali di metano rilevate sul totale delle emanazioni tra il 2008 e il 2015.

La Figura 4 mostra emanazioni naturali note già dalla fine dell’Ottocento perché causano il riscaldamento del suolo e distruggono la vegetazione, da cui il nome di ‘Terre calde’ dato alla località. Come mostra la sezione topografica, le emanazioni ricadono esattamente lungo l’asse di massimo inarcamento dell’anticlinale sepolta, dove è attesa l’esistenza di faglie normali secondarie di estradosso. Misure effettuate tra 2008 e 2015 (6) mostrano chiaramente sia un segnale di fondo pre-terremoto, sia un forte aumento iniziato in corrispondenza del terremoto e protrattosi per oltre due anni. Questo quadro è congruente con le ipotesi da noi formulate, ovvero che i giacimenti che si trovano al di sopra di faglie sismogenetiche siano soggetti a perdite continue, e sembra dimostrare il ruolo delle faglie di estradosso nel fungere da via di fuga preferenziale del metano.

Questa vostro risultato può avere un notevole impatto sia sugli aspetti legati alla estrazione che su quelli della pericolosità sismica. In particolare state sostenendo che si possono individuare faglie potenzialmente sismogenetiche che potrebbero essere “rimosse” dalle valutazioni di pericolosità sismica, giusto?

Esattamente. Il nostro lavoro ha una tripla valenza: ai fini della ricerca degli idrocarburi, perché sarà possibile dirigere l’esplorazione evitando in partenza aree quasi certamente prive di giacimenti produttivi; nei riguardi del rapporto tra terremoti potenzialmente disastrosi ed esplorazione per idrocarburi, perché dallo studio si evince che terremoti come quello del 29 maggio 2012 devono essere accaduti ripetutamente nel passato geologico, dunque senza responsabilità umane; e per una corretta valutazione della pericolosità sismica locale, perché la mera presenza di un giacimento a metano potrà essere assunta come una prova del comportamento asismico della faglia sottostante.
Sia chiaro: che esistano grandi faglie asismiche lo si sa da sempre: noi abbiamo solo proposto un criterio utile a riconoscerle e discriminarle. E come tu stesso hai sottolineato, una faglia che si muove in modo non sismico va studiata e censita, ma non è di interesse per la pericolosità sismica. A questo riguardo voglio sottolineare che il DISS è uno strumento che censisce sorgenti sismogenetiche potenziali: grandi faglie evidenziate soprattutto per via geologica o geofisica, ma per le quali non sempre si ha la prova che abbiano causato forti terremoti, cosa che potrebbe essere avvenuta in epoca preistorica. E ovviamente, se quelle faglie hanno generato terremoti in passato, ne genereranno altri in futuro.

Figura 5 – Slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale.

La Figura 5 mostra gli slip-rates (ratei di dislocazione) di alcune delle Sorgenti Composite censite nel DISS in Italia settentrionale, scelte tra quelle che mostrano cinematica compressiva e sono ‘cieche’, ovvero non arrivano ad interessare la superficie topografica. Si nota che i valori – espressi in millimetri/anno, equivalenti a metri/ millennio – decrescono lentamente da est a ovest.

Figura 6 – Sismicità della stessa area mostrata in Fig. 5, dal catalogo CFTI5Med.

La Figura 6 mostra invece la sismicità della stessa area, tratta dal catalogo CFTI5Med (7). Per quanto riguarda il lato appenninico (meridionale) della Pianura Padana, si nota una rarefazione della sismicità procedendo verso ovest, mentre sul lato sud-alpino (settentrionale) la sismicità è molto limitata e quasi assente a ovest di Brescia, con la sola eccezione del terremoto di Soncino del 1802 (mostrato da un asterisco rosso poco a nordest di Crema). Il rapporto tra l’energia sismica storicamente rilasciata in una determinata area e quella che le faglie censite in quell’area potrebbero generare (in funzione delle loro dimensioni e del loro slip rate) è detto ‘efficienza sismica’ o ‘accoppiamento sismico’. In Pianura Padana questo parametro è basso, nell’ordine del 20-30%.
La nostra interpretazione complessiva è che solo alcune delle strutture compressive censite, a ciascuna delle quali corrisponde una anticlinale e un giacimento di metano almeno potenziale, sono in grado di generare terremoti prossimi alla magnitudo massima tipica di questo settore, che è intorno a 6.0 o poco più. Le altre – che sono la maggioranza – si muovono in modo asisimico, e quindi dovrebbero essere escluse del tutto in una valutazione di pericolosità sismica a scala regionale, in quanto non in grado di generare forti terremoti ma al massimo sismicità di fondo.

Stiamo parlando di qualche cosa di tipicamente italiano oppure generalizzabile anche altrove, e eventualmente dove?

La nostra ricerca e le nostre ipotesi valgono solo per i giacimenti associati a faglie compressive, attraverso il meccanismo che ho delineato (creazione di una anticlinale e migrazione degli idrocarburi al nucleo della stessa). Questo è il tipo di giacimenti molto comune in Italia, ma non necessariamente in tutto il resto del globo. Un’area in cui la nostra ipotesi si potrebbe applicare è la catena montuosa degli Zagros, in Iran. Si tratta di uno dei distretti di produzione di idrocarburi più importanti al mondo, dove studi ormai consolidati basati su dati sismologici e geodetici mostrano che l’efficienza sismica è molto bassa, addirittura intorno al 10%. Condizioni simili si osservano in altri paesi del Medio Oriente, in California, nel Maghreb, ma non nelle aree stabili del pianeta, come il cratone russo-siberiano all’interno del blocco eurasiatico: zone dove peraltro il problema sismico non si pone affatto, e dove la presenza o assenza di idrocarburi dipende da altri meccanismi.

Oltre alla tua presentazione al Convegno del Gruppo Nazionale per la Geofisica della Terra Solida (GNGTS) di Ferrara del 2024, avete presentato altrove i vostri risultati? Che ricevimento ha ottenuto l’articolo in ambito scientifico, nazionale e internazionale? Mi sembra che la portata delle cose in ballo avrebbero dovuto suscitare molto interesse…..

L’articolo è stato presentato nel 2024 in una delle riunioni periodiche del Co2Geonet (8), un consorzio europeo nato nel 2004 per trattare le problematiche poste dalla pratica dello stoccaggio geologico permanente della CO2. Questa pratica condivide molti aspetti con quella dello stoccaggio temporaneo di metano, che prevede di pompare il gas in vecchi giacimenti ormai esauriti in estate per poi recuperarlo d’inverno, quando la richiesta di energia è maggiore. Devo però ammettere a malincuore che almeno fino ad oggi le nostre conclusioni non hanno suscitato un interesse all’altezza delle aspettative (quantomeno le mie).
Per quanto riguarda la prima e la seconda valenza del nostro lavoro, che riguardano la ricerca di idrocarburi e le possibili ‘colpe’ derivanti dal loro sfruttamento, io speravo che i nostri risultati potessero contribuire a tranquillizzare tutti coloro i quali temono che l’attività estrattiva o di stoccaggio possa causare forti terremoti. Ma la questione posta dai NoTriv evidentemente non è più così pressante, perché di nuove trivellazioni si parla sempre meno; e comunque, i giacimenti di metano più promettenti sono nel Mar Adriatico e nel Canale di Sicilia, quindi relativamente distanti dai centri abitati, e di conseguenza meno critici dal punto di vista ambientale.
Per quanto riguarda la terza valenza, quella relativa alla pericolosità sismica, osservo che:

(a) nelle valutazioni di pericolosità a scala regionale, l’uso diretto delle sorgenti sismogenetiche come quelle fornite dal DISS è tuttora in una fase iniziale;

(b) esiste una certa ritrosia a trattare il dualismo sismico/asismico, forse per la difficoltà di valutare questo carattere per ciascuna sorgente;

(c) al momento non sono in corso nuovi progetti di rivalutazione della pericolosità sismica a scala italiana. Questo ovviamente non impedisce ai ricercatori operanti su questo tema di intraprendere iniziative a scala più limitata: esperienze-pilota eventualmente estendibili a scala più ampia.

State proseguendo questa ricerca?

Al momento no: siamo in una pausa di riflessione, motivata sia da quanto ho appena scritto sul finora limitato recepimento dei nostri risultati, sia dal fatto che probabilmente abbiamo raggiunto un punto oltre il quale sarà difficile spingersi, perché:

(a) dal punto di vista delle osservazioni e di un possibile rafforzamento delle nostre ipotesi, annoto che nell’articolo del 2022 abbiamo correlato 1.651 pozzi a metano, sterili e produttivi, con 18 sorgenti sismogenetiche. Sappiamo che questi dati non aumenteranno né miglioreranno in un prossimo futuro, se non in misura marginale;

(b) per dimostrare che il fenomeno non è solo italiano si potrebbe esplorare come vanno le cose in altre aree del globo; ma purtroppo non sono molti i paesi per i quali si dispone di dati ordinati e di buona qualità come quelli che abbiamo avuto la fortuna di usare noi;

 (c) si potrebbe poi esplorare meglio il meccanismo dal punto di vista teorico, ma onestamente non saprei da dove partire e comunque non avrei l’expertise necessario..

Nel campo delle applicazioni alla pericolosità sismica invece ci sarebbe molto da fare: ne farò un esempio pratico. Il DISS censisce sorgenti sismogenetiche che passano sotto grandi città come Bergamo e Brescia, e si avvicinano a Cremona e persino alla stessa Milano: tutte ben documentate da affidabili dati di sottosuolo forniti nel secondo dopoguerra dalla stessa esplorazione per la ricerca degli idrocarburi. Fino ad oggi queste sorgenti sono entrate in misura limitata nelle valutazioni di pericolosità – mi riferisco al modello MPS19, completato dall’INGV ormai qualche anno fa (9); ma ritengo che se entrassero con decisione aumenterebbero non poco la pericolosità sismica stimata per quelle città, a fronte di una sismicità storica e strumentale molto limitata.

Nell’articolo pubblicato nel 2022 abbiamo proposto che in future applicazioni si tenga conto di quanto da noi evidenziato: ma di certo il percorso da compiere sarebbe lungo, articolato, e non facilmente digeribile neppure dalla comunità scientifica di riferimento. Per spiegarmi meglio provo a fare un passo indietro e una sintesi:

–    come già detto, le sorgenti sismogenetiche del DISS, ovvero derivate da dati geologici e geofisici, sono ancora poco usate nei modelli probabilistici, anche se si sta diffondendo il loro uso in applicazioni di tipo deterministico;

–    nel corso del processo di individuazione delle sorgenti è aumentata la consapevolezza che anche in Italia esistono grandi faglie che hanno un comportamento prevalentemente asismico, e come tali non contribuiscono a creare pericolosità sismica. Una situazione abbastanza paradossale, in virtù della quale chiunque potrebbe chiedersi se il DISS non crei più dubbi di quanti ne dissolve;

–   queste ‘faglie asismiche’ andrebbero identificate una per una, così da poterle “spegnere” selettivamente ai fini dei calcoli di pericolosità; ma questa identificazione non l’abbiamo ancora avviata, a causa di varie difficoltà e incertezze tra gli stessi geologi;

–    il caso vuole che queste faglie asismiche siano localizzate soprattutto nel nord del Paese, in aree densamente popolate: questo rende qualsiasi scelta ancora più critica;

–    per di più, parliamo di faglie cieche, sepolte sotto un paesaggio pianeggiante, il che nell’immaginario collettivo contrasta con i contesti montuosi che caratterizzano la maggior parte dei grandi terremoti italiani, come quelli del 2016-2017 nell’Appennino centrale. Faglie cieche che, per un ulteriore paradosso, sono ben illuminate dalla sismica d’esplorazione condotta a partire dal secondo dopoguerra per la ricerca di idrocarburi, e finiscono per essere meglio identificabili e note di molte delle faglie sismogenetiche che attraversano l’Appennino.

Potrebbe quindi crearsi un problema di ‘pubblica accettazione’ di questi risultati della ricerca. Per dirla in una battuta, bisognerebbe prima avvertire i lombardi – e non solo loro – che sotto i loro piedi esistono delle faglie simili a quelle che affliggono altre zone dell’Italia, e un attimo dopo rassicurarli spiegando che molte di quelle faglie in effetti sono innocue.
Quello che si dovrebbe fare a questo punto è lanciare un progetto-pilota per quantificare sia l’impatto dell’introduzione massiccia delle sorgenti sismogenetiche nei calcoli di pericolosità dell’Italia settentrionale, sia l’effetto del loro “spegnimento selettivo” alla luce delle considerazioni fin qui svolte. Anzi, approfitto di questa tua intervista per sollecitare contributi dialettici a questo dibattito e concrete proposte di collaborazione nella direzione che ho appena indicato. E ti ringrazio per aver creato questa occasione di dialogo.

Bibliografia

(1) https://www.ogs.it/it/press/nuovi-risultati-sulla-relazione-tra-giacimenti-di-metano-e-forti-terremoti

(2) https://www.nature.com/articles/s41598-022-05732-8

(3) https://www.science.org/doi/10.1126/science.345.6196.501

(4) https://diss.ingv.it

(5) https://nhess.copernicus.org/articles/15/2201/2015/nhess-15-2201-2015.html

(6) https://www.nature.com/articles/s41598-017-14500-y

(7) https://storing.ingv.it/cfti/cfti5/

(8) https://conference2024.co2geonet.com

(9) https://www.annalsofgeophysics.eu/index.php/annals/article/view/8579

A proposito di terremoti “di origine antropica”: la situazione in Italia (conversazione con Enrico Priolo)

Di seguito viene pubblicata la seconda parte del post A proposito di terremoti “di origine antropica”: aspetti generali pubblicato in precedenza (https://terremotiegrandirischi.com/2023/02/27/a-proposito-di-terremoti-di-origine-antropica-aspetti-generali-conversazione-con-enrico-priolo/)
Questo secondo post è dedicato alla situazione italiana.

Schermata 2023-02-27 alle 09.46.03Raffigurazione delle differenti tipologie di attività che possono indurre o innescare sismicità. In un articolo pubblicato dalla rivista Reviews of Geophysics nel 2017, Grigoli et al. fanno il punto sulla sismicità indotta e analizzano le possibili strategie di controllo delle attività e mitigazione della sismicità che si stanno sviluppando. Figura tratta da Grigoli and Wiemer (2017).
Tra le attività rappresentate nella figura, in Italia non sono svolte: la produzione di olio o gas dalle rocce di scisto, con la meglio nota tecnica del fracking; la produzione di energia geotermica da rocce anidre con fratturazioni stimolate; il confinamento del CO2 nel sottosuolo, anche se per quest’ultima è prevista la costruzione di un impianto a Ravenna nel prossimo futuro.

Quali sono le tipologie di terremoti di origine antropica riscontrate nel nostro paese?
Vorrei iniziare con una premessa. In Italia, l’argomento della sismicità indotta è stato trascurato per lunghissimo tempo. In un articolo del 2013 Mucciarelli, riprendendo delle considerazioni fatte da Caloi nel 1970, riconduceva questo disinteresse alla (micro-)sismicità registrata prima del distacco della frana che portò al disastro del Vajont. Non era il primo caso di sismicità indotta in Italia, ma “ La possibile correlazione al Vajont tra sismicità indotta ed il seguente distacco franoso creava un precedente di cui alcuni avrebbero preferito tacere e dimenticare al più presto”. Mentre l’articolo andava in pubblicazione avvenne il terremoto dell’Emilia, che dette impulso a nuovi studi e iniziative. Una ricognizione della sismicità indotta in Italia fu effettuata nel 2014 da un tavolo di lavoro coordinato da ISPRA (ISPRA, 2014), e fu successivamente completata da alcune pubblicazioni scientifiche (es: Braun et al., 2018). Il quadro che ne scaturisce evidenzia poco più di una quindicina di casi/siti interessati da attività per i quali si è verificata sismicità potenzialmente indotta. Tuttavia, per circa metà di questi casi il fatto che la sismicità sia stata causata dalle attività umane svolte è solo una ipotesi.
Ci sono 6 casi di sismicità associata ai bacini idrici, tutti di magnitudo piuttosto ridotta (M<3), eccetto uno per il bacino di Campotosto in Abruzzo, più forte ma solo ipotizzato. Altri 6 casi sono quelli associati alla geotermia, la maggior parte localizzati nell’area del Monte Amiata e Larderello e la cui causa umana è ancora solo ipotizzata (tra questi spicca l’evento di magnitudo M4.9 del Monte Amiata del 2000).
Sono poi censiti tre eventi legati alle attività di produzione di idrocarburi, di cui due sono ipotizzati associati alla estrazione di olio (Caviaga (LO) 1951 ed Emilia 2012) e uno è associato alla reintroduzione di fluidi di produzione in profondità (Montemurro 2006). Tornerò in seguito su questi tre eventi.
Un altro evento è infine associato, ma solo come ipotesi, alle attività minerarie svolte a Raibl/Predil (Friuli – Venezia Giulia); per questo evento, avvenuto nel 1965, in una area di rilevante sismicità naturale, è stata stimata solo l’intensità macrosismica, ovvero gli effetti generati, che è stata valuta pari a V MCS (appena sotto la soglia del danno).
Come già accennato, i casi probabilmente più noti in Italia per i quali venne attribuita inizialmente una origine umana sono quelli dei terremoti dell’Emilia del 2012 (con Mmax 5.9) e degli eventi avvenuti a Caviaga nel 1951 (Mmax 5.4). Entrambi gli eventi furono associati all’attività di produzione di idrocarburi, rispettivamente il primo per l’estrazione di olio e reiniezione delle acque di strato residue all’interno del giacimento presso la concessione di Mirandola-Cavone, e il secondo per l’estrazione di gas presso l’omonimo deposito naturale. In entrambi i casi, tuttavia, studi successivi hanno mostrato come essi siano plausibilmente legati a cause naturali, cioè tettoniche, e non innescati dalle attività svolte in loco. Come già detto, la scarsità di dati osservazionali pone grandi difficoltà nell’interpretazione univoca dei fenomeni potenzialmente ritenuti indotti, e questo è estremamente grave se pensiamo che questa situazione era vera pochi anni fa e non è ancora risolta dappertutto.

Restando nell’ambito della produzione di idrocarburi, i campi della Val D’Agri rappresentano una delle aree cui è rivolta la maggiore attenzione in questo periodo, sia per la vastità della zona coinvolta (i depositi della Val d’Agri, per quanto considerati non enormi a livello mondiale, sono il più grosso giacimento di olio on-shore europeo) sia perché, con lo scopo di ridurre l’impatto ambientale del trasporto a distanza delle acque residue (le cosiddette acque di strato) per il loro smaltimento, era stato avviato un progetto di sperimentazione per iniettare queste acque in un pozzo profondo all’interno di strati posti ben al di sotto del giacimento. Quest’attività provocò un terremoto di poco inferiore a magnitudo 2 nel 2014 che destò molta preoccupazione, dato che la Val d’Agri si colloca in una zona considerata tra le più pericolose d’Italia dal punto di vista sismico e nel 1857 fu teatro di uno dei terremoti più forti mai avvenuti in Italia (magnitudo stimata 7.1) e per il quale il sistema di faglie causativo è ancora in discussione. Sia a seguito di questo evento sia per la contiguità del bacino artificiale del Pertusillo, si è proceduto a un notevole irrobustimento delle reti locali di monitoraggio che oggi producono dati molto dettagliati.

Tornando ai casi di sismicità indotta in Italia, si noti anche che per la maggior parte dei casi, la sismicità associata ai bacini idrici è ben documentata e quindi non vi sono dubbi circa la sua natura. Questo fatto non è casuale, in quanto le dighe sono da sempre soggette a monitoraggio accurato in Italia, per questioni di sicurezza. Per contro, stupisce la scarsità di dati —per lo meno, dati pubblicamente disponibili— relativamente alle attività legate alla produzione di idrocarburi. È difficile stabilire se queste attività siano effettivamente meno “pericolose” o se il supposto minore impatto derivi da una mancanza di informazioni frutto di scelte deliberate da parte delle compagnie del settore. L’esperienza del terremoto dell’Emilia del 2012 mostra, a mio parere, che l’assenza o la inadeguatezza dei monitoraggi sia stata controproducente per tutto il paese e, probabilmente, anche per le compagnie stesse.
Riguardo agli idrocarburi, ricordo anche che l’Italia ha circa una quindicina di stoccaggi sotterranei di gas ed è il sesto/settimo paese al mondo per capacità complessiva di stoccaggio. Per questi stoccaggi non ci sono segnalazioni di sismicità indotta correlata all’attività svolta. Sottolineo però che solo alcuni di questi stoccaggi sono dotati da alcuni anni di monitoraggi sismici e della deformazione molto efficienti (ad esempio i siti di Collalto, Cornegliano Laudense e Minerbio) e per questi l’assenza di sismicità è un fatto scientificamente comprovato (es. Romano et al., 2019), che dimostra che se l’attività è ben progettata e ben gestita può non causare sismicità pericolosa per l’uomo. Ricordo anche che la maggior parte delle aree dove si effettuano queste attività è comunque soggetta a terremoti naturali che prima o poi avverranno indipendentemente dalle attività, dunque la riduzione del rischio sismico resta una priorità per vivere in sicurezza.
Infine, vale la pena sottolineare, anche se ormai dovrebbe essere piuttosto noto, che in Italia non viene praticato il “fracking”: ciò perché, al di là di scelte politiche circa l’opportunità o meno di praticare questa tecnica, la risorsa primaria, cioè gli scisti che contengono gas, non esiste in Italia.

E per quanto riguarda la recente vicenda dei terremoti emiliani del 2012?
A mio avviso, l’aspetto importante di questo caso, oltre a quello umano e dei danni economici, è rappresentato dall’insieme delle iniziative messe in atto dal governo nazionale e dall’amministrazione regionale per stabilire se gli eventi disastrosi fossero stati causati, o meno, da alcune attività umane svolte vicino all’area colpita. Il terremoto ebbe origine in strutture di faglie attive, già note nella letteratura scientifica. Dato che praticamente tutta l’Italia è un paese esposto ai terremoti, già solo l’ipotesi di una possibile attribuzione di causa antropica al terremoto, comportava una rivalutazione della potenziale pericolosità di tutte le attività simili esistenti o per le quali era in corso la concessione di nuove licenze. Per almeno due anni furono bloccate tutte le istanze di nuovi permessi di ricerca nel sottosuolo.
Le perplessità e la difficoltà a giungere a conclusioni ultimative era dovuta alla scarsità di dati osservazionali adeguati. La scarsità di monitoraggi specifici e di informazioni pubbliche circa le attività svolte nel sottosuolo favorirono la diffusione di una moltitudine di affermazioni false o distorte, creando in Italia un ambiente assolutamente ostile a una valutazione serena dei fatti e influenzando l’opinione pubblica e della classe politica riguardo alle azioni future da intraprendere in tema di politica energetica. Oggi assistiamo a una precipitosa inversione di rotta, che temo possa portare ad allentare le procedure di controllo e monitoraggio, anche con detrimento per gli avanzamenti in termini di conoscenza scientifica.

FOTO DEI LETTORI: SISMA EMILIA, SEI VITTIME
I danni del terremoto dell’Emilia 2012 sul campanile di Finale Emilia (LaPresse/Gianfilippo Oggioni)

Quali sono state le iniziative adottate in Italia a seguito del terremoto dell’Emilia e qual è oggi la posizione dell’Italia relativamente al problema della sismicità indotta sia a livello politico sia riguardo all’opinione pubblica?
Dopo il terremoto dell’Emilia, il Ministero dello Sviluppo Economico (MiSE), allora competente per le attività svolte nel sottosuolo, istituisce la commissione scientifica internazionale ICHESE con il compito di stabilire se il terremoto possa essere attribuito a tre attività svolte nell’area circostante, e cioè la produzione di olio nella concessione di Mirandola-Cavone, l’estrazione di acqua calda a Casaglia per il teleriscaldamento della zona ovest di Ferrara, e le attività di ricerca presso la concessione di Rivara per un futuro stoccaggio di gas, comprendenti perforazioni profonde. La Commissione ICHESE rilascia il proprio rapporto a inizio 2014 (ICHESE, 2014), non escludendo che le attività svolte a Mirandola-Cavone possano avere contribuito a generare il terremoto e insistendo fortemente sulla necessità di dotare le attività svolte nel sottosuolo di monitoraggi di dettaglio per la sismicità, le deformazioni superficiali e le pressioni di poro nel sottosuolo. A seguito dei risultati della Commissione ICHESE viene bloccato il rilascio di nuove concessioni di “coltivazione” e il MiSE istituisce un gruppo di lavoro con lo scopo di definire delle linee guida per l’attuazione di monitoraggi dedicati per le attività svolte nel sottosuolo riguardanti l’estrazione di idrocarburi, lo stoccaggio di gas e la reintroduzione di fluidi in profondità. Le risultanze dell’attività di questo gruppo di lavoro vengono pubblicato in un rapporto a fine 2014 (MISE, 2014), e seguono la pubblicazione del rapporto di un altro gruppo scientifico, coordinato da ISPRA (2014), che fa lo stato dell’arte delle conoscenze sulla sismicità indotta in Italia. A seguito di queste iniziative, viene avviata una sperimentazione delle Linee Guida presso la concessione di Mirandola-Cavone di concerto con la Regione Emilia Romagna, che si concluderà alcuni anni dopo. Nel 2016 il MiSE rilascia un ulteriore documento che integra le Linee Guida anche per le attività geotermiche a media e alta entalpia (MISE, 2016).
Ritengo che l’attività del gruppo di lavoro che ha redatto gli Indirizzi e Linee Guida sia stato molto importante perché si sono cercate di definire le migliori modalità e pratiche di monitoraggio e di eventuale intervento sulle attività sulla base delle conoscenze scientifiche allora disponibili. Mancando in Italia una solida esperienza in questo settore (o, se vogliamo, appartenendo l’esperienza diretta solo alle compagnie private che gestiscono l’attività in proprio) si era prevista una fase di sperimentazione successiva. Per alcune (poche) attività avviate successivamente sono stati realizzati dei monitoraggi in linea con i suggerimenti delle Linee Guida (una prima riflessione sull’esperienza di applicazione delle Linee Guida è stata pubblicata da Braun et al, 2020), ma siamo ancora distanti dall’avere una modalità ben strutturata di condivisione e accesso anche pubblico ai dati rilevati, sia per quanto riguarda i monitoraggi sia per le attività. Questo è ancor più vero per le concessioni già esistenti. Direi quindi che c’è molto da fare in tal senso: da una verifica ex-post delle Linee Guida e un eventuale loro aggiornamento, alla verifica dello stato dei monitoraggi in essere per le varie attività esistenti, alla realizzazione di un punto di riferimento unico, ben strutturato e che favorisca l’accesso e l’uso, anche da parte del pubblico, di tutti i dati e le informazioni raccolti.
Certamente i cambi di Governo e delle competenze assegnate ai Ministeri nel corso del tempo non agevolano questa evoluzione. E credo anche che le compagnie vedano nella trasparenza più un rischio che un valore per le loro attività, anche se ho notato una progressiva, seppur lenta, modifica nell’atteggiamento. Purtroppo, questi vuoti lasciano campo libero alle interpretazioni di parte avversa e alle ipotesi più varie, spesso prive di fondamento scientifico.
Il panorama delle difficoltà connesse alla gestione delle attività in atto nel sottosuolo non riguarda solo l’Italia, ma genericamente tutti i paesi, seppur con alcune rilevanti differenze. Ci sono alcuni punti chiave comuni a tutti che devono assolutamente essere affrontati e risolti meglio, quali: l’esercizio del controllo sulle attività svolte (qui mi riferisco nello specifico all’uso dei monitoraggi come quelli suggeriti dall’ICHESE) da parte di enti indipendenti rispetto al concessionario e legati all’interesse pubblico; la diffusione di  informazioni complete in modo trasparente e autorevole; e di conciliare le necessità energetiche e di risorse di un paese con gli interessi delle compagnie private e con i diritti delle popolazioni residenti sia in termini di serenità che di utilizzo del territorio.

Come noto, capita spesso che i terremoti che interessano la fascia costiera marchigiana vengano messi in relazione alle attività di ricerca e di estrazione di idrocarburi. Ricordiamo il caso della sequenza sismica dell’anconetano nel 1972 e anche dei recenti terremoti al largo di Fano. Che cosa si può dire al riguardo?
Tutta la fascia a Est degli Appennini è ricca di risorse di idrocarburi. Molte infrastrutture di estrazione/produzione si concentrano lungo la costa a partire dall’area al confine tra Veneto e Romagna fino all’Abruzzo. Nell’area marchigiana, molte installazioni si trovano off-shore nella zona prospicente Pesaro-Ancona approssimativamente dai 20 ai 60 km dalla costa. Un’altra concentrazione si trova lungo la costa a sud di Ancona, nell’area di Civitanova Marche e Porto S. Elpidio.
D’altra parte, è ben noto che la fascia costiera marchigiana è in grado di rilasciare terremoti moderati (cioè fino a circa M6) sia lungo la costa sia off-shore. La localizzazione fornita dall’INGV colloca i terremoti avvenuti a fine 2022 all’interno della fascia dove si trovano le concessioni di estrazione di idrocarburi, tuttavia bisogna dire che, dato che le stazioni usate per localizzare si trovano per la maggior parte dal medesimo lato (quello costiero) e distano almeno 25 km dall’evento, la localizzazione non può essere ben vincolata. A maggior ragione, mancando stazioni al di sopra dell’evento, anche la profondità stimata in 5 km è mal vincolata. Pertanto non è possibile determinare con sufficiente accuratezza quanto i terremoti recenti siano vicini ai giacimenti di estrazione. Il meccanismo focale stimato è totalmente in linea con lo stile compressivo già riconosciuto in passato per eventi occorsi in quell’area e attribuito a strutture di sovrascorrimento che sono effettivamente presenti. Non è stata rilevata alcuna sismicità nei giorni precedenti.
Non ho altre informazioni riguardo alle attività in corso, e, in assenza di situazioni eclatanti di cui non vi è notizia, penso che l’evento si inquadri coerentemente nella sismicità naturale che caratterizza l’area.

Come possiamo concludere queste riflessioni?
Spero che si sia compreso perché sia così importante rilevare la microsismicità e altre grandezze fisiche, in sostanza disporre di monitoraggi efficaci, nelle zone dove vengono svolte le attività nel sottosuolo. Avere una rete di monitoraggio che permette di riconoscere i microsismi (per intenderci fino a magnitudo compresa tra 0 e 1, ma anche meno se necessario) consente di vedere da subito la fenomenologia in atto e di capire se il sistema complessivo si evolve o è stabile. Inoltre il rapporto tra il numero di terremoti piccoli e più grandi è riconosciuto come parametro che può aiutare a discriminare la sismicità naturale da quella indotta. È su questo gioco “di anticipo” che si sviluppano oggi le linee di ricerca scientifica per cercare di prevenire dinamiche che possano sfuggire dal controllo (cfr. ad esempio Grigoli et al., 2017).
A differenza dei terremoti naturali, quando si parla di sismicità indotta vi è sempre la necessità di dovere attribuire o meno gli eventi a delle attività svolte. Purtroppo, eccetto che per alcuni casi eclatanti, l’interpretazione è sempre difficile, e ciò è tanto più vero se le attività sono svolte in zone sismiche, come in pratica è tutt’Italia. Non è sufficiente né agevole stabilire una correlazione tra un episodio di sismicità e le attività svolte, a meno di situazioni che si ripetono regolarmente, come ad esempio la microsismicità legata alle fluttuazioni dei bacini idrici. La ricchezza e la qualità dei dati di monitoraggio è una base fondamentale e imprescindibile per poter effettuare interpretazioni che abbiano un minimo di solidità. Non sono completamente convinto che oggi si stia procedendo con la necessaria determinazione in questa direzione.
Vorrei insistere ancora su due concetti che devono essere assolutamente rinforzati, quali l’indipendenza degli enti che acquisiscono e interpretano i dati osservativi, e la trasparenza e il libero accesso alle informazioni e ai dati sia per le attività svolte sia per i monitoraggi effettuati. Solo in questo modo si potrà ridurre la diffusione di una moltitudine di affermazioni false o distorte e favorire, in Italia e altrove, un clima adatto a una valutazione serena dei fatti e delle azioni da intraprendere in tema di politica energetica per il futuro.
Infine, è evidente nel periodo che stiamo vivendo quanto sia importante per un paese avanzato, come l’Italia vorrebbe essere, poter disporre di energia e poter svolgere attività che portino occupazione e progresso. Tutto ciò ha un costo, anche in termini di rischi e il concetto di rischio zero non è sostenibile né praticabile, neanche a livello personale. Se vogliamo dare spazio al progresso dobbiamo investire parallelamente in controllo, sicurezza e trasparenza, ma non come mera pratica burocratica. Un altro aspetto collegato a questa considerazione è quello dell’utilizzo delle “royalties”, cioè degli indennizzi, dati dalle compagnie alle amministrazioni dei territori dove le attività si svolgono. Penso in tal senso che, dato che una delle principali argomentazioni di opposizione da parte dei residenti sia quella relativa ai terremoti, sarebbe opportuno che molti di questi soldi fossero investiti per la riduzione del rischio sismico a livello locale anziché per altre iniziative che magari sono ritenute più remunerative per acquisire consenso nell’immediato.
Qualsiasi tipo di produzione di energia ha effetti collaterali e capire su quali attività investire e come queste debbano essere gestite al meglio è frutto di scelte politiche che in democrazia dovrebbero essere condivise. Per esempio, si pensa (e si spera) che molta dell’energia del futuro potrà venire dall’idrogeno. Si tenga però presente che l’idrogeno dovrà essere contenuto in qualche posto, e che, per le grandi quantità che saranno necessarie, lo stoccaggio sotterraneo rappresenterà l’opzione più favorevole. E qui si riaprono le danze …

Riferimenti
Braun T., Cesca S., Kühn D., Martirosian-Janssen A., Dahm T. (2018).  Anthropogenic seismicity in Italy and its relation to tectonics: State of the art and perspectives. Anthropocene, 21, 80–94; https://doi.org/10.1016/j.ancene.2018.02.001
Braun T, Danesi S., Morelli A. (2020). Application of monitoring guidelines to induced seismicity in Italy. J. Seismol., 24,  1015–1028; https://doi.org/10.1007/s10950-019-09901-7
Caloi P. (1970). Come la natura reagisce all’intervento dell’uomo – Responsabilità di chi provoca e di chi intrepreta tali reazioni, Annali di Geofisica, XXII, 247-282.
Grigoli, F., Cesca, S., Priolo, E., Rinaldi, A.P., Clinton, J.F., Stabile, T.A., Dost, B., Garcia Fernandez, M., Wiemer, S., and Dahm, T. (2017). Current challenges in monitoring, discrimination, and management of induced industrial activities: a European Perspective, Rev. Geophys., 55, https://doi:10.1002/2016RG000542
Grigoli, F., and Wiemer, S. (2017), The challenges posed by induced seismicity, Eos, 98, https://doi.org/10.1029/2018EO074869. Published on 09 June 2017.
ICHESE (2014). International Commission on Hydrocarbon Exploration and Seismicity in the Emilia Region – Report on the hydrocarbon exploration and seismicity in Emilia region, February 2014, http://geo.regione.emilia-romagna.it/gstatico/documenti/ICHESE/ICHESE_Report.pdf
ISPRA (2014) Rapporto sullo stato delle conoscenze riguardo alle possibili relazioni tra attività̀ antropiche e sismicità indotta/innescata in Italia. Tavolo di Lavoro ai sensi della Nota ISPRA Prot. 0045349 del 12 novembre 2013, 71 pp.
MISE (2014). Indirizzi e linee guida per il monitoraggio della sismicità, delle deformazioni del suolo e delle pressioni di poro nell’ambito delle attività antropiche. https://unmig.mise.gov.it/unmig/agenda/upload/85_238.pdf
MISE (2016). Linee guida per l’utilizzazione della risorsa geotermica a media e alta entalpia. https://unmig.mite.gov.it/risorse-geotermiche/linee-guida-per-lutilizzazione-della-risorsa-geotermica-a-media-e-alta-entalpia/
Mucciarelli M. (2013). Induced Seismicity and Related Risk in Italy. Ingegneria Sismica, XXX (1-2), 118-125.
Romano M. A., Peruzza L., Garbin M., Priolo E., and Picotti V. (2019). Microseismic Portrait of the Montello Thrust (Southeastern Alps, Italy) from a Dense High-Quality Seismic Network. Seismol. Res. Lett., 90(4), 1502-1517; https://doi:10.1785/0220180387

A proposito di terremoti “di origine antropica”: aspetti generali (conversazione con Enrico Priolo)

Premessa. Attorno ai terremoti chiamati “di origine antropica” vi è molta confusione, generata soprattutto dai media ma anche, forse inconsapevolmente, da alcuni addetti ai lavori. L’immaginario più diffuso vorrebbe che questi terremoti siano una categoria completamente a parte rispetto ai terremoti di origine naturale; in definitiva che senza l’intervento dell’uomo non verrebbero generati. Le cose non stanno esattamente così; non va trascurato, tra le altre cose, il fatto che l’energia rilasciata da un terremoto deve essersi accumulata in qualche modo: occorre dunque capire se le attività umane sono del tutto responsabili di questo accumulo, e ciò pone ulteriori difficoltà, anche considerando le possibili conseguenze in termini di eventuali responsabilità.
Per cercare di fare un po’ di chiarezza abbiamo rivolto qualche domanda a Enrico Priolo. Poiché l’argomento è complesso e necessita di approfondimento, questa conversazione è divisa in due parti: la prima è dedicata agli aspetti generali, la seconda alla situazione italiana.

Enrico Priolo è stato per quasi quarant’anni ricercatore presso l’OGS, e direttore del Centro di Ricerche Sismologiche dell’OGS dal 2003 al 2008. È stato responsabile delle reti di monitoraggio delle attività di stoccaggio sotterraneo di gas a Collalto in Veneto e Cornegliano Laudense in Pianura Padana. Inoltre, è stato membro del gruppo di esperti nominato dal Ministero dello Sviluppo Economico per la stesura degli Indirizzi e Linee Guida per il monitoraggio delle attività svolte nel sottosuolo, ed è membro dell’Innovation Advisory Commettee del Thematic Core Service Anthropogenic Hazard del consorzio EPOS.

3CD_3B7_446698_905291284_6

Campi con torri di perforazione per l’estrazione del gas di scisto in Wyoming (USA). L’immissione di acque/fluidi di scarto di produzione derivanti dalla produzione di gas di scisto ma anche di altre attività industriali può innescare eventi sismici nel sottosuolo. Credito: Bruce Gordon, EcoFlight, CC BY 2.0

Puoi precisare ai lettori quali sono le tipologie di attività antropiche che possono contribuire a generare terremoti cui la ricerca scientifica fa riferimento?
La maggior parte delle attività che può generare terremoti è legata allo sfruttamento di risorse naturali, in particolar modo alla produzione di energia, argomento molto attuale. Storicamente, le miniere (di materiali lapidei, di carbone, e di diamanti) sono state i primi ambienti dove l’uomo ha generato terremoti. I terremoti si manifestano in forma molto simile a scoppi e sono dovuti al cedimento improvviso della roccia che, sottoposta naturalmente a sforzi tettonici e a compressione per il carico del materiale sovrastante, si riequilibra quando viene rimossa una porzione di materiale.
Poi, anche in ordine cronologico, ci sono i bacini idrici artificiali, che sono spesso identificati attraverso le dighe che intercettano e accumulano l’acqua lungo il corso dei fiumi. I meccanismi con cui i bacini idrici possono produrre terremoti sono principalmente due: a) l’effetto gravitativo, cioè il peso della massa d’acqua accumulata che agisce sulla roccia sottostante, e in particolare sulle faglie (discontinuità o frattura della roccia) eventualmente esistenti nel sottosuolo; b) l’effetto della pressione di poro, ovvero quello legato alla imbibizione e diffusione dell’acqua in profondità nel sottosuolo. Nel primo caso viene modificato lo stato delle forze statiche; il bacino idrico col suo carico può destabilizzare (ma anche stabilizzare) una faglia nel sottosuolo, a seconda delle caratteristiche geometriche della faglia e del campo di stress tettonico esistente. Nel secondo caso, l’acqua si infiltra e si muove all’interno di tutti i vuoti esistenti e, nel caso di faglie esistenti e già sottoposte naturalmente a carichi tettonici, trasmette tutte le variazioni di pressione, agendo talvolta come una sorta di lubrificante tra le superfici della faglia stessa; in sostanza agevolando, ovvero anticipando, la rottura di una faglia già prossima alla rottura. Per i bacini idrici artificiali, la fase più pericolosa per quanto riguarda la sismicità indotta è quella dei primi anni di riempimento e messa in esercizio. Successivamente, quando il sistema si stabilizza, si manifesta una micro-sismicità prevalentemente legata alle fluttuazioni del livello d’acqua dell’invaso.

Un altro tipo di attività è quello legato alla produzione di idrocarburi. L’estrazione di idrocarburi (olio o gas) svuota i depositi in profondità e crea uno stato di tensione nella crosta terrestre circostante che può dare origine a terremoti. Nei giacimenti di idrocarburi (spesso confinati, cioè in cui il deposito è sigillato da barriere di roccia o acqua che impediscono la comunicazione della pressione con l’esterno) si usa re-iniettare le acque reflue di produzione, le cosiddette acque di strato; esse in parte compensano la perdita di pressione interna e non creano problemi dal punto di vista della sismicità. Tuttavia, l’estrazione di olio o gas genera molti “scarti”, che devono essere smaltiti; nei decenni recenti si è affermata la pratica di re-iniettare questi fluidi esternamente al giacimento in pozzi profondi, all’interno di strati che stanno al di sotto dei livelli produttivi. C’è dunque una maggiore possibilità che i fluidi iniettati intercettino zone sismogenetiche, in quanto sottoposte a stress tettonico. E ciò è tanto più vero quanto più i volumi dei fluidi iniettati aumentano e si diffondono all’interno degli strati profondi.
Questa pratica di re-iniezione delle acque reflue in profondità è diventata una prassi in particolari tipi di giacimenti che sfruttano la presenza di microscopiche frazioni di idrocarburi dispersi nella roccia madre, come i giacimenti in rocce di scisto (oil- e gas-shales), che in Italia, peraltro, non esistono. Con la tecnica chiamata fracking (idro-fratturazione delle rocce ad alta pressione) vengono estratti idrocarburi a fronte della produzione di enormi quantità di scarti liquidi. Il fracking, di per sé, produce solo microsismi —con mini-cariche esplosive si frattura la roccia per liberare gli idrocarburi in essa contenuti— che hanno impatto per lo più trascurabile per l’uomo. E’ la reintroduzione dei fluidi in profondità, invece, la causa dell’enorme aumento dei terremoti indotti a livello mondiale e, in conseguenza, delle preoccupazioni e dell’ostilità da parte della popolazione.

Ci sono poi gli stoccaggi sotterranei di gas per i quali, nel mondo, sono usate diverse modalità. Essi possono provocare terremoti, ma bisogna anche dire che tra le varie modalità di stoccaggio sotterraneo ve ne sono alcune ritenute particolarmente sicure anche riguardo la sismicità indotta, come quella di usare depositi di gas naturali esauriti (cioè dove il gas si è creato naturalmente e già sfruttati per la produzione). Questo tipo di stoccaggi è l’unico utilizzato in Italia, e naturalmente è fondamentale che essi siano ben gestiti e controllati. Altra attività attuale per la produzione di energia in modo sostenibile è la geotermìa. Anche in questo caso vi sono svariate modalità di recupero del calore dal sottosuolo, e non tutte sono “pulite”. I maggiori problemi in termini di sismicità indotta si generano in due situazioni. La prima è quando il sistema di circolazione di acque calde profonde viene alimentato con ulteriore (molta) acqua a temperatura più bassa, per “estrarre” il calore residuo delle rocce. La seconda è la cosiddetta stimolazione di sistemi anidri (ovvero rocce prive di acqua) ad elevata temperatura, tecnica con cui vengono dapprima generate fratturazioni artificiali per aumentare la permeabilità della roccia anidra e successivamente viene iniettata acqua per estrarre il calore. Basta pensare a cosa succede se si riempie di acqua fredda un bicchiere rovente appena uscito dalla lavastoviglie, per capire cosa succede. C’è una forte sperimentazione di queste tecniche perché si ritiene che la risorsa geotermica possa essere una delle soluzioni per il futuro per generare energia in modo sufficientemente pulito e sostenibile. Spesso l’attività di sfruttamento geotermico si svolge in prossimità di grandi città, perché è lì che c’è il massimo bisogno di energia, e sfortunatamente ci sono stati alcuni casi importanti di terremoti a seguito di stimolazioni geotermiche avvenuti vicino a grandi centri (es. Basilea nel 2006 e Pohang in Corea nel 2017). Tuttavia vi sono altri casi in cui ciò non è successo e la produzione di energia procede in modo regolare (es. Helsinki).
Concludo questa carrellata, per completezza, con le altre attività umane, talvolta meno note,che possono generare sismicità e non sono legate allo sfruttamento di georisorse. La realizzazione di infrastrutture (gallerie, tunnel sottomarini); la costruzione di edifici, che esercitano pressioni molto localizzate (ricordiamo il caso del grattacielo di Taipei a Taiwan, che si ritiene abbia innescato un terremoto M3.8 nel 2004). Infine, impianti industriali (es. cementifici) e mezzi di trasporto (treni e veicoli pesanti) non generano terremoti in senso stretto, ma producono vibrazioni sismiche che possono avere un certo impatto sull’edificato e causare gran disturbo alla popolazione.

Da quanto detto sembra che i terremoti di origine antropica si possano diversificare a seconda delle attività umane. Se ciò è vero, quali sono le principali tipologie di terremoti di questa origine?

Volendo distinguere le tipologie di terremoti che l’uomo può generare ci dovremmo riferire alle diverse tipologie di sorgenti, perché il campo sismico propagato risponde alla medesima fisica per tutte le sorgenti. Questa distinzione ha interesse soprattutto scientifico, ma relativamente scarsa rilevanza per quanto riguarda la percezione da parte della popolazione e i danni potenzialmente causati. Riconoscere e studiare le modalità con cui la sismicità indotta si produce è però estremamente importante dal punto di vista scientifico, perché questo è l’unico modo che possiamo usare per sviluppare criteri e metodologie di gestione delle attività attraverso le quali si possa contenere, se non proprio controllare, la sismicità generata entro livelli accettabili.
Un concetto importante per comprendere meglio come si generano molti terremoti indotti è quello di stato di sforzo critico in cui si trova la crosta terrestre, che, sottoposta a enormi ma lenti movimenti tettonici, accumula al suo interno stress (in italiano, sforzo) meccanico. Questo accumulo di stress è molto difficile da quantificare, e quindi in generale non siamo in grado di sapere se le rocce in profondità siano in uno stato prossimo alla rottura (appunto, stato critico), tale che basti una minima perturbazione dello stato di sforzo per anticipare (ma, talvolta, anche ritardare) il rilascio del terremoto che comunque si starebbe preparando. Va detto che queste perturbazioni del campo di stress sono prodotte anche da numerose cause naturali, come ad esempio altri terremoti, le precipitazioni piovose, lo spessore del manto dei ghiacci, etc.
Ritornando alla domanda, si riconoscono due tipologie principali di terremoti di origine antropica, rispettivamente quelli “indotti” in senso stretto e quelli “attivati” o “innescati” (dall’inglese “triggered”). Si parla di terremoti indotti, in senso stretto, quando le attività antropiche sono responsabili della gran parte delle variazioni del campo di stress che genera la sismicità. In un terremoto indotto, la sorgente rilascia l’energia che è stata accumulata a seguito delle attività svolte. Si usa invece il termine di terremoti innescati per quegli eventi che sono generati da una perturbazione ridotta rispetto allo stato di sforzo in cui la roccia (prossima allo stress critico) si trova già; questa perturbazione può essere o un incremento dello stress lungo direzioni che favoriscono la rottura o una riduzione della forza d’attrito all’interno delle faglie presenti. Per un terremoto innescato, la sorgente rilascia energia che è fondamentalmente “naturale” (di origine tettonica), tuttavia l’uomo induce ovvero facilita/accelera la rottura come effetto indiretto della propria attività. Da quanto detto si intuisce anche che le attività̀ antropiche non sono in grado di indurre (in senso stretto) grandi e disastrosi eventi sismici ma possono invece innescarli.
Vi sono però terremoti che non ricadono in maniera netta in nessuna di queste due tipologie, ovvero sono un misto delle due. Ad esempio i terremoti che avvengono a seguito delle stimolazioni appartengono a questa tipologia. In generale, comunque, si può sempre parlare di sismicità indotta, o terremoti indotti, comprendendo tutti i casi enunciati, e la distinzione sulla tipologia di terremoto indotto viene menzionata solo se si vogliono meglio specificare certi fattori.

Tornando alle due tipologie principali, le principali cause di innesco di terremoti possono essere: a) la rimozione o l’aggiunta di grandi masse di materiale; b) l’estrazione o iniezione di fluidi in profondità in volumi confinati; c) l’iniezione o la percolazione o la circolazione di fluidi in profondità. Per a e b viene perturbato lo stato di sforzo nell’intorno della zona di attività, mentre per c, il fluido, penetrando in profondità all’interno delle fessure e delle faglie, esercita una pressione che allenta l’adesione delle due parti a contatto e riduce quindi la capacità della faglia di resistere allo stato di sforzo cui è già sottoposta.
Vorrei infine sottolineare l’importanza della profondità nella generazione della sismicità a seguito delle attività antropiche, dato che è a profondità elevate (alcuni km) che si accumula lo stress tettonico. Quindi l’iniezione di grandi volumi di fluidi è pericolosa se fatta in profondità perché la loro diffusione aumenta la probabilità di intercettare faglie pronte alla rottura. Similmente per le stimolazioni geotermiche (per le quali si cerca di scendere in profondità per trovare alte temperature) lo stress termico può avere un effetto maggiore in rocce già sottoposte a elevato stress tettonico.

Da quanto tempo si è cominciato a ipotizzare scientificamente la possibilità che alcuni terremoti siano di origine antropica?

La parola “scientificamente” mi costringe, giustamente, a non parlare delle ipotesi che ritengono la genesi dei terremoti come una punizione divina per dei comportamenti da parte dell’uomo ritenuti scellerati dal punto di vista morale; ciò non solo nei tempi antichi, ma anche di recente, come è ad esempio emerso da alcune dichiarazioni pubbliche durante l’ultima sequenza sismica che ha colpito l’Italia Centrale.
I primi studi scientifici sistematici sulla sismicità indotta sono stati sviluppati già negli anni ’50 per le miniere (soprattutto nel Regno Unito) e negli anni ‘60-’70 a seguito di alcuni casi importanti quali l’attività di produzione di olio con re-introduzione delle acque residue di strato in profondità a Rangely (Colorado), l’attività estrattiva di gas a Lacq (Francia) e a Gazli (Uzbekistan), e la realizzazione del bacino idrico con la diga di Koyna (India).
In Italia, vanno ricordati alcuni studi condotti da Pietro Caloi, geofisico dell’allora Istituto Nazionale di Geofisica, per il terremoto di Caviaga nel 1951, associato all’attività di estrazione del gas dal deposito omonimo (uno dei depositi considerati giganti che diede impulso allo sviluppo dell’allora AGIP), e successivamente, all’inizio degli anni ’60, per i microsismi provocati dal movimento della massa rocciosa che poi avrebbe causato il disastro del Vajont.
Collocando delle date importanti riguardo alla fenomenologia della sismicità indotta, direi che un altro periodo importante è rappresentato dalla prima decade degli anni 2000. Relativamente a questo periodo, ritengo utile ricordare alcune esperienze: ognuna di queste è stata seguita da numerosissimi studi scientifici e ha determinato sostanziali avanzamenti nelle conoscenze scientifiche e nella “coscienza” pubblica.
La prima è quella del terremoto M3.4 di Basilea del 2006, a seguito della sperimentazione di geotermia stimolata. Il terremoto produsse numerosi danni di debole entità e spavento in città e il progetto dell’impianto fu bloccato. La scossa principale si verificò a seguito di numerosi sciami di sismicità debole, per lo più non percepita dalla popolazione, effetto dei test di stimolazione. Probabilmente l’evento forte si sarebbe potuto evitare attuando modalità di controllo differenti, ma questa è una considerazione fatta con il senno di poi, dato che l’esperienza quella volta era limitata. Il caso di Basilea ha aperto la strada a una miriade di studi scientifici e di conoscenze che da allora sono progredite.
Un altro caso importante è quello dell’attività di produzione di gas olandese, di cui Groeningen è il principale centro. L’area di Groeningen (Olanda settentrionale) ospita il più grande giacimento di gas naturale europeo in terraferma e la produzione di gas, iniziata negli anni ’60, valeva fino a pochi anni fa più del 10% dell’intero bilancio olandese. Dal 1986, oltre a importanti fenomeni superficiali (subsidenza) incominciò a manifestarsi una sismicità inizialmente debole, ma che divenne via via più significativa, generando più di mille scosse nel corso degli anni successivi e un terremoto di magnitudo 3.6 nel 2012. Considerando che l’area non conosceva alcuna sismicità nel passato e gli edifici non erano stati costruiti seguendo criteri antisismici, questi fenomeni produssero danni, seppur lievi, in moltissimi edifici e generarono una forte opposizione nella popolazione locale.
La terza esperienza è lo studio pubblicato da W. Ellsworth nel 2013 in cui viene mostrata la prima evidenza a livello statistico (quindi di grandi numeri) della sismicità indotta. In pratica, questo studio mostra che, a partire dall’inizio degli anni 2000, il numero complessivo dei terremoti rilevato negli Stati Uniti, cresciuto fino a quel momento in modo uniforme, comincia ad aumentare con un tasso molto più elevato: questo incremento, mai riscontrato fino a quel momento, non è dovuto a cause naturali ma è effetto della sismicità indotta dalle attività umane, e principalmente —anche se non unicamente— allo sviluppo della tecnologia di estrazione mediante fracking. I “nuovi” terremoti comprendono numerosissimi eventi deboli con magnitudo da meno di 2 a 3, ma anche alcuni eventi più forti come il terremoto M5.7 avvenuto in Oklahoma nel 2011. Dato che le stime di pericolosità sismica si basano sul sul tasso di occorrenza dei terremoti, questo evidente incremento di sismicità innescò svariate discussioni sull’aggiornamento delle mappe di pericolosità adottate a livello nazionale.
L’ultima esperienza che voglio citare è quella di “Castor”. Il progetto Castor consisteva nello sviluppo di un impianto di stoccaggio di gas sotterraneo utilizzando come deposito il giacimento esaurito di olio di Amposta, situato nel Golfo di Valencia a circa 20 km dalla costa spagnola. L’iniezione di gas iniziò nel settembre 2013 e culminò con un terremoto M4.3 il 4 ottobre 2013, che è stato uno dei più forti associati a operazioni di stoccaggio del gas. Studi successivi spiegarono che la pressione dovuta all’iniezione del gas aveva attivato un ramo secondario del sistema di faglie di Amposta, situato direttamente sotto il giacimento. Questo caso mostrò che, per lo stoccaggio del gas, l’uso dei giacimenti di petrolio esauriti è più critico rispetto di quello dei giacimenti di gas esauriti, soprattutto nelle fasi iniziali, perché, dato che l’olio originariamente contenuto è molto più denso e viscoso del gas iniettato per stoccaggio, non è detto che il serbatoio sia in grado di garantire la tenuta del gas al suo interno. Inoltre, a causa del sistema di monitoraggio troppo povero, non fu rilevata tempestivamente la microsismicità risultante dalla migrazione del gas iniettato verso il sistema di faglie. Questi fattori, insieme alla lentezza decisionale e alla “prudenza” nell’interrompere le attività in corso per motivi industriali, fecero sì che i fenomeni di sismicità indotta andassero fuori controllo. Il danno economico fu enorme, con l’ulteriore beffa che i debiti conseguenti furono addossati allo stato, ovvero alla popolazione spagnola. Relativamente a questa esperienza, consiglio vivamente di ascoltare la presentazione (in italiano) di M. Garcia-Fernandez che ho inserito in bibliografia.

Schermata 2023-02-18 alle 16.45.49Rappresentazione grafica di uno dei meccanismi di innesco di terremoti da parte di attività svolte nel sottosuolo. La comprensione di questi meccanismi e la capacità di riconoscere e seguire l’evoluzione dei fenomeni che avvengono nel sottosuolo, in primis quelli sismici, sono argomenti di ricerca molto attuali. A questo argomento è dedicato una sezione speciale dell’importante rivista Journal of Geophysical Research – Solid Earth, dal titolo “Understanding and Anticipating Induced Seismicity: From Mechanics to Seismology”, da cui la presente figura è tratta.  

Quali sono i livelli energetici “massimi” riferibili ai terremoti antropogenici?

Prima di rispondere è necessario fare una premessa e introdurre un paio di concetti. La premessa riguarda le fonti di dati parametrici sui terremoti di natura antropica. Pur essendoci varie fonti, direi che quella più esaustiva, in termini di eventi principali, deriva dal progetto di ricerca internazionale HiQuake (Foulger et al, 2018) che censisce gli eventi indotti o supposti indotti in seguito a studi scientifici. I dati sono riportati in un sito, regolarmente aggiornato, cui si può accedere liberamente (http://inducedearthquakes.org/) e da cui si possono ricavare moltissime informazioni (nella bibliografia in fondo a questa intervista ho riportato i link diretti al database e alla pagina dei riferimenti bibliografici). Sono inclusi nel database, e dunque sono classificati come indotti, eventi per i quali anche un solo lavoro scientifico ipotizza la possibile origine antropica; dunque, per molti casi queste informazioni vanno prese con molta, sottolineo, molta prudenza. Gli autori di HiQuake non necessariamente aggiungono lavori successivi che reinterpretano in qualche modo gli eventi, quindi eventi ipotizzati come indotti magari da un solo lavoro iniziale mantengono la classificazione di “evento indotto” senza possibilità di remissione. Questo è il caso, per esempio, dei due terremoti avvenuti in Pianura Padana nella località di Caviaga nel 1951. Il lettore tenga ben presente queste considerazioni nel prosieguo.
Il primo concetto è che la sismicità antropogenica deriva nella maggior parte dei casi dal progressivo accumulo di certe quantità correlate alle attività svolte: per esempio, accumulo di acqua che si infiltra e diffonde nel sottosuolo, accumulo di stress meccanico dovuto all’estrazione di materiale, accumulo di stress poro-elastico dovuto all’iniezione o estrazione di gas, accumulo di stress termico dovuto all’iniezione di fluidi in rocce calde. Eccetto che per le esplosioni o l’impatto di grandi masse, lo sviluppo di sismicità è quindi progressivo e parte, di norma, con il manifestarsi di micro-sismicità, inizialmente localizzate nelle zone di origine dell’attività e che poi via via si diffonde.
Poi, riguardo ai livelli energetici della sismicità indotta, la prima cosa da dire è che, in genere, essa si manifesta inizialmente come microsismicità localizzata in un intorno abbastanza stretto dell’attività svolta. Poi, nel tempo, se non viene raggiunto uno stato di equilibrio e se l’accumulo dei fattori influenti prosegue, la sismicità può aumentare e diffondersi in volumi di roccia via via più ampi fino a interessare zone di faglia anche importanti. Perciò la magnitudo dipende spesso dai sistemi faglia intercettati più che dall’attività stessa —è ovvio che qui ci stiamo riferendo alla sismicità innescata—, ed è quindi difficile definire in modo univoco una magnitudo massima che può essere indotta da una data attività. Inoltre, dobbiamo sempre tenere presente che in molti casi non è certa, ma solo possibile, l’attribuzione di un terremoto ad una certa attività, quindi i valori di magnitudo massima possono essere certamente sovrastimati.
Tuttavia, seguendo i principi già esposti si riescono a trarre delle considerazioni di carattere generale (per dati di base e i valori di magnitudo massima mi riferirò a quanto riportato da HiQuake, mentre ulteriori considerazioni sono mie personali). Bacini idrici, estrazione di acque dal sottosuolo e produzione di olio e gas convenzionale sono le tre classi per cui HiQuake documenta le magnitudo massime più elevate, con valori che superano il 7.
I bacini idrici, soprattutto quelli profondi oltreché grandi, sono i principali candidati a generare terremoti forti, soprattutto nei primi anni di messa in esercizio. Numerosi terremoti di magnitudo superiore a 6 e in qualche caso anche a 7 sono attribuiti ai bacini idrici (ricordo, per esempio, il terremoto di M6.3 di Koyna (India) del 1967, due terremoti in Grecia, rispettivamente M6.2 di Kremasta nel 1966 e M6.5 di Polyphyto nel 1995; ma anche per il terremoto M7.9 del Sichuan (o Wenchuan), Cina, avvenuto nel 2008 si ipotizza —sottolineo il “si ipotizza”— una possibile origine antropica dovuta al bacino formato dalla diga Three Gorges. Un caso molto noto è quello del terremoto M5.7 di Assuan (Egitto) del 1981, che avvenne 15 anni dopo il riempimento dell’invaso delimitato dalla diga omonima.  Inoltre, si ipotizza che l’estrazione di acque sotterranee possa aver causato il terremoto M7.8 di Ghorka (Nepal) del 2015. HiQyake attribuisce circa 200 casi ai bacini idrici e circa una decina all’estrazione di acque sotterranee.
Per l’estrazione convenzionale di olio e gas, sono citati tre terremoti di magnitudo superiore a 7.  Tra questi troviamo il terremoto M7.3 di Gazli (Usbekistan) del 1976, ben noto in letteratura, avvenuto relativamente vicino a un giacimento gigante da cui veniva estratto gas, e per il quale vi sono lavori scientifici di orientamento diverso. Tuttavia, troviamo anche due eventi molto forti, quali il terremoto M7.5 avvenuto nel 1995 a Neftegorsk all’estremo est della Russia, e il terremoto M7.4 avvenuto a Izmit in Turchia nel 1999, che si ipotizza possano essere causati dall’uomo in base a singoli studi, con argomentazioni che, a mio parere, dovrebbero essere come minimo approfondite. Per gli altri casi documentati (più di un centinaio) le magnitudo si attestano da circa 6 in giù.
Per la geotermia, su una settantina di casi censiti si documentano due casi con magnitudo 6.6 (in Messico e Islanda), poi si scende dal 5.5 in giù. Come caso importante ricordiamo il recente terremoto M5.5 di Pohang (Corea del Sud) nel 2017.
Per le miniere sono documentati circa 300 casi, e le magnitudo si sgranano da magnitudo 6.1 (terremoto generato da una miniera di carbone a Bachatsky, Russia, nel 2013) in giù.
Più di 400 casi sono documentati per il fracking, con magnitudo massima di 5.2 per un evento avvenuto in Cina nel 2018. Tuttavia il database distingue la categoria di “fracking” e quella di “reiniezione di fluidi di scarto” di vario tipo, la quale include in maniera massiccia i fluidi di scarto derivanti dal fracking stesso. Sicché, la categoria di reiniezione di fluidi di scarto nel sottosuolo registra una ulteriore cinquantina di casi, con magnitudo massima 5.8, i cui casi più forti sono due terremoti ben noti in ambiente scientifico avvenuti entrambi in Oklahoma, rispettivamente a Pawnee nel 2016 e Prague nel 2011, entrambi dovuti ad attività di produzione di idrocarburi con la tecnica del fracking.
Infine menziono anche il caso del grattacielo Taipei 101 di Taiwan, responsabile di un terremoto 3.8 nel 2004.

Vuoi aggiungere qualche commento, a conclusione di questa riflessione?

Solo un breve commento per inquadrare correttamente quanto detto finora. Abbiamo visto che le attività umane possono causare o favorire terremoti, anche grossi se sono in grado di attivare faglie importanti. Tutto il discorso è stato focalizzato al fatto che è possibile che ciò accada. Vorrei tuttavia sottolineare che non è detto che ogni attività debba generare terremoti pericolosi o dannosi, anzi, sono numerosissime le attività svolte nel sottosuolo che non hanno portato a problemi e questo dipende molto da come queste sono gestite. È una valutazione di rischio e di azioni atte a ridurlo. Per fare un paragone è come se ci concentrassimo sugli incidenti stradali causati dagli autoveicoli. Gli incidenti ci sono e sono numerosi, ma non per questo è stato proibito l’uso dei veicoli. Invece sono state realizzate azioni atte a prevenire gli incidenti e a causare feriti o morti. Queste vanno dalla maggiore sicurezza dei veicoli stessi, a norme di guida più stringenti, alla formazione alla guida dei conducenti, all’educazione stradale dei cittadini, fino al miglioramento delle strade e alla realizzazione di segnalazioni adeguate. Ecco, il mio commento è solo per dire che abbiamo visto il problema della sismicità indotta da una certa angolatura e nella seconda parte avremo sicuramente la possibilità di vederlo in modo più completo.

Come anticipato, la seconda parte di questa conversazione sarà dedicata alla situazione italiana.

Bibliografia
Ellsworth, W. L. (2013). Injection-induced earthquakes, Science, 341(6142), 1225942.
Foulger, G. R., Wilson, M. P. , Gluyasa, J. G. , Julian, B. R. , Davies, R. J. (2018). Global review of human-induced earthquakes. Earth-Sci. Rev., 178, 438-514, https://doi.org/10.1016/j.earscirev.2017.07.008
Garcia-Fernandez M. (2015). CASTOR: Contesto scientifico e socio-economico. Workshop su “Sismicità indotta e innescata”, Roma 12 giugno 2015, Ministero dello Sviluppo Economico; https://www.youtube.com/watch?v=-tUApwW_V3k
HiQuake Database: http://inducedearthquakes.org/wp-content/uploads/2022/06/The_Human_Induced_Earthquake_Database_v11.16.22.xlsx
HiQuake Bibliography: http://inducedearthquakes.org/bibliography/

 

.

Qualche considerazione a margine del terremoto in Turchia (‘the builder was at fault’, cit.) di Gian Michele Calvi

Pubblichiamo volentieri questa riflessione di Gian Michele Calvi sui terremoti del 6 febbraio, che contiene anche una poesia di C. Richter, ricordando che si è trattato di due terremoti, poco distanti nello spazio e nel tempo come indica la figura. E questo fatto ha contribuito, in particolare per le zone comprese fra i due epicentri, ad aumentare la distruzione e le vittime.

Gian Michele Calvi, professore allo IUSS di Pavia e Adjunct Professor alla North Carolina State University. Calvi è stato il fondatore della Fondazione Eucentre e della ROSE School a Pavia. Ha coordinato, fra le altre cose, il Gruppo di Lavoro che ha redatto il testo dell’Ordinanza PCM 3274 del 2003, che ha innovato il sistema della normativa sismica in Italia. È stato presidente e componente della Commissione Grandi Rischi, sezione rischio sismico.

Schermata 2023-02-15 alle 15.30.32

Charles Richter (si veda più sotto una sua poesia) avrebbe voluto diventare un astronomo.
Ma era il tempo della grande depressione e nemmeno con un dottorato a Caltech era facile rifiutare una posizione all’appena costituito Seismo Lab, diretto allora da Harry Wood (quello del sismometro Wood-Anderson).
In pochi anni Richter[1] osserva che “sarebbe desiderabile avere una scala per misurare le scosse in termini di energia rilasciata, indipendentemente dagli effetti che possono essere indotti in un particolare punto di osservazione”, propone una scala e decide di chiamarla magnitudo, il termine usato per classificare la luminosità delle stelle.
Richter certo non immaginava quante volte la parola magnitudo sarebbe stata usata male.

“Professore di che magnitudo è la scossa che avete applicato alla tavola?” È la domanda più ricorrente quando un giornalista assiste alla simulazione della risposta di una struttura costruita su tavola vibrante. Ma alla tavola si applica un moto, non un’energia; un moto che può essere originato da rilasci di energia (e quindi magnitudo) molto diversi, se originati a distanze diverse, o amplificati localmente da situazioni orografiche o stratigrafiche diverse. Il moto che sente un edificio può essere caratterizzato da diversi parametri, ad esempio dalla massima accelerazione, dalla domanda di spostamento ad un certo periodo di vibrazione, dal picco di velocità, dalla durata del moto. Non dall’energia rilasciata alla fonte.
Richter[2] era perfettamente cosciente del carattere relativo della scala che aveva proposto. Le conoscenze sull’energia rilasciata erano scarse: “visto che la scala è logaritmica, qualsiasi futuro adattamento ad una scala assoluta potrà essere ottenuto semplicemente correggendo i valori con l’aggiunta di una costante”.

Ci vollero quarant’anni per consentire a Kanamori[3] e altri di proporre una scala assoluta, esprimendo, con la bellezza della semplicità, che l’energia rilasciata è proporzionale alla superficie di rottura della faglia, al modulo di elasticità della crosta terrestre ed allo spostamento relativo. Poiché il modulo di elasticità è poco variabile (circa 30.000 MPa), l’energia rilasciata dipende dalla lunghezza di rottura della faglia e dallo spostamento relativo tra le sue due facce, entrambi fortemente correlati alla superficie di rottura. Per semplificare, in modo molto approssimativo:

  • magnitudo 6.2 (energia circa 2,5´1018 Nm): rottura 15-20 km e spostamento 0,10-0,15 m
  • magnitudo 7.0 (energia circa 4,0´1019 Nm): rottura 55-60 km e spostamento 0,5-1,0 m
  • magnitudo 7.8 (energia circa 6,3´1020 Nm): rottura ⁓200 km e spostamento 10-12 m.

Sento già qualcuno domandarsi “ma non doveva parlare del terremoto in Turchia?” Il punto è proprio qui.

Il terremoto di L’Aquila ha indotto accelerazioni massime al terreno inferiori a quelle indotte dall’evento turco-siriano, ma dello stesso ordine di grandezza. Tuttavia, i valori di picco si sono manifestati su un’area di poche decine di chilometri quadrati. Se la faglia non fosse stata proprio sotto la città probabilmente gli effetti in termini di danni, feriti, vittime sarebbero stati molto più modesti. Il terremoto turco-siriano ha indotto accelerazioni superiori a 0,5 g su un’area di decine di migliaia di chilometri quadrati. Ha colpito zone con ogni tipo di terreno, in grado di amplificare accelerazioni e spostamenti con fattori anche dell’ordine di due volte. Ha stanato ogni possibile deficienza in centinaia di migliaia di edifici, fatti bene e fatti male.
Se un evento di magnitudo 7.8 avvenisse in qualsiasi punto della dorsale appenninica gli effetti devastanti si sentirebbero dal Tirreno all’Adriatico. Probabilmente producendo diverse decine di L’Aquila.

Un secondo aspetto da non trascurare è connesso alla durata del moto.
Con un forte rilascio di energia le onde sismiche tendono a combinarsi, dando luogo ad accelerogrammi più lunghi (e disordinati), dell’ordine di diverse decine di secondi, soprattutto nella direzione opposta a quella di propagazione della rottura della faglia. E molti tipi di costruzioni (tipicamente quelle storiche in muratura, ma anche edifici moderni tirati su senza badare troppo ai dettagli, come è tipico nei paesi in via di sviluppo) tendono a deteriorarsi ciclo dopo ciclo, finendo per soccombere ad un’azione di lunga durata. Nella direzione di propagazione della rottura della faglia le onde tendono a sovrapporsi, con la possibile formazione di singoli impulsi con grandi accelerazioni, velocità, spostamenti. Un colpo solo, ma spesso mortale.

Un terzo aspetto.
È noto come il danno e la probabilità di collasso dipendano più dalla domanda in spostamento che da un confronto tra forza d’inerzia e resistenza della struttura.
La domanda in spostamento tende a diminuire in funzione della diminuzione della magnitudo e della distanza dalla faglia molto più rapidamente dell’accelerazione. Purtroppo la rottura della faglia è qui dell’ordine delle centinaia di chilometri, cosicché in migliaia di chilometri quadrati la domanda di spostamento è stata dell’ordine delle molte decine di centimetri per un ampio campo di risposta spettrale. Nelle ore e nei giorni che hanno seguito il terremoto sono state diffuse molte registrazioni poi rivelatesi inaffidabili o affette da errori, si veda comunque come esempio (considerandolo dunque verosimile piuttosto che attendibile) lo spettro in spostamento nella figura che segue, ripresa da uno dei primi rapporti disponibili[4] (in ascissa il periodo in secondi, in ordinata la domanda di spostamento, per la componente con orientamento 168° registrata alla stazione 3126).

Schermata 2023-02-15 alle 23.32.53
Si legge una domanda dell’ordine del metro per periodi compresi tra 2 e 6 secondi. In Italia si progetta generalmente per spostamenti inferiori ai 30 cm anche nelle zone ad alta sismicità.

Dopo il terremoto di Loma Prieta[5] fu predisposto un rapporto[6] per il Governatore della California, George Deukmejian, con il coordinamento di George Housner; si intitolava Competing Against Time. Nelle conclusioni si leggevano le righe seguenti.

“Futuri terremoti in California sono inevitabili. Terremoti più forti di Loma Prieta con più intensi moti al terreno accadranno in aree urbane ed avranno severe conseguenze – troppo rilevanti per continuare business as usual. […]

La Commissione ha identificato tre sfide essenziali che devono essere affrontate dai cittadini della California, se vogliono attendersi un futuro ragionevolmente sicuro nei confronti dei terremoti:

  • Assicurarsi che il rischio sismico[7] delle nuove costruzioni sia accettabile.
  • Identificare e correggere le condizioni di inaccettabile sicurezza sismica7 nelle costruzioni esistenti.
  • Sviluppare e implementare azioni che favoriscano una risposta rapida, efficace ed economica agli eventi sismici.

[…] Lo Stato della California non deve aspettare il prossimo grande terremoto, e le probabili perdite di miliardi di dollari e le migliaia di vittime, per affrettare le misure di mitigazione del rischio […].

I terremoti verranno – se saranno catastrofi o no dipende dalle nostre azioni”.

Il mandato del Governatore riguardava i sistemi di trasporto, anche a seguito del crollo del celebre double decker, l’autostrada a viadotti sovrapposti che collegava Berkeley al Bay Bridge e a San Francisco.

“La Commissione avrebbe potuto limitare le sue raccomandazioni ad azioni ritenute necessarie per correggere i problemi dei ponti posseduti dallo Stato. Ma così facendo avrebbe abdicato alla considerazione della più fondamentale responsabilità del governo – garantire la sicurezza pubblica”.

George Deukmejian aveva posto sei specifici temi da approfondire alla Commissione, che nel rispondere concluse con tre sfide (quelle riportate sopra) e otto raccomandazioni, al Governatore, al Direttore del Dipartimento dei Trasporti, alle Agenzie di gestione dei sistemi di trasporto. Rileggetele.

Il Governatore rispose con un Ordinanza[8] che diede il via al programma di adeguamento dei ponti californiani
(“The Director of the Department of General Service shall prepare a detailed action plan to ensure that all facilities maintained or operated by the State are safe from significant failure in the event of an earthquake and that important structures are designed to maintain their function following an earthquake”) ed all’enorme sforzo di ricerca[9] (“The Director of the Department of Transportation shall assign a high priority to development of a program of basic and problem-focused research on earthquake engineering issues, to include comprehensive earthquake vulnerability evaluations of important transportation structures […]”) che lo rese possibile ed efficace.

Sono passati trentaquattro anni.
In molti paesi è cambiato assai poco.
In Turchia è stato intrapreso un piano, avanzato e coraggioso, per isolare sismicamente tutti gli ospedali. I primi dati (per esempio la risposta dell’ospedale, isolato, di Malatya) sembrano confermare l’efficacia della scelta. Purtroppo garantire continuità di funzionamento agli ospedali sembra poca cosa di fronte a quarantamila morti.
Anche io avrei potuto limitarmi a dettagli tecnici sul terremoto in Turchia, i lettori li troveranno presto in moltissime fonti. Il problema non è trovare le informazioni, è capirne l’affidabilità, la rilevanza, l’impatto. E lavorare “in tempo di pace”.

Gian Michele Calvi
Scritto l’11 e il 12 febbraio 2023

Una poesia di Charles Richter
(riportata in: S. E. Hough (2007). Richter’s Scale. Measure of an earthquake measure of a Man. Princeton University Press)

Schermata 2023-02-16 alle 14.24.55

[1] Richter, C.F. (1935). An instrumental earthquake magnitude scale. Bulletin of the Seismological Society of America, 25:1, 1–32

[2] Ibidem

[3] Kanamori, H. and D.L. Anderson (1975). Theoretical basis of some empirical relations in seismology. Bull. Seismol. Soc. Am., 65, 1073-1095

Hanks, T. C., & Kanamori, H. (1979). A moment magnitude scale. Journal of Geophysical Research: Solid Earth, 84(B5), 2348-2350

[4] Baltzopoulos G., Baraschino R., Chioccarelli E., Cito P., Iervolino I. (2023) Preliminary engineering report on ground motion data of the Feb. 2023 Turkey seismic sequence V2.0 – 10/02/2023

[5] 17 ottobre 1989, magnitudo 7.1

[6] Competing against time, Report to Governor George Deukmejian from the Governor’s Board of Inquiry on the 1989 Loma Prieta Earthquake, George W. Housner, Chairman, Department of General Service, North Highlands, California, 1990

[7] Si noti l’uso della parola rischio, che include pericolosità, vulnerabilità, esposizione, e quindi perdite, per le nuove costruzioni; l’uso della parola sicurezza, con riferimento principale al crollo e quindi alla protezione della vita, per le costruzioni esistenti.

[8] Executive Department State of California Executive Order D-86-90, June 2, 1990

[9] Priestley, M.J.N., F Seible and G.M. Calvi (1996). Seismic design and retrofit of bridges. Wiley

 

I fondatori dell’INGV: Cesidio Lippa (lo ricordano Tullio Pepe, Massimiliano Stucchi e altri colleghi)

Poco ricordato nell’ambiente scientifico, Cesidio Lippa – prematuramente scomparso nel 2007 – contribuì enormemente alla nascita e allo sviluppo dell’INGV, a partire dalla sua posizione di Direttore Generale dell’ING e poi dello stesso INGV.
Lo ricordano Tullio Pepe, dirigente dell’ING e dell’INGV, che lo conobbe nel lontano 1980 e Massimiliano Stucchi, direttore di dell’Istituto di Ricerca sul Rischio Sismico (IRRS) del CNR, uno degli istituti che confluirono nell’INGV, e successivamente direttore della Sezione di Milano del nuovo Ente.

Schermata 2023-01-25 alle 18.05.06

TP. La nascita dell’INGV è indissolubilmente legata alla figura di Enzo Boschi e quando abbiamo rievocato i fatti del periodo 1999-2001, per celebrare la costituzione del nostro Ente, non abbiamo mai mancato di sottolineare la centralità del ruolo di Boschi, finendo così con il trascurare il ruolo ricoperto nell’intera vicenda da Cesidio Lippa.
Oggi, a oltre 15 anni dalla sua scomparsa, direi che è venuto il momento di ricordare tale ruolo e in generale la figura di un grande dirigente alla cui azione è riconducibile buona parte dell’attuale fortuna dell’Ente. Pertanto accolgo volentieri il tuo invito a scriverne assieme a te su questo blog.

MS. Tu lo hai conosciuto prima di me: forse potresti cominciare dagli inizi…

TP. Va bene ma per farlo devo retrocedere nel tempo di oltre 40 anni. Nel 1979 Cesidio arriva all’ING provenendo dall’Istituto Nazionale Giuseppe Kirner, un ente che si occupava dell’assistenza ai professori di scuola media e che oggi non esiste più, essendo stato soppresso tra gli anni settanta e ottanta, dopo il riordino del parastato.
Poco prima della soppressione dell’ente, con la sua tipica volontà di decidere del proprio destino senza lasciarsi trascinare dagli eventi, Cesidio lascia il Kirner e approda all’ING, consigliato in tal senso da un amico del tempo, uno strano tipo che io ho conosciuto e con il quale ho fatto amicizia e che oggi non c’è più: un dirigente del Ministero del Tesoro che nel tempo libero faceva il mercante d’arte e il militante del Partito comunista!
L’ING è un piccolo ente; tanto per rendere l’idea: l’anno dopo (febbraio ‘80) vengo assunto io quale vincitore del primo concorso in Amministrazione per laureati: ebbene, sono il dipendente n. 44, tanto che nei corridoi si scherzava con i colleghi: “siamo 44 gatti”. Ma l’ING è soprattutto un ente in crisi. La crisi è cominciata nel 1974 quando, dopo un venticinquennio di direzione, scompare il Prof. Enrico Medi. I meno giovani ricorderanno questa figura di scienziato cattolico (ha avuto sei figli, tutte femmine!) noto per affiancare nei TG dell’epoca Tito Stagno per le telecronache delle imprese spaziali e per essere stato un esponente di spicco della Democrazia cristiana romana. Dopo qualche tentativo non riuscito di trovare un successore duraturo, si apre una lunga gestione commissariale. Quando arriva Cesidio, l’Ente è in mano a un onesto e oscuro funzionario ministeriale che si limita ad assicurare l’ordinaria gestione. E qui Cesidio, secondo me, dà il meglio di sé.

In veste di direttore dei servizi amministrativi (questa era la solenne qualifica dell’epoca) non si perde d’animo, si rimbocca le maniche, nel giro di poche settimane si impadronisce della macchina amministrativa, paga straordinari e missioni arretrati da mesi, fa approvare bilanci arretrati da anni, motiva una struttura amministrativa alquanto raccogliticcia e compressa in un malandato appartamento nel quartiere Esquilino, inquadra un manipolo di ricercatori molto brillanti, un poco anarchici e parecchio abbandonati a se stessi in un’ala dell’Osservatorio astronomico di Monte Porzio Catone, stipula convenzioni con gli enti previdenziali e assicurativi salvaguardando i diritti anche dei dipendenti di là da venire e infine predispone e fa approvare il nuovo statuto dell’ente in modo da consentire la fine del regime commissariale, la nomina del primo presidente dell’ente e l’inizio, quindi, di quella che verrà chiamata l’era Boschi. Ma noi che c’eravamo sappiamo che l’era Boschi è stata anche l’era Lippa.
E questo perché il segreto del successo dell’Ente è consistito propria nell’azione sinergica di questi due personaggi dotati di grande personalità, grande carisma, molto diversi tra loro ma sostanzialmente complementari, rispettosissimi ciascuno della sfera di competenza dell’altro e capaci di fare squadra anche attraverso il gioco delle parti. Io ho avuto il privilegio di lavorare con questi due grandi professionisti per decenni e mi sono divertito spesso a osservarlo questo gioco delle parti: il buono – Boschi – e il cattivo – Lippa -, lo scienziato un poco matto – Boschi – e lo sceriffo – Lippa -, il trasgressivo – Boschi – e il ricucitore Lippa -, il tutto sempre in funzione degli interessi dell’istituzione.

MS. Proprio così! Io l’ho conosciuto nella sua posizione di direttore generale dell’ING a metà degli anni ottanta. Ai tempi vi era molta rivalità fra GNDT e ING. Lippa impersonava il carattere duro di questa rivalità per la parte ING, mentre Boschi a volte mostrava un approccio più soft; ma era solo un “gioco della parti”, come dicevi più sopra. Come esponente attivo del GNDT non ero – diciamo – nelle sue grazie. Le cose cambiarono gradualmente quando l’IRRS fu coinvolto nel processo di riordino che portò alla fine alla emanazione del decreto costitutivo dell’INGV (il mitico decreto n. 381/1999). Piano piano, credo, mi guadagnai la stima anche di Cesidio, che andavo spesso a trovare la mattina delle riunioni del Collegio di Istituto, quando arrivavo a Via di Vigna Murata da Milano spesso prima dei colleghi romani.
A dire il vero, durante l’intero processo di riordino io e la parte di IRRS che decise di confluire in INGV avevamo paura di essere considerati un po’ alla stregua della Germania Est all’atto della riunificazione; successivamente, però, i vantaggi dell’operazione furono evidenti anche per noi e ci fu possibile apprezzare il grande lavoro gestionale – pilotato da Lippa – che aveva permesso la nascita dell’INGV.

TP. Concordo e penso di poter dire che senza la sua pazienza, tenacia, ostinazione, equilibrio, capacità di riscuotere fiducia la strada che portò alla nascita dell’INGV sarebbe risultata molto più lunga e accidentata. So, per esempio, di una telefonata dalle 9 alle 11 di sera dal suo telefono di casa con il presidente della commissione parlamentare competente per smontare una a una le motivazioni scientifiche, politiche e anche banalmente localistiche di chi si opponeva al progetto e faceva pressioni sulla commissione per evitare l’emanazione del decreto n. 381/1999 che hai ricordato.
Il nuovo ente nasce ufficialmente il 10 gennaio 2001 e il successivo 1 febbraio Cesidio viene nominato Direttore generale del nuovo e grande Istituto. In questa veste gestisce la lunga e laboriosa fase di passaggio dai precedenti sistemi al nuovo unitario assetto ordinamentale; controlla, con le consuete caratteristiche di fermezza e coerenza, il processo di fusione delle diverse realtà confluite nel nuovo Ente, durante il quale noi responsabili dell’Istituto veniamo chiamati a modificare sensibilmente i criteri di gestione del personale e delle risorse, adeguandoci al mutato quadro procedurale gradualmente e faticosamente.

MS. Questa fase di passaggio durò alcuni anni e fu veramente avventurosa. Ricordo che ancora prima della nascita ufficiale, l’INGV dispose dei finanziamenti “straordinari” ai tre istituti CNR che stavano per confluirvi. I direttori dei tre istituti, in qualità di Funzionari delegati, aprirono dei conti correnti ordinari sui quali vennero accreditati questi finanziamenti ed eseguivano pagamenti che poi rendicontavano all’Amministrazione dell’INGV. Succedeva però che i direttori delle banche interessate chiamassero i direttori stessi per proporre investimenti, e non si capacitavano del rifiuto…

TP. Si, è vero: furono anni avventurosi e alcune procedure oggi sarebbero inammissibili. Ma furono anche anni belli. E furono pure caratterizzati da una concentrazione notevole di emergenze: oltre alla tristissima emergenza legata al terremoto di San Giuliano di Puglia del 2002, un terremoto piccolo ma che portò a una tragedia immane, ricordo che tra il 2001 e il 2003 si registrarono due eruzioni dell’Etna, una eruzione dello Stromboli particolarmente spettacolare con tanto di tsunami allegato e perfino emissioni gassose al largo dell’isola di Panarea!
Guidati da capi carismatici e rassicuranti – come, appunto, Enzo Boschi e Cesidio Lippa – condividemmo assieme ai responsabili delle varie sezioni una stagione di forte sviluppo di tutte le attività istituzionali e da notevoli risultati scientifici e gestionali e anche l’emozione dell’avvio di un’avventura professionale e umana densa di speranze e di senso di appartenenza, in un clima generale di entusiasmo che negli anni successivi non sempre è stato possibile ricreare.

MS. Ricordo un episodio che contraddistinse le sue capacità gestionali e umane al tempo stesso. Dopo la lunga crisi della sezione di Catania, conclusasi con le dimissioni del direttore in carica e con la nomina di Sandro Bonaccorso, Lippa, pur non condividendo appieno le decisioni del Presidente e del CdA, si incaricò di gestire il travagliato cambio di vertice trovando le modalità più giuste per preservare i delicati equilibri interni alla sezione. Fu poi lui ad accompagnare Bonaccorso al primo Collegio di Istituto, a presentarlo e a introdurlo agli altri direttori. In seguito anche con Sandro stabilì un rapporto improntato a stima e rispetto reciproci.

TP. Ma Cesidio, nella sua carriera, è stato al centro anche di altre imprese. All’inizio degli anni novanta l’ordinamento del personale degli enti pubblici di ricerca fu rivoluzionato a seguito della emanazione di un decreto (il DPR n. 171 del 1991). Come tutti i passaggi di successo (quell’ordinamento è tuttora in essere), il decreto n. 171 ha molti padri, nel senso che ho sentito diversi personaggi vantarsi di essere stati il maggiore artefice di quel contratto. Sarà, ma è un fatto che nei mesi precedenti alla firma ho assistito personalmente a colloqui serratissimi tra Cesidio ed esponenti del governo, tra Cesidio ed esponenti sindacali e ho toccato con mano la fiducia che lui riusciva a riscuotere da tutte le parti in causa, grazie alla capacità negoziale e alla competenza con le quali affrontava le discussioni. Negli anni novanta contribuì a fondare e ad animare la Conferenza dei direttori generali degli enti di ricerca (CODIGER), ricoprendone la carica di segretario nazionale fino a metà 2007. La CODIGER ha avuto il merito di dare la giusta dignità al ruolo del Direttore generale quale massimo responsabile dell’esecutivo, legato da rapporto di fiducia con l’organo di vertice ma autonomo rispetto a esso e quello di far sì che gli EPR formassero un fronte compatto nel quale le singole amministrazioni non si sentissero sole davanti ai vari problemi e fossero capaci di far valere la propria autonomia e le proprie specificità (oggi, in particolare, questa autonomia e queste specificità sono soffocate da raffiche di circolari, direttive e risposte a quesiti; a proposito, Cesidio mi diceva sempre: “non fare mai quesiti agli enti vigilanti. A meno che tu non conosca già la risposta”…).

Non mancò, inoltre, di occuparsi della formazione del personale degli EPR contribuendo alle fortune della Scuola di Bressanone diretta dal collega e amico Luciano Majorani, in qualità di componente del Consiglio scientifico e di docente. Per un quarto di secolo la Scuola, oltre a svolgere un’importante funzione formativa, ha costituito un prezioso momento di incontro degli addetti alla gestione degli enti di ricerca, una sorta di convention annuale che consentiva a dirigenti e funzionari, ma anche ad alcuni ricercatori, di confrontarsi per qualche giorno con le esperienze di colleghi che per il resto dell’anno restavano distanti, ciascuno intrappolato negli infiniti problemi d’ufficio, nella soffocante routine quotidiana.
Coinvolti da Majorani e Cesidio, relatori illustri si alternavano nell’aula magna della locale sede estiva dell’Università di Padova che ospitava la Scuola: una volta venne a tenere lezione il giudice Santiapichi accompagnato da una scorta imponente (era il periodo di maxi processi per mafia), che per qualche ora turbò la quiete del luogo. Un’altra volta venne il pubblico ministero Guariniello che ci terrorizzò circa le responsabilità connesse al mancato rispetto delle norme per la sicurezza nei luoghi di lavoro (e quanto risultano attuali – oggi – quelle lezioni!) e un’altra volta ancora tenne lezione il Prof. Zichichi, vulcanico e irrefrenabile come sempre.

MS. Dal tuo racconto emerge una figura veramente centrale nel panorama dei nostri enti di ricerca. Devo dire che anche per me è stata una fortuna conoscerlo, lavorare con lui e godere, dopo le iniziali freddezze, della sua stima. Aggiungo che nel seguito scoprimmo anche di avere interessi comuni in Canada: io a Montréal dove mi recavo spesso, lui a Toronto dove si trovavano alcuni parenti nell’ambito della comunità italiana ivi residente. L’ultima volta che lo vidi fu in occasione dell’ultimo Collegio di Istituto cui partecipò; era il 2007, era provato, aveva perso i capelli per la chemio ma aveva voluto essere presente come sempre.

TP. Scoprì di essere malato a novembre del 2006. Affrontò la malattia e le faticose cure con dignità e rassegnazione virile. Finché ebbe la forza continuò a frequentare l’Istituto e anche quando dovette ricoverarsi non smise di seguire le nostre vicende e in particolare quelle legate all’ampliamento della sede dell’Istituto. Del resto teneva molto a questo progetto, sapeva che era la sua ultima impresa, quando lo andavo a trovare in ospedale negli ultimi tempi, più che ascoltare i miei resoconti sulle solite attività gestionali mi chiedeva: “ma sono arrivati al solaio? hanno finito le tamponature esterne?”
Ci lasciò il 18 novembre 2007.

MS. Ricordo i suoi funerali, a Villavallelonga suo paese natale, in un chiesa molto piccola con una coda di gente fuori dall’ingresso in un pomeriggio freddissimo. Sonia Topazio lesse con voce rotta dall’emozione una lettera scritta da una nostra collega che ascoltai come un autentico lamento funebre, una commemorazione molto toccante.

TP: Si, c’ero anche io e ricordo inoltre che una donna prima della cerimonia distribuì ai presenti una piccola pagnotta con una croce incisa sulla crosta, secondo antica usanza del paese.
Hai citato Villavallelonga. Un paesino sconosciuto alla generalità degli italiani ma notissimo nel mondo degli EPR per il semplice motivo che lui non faceva altro che parlarne, dimostrando un amore per il paese d’origine assolutamente sincero e con un sapore buono di altri tempi. La vita quotidiana del paese (peraltro incastonato in uno scenario naturale marsicano veramente bello), i suoi personaggi pittoreschi, le espressioni dialettali, le prime colazioni robuste a base di pane e frittata sono stati al centro di racconti inesauribili che ci hanno fatto conoscere Villavallelonga prima di andarci, ovviamente ospiti della sua generosità infinita.

Enza Sorice
È sempre bello leggere il nostro passato attraversola penna di Tullio Pepe.
È un piacere, ti riporta alla mente con leggerezza e gioia i ricordi… che quasi tocchi con mano. Sono contenta di leggere anche i ricordi di Massimiliano Stucchi che vanno ad arricchire un passato che è stato il nostro vissuto nell’Ente. Siamo stati fortunati di aver partecipato quell’epoca e aver avuto accanto due uomini del loro calibro. Hanno trasmesso il loro sapere e il loro sentire a ciascuno di noi. Grazie.

 

Sono particolarmente legato a un ricordo, che credo possa ben raccontare il DG Lippa, nonché un modo di vivere i rapporti “gerarchici” che, credo, non esista più. Mi sembra fosse il 2002; a Genova si tenne l’inaugurazione della mostra sul campo magnetico terrestre, e toccò a me, allora giovane ricercatore, presentarne il percorso ad autorità e invitati. Al termine della spiegazione, che riscosse un buon successo, mi si avvicinò il Direttore Generale, che stava per ripartire verso Roma. Credevo volesse farmi un piccolo apprezzamento, mi disse, invece, peraltro circondato da autisti e operatori: “mi prendi la borsa e me la metti in macchina?”. Non ho ancora compreso se fosse il suo modo di dimostrarmi apprezzamento attraverso una richiesta confidenziale, o se, piuttosto, fosse un modo per riportarmi a terra dopo la ribalta. Propendo senz’altro per quest’ultima.

 

Grazie infinite per questo ricordo. E’ una persona che ricordo con stima e affetto, che è stato capace di risolvere in un battibaleno problemi enormi. Grazie anche per avermi fatto conoscere la data della sua dipartita, in modo da potergli dedicare una messa.

Bruno Zolesi

Ho conosciuto Cesidio nella storica sede di via Ruggero Bonghi proprio nel 1979 quando partecipai al concorso per un ricercatore nel reparto ionosferico allora diretto da Pietro Dominici già direttore dimissionario dell’ente.
All’epoca insegnavo fisica in un istituto tecnico di Roma e avendo meno di 30 anni non vedevo bene un ente assistenziale come il Kirner che sottraeva obbligatoriamente una quota di stipendio a tutti i docenti.
Con gli anni e con le ovvie preoccupazioni familiari ho compreso meglio le ragioni di Cesidio e non solo su questo tema.
A Cesidio piaceva ricordare come era stata, anche nel recente passato, la vita degli abitanti di Villavallelonga e come fosse cambiata in meglio negli ultimi anni. Proveniendo anche io da un piccolo paese della Toscana comprendevo questo sentimento ricordando bene cosa fosse l’Italia del secondo dopo guerra.

20 anni fa, un terremoto nella normativa sismica: conversazione fra Massimiliano Stucchi e Gian Michele Calvi

Quello che segue è il racconto, necessariamente sintetico, di una vicenda che, in un tempo relativamente breve, modificò in modo straordinario il sistema della normativa sismica italiana. Molto è stato scritto in proposito. Qui la ricordano Massimiliano Stucchi e Gian Michele Calvi, che guidò la commissione incaricata della stesura delle nuove norme.

MS. Era la fine di ottobre del 2002. Era da poco evaporata la Agenzia di Protezione Civile auspicata da Franco Barberi. Al governo c’era Silvio Berlusconi: Guido Bertolaso era il capo del Dipartimento per la Protezione Civile (DPC), Vincenzo Spaziante il vice capo. Era nato da poco l’INGV con Enzo Boschi presidente. Eucentre stava per nascere. Vennero due terremoti in Molise, di pari magnitudo e localizzati poco lontani fra di loro, a distanza di un giorno. Zona povera, marginale, non classificata come sismica. Molti danni, non molti morti se non fosse stata per quella maledetta scuola di San Giuliano di Puglia che catturò tutta l’attenzione. La vecchia scuola resistette; quella nuova, sopraelevata da poco, no, con le conseguenze che sappiamo.

Il fatto che la zona di San Giuliano di Puglia non fosse classificata scosse tutti e soprattutto i sismologi: ma si sapeva bene che le classificazioni precedenti erano state fatte “al risparmio” per la rigidità del Ministero dei LL.PP. La situazione normativa ristagnava: in particolare ben 5135 Comuni (più della metà) non erano classificati in zona sismica. La proposta di riclassificazione del 1998 (“Proposta 98”, pubblicata nel 1999: Gavarini et al., 1999) a cura di Gruppo Nazionale per la Difesa dai Terremoti (GNDT), Servizio Sismico Nazionale (SSN) e Istituto Nazionale di Geofisica (ING), che pure avrebbe lasciato 3500 Comuni non classificati, giaceva nei cassetti del Ministero. Era iniziato un lento confronto con le Regioni, ma il problema principale era l’aumento (circa 1700) dei Comuni da inserire in terza categoria. SSN aveva formulato una propria proposta alternativa, sottomettendola alle Regioni e ricevendo qualche commento. La normativa tecnica era quella del 1996 con i successivi aggiornamenti. Nell’ottobre 2001 era stato predisposto un nuovo testo, depositato al CNR per il parere previsto dalla L64/74. La Commissione Norme del CNR aveva espresso parere negativo.
Michele, tu eri stato appena nominato Presidente della Sezione Rischio Sismico (SRS) della Commissione Grandi Rischi (CGR). A parte una riunione rapida sul campo, a Larino, il 2 novembre, che ricordi hai?

GMC. Il 12 novembre si riunì a Roma la Sezione Rischio Sismico (SRS) della Commissione Grandi Rischi (CGR), composta da: Calvi pres., Marson, Lavecchia, Faccioli, Cosenza, Dolce, Romeo, Amato (assenti giustificati Bonafede e Lavecchia), completata da componenti della CGR (Pace, Berlasso, Coccolo, Boschi, Eva) e con la presenza di Bertolaso e Spaziante.
Tra le altre cose venne convenuto che la “Proposta 98” costituisse un avanzamento rispetto alla situazione di allora. La Regione Campania aveva già riclassificato (7.11.2002) sulla base della citata “Proposta 98”. Venne suggerito di adottarla e procedere con gli eventuali aumenti di classe, ma di attendere per eventuali declassificazioni. Venne auspicata l’istituzione di un tavolo unico per nuova classificazione sismica e nuova normativa in prospettiva Eurocodice 8 (EC8); i lavori avrebbero potuto essere conclusi in tre-sei mesi. Vennero auspicati incontri scientifici e Boschi offrì la disponibilità dell’INGV a realizzarli.
Venne raccomandata la necessità di valutazioni sistematiche di vulnerabilità sismica degli edifici. Venne inoltre raccomandato che gli interventi sugli edifici venissero svolti da professionisti competenti nel settore e venne ipotizzata la creazione di un apposito Albo. Venne raccomandata l’incentivazione della formazione degli addetti ai lavori. Questi elementi furono riassunti in un comunicato stampa.

MS. Per cercare di accelerare l’istituzione del tavolo unico auspicato dalla CGR, Boschi chiese un incontro al Sottosegretario alla Presidenza del Consiglio dei Ministri (PCM) Gianni Letta e lo convinse a organizzare un incontro a Palazzo Chigi.
In vista di questo incontro il 28 novembre si riunì presso l’INGV un gruppo di lavoro convocato da Boschi. Erano presenti: Amato, Stucchi, Valensise, Bramerini, Di Pasquale, Sabetta, Calvi, Faccioli, Pinto, Slejko. Ne uscì un verbale che divenne una proposta concreta da portare alla riunione di Palazzo Chigi. In questo documento si delineavano l’adozione dell’EC8 come riferimento e le linee guida per la nuova classificazione sismica. La riunione convocata da Letta si tenne il 2 dicembre. Che cosa ti ricordi della riunione?

GMC. Letta convocò parte del gruppo di lavoro e persone del giro del Ministero, compreso il Ministro Lunardi. La riunione fu molto particolare, presieduta da un Sottosegretario con un Ministro presente, con battute del tipo “ma lo sapete che in Italia non esiste una norma per la progettazione dei ponti in zona sismica?” Lunardi al Presidente del Consiglio Superiore (Aurelio Misiti): “ma è vero?”, Misiti, guardando Marcello Mauro (credo allora presidente della prima sezione, poi del Consiglio Superiore): “Ehm …”, Mauro: “si, ma  …”. Si ebbe un confronto molto acceso, al termine del quale risultò chiara l’inadeguatezza del quadro normativo e della classificazione sismica e che il Ministero non era in grado di gestire il problema in tempi compatibili con la percezione della situazione. Dopo la riunione Letta nominò (4 dicembre) una Commissione per predisporre una versione della normativa sismica nella prospettiva dell’EC8.

MS. Della Commissione fecero parte Coccolo e Berlasso in rappresentanza delle Regioni, Faccioli, Cosenza, Pinto, Amato, Dolce, Stucchi, Eva e Slejko. Tu venisti nominato presidente. Contribuirono anche Sabetta e Mazzolani. La prima riunione si tenne il 12 dicembre. In particolare si convenne di proporre che le zone sismiche diventassero quattro e coprissero tutto il territorio, utilizzando come base la “Proposta 98”, senza procedere a declassificazioni. Per quanto riguarda la normativa si convenne di prendere come base una bozza di normativa del 1999 predisposta da un gruppo ristretto e anch’essa in stand-by. La commissione lavorò senza soluzione di continuità e, dopo un ulteriore incontro a Pavia il 10 gennaio, trasmettesti a Letta il materiale il 15 gennaio 2003, rispettando la scadenza prevista. In che cosa consisteva il materiale?

GMC. Il materiale consisteva in una lettera di accompagnamento, un documento esplicativo molto sostanzioso, una bozza di testo del provvedimento e quattro allegati, anch’essi in bozza: 1. Criteri per l’individuazione delle zone sismiche; 2. Edifici; 3. Ponti; 4. Opere di fondazione e sostegno dei terreni. I contenuti più salienti possono essere così riassunti:

  • l’adozione di un sistema normativo coerente con l’EC8, che consisteva nell’abbandono di un sistema puramente prescrittivo in favore di un sistema prestazionale, nel quale gli obiettivi della progettazione che la norma si prefigge vengono dichiarati e i metodi utilizzati allo scopo vengono singolarmente giustificati;
  • la definizione di due condizioni limite, relative al collasso e al danno strutturale e non strutturale, caratterizzate da azioni sismiche corrispondenti alla probabilità di superamento del 10% in 50 e 10 anni. Viene peraltro precisato che le strutture progettate secondo queste norme posseggono margini di resistenza che consentono loro di resistere senza collasso ad azioni sismiche ben superiori a quelle di progetto, e ne vengono spiegate le ragioni;
  • il superamento della dicotomia fra zone classificate e non classificate come sismiche, che in passato veniva interpretato come assenza di pericoli in queste ultime. Le zone divennero quattro (vedi Figura 1) per tutto il territorio e per ciascuna di esse veniva definito uno spettro di progetto (Figura 2). Per la zona 4, ovvero quella a minor pericolosità sismica, si ipotizzava che potessero essere utilizzate procedure di progetto e verifica semplificate;
  • la semplificazione, grazie all’EC8, delle modalità di definizione delle zone sismiche, fin qui largamente soggettive, mediante la relazione con un parametro fisico individuato nella accelerazione orizzontale di picco. In particolare veniva richiesta la predisposizione di una mappa di PGA 10%/50 anni entro un anno, secondo specifiche molto precise e stringenti;
  • l’attenzione verso il problema delle costruzioni esistenti, di cui si parla estesamente più sotto. Si sollecitava tra l’altro l’adozione di politiche assicurative. Si affrontava anche il problema della formazione degli operatori, anche mediante la costituzione di appositi Albi.

MS. Letta rispose il 30 gennaio ringraziando te e la Commissione. Nel frattempo, d’intesa con il Capo e il vice Capo del DPC, si diede da fare per determinare la forma normativa più opportuna e rapida per adottare il provvedimento, successivamente individuata nella Ordinanza del Presidente del Consiglio dei Ministri (OPCM). L’OPCM 3274/2003, intitolata opportunamente Primi elementi in materia di criteri generali per la classificazione sismica del territorio nazionale e di normative tecniche per le costruzioni in zona sismica”, venne firmata dal PCM il 20 marzo e pubblicata in Gazzetta Ufficiale l’8 maggio 2003. 

classificazione sismica 2003

Figura 1 – Mappa dei Comuni italiani afferenti alle 4 zone sismiche per effetto dell’OPCM 3274. La didascalia era provvisoria ma rifletteva il significato della classificazione sismica. La situazione aggiornata al 2022 è rintracciabile qui (la didascalia è diversa dalla precedente e non del tutto pertinente).

Spettri OPCM 3274:2003

Figura 2 – I quattro spettri di progetto relativi alle quattro zone sismiche (vale la pena di ricordare che questi spettri erano in generale più conservativi di quelli successivamente definiti dalla Norme Tecniche del 2008).

Le Regioni vennero invitate a adottare i relativi provvedimenti di classificazione sismica, con la possibilità di variare di +/- 1 la classe individuata dall’Ordinanza e la facoltà di decidere se introdurre o meno l’obbligo di normativa sismica in zona 4. Un’altra “facilitazione” consentiva per le opere già appaltate o i cui progetti fossero già stati approvati alla data dell’Ordinanza di continuare a utilizzare le norme e la classificazione precedente. Il problema venne discusso anche dalla SRS CGR del 10 giugno 2003, che concluse che le parole “in zona 4 è lasciata facoltà alle singole Regioni di introdurre o meno l’obbligo della progettazione antisismica” di cui all’art. 2 comma 1 dell’Ordinanza, andassero intese nel senso che in assenza di delibera regionale le norme dovevano essere comunque applicate, precisando che fosse inoltre opportuno suggerire alle Regioni che “l’obbligo di applicazione delle norme sismiche sia mantenuto almeno per le opere e gli edifici strategici o importanti”.
Questa sorta di deroga fu poi oggetto di numerose discussioni, interpretazioni, ricorsi che si protrassero per anni.

GMC. Nella stessa seduta della SRS CGR venne deciso di raccomandare di “ridurre al massimo i tempi di produzione della mappa di riferimento prevista al punto 4 dell’allegato 1 all’Ordinanza 3274, al fine di evitare ripetuti cambiamenti nella classificazione del territorio. Il prossimo mese di ottobre è ritenuto un termine adeguato”. Si raccomandava inoltre di “porre in essere ogni misura necessaria al fine di ottenere un prodotto unitario ed autorevole, che raccolga un consenso generale, assicurando peraltro piena coerenza tra norme e mappa”. Venne raccomandato inoltre “che il processo di revisione ed aggiornamento di tutti gli allegati all’Ordinanza 3274 venga sviluppato in un arco temporale di tre – cinque anni, con il concorso di tutte le componenti istituzionali e scientifiche interessate. A tal fine è opportuno che le ricerche e gli studi necessari vengano sostenuti e coordinati da subito”.

MS. A valle del punto precedente INGV si attivò per produrre la mappa richiesta dall’OPCM 3274 secondo i criteri ivi contenuti, istituendo un gruppo di lavoro cui vennero invitati i maggiori esperti italiani (alcuni peraltro rifiutarono di partecipare, anche per lo scarso tempo disponibile). La compilazione, senza finanziamenti ad hoc, fu guidata da un board internazionale di esperti istituito da DPC. Dopo una prima versione rilasciata nell’ottobre del 2003, il board richiese una nuova versione corredata dalla valutazione dell’incertezza, da calcolarsi mediante l’adozione di un albero logico. La versione finale, chiamata MPS04, fu resa disponibile nel maggio 2004 dopo approvazione del citato board e della SRS CGR, e successivamente adottata come riferimento dello Stato mediante l’OPCM 3516/2006. Le sue caratteristiche, finalità usi e abusi sono stati ampiamente discussi in questo blog e altrove.
Va ricordato che la finalità di questa mappa era quella di facilitare l’assegnazione dei Comuni alle zone sismiche, mentre le azioni sismiche di progetto restavano quelle di Fig. 2. 

GMC. L’OPCM 3274 riservò una attenzione particolare al problema degli edifici esistenti. In effetti l’OPCM faceva obbligo ai proprietari – entro cinque anni e con priorità per le zone sismiche 1 e 2 – di procedere a verifica sia di edifici di interesse strategico e delle opere infrastrutturali la cui funzionalità durante gli eventi sismici assume rilievo fondamentale per le finalità di protezione civile sia degli edifici e delle opere infrastrutturali che possono assumere rilevanza in relazione alle conseguenze di un eventuale collasso. Il programma di tali verifiche avrebbe dovuto essere stilato da DPC e Regioni entro sei mesi, individuando gli edifici di cui al punto precedente. Erano esclusi gli edifici costruiti dopo il 1984 se ricadenti in zone sismiche che non avevano subito variazione di categoria.
Si trattava di una operazione imponente, anche se limitata alla sola verifica. La stessa SRS CGR, nella sopracitata seduta, raccomandò di procedere con la massima urgenza nella definizione delle opere strategiche ed importanti, ai sensi dell’art. 2, comma 3 dell’Ordinanza 3274. “Tale elenco può essere assai esteso e conseguentemente in una prima fase si può ipotizzare di limitarsi alla creazione di un data base con coordinate geografiche e dati essenziali. Possono poi essere identificate alcune classi di opere (scuole, ospedali, ponti importanti, caserme dei vigili del fuoco) ed alcune loro caratteristiche (collocazione in zona 1 o 2, costruzione antecedente la classificazione sismica del comune di appartenenza) per le quali suggerire verifiche accurate ed omogenee sul territorio nazionale. Le modalità di verifica, da definire con urgenza, dovrebbero comunque consentire la definizione dei livelli di accelerazione del suolo per le quali si prevede il raggiungimento degli stati limite definiti nelle norme”.

MS. Purtroppo questo provvedimento fu attuato solo in parte. La prima scadenza, prevista nel maggio 2008, venne in seguito prorogata da DPC al 31.12.2010 e poi ancora fino al 31 marzo 2013.
Va anche ricordato che l’Ordinanza incontrò non poche resistenze, sia da parte delle Regioni che in ambito ingegneristico. Come è ovvio determinava e richiedeva un cambio di mentalità e anche di attrezzature (ad esempio, software di calcolo) non facili da digerire con rapidità. Determinava altresì, per certe Regioni un aumento notevole di Comuni classificati e di conseguenza un numero elevato di pratiche che dovevano essere esaminate da parte dei Geni Civili.
Dopo un certo numero di discussioni in convegni ad esempio il 13 ottobre 2003 “La Repubblica” uscì con un articolo dal titolo “Norme antisismiche – beffa”, che faceva seguito a un “errata corrige” ad alcuni contenuti dell’Ordinanza pubblicati sulla Gazzetta Ufficiale. Tu rispondesti a nome del gruppo di lavoro precisando che gli errori in questione erano di natura non concettuale e che parte di coloro che secondo il quotidiano erano “saliti sulle barricate” avevano responsabilità nell’aver mantenuto per decenni norme e classificazione sismica in uno stato di inadeguatezza.

GMC. In realtà le correzioni rientravano in quanto previsto dall’OPCM stessa e cioè un periodo praticamente sperimentale in cui erano state raccolte svariate osservazioni formulate da Regioni e professionisti, confluite in una nuova Ordinanza (3336 del 2 ottobre). Queste e ulteriori modifiche avrebbero dovuto confluire in una versione del Testo Unico sulle costruzioni, per il quale il Ministero competente si era dato la scadenza del 28 giugno 2004 mediante proprio decreto-legge. Nel febbraio del 2005, pertanto, Bertolaso scrisse a Letta esponendogli la situazione e sollecitando la promulgazione di una nuova Ordinanza.
La vicenda si protrasse, nei fatti, fino alla definizione delle Norme Tecniche 2008 (NTC08), entrate in vigore solo nel giugno 2009 a valle del terremoto di l’Aquila.

In conclusione vale la pena ricordare quanto scritto nel già citato documento esplicativo di accompagnamento alla prima versione dell’Ordinanza: “Si sottolinea che le norme proposte non determinano automaticamente una riduzione del rischio sismico attuale, legato essenzialmente alle costruzioni esistenti. A tal fine è stata prestata particolare attenzione alle prescrizioni relative agli edifici esistenti, indicando i casi in cui si ritiene opportuno rendere obbligatorio procedere a eventuali interventi di adeguamento. Non si ritiene che ciò sia sufficiente a produrre rapidamente significativi effetti di riduzione del rischio, che in genere possono determinarsi solo a partire da concrete politiche di prevenzione che prevedano obblighi o incentivi per interventi di miglioramento e adeguamento”.

Riferimenti

Gavarini C., P. Pinto, L. Decanini, G. Di Pasquale, A. Pugliese, R. Romeo, F. Sabetta, F. Bramerini, M. Dolce, V. Petrini, A. Castellani, T. Sanò, D. Slejko, G. Valensise and T. Lo Presti (1999). Proposta di riclassificazione sismica del territorio nazionale, Ingegneria Sismica, XVI‑1, 5‑14.

Le “tradizionali precauzioni”: uscire di casa dopo una scossa di terremoto? (di Alessandro Venieri)

Le vicende processuali relative al terremoto dell’Aquilano del 2009 non sono ancora terminate. Esauriti i processi penali, e in particolare quello denominato “Grandi Rischi” che si è concluso – è bene ricordarlo – con la assoluzione di tutti gli imputati tranne uno “perché il fatto non sussiste”, restano ancora in essere alcuni processi civili. Di recente ha fatto scalpore una sentenza in cui il giudice ha individuato una parziale corresponsabilità negli inquilini – deceduti – per non avere abbandonato l’edificio secondo le presunte “consuetudini”. Nella stampa e nei social si è molto ironizzato su questa “corresponsabilità” invocando paragoni arditi e a volte infelici. La stampa stessa e alcune delle sue fonti locali non hanno esitato a ricordare il processo “Grandi Rischi”, ignorando o mistificandone le conclusioni ricordate più sopra.
Nell’intervento Alessandro Venieri analizza in dettaglio alcuni aspetti della sentenza, le cui motivazioni non sono ancora disponibili. Seguono commenti di Alessandro Amato e Rui Pinho.


Alessandro Venieri, geologo, ha lavorato per sei anni al Magistrato per il Po di Parma occupandosi di sistemazioni idrauliche e servizi di piena; poi un breve periodo alle Opere Marittime di Ancona e quindi per 15 anni alla Provincia di Teramo curando in materia di Protezione Civile il Programma Provinciale di Previsione e Prevenzione dei Rischi (che contiene gli studi prodotti dall’INGV a seguito della convenzione con la Provincia per gli aspetti legati al rischio simico). Dal 2015 ad aprile del 2022 ha lavorato presso la Regione Abruzzo occupandosi di concessioni di derivazioni d’acque e aree demaniali e a maggio del 2022 è stato trasferito presso l’Agenzia Regionale di Protezione Civile, sempre della Regione Abruzzo.


Nei giorni scorsi ha destato clamore a livello nazionale, con articoli di giornali e servizi televisivi, la sentenza definita da molti “choc” del Tribunale civile dell’Aquila riferita al crollo del palazzo di via Campo di Fossa all’Aquila, la tragica notte del 6 aprile 2009, dove morirono 24 persone.

Proteste
Il passaggio che ha destato clamore e proteste, con manifestazioni all’Aquila, è il seguente:

E’ infatti fondata l’eccezione di concorso di colpa delle vittime ai sensi dell’art. 1227 I comma c.c., costituendo obiettivamente una condotta incauta quella di trattenersi a dormire – così privandosi della possibilità di allontanarsi immediatamente dall’edificio al verificarsi della scossa – nonostante il notorio verificarsi di due scosse nella serata del 5 aprile e poco dopo la mezzanotte del 6 aprile, concorso che, tenuto conto dell’affidamento che i soggetti poi defunti potevano riporre nella capacità dell’edificio di resistere al sisma per essere lo stesso in cemento armato e rimasto in piedi nel corso dello sciame sismico da mesi in atto, può stimarsi nella misura del 30 per cento (dell’art. 1227 I comma c.c.), con conseguente proporzionale riduzione del credito risarcitorio degli odierni attori. Ne deriva che la responsabilità ascrivibile a ciascun Ministero è del 15 per cento ciascuno e per il residuo 40% in capo agli Eredi del costruttore Del Beato”.

https://www.tgcom24.mediaset.it/2022/video/l-aquila-sit-in-piazza-dopo-la-sentenza-shock_56018883-02k.shtml

Dalla pagina dell’Avvenire:

https://www.avvenire.it/attualita/pagine/terremoto-l-aquila-sentenza-tribunale

“La richiesta di risarcimento da parte dell’Avvocatura dello Stato verso i proprietari degli appartamenti del palazzo di via Campo di Fossa a l’Aquila dove, a causa del crollo imputabile al sisma – avvenuto nell’aprile 2009 – morirono 24 persone, è stata accolta dalla sentenza del giudice del tribunale civile dell’Aquila Monica Croci.
Dopo la tragedia gli eredi delle vittime avendo dalla loro parte perizie che attestavano irregolarità in fase di realizzazione dell’immobile e una “grave negligenza del Genio civile nello svolgimento del proprio compito di vigilanza sull’osservanza delle norme poste dalla legge vigente, in tutte le fasi in cui detta vigilanza era prevista”, hanno citato in giudizio (per milioni di euro di danni) Ministero dell’Interno e Ministero delle Infrastrutture e Trasporti per le responsabilità della Prefettura e del Genio Civile per i mancati controlli durante la costruzione, il Comune dell’Aquila per responsabilità analoghe e gli eredi del costruttore per le responsabilità in fase di costruzione. I ministeri hanno chiamato in causa il condominio imputandogli una responsabilità oggettiva, cioè senza colpa, ma derivante solo dal fatto di essere proprietario della costruzione.”

Pertanto, ai sensi del comma 1 dell’art. 1227 del Codice Civile

Se il fatto colposo del creditore ha concorso a cagionare il danno, il risarcimento è diminuito secondo la gravità della colpa e l’entità delle conseguenze che ne sono derivate”,

è anche colpa delle vittime, rimaste sotto le macerie del crollo, per non essere uscite di casa dopo due scosse di terremoto non molto forti, appartenenti ad una sequenza sismica che durava da mesi.

Se si rileggono le motivazioni delle sentenze (Appello e Cassazione) di condanna del prof. Bernardo De Bernardinis relative al cosiddetto processo “Grandi Rischi”, per la morte di 13 persone – fra quelle che avevano presentato ricorso – si trova che in effetti le “tradizionali precauzioni” adottate dalla popolazione, consistenti nell’uscire dalle proprie abitazioni ad ogni scossa percepita, rappresentino una condizione essenziale per potersi mettersi in salvo da un terremoto. A pag. 12 si legge infatti:

Stralcio-cassazione-pag-12

Pertanto, se non si esegue tale azione, da una parte potresti essere ritenuto corresponsabile della tua morte e dall’altra di omicidio colposo se induci, indirettamente attraverso la tua autorità, altre persone a non adottare tali “tradizionali precauzioni”.

Nel ricorso in Cassazione i legali del prof. Bernardo De Bernardinis, per tale aspetto, fecero presente l’inesistenza di una regola che consenta di individuare con sufficiente certezza la durata dell’allontanamento dalla propria abitazione, in occasione di scosse sismiche, al fine di scongiurare un rientro prematuro. A pag. 14 si legge:

Stralcio-cassazione-pag-14

Il ricorso, come noto, è stato rigettato e la condanna a due anni è stata confermata.

Quindi per i magistrati che hanno emesso tali sentenze le “tradizionali precauzioni”, che consistono nell’uscire di casa ad ogni scossa di terremoto, costituiscono una procedura di sicurezza fondamentale da rispettare; sia di giorno che di notte, che faccia freddo o meno (quella notte all’Aquila faceva freddo), che si abbia o meno un posto dove rimanere al sicuro, sia se si è giovani o anziani, sia se si è stanchi o riposati e soprattutto a prescindere dalla durata di permanenza fuori dall’edificio.
Ricordiamo che la notte tra il 5 e il 6 aprile le scosse prese a riferimento per determinare il comportamento da seguire, cioè uscire fuori dalla propria abitazione, sono avvenute alle ore 22.48 (magnitudo 3.9) e alle ore 00.39 (magnitudo 3.5). In sostanza, quando il sonno gioca un ruolo determinante e può avere il sopravvento, quando fuori fa freddo e dormire in auto o all’addiaccio impone una buona forza di volontà che può essere dettata o da una estrema paura del terremoto scollegata da un aumento del rischio o da una effettiva condizione di reale aumento del rischio (cosa che sappiano non essere avvenuta), dopo una lunga sequenza dove non sempre è stato accertato se ad ogni scossa e in ogni condizione (notte o giorno) le vittime uscissero dalle proprie abitazioni o da qualsiasi altro edificio in cui si fossero trovati che sia il luogo di lavoro, di studio o di svago.

Come noto, peraltro, le due scosse di terremoto in questione non mutarono certo il rischio sismico per la città dell’Aquila, che all’epoca del terremoto era sempre alto, così come lo è tuttora.

Non entrando nello specifico delle sentenze, che sono molto articolate e vanno sicuramente rispettate, tutto ciò, a mio parere, ha una unica ragione logica e cioè ammettere che quelle due scosse, a cui fanno riferimento le sentenze (e solo a queste due scosse), possano essere considerate premonitrici di un evento catastrofico, come poi è avvenuto, e che le “tradizionali precauzioni” adottate dai cittadini aquilani includessero tale conoscenza.
Ma questo non è stato confermato dagli studi scientifici eseguiti a posteriori, perché solo a posteriori può essere valutata la probabilità di accadimento del mainschock, che tra l’altro hanno dato delle probabilità molto basse di accadimento.

Infatti, come si può leggere anche sulla pagina internet istituzionale dell’INGV:

allo stato attuale non esistono leggi note capaci di fornire indicazioni sull’evoluzione delle sequenze sismiche. Ogni sequenza ha delle caratteristiche proprie che possono essere studiate solo dopo che la sequenza sia senza ombra di dubbio terminata. In particolare, non c’è nessuna legge o indicazione che possa dirci se il culmine massimo della sequenza sia stato raggiunto oppure no”.

https://ingvterremoti.com/2014/11/09/linizio-e-la-fine-della-sequenza-sismica-dellaquila/

Altrimenti, mi viene da aggiungere, i terremoti sarebbero prevedibili…

Commento di Alessando Amato
Grazie Alessandro, e grazie Max. Peraltro aggiungerei che quello dell’uscita di casa in caso di sciame (?), scossetta/e (quante? quanto forte?), scossa, ecc., è un comportamento sbagliato, altro che “precauzione tradizionale”. Se uno vive in zona sismica e sa che la casa resiste non deve uscire! Se invece sa o teme che la sua casa non sia a norma e possa danneggiarsi o crollare, una volta uscito per la paura (lecita) non deve rientrare fintanto che non abbia adeguato la casa. Un M6 può arrivare sempre, con o senza scosse o sciami prima, come dimostra il terremoto di Amatrice del 24 agosto 2016.
Inoltre, mi verrebbe da chiedere alla giudice: in caso di terremoto distruttivo, quante ore o giorni bisognerebbe andare a ritroso per ritenerlo co-responsabile? Se il terremoto del 6 aprile fosse avvenuto il 7 o l’8 potremmo ancora ritenere irresponsabili coloro i quali fossero usciti la notte e poi rientrati la mattina dopo?

Commento di Rui Pinho

“Prima di venirci ad abitare presi alcune informazioni sulla tipologia della struttura, sull’anno di costruzione, sul progettista, parlai con il titolare dell’impresa che eseguì i lavori e diedi anche una occhiata alla relazione geologica geotecnica allegata al progetto” – esempio perfetto di quello che dovremo fare tutti noi, grazie!
Questo è il tipo di buona pratica (a mio avviso del tutto equivalente ad allacciare la cintura di sicurezza ogni volta che si sale in auto) che dovrebbe essere ripetutamente ricordata e ribadita dai media, al posto delle dannose chiacchiere su previsioni, mappe, preavvisi e tradizionali precauzioni.

La nuova versione di DISS, il database delle sorgenti sismogenetiche (colloquio con Gianluca Valensise)

Gianluca Valensise, sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Gli abbiamo chiesto di commentare l’ultima versione, pubblicata di recente.

Gianluca, puoi spiegare ai non addetti ai lavori in che cosa consiste questo database?

Il Database of Individual Seismogenic Sources, o DISS, è uno strumento ideato per censire le sorgenti sismogenetiche, ovvero le faglie in grado di generare forti terremoti che esistono su uno specifico territorio, esplorandone le dimensioni, la geometria e il comportamento atteso, espresso dallo slip rate e dalla magnitudo degli eventi più forti che tali faglie possono generare. Presenta delle somiglianze con un catalogo/database della sismicità storica, nella misura in cui fornisce informazione georeferenziata sul verificarsi dei forti terremoti, potendo fungere da base di partenza per l’elaborazione di modelli di pericolosità sismica a varie scale spaziali e temporali; tuttavia se ne differenzia per due ragioni fondamentali. La prima è quella di essere principalmente basato su informazione geologica, geofisica e sismometrica, e in parte anche storica. La seconda, che ne rappresenta la vera forza, e quella di “guardare in avanti” in modo esplicito, proponendo dove potrebbero accadere i terremoti del futuro e con quali caratteristiche. Anche un catalogo storico può essere utilizzato con le stesse finalità, sulla base del principio-cardine della Geologia per cui è possibile “ribaltare sul futuro” gli eventi naturali che abbiamo visto nel passato; ma l’immagine del futuro che potrà derivare da quest’operazione è certamente meno nitida di quella che si può ottenere ipotizzando l’attivazione futura di sorgenti sismogenetiche delle quali, almeno nell’ambito di incertezze anche ampie, riteniamo di conoscere le caratteristiche fondamentali, come lunghezza, profondità, cinematica e magnitudo del terremoto più forte che possono generare.

Perché ‘sorgenti sismogenetiche’ e non semplicemente ‘faglie’?

Questo è un quesito importante, che richiede un flashback di circa mezzo secolo. Un’acquisizione relativamente recente nel campo delle Scienze della Terra – parliamo di qualcosa che ha iniziato ad emergere sostanzialmente sugli anni ’70 e gli anni ’80, quantomeno in Italia – è che le faglie che attraversano e dislocano la crosta terrestre sono fortemente gerarchizzate. Fino ad allora aveva prevalso una visione decisamente “piatta” del problema, in virtù della quale tutte le faglie indistintamente venivano considerate in grado di generare terremoti, purché attive; inoltre si tendeva a non cogliere la loro tridimensionalità, anche perché questa caratteristica si scontrava con l’incapacità del geologo di osservare il pianeta a profondità superiore a poche decine di metri, se non attraverso trivellazioni o attraverso l’esecuzione di profili sismici, usando tecnologie sviluppate a partire dal secondo dopoguerra dalla nascente industria degli idrocarburi. A quell’epoca i sismologi venivano soprattutto dal mondo della Fisica, dunque avevano una chiara percezione delle dimensioni e della tridimensionalità della sorgente di un forte terremoto ma non erano in grado di inquadrarla nella realtà geologica; per loro la faglia era al massimo un piano idealizzato nello spazio. Quella realtà ovviamente la maneggiavano bene i geologi, i quali però in quel momento del fenomeno sismico coglievano soprattutto gli effetti di scuotimento, ed eventualmente la loro variabilità legata alla geologia di superficie.

Il punto di svolta che ha riavvicinato queste due culture, un tempo quasi contrapposte, è rappresentato dal terremoto dell’Irpinia del 1980 e dalle successive ricerche sul terreno. Le ricerche sugli aspetti geologici di questo terremoto iniziarono subito ma finirono già nel 1981, quando io ero ancora studente; ripresero nel 1984, per merito di due studiosi inglesi, e furono poi proseguite da Daniela Pantosti e dal sottoscritto nel novembre 1986. Seguirono a ruota nuove ricerche sui terremoti del 1915 nella Marsica e del 1908 nello Stretto di Messina.
Alla fine degli anni ’80 iniziarono quindi ad essere indagati a fondo i terremoti più forti del secolo scorso, per i quali erano disponibili sia dati strumentali, sia osservazioni di terreno su come ciascun evento si inquadrava nell’evoluzione della geologia recente e del paesaggio. Apparve finalmente chiaro anche ai geologi italiani che un forte terremoto è generato da una grande faglia, lunga anche 50 km (in Italia); talora inaccessibile all’indagine diretta, ma che attraverso il suo movimento ripetuto nel tempo diventa l’attore principale dell’evoluzione della geologia e del paesaggio dell’area in cui si trova. L’attività di questo elemento di ordine zero, che noi chiamiamo sorgente sismogenetica e che non necessariamente appare in superficie (si parla allora di una faglia ‘cieca’), determina a sua volta la formazione di un complesso reticolo di faglie gerarchicamente subordinate nel volume di roccia in cui è immerso. Queste faglie minori, che per lo più non sono in grado di generare terremoti, rappresentano certamente una evidenza diretta dell’esistenza della sorgente profonda e sono certamente ‘attive’ in senso geologico; ma allo stesso tempo è difficile – se non impossibile – evincere da esse i caratteri della sorgente profonda.

Dunque in che cosa il DISS si differenzia dai database delle faglie attive?

La risposta discende direttamente da quanto ho appena asserito. Il DISS (si veda l’immagine, che mostra la pagina di ingresso alla consultazione della versione 3.3.0 del database, pubblicata a dicembre del 2021), si propone di censire con la massima accuratezza delle sorgenti sismogenetiche, ovvero delle strutture di ordine gerarchico principale che possono causare forti terremoti; anche se, come spesso accade, tali strutture sono cieche, ovvero prive di un’espressione superficiale diretta, cioè fragile, o sono addirittura in mare. Un’ampia sintesi di cosa è il DISS e di cosa contiene, seppure non molto aggiornata, è fornita in Basili et al. (2008). Ovviamente prima di censirle bisogna identificarle, queste sorgenti, verificando i rapporti di ciascuna con quelle adiacenti: un tema di ricerca che ancora oggi non viene insegnato in alcun ateneo, per quello che mi risulta.
A sua volta, un database di faglie attive – in Italia abbiamo ITHACA (ITaly HAzard from CApable faults), nato nel 2000 e gestito dall’ISPRA – tende a censire tutte le faglie che interessano un determinato territorio e che si sono mosse in tempi relativamente recenti (a seconda dei casi si ragiona sugli ultimi 10.000 anni, o sugli ultimi 40.000 anni, o anche su tempi più lunghi). Tuttavia, essendo basato quasi esclusivamente sull’evidenza di superficie, questo database difficilmente potrà contenere faglie cieche di qualunque ordine gerarchico, incluse quelle primarie, e tantomeno faglie a mare.

Schermata 2022-05-04 alle 22.53.42Si badi bene che dietro questo dualismo ci sono due visioni molto differenti della ricerca sulla sismogenesi. Il DISS “parte dai terremoti”, mentre ITHACA (così come tutte le compilazioni simili in giro per il mondo) “parte dalle faglie”. Dove c’è stato un forte terremoto ci deve essere per forza una grande sorgente sismogenetica, e questo spiega anche perché il DISS sia nato in qualche modo “imparentato” con il CFTI, il Catalogo dei Forti Terremoti in Italia, che non a caso è arrivato a piena maturazione fra il 1997 e il 2000. Sapendo che i grandi trend sismogenetici sono relativamente pochi e relativamente regolari, l’obiettivo iniziale del DISS era quello di ricostruire al meglio che fosse possibile questa “litania” di sorgenti sismogenetiche, messe in fila come un trenino. C’era un fatto certo, il terremoto – e questo implicava anche una sconfinata fiducia nelle capacità e nell’importanza della sismologia storica, che io ancora oggi difendo strenuamente – e c’era un esito incerto, ovvero la nostra capacità di “capire” la sorgente di quel terremoto. Viceversa, nella ricerca sulle faglie attive di superficie prima di tutto contano le faglie stesse, ovvero conta la capacità – mai scontata – di identificare importanti dislocazioni sul terreno e di certificarne “l’attività”; i terremoti semmai arrivano dopo, venendo “calati,” talvolta addirittura “forzati”, sulle strutture individuate, con la sola eccezione di quei pochissimi casi in cui siamo stati testimoni diretti sia dello scuotimento sismico, sia degli effetti geologici di superficie.

Un caso per tutti è quello del terremoto del 1693 nell’area iblea, che si trovò a essere assegnato alla cosiddetta scarpata ibleo-maltese, distante qualche decina di chilometri dall’area dei maggiori effetti di quell’evento, e che oggi in molti riteniamo essere in terraferma, probabilmente sotto la dorsale del Monte Lauro. Ritenevo – e a maggior ragione ritengo oggi ­– che quello fu un errore concettuale, basato sulla presunzione che tutte le faglie sismogenetiche abbiano un’espressione superficiale, e per di più, che siano ‘poche’. Ma era una presunzione, appunto, perché come già accennato, molte grandi faglie sismogenetiche sono parzialmente o totalmente cieche; ed erano gli stessi terremoti a mostrarci qualcosa che le faglie attive di superficie, evidentemente un sottoinsieme di tutte le faglie che attraversano la crosta terrestre, non avrebbero mai potuto insegnarci. Mi riferisco al terremoto del 1980 in Irpinia, generato da un faglia che arrivava in superficie ma che mai avrebbe potuto essere identificata a priori (in compenso ne venivano identificate numerose altre, che però quel 23 novembre 1980 non si mossero); al terremoto del 1908, un evento di magnitudo superiore a 7.0 generato da una faglia sorprendentemente ma evidentemente cieca; o anche al terremoto di San Giuliano di Puglia del 2002, generato da una faglia profonda 10-20 km che nessun geologo di terreno avrebbe mai potuto vedere e mappare. Le mie possono suonare come critiche sgradevoli, ma a 25 anni dall’inizio della vicenda che sta narrando credo sia giusto fare anche i conti con la storia, con i suoi successi e con gli eventuali errori; anche miei ovviamente.

Tornando al dualismo sorgenti vs. faglie attive (di superficie, è sottinteso), devo riconoscere che sto molto semplificando il tema, ma solo perché per me questa distinzione è chiarissima, e tuttavia, su questo dualismo negli ultimi 25 anni non sono mancati gli equivoci. Tra le faglie attive esistono in piccola misura anche elementi primari, ovvero elementi che rappresentano l’espressione diretta della fagliazione in profondità; ma resta vero che per la gran parte, le faglie attive sono in realtà faglie passive, che non è un gioco di parole ma indica il fatto che esse si mobilizzano esclusivamente se e quando si muove la sottostante sorgente sismogenetica, ovvero l’elemento strutturale di ordine gerarchico principale.
Fortunatamente questa mia affermazione si sta consolidando sempre di più negli ultimi anni, ma sono sicuro che esistono ancora molti geologi “duri e puri” che non ci si riconoscono, sia in Italia sia in molte altre regioni sismiche del globo. Su questo tema è utile mostrare una immagine tratta da Bonini et al. (2014), e che riguarda la sorgente del terremoto di L’Aquila del 2009:

Schermata 2022-05-04 alle 22.53.57

La figura mostra due sezioni geologiche attraverso la faglia che ha generato quel terremoto, indicata in rosso e ben delineata dalla sismicità. Nell’articolo si tentò di gerarchizzare tutte le faglie che hanno avuto un ruolo in quel forte terremoto: dalla principale, che è poi la sorgente sismogenetica, indicata come Categoria 1, a dei piani di sovrascorrimento antichi che hanno limitato la dimensione della faglia principale “confinandola” tra circa 3 e circa 10 km di profondità e limitando così la magnitudo del terremoto(Categoria 2), alle faglie di superficie generate ex-novo (Categoria 4) o riattivate passivamente in quanto pre-esistenti (Categoria 5) dal movimento della faglia profonda.
Come dicevo sopra e come la figura mostra chiaramente, ricostruire la geometria di una sorgente sismogenetica profonda a partire dei soli elementi fragili di superficie è come minimo fonte di gravi ambiguità, perché si rischia di mappare come elementi primari e indipendenti delle faglie che in effetti si muovono solo in corteo e come risposta al movimento di un elemento di ordine gerarchico superiore, e come massimo impossibile. Idealmente una sorgente sismogenetica viene ricostruita a partire da dati strumentali di varia natura, che possono essere poi confrontati con l’evidenza di terreno; ma per i terremoti di epoca pre-strumentale bisogna ricorrere a un mix ben strutturato di dati storici, geologici e geomorfologici, che illustrino una evoluzione estesa su un orizzonte relativamente lungo, per esempio un milione di anni, e di dati geofisici, se disponibili, come ad esempio le tante linee sismiche industriali realizzate in Italia nell’ambito della ricerca degli idrocarburi.
La conoscenza delle faglie attive e delle sorgenti sismogenetiche è utile per tante ragioni, ma la sua applicazione più ovvia è nella stima della pericolosità sismica. E anche qui per me la distinzione è semplice e diretta. Conoscere le sorgenti sismogenetiche aiuta in modo anche sostanziale a valutare la pericolosità sismica da scuotimento (ground shaking hazard), che include anche la pericolosità dovuta a frane e liquefazioni, ma dice poco sui possibili effetti geologici ‘fragili’ di superficie di un forte terremoto. Viceversa, conoscere la distribuzione delle faglie attive dice poco o nulla sulla sismogenesi, ma ci consente di valutare pericolosità sismica da fagliazione superficiale (surface faulting hazard), ovvero gli effetti ‘fragili’ appena citati, con implicazioni evidenti sul corretto uso del territorio nelle aree che si trovano al di sopra di una grande faglia sismogenetica; anche perché dallo scuotimento ci si può sempre difendere, almeno in linea di principio, mentre ben poco si può fare di fronte alla possibilità che le fondamenta di un’infrastruttura critica vengono brutalmente dislocate da una scarpata di faglia, anche di un metro o più.
Si tratta quindi di due strumenti non alternativi ma del tutto complementari, perché ciascuno porta informazioni che l’altro non è strutturalmente in grado di fornire; ed è per promuovere questo principio che io e i miei colleghi più vicini ci siamo molto adoperati negli ultimi anni. Anche la Protezione Civile nazionale è ben consapevole di questo dualismo, tanto da aver finanziato già da alcuni anni un progetto che coinvolge INGV e ISPRA e che punta a rendere culturalmente, scientificamente e informaticamente interoperabili i due database DISS e ITHACA; questo avvantaggerà molto tutti coloro che si avvicinano a questi due strumenti, non sempre cogliendone le differenze.

DISS è nato nel 2000. Puoi ripercorrere brevemente le tappe della sua evoluzione?

Nel luglio 2000 abbiamo presentato il prototipo del DISS, che veniva distribuito su un CD-ROM insieme a un software GIS in uso gratuito; ma in effetti la sperimentazione era iniziata nel 1996, addirittura nell’ambito di una tesi di laurea, collegata ad un progetto europeo in cui l’INGV (allora ancora ING) collaborava con l’ISMES di Bergamo. Nel luglio 2001, esattamente un anno dopo, abbiamo presentato la versione 2.0 del DISS, che era accompagnata da un volumetto degli Annali di Geofisica, da un poster e da un CD-ROM.
L’accoglienza fu entusiastica, ma si trattava ancora di uno strumento molto rudimentale, che conteneva solo quelle che oggi chiamiamo “sorgenti individuali”, ovvero delle rappresentazioni semplificate – ma pienamente tridimensionali – delle sorgenti di numerosi forti terremoti del passato e anche di qualche possibile terremoto futuro. In quella fase pionieristica giocavano un ruolo centrale le “sorgenti macrosismiche”, di cui dirò nel seguito. Negli anni successivi però si capì che bisognava dare più spazio alla Geologia, che era l’unico modo per anticipare i terremoti del futuro e rendere il DISS uno strumento prognostico realmente utilizzabile per analisi di pericolosità sismica, ovvero “completo”.

Fu così che nel 2005 vennero introdotte le “sorgenti composite”, che affiancavano informazione geologica a quella sismologica condensata nelle “sorgenti individuali”. Lo scopo era quello di identificare tutti i principali sistemi di faglia estesi, senza poterli però segmentare, come si dice nel nostro gergo, nelle singole porzioni di questi sistemi che generanno un singolo forte terremoto. La prospettiva dichiarata – ma forse solo con la pretesa ­– era quella di costruire un insieme completo rispetto a tutte le sorgenti sismogenetiche che esistono sul territorio italiano, così come i sismologi storici si sforzano di rendere i loro cataloghi completi almeno per un congruo numero di secoli.
Le “sorgenti composite” sono definite con minor dettaglio di quanto non lo siano le individuali, ma si spingono coraggiosamente in zone dove non abbiamo ancora visto grandi terremoto ma è legittimo ritenere se ne potranno verificare nel futuro.

Ne 2009 sono state poi introdotte le “sorgenti dibattute”, ovvero delle faglie attive proposte in letteratura ma che non riteniamo ancora mature per una trasformazione in sorgenti vere e proprie, e le “zone di subduzione”; non solo quella ionico-tirrenica, ma anche quella dell’Arco Egeo – un’area del Mediterraneo in grado di generare forti terremoti e maremoti che possono interessare anche l’Italia – e quella, in larga misura disattivata, che si estende al di sotto dell’Appennino centrale e settentrionale.

In oltre 20 anni di storia il DISS è cresciuto molto (invito tutti a vedere la piccola ma eloquente animazione in cima a questa pagina di sintesi e a verificare l’evoluzione delle diverse versioni), anche attraverso la pubblicazione di sintesi regionali a cura degli autori del DISS e grazie all’avvio di collaborazioni con altri istituti di ricerca, italiani e stranieri. Abbiamo esteso il numero delle sorgenti composite, che sono triplicate, passando da 65 nel 2005 a 197 nel 2021; il numero dei riferimenti bibliografici, più che raddoppiato nello stesso intervallo di tempo, da 1.720 a 4.057, e il numero delle immagini associate alla descrizioni delle sorgenti, da 550 a 1.192; tutte le novità sono state attentamente registrate in un file di “Accompanying Notes” e il contenuto di ogni versione è stato “congelato” con l’assegnazione di un DOI (tutte le versioni sono scaricabili on-line).

Dal 2000 a oggi sono “solo” aumentate le conoscenze o sono intervenuti anche cambiamenti di punti di vista?

Questa è una domanda a cui mi fa molto piacere rispondere perché contiene l’essenza dello sforzo fatto in questi ultimi 25 anni. Premetto che il DISS non è un database nel senso stretto, ovvero uno strumento che si limita ad accumulare e rappresentare un certo set di conoscenze; al contrario, è uno strumento i cui contenuti sono sempre approvati e sottoscritti dai componenti del gruppo di lavoro, i quali in qualche modo “ci mettono la faccia”. Qualunque scelta, qualunque affermazione è riconducibile a uno o più autori, i quali hanno proposto e portato all’attenzione di tutto il gruppo di lavoro  ipotesi scientifiche basate su proprie convinzioni o sull’analisi della letteratura. Ciò detto, si, l’orizzonte è molto cambiato rispetto ai primordi. Per sintetizzare al massimo, il DISS è partito come uno strumento basato da un lato su pochi forti terremoti del XX secolo, studiati o reinterpretati a partire da dati sismologici, geofisici, geodetici e storici, e dall’altro su un gran numero di terremoti storici, analizzati con la tecnica Boxer, non a caso pubblicata nel 1999. Boxer consentiva di estrarre una pseudo-sorgente sismica da un quadro macrosismico, purché ragionevolmente denso e ben distribuito geograficamente intorno all’area epicentrale. Questo modo di procedere era l’applicazione pedissequa del principio che ho enunciato, e cioè del fatto che è necessario partire dai terremoti e poi marciare a ritroso per studiare le faglie che li hanno generati; ma era anche il modo migliore per non impelagarsi nelle difficoltà intrinseche nella ricerca delle faglie attive, una volta stabilito che forse il 50% delle sorgenti dei grandi terremoti sono cieche, e al massimo causano in superficie un quadro deformativo che è difficile ricondurre alla sorgente primaria.
Con l’uscita della versione 3.0, nel 2005, c’è stata una prima rivoluzione. Abbiamo deciso di uscire da una fase pionieristica in cui era inevitabile utilizzare in maniera preponderante il dato storico e si è cercato di aprire una nuova fase in cui invece diventasse dominante la tipologia di dato che ci era più congeniale, ovvero quello geologico-sismotettonico. Come già accennato, nacquero le “sorgenti composite” e uscirono di scena  le sorgenti basate esclusivamente su informazioni macrosismiche, anche se il dato storico non spariva del tutto ma continuava essere uno degli elementi principali nella costruzione delle sorgenti, particolarmente quelli individuali; tuttavia, a differenza di quello che avveniva in precedenza, tutte le sorgenti riflettevano in misura variabile un’informazione geologica, geofisica, e nei casi più favorevoli, sismometrica e geodetica.
Questo cambio di passo è stato reso obbligato dalla necessità – o comunque dal desiderio – di iniziare a mappare anche sorgenti sismogenetiche in mare, sfruttando la grande mole di dati geofisici disponibili per i bacini italiani. Difficilmente queste sorgenti, che includono anche l’area di subduzione ionico-tirrenica, possono essere caratterizzate con riferimento alla sismicità, sia storica che strumentale, e solo occasionalmente sono disponibili evidenze dirette di fagliazione sul fondo marino.
Tra i cambiamenti di filosofia, per così dire, c’è stata anche la decisione di migliorare l’accessibilità dei dati, in un processo che ha seguito e sfruttato la rapida evoluzione degli strumenti GIS, e negli ultimi 15 anni anche web-GIS. La versione 3.3.0 è interoperabile con diverse banche-dati pertinenti, quali il CPTI-DBMI, il CFTI, la banca-dati strumentale dell’INGV denominata ISIDe, oltre che, come già detto, con ITHACA. La base geografica può essere scelta in un ventaglio di proposte e possono essere aggiunti i confini amministrativi ISTAT e misurate distanze, come se ci si trovasse in un vero GIS da desktop. È quindi possibile realizzare immagini di grande ricchezza, caratterizzando il rapporto tra sorgenti sismogenetiche, sismicità del passato e sismicità strumentale. Va infine ricordata la possibilità di consultare il DISS attraverso Google Earth, con tutte le opportunità che a sua volta questa piattaforma consente.
La circolazione dei dati proposti da DISS è stata resa più facile dalla possibilità di scaricarli in vari formati di scambio e dal fatto che gli stessi dati oggi si interfacciano in modo diretto con OpenQuake, il software per il calcolo della pericolosità sismica di base che si sta rapidamente imponendo a scala globale. La sfida più recente riguarda la possibilità di rendere il pubblico degli utenti del DISS più partecipe dell’evoluzione di questa banca-dati, anche attraverso una presenza capillare sui social networks; questo sia per renderne l’uso più diffuso, sia per sollecitare possibili contributi esterni utili a migliorare la definizione delle sorgenti esistenti o a introdurne delle nuove.

Quali sono gli utilizzi attuali di DISS?

Noi monitoriamo costantemente gli accessi al DISS e riceviamo diverse sollecitazioni dagli utenti, ma è arduo capire chi c’è dietro ogni indirizzo IP; al massimo possiamo fare delle inferenze. Sappiamo dai record bibliometrici che il DISS viene consultato e attivamente utilizzato per scopi di ricerca, prevalentemente da colleghi italiani ma anche da studiosi del resto del mondo. Vediamo dati e immagini tratti dal DISS in numerose relazioni tecniche, realizzate dalle amministrazioni o da singoli professionisti, ad esempio nel contesto di attività di microzonazione a diversi livelli o di attività di rivalutazione della pericolosità sismica di siti di specifico interesse, come le reti di trasporto e le dighe.
C’è poi l’uso più “nobile”, che è particolarmente delicato perché impegna la banca-dati nella sua interezza: mi riferisco alla elaborazione di modelli di pericolosità a scala regionale o nazionale, come nel caso del recente modello MPS19. Il DISS entra in questi modelli direttamente, attraverso le “sorgenti composite” e relativi ratei di attività (ottenuti dagli slip rates), ma anche in altri modi meno diretti, come nella definizione della magnitudo massima attesa nelle diverse aree, nella delineazione di zone a sismicità omogenea, o nella definizione di macroaree in cui effettuare scelte operative diverse  – ad esempio nella scelta delle relazioni di attenuazione più adatte a ciascuna area – e infine nella definizione delle aree da considerare di near-field.

L’idea di DISS è stata estesa all’Europa?

Certamente. Un primissimo tentativo data addirittura al periodo 1998-2000, quando le esperienze in corso in ambito DISS vennero estese al resto dell’Europa nel quadro del progetto comunitario Faust, di cui conserviamo gelosamente in vita il sito originario.
Tra il 2009 e il 2013 il DISS è stato adottato come una sorta di template per la costruzione di EDSF13 (oggi aggiornato in EFSM20) dal progetto comunitario SHARE , che aveva come obiettivo primario la realizzazione di un nuovo modello di pericolosità a scala europea. Le “sorgenti composite” sono state scelte come elemento di base di una mappatura da estendere a tutto il continente europeo, o almeno della sua porzione in cui esistono faglie in grado di generare forti terremoti. In quegli stessi anni era attivo il progetto EMME, un omologo di SHARE che si proponeva di realizzare un modello di pericolosità per la Turchia e il Medio Oriente, e il modello EDSF venne così armonizzato con l’imponente raccolta di faglie sismogenetiche che caratterizza quei territori.
ll modello DISS è stato poi mutuato – in alcuni casi con il relativo software – da alcuni altri singoli paesi europei. Citerò qui solo il caso del GreDaSS (Greek Database of Seismogenic Sources), realizzato dalle università di Ferrara e di Salonicco.

Esistono realizzazioni simili in altre parti del mondo?

Esistono alcune decine di compilazioni di “faglie attive”, “faglie sismogenetiche”, “lineamenti” e tutte le categorie intermedie; molte sono censite dal progetto GEM-Global Active Faults, che non a caso nelle sue fasi iniziali prese ad esempio proprio il DISS-EDSF (si veda il report del progetto GEM-Faulted Earth). Ma a onor del vero – e mi si perdoni l’immodestia – quasi nessuna di queste compilazioni offre tutta la ricchezza di informazione immagazzinata dal DISS, con la sola eccezione della California: una ricchezza dovuta soprattutto al fatto che l’Italia possiede una storia sismica ricchissima, una comunità delle Scienze della Terra molto attiva, e molti dati di esplorazione geofisica, ed è sede di terremoti che vengono registrati e studiati con grande attenzione. Anche altri paesi godono di queste prerogative, ma per ragioni che non so spiegarmi i loro modelli della sismogenesi basati su faglie attive sono ancora molto essenziali: valga per tutti l’esempio del Gia­ppone, dove ancora si fatica a trattare in modo naturale persino la terza dimensione delle faglie, quella verticale: cruciale per la pericolosità sismica, ma decisamente ostica per il geologo tradizionale.

È possibile valutare la “completezza” di DISS?

Temo che la risposta sia negativa, o comunque non semplice. È un fatto che l’introduzione delle “sorgenti composite” nel 2005 servisse proprio a “rincorrere” la completezza, ma è arduo dire a che punto siamo oggi. Un esercizio utile può essere quello di confrontare gli earthquake rupture forecasts (ERFs) proposti da Visini et al. (2021) nel quadro della elaborazione della MPS19, e ragionare sulle differenze tra il modello “DISS based” (MF1) e gli altri modelli non basati su sorgenti sismogenetiche (spero che qualcuno elabori queste differenze e ci scriva sopra un articolo, che sarebbe utilissimo). Un giorno lontano potremmo valutare questa completezza attraverso dati GPS, come hanno fatto Carafa et al. (2020) per una porzione dell’Appennino centrale, in via sperimentale.

What next?

What next…. Dal punto di vista dei contenuti è relativamente facile ipotizzare che continuerà incessante la ricerca di nuovi dati e di nuove sorgenti, ma che la struttura della banca-dati resterà abbastanza stabile per qualche anno almeno. Mi è più difficile rispondere per ciò che riguarda gli utilizzi del DISS: le possibili applicazioni sono numerose, ma ho spesso la sensazione che siamo stati più veloci noi a crearlo, nonostante che ormai siano passati esattamente 25 anni dai primi esperimenti, che non il mondo dei possibili utenti a sfruttarlo.

Normalmente in un modello di pericolosità a scala nazionale o regionale entrano tre set di dati di ingresso, che idealmente possono essere usati per costruire modelli della sismogenesi in teoria indipendenti, ma in pratica variamente intrecciati tra loro, come ho raccontato finora. Li descriverò brevemente in ordine crescente di complessità:

  • modelli a sismicità diffusa (smoothed seismicity), che si basano esclusivamente sui terremoti già accaduti, talora con piccoli correttivi di natura sismotettonica, e che letteralmente “spalmano” la sismicità già vista su zone più ampie. La produttività sismica è quindi strettamente proporzionale a quello che arriva dal catalogo sismico utilizzato;
  • modelli di zonazione sismogenetica, nei quali il territorio è suddiviso in aree indipendenti all’interno di ciascuna delle quali si assume che la sismicità abbia caratteristiche costanti, indipendentemente dal punto esatto che si considera, inclusa la produttività sismica; quello che si ottiene è un patchwork di zone più o meno grandi all’interno delle quali la sismicità è omogenea;
  • modelli di sorgente sismogenetica, ovvero modelli quali il DISS, nei quali la delineazione delle sorgenti è guidata anche dalla conoscenza dei forti terremoti del passato, ma la produttività sismica è calcolata in modo indipendente sulla base delle stime dei ratei di dislocazione delle faglie (gli slip rates). Quello che si ottiene è un andamento delle sismicità che segue fedelmente le strutture sismogenetiche riconosciute.

Il modello MF1, l’unico ad essere stato derivato esclusivamente dalle sorgenti del DISS, offre evidentemente una migliore risoluzione spaziale, come fosse un quadro disegnato con un pennello più sottile; consentendo da un lato di determinare con maggior accuratezza quale sarà lo scuotimento atteso al di sopra delle sorgenti, ovvero nel cosiddetto near-field (al netto di altri effetti di sorgente come la direttività e di eventuali e onnipresenti effetti di sito, ovviamente), dall’altro di non ‘portare pericolosità’ in zone in cui l’evidenza geologica, corroborata da quella storica e strumentale, non mostra la presenza di simili sorgenti sismogenetiche. Il DISS offre questa informazione: se non dovunque, in molti luoghi dell’Italia.

L’immagine qui di seguito (Fig. 3 di Meletti et al., 2021) mostra che da ognuno di questi modelli è possibile calcolare dei ratei di sismicità ai nodi di una griglia regolare e con un passo adeguato a non creare singolarità indesiderate (in genere qualche km).

Schermata 2022-05-04 alle 22.59.20

Le due immagini che seguono mostrano la differenza tra il modello di pericolosità sismica elaborato per la Turchia nel 1996 (sopra), basato essenzialmente su un modello di zonazione sismogenetica tradizionale, e il modello pubblicato nel 2018 (sotto), che fa tesoro delle conoscenze sulle sorgenti sismogenetiche raccolte grazie ai già citati progetti SHARE e EMME. Si percepisce distintamente la differenza di potere risolvente dei due modelli, particolarmente evidente nel settore occidentale del paese; e si percepisce anche l’aumento della ‘dinamica’ del modello del 2018, che mostra valori di accelerazioni alti a cavallo delle sorgenti sismogenetiche e valori bassi i quasi nulli lontano da esse.

Schermata 2022-05-04 alle 22.57.49

Da: https://www.researchgate.net/publication/270704802_Turkey%27s_grand_challenge_Disaster-proof_building_inventory_within_20_years/figures?lo=1

Schermata 2022-05-04 alle 22.57.57

Da: https://www.researchgate.net/profile/Abide-Asikoglu/publication/334094188/figure/fig1/AS:774777023262721@1561732645307/Seismic-hazard-map-of-Turkey-4.png

Fino ad oggi in Italia non siamo riusciti a cogliere del tutto questa opportunità, che potrebbe contribuire a rendere più accurato il modello di pericolosità sismica. I motivi veri non mi sono chiari, anche se qualcuno ritiene che DISS non sia sufficientemente maturo a questo scopo, senza peraltro spiegarlo in modo opportuno.

_______________

Chiudo ringraziandoti per l’opportunità che mi hai dato di riflettere e scrivere su questi 25 anni di storia, che peraltro ci hanno visto sempre ragionare in buona sintonia (anche se inizialmente eravamo su due fronti opposti, quali sono stati ING e GNDT fino al 2001, anno di nascita dell’INGV). Ringrazio anche tutti coloro che avranno avuto la pazienza di arrivare a leggere questi pensieri fino in fondo.

Il ruolo dei tecnici nell’emergenza post-sisma: l’importanza della cultura della prevenzione sismica nella formazione scolastica e universitaria (di Michele Galizia)

Riceviamo e pubblichiamo volentieri questo contributo sul tema delle verifiche degli edifici a seguito di un terremoto

Michele Galizia si è laureato in ingegneria civile edile a Padova nel 1980. E’ stato allievo del prof. Alberto Bernardini, il coordinatore del Gruppo di lavoro, costituito dal Gruppo Nazionale per la Difesa dai Terremoti del CNR e dal Servizio Sismico Nazionale del Dipartimento della Protezione Civile, che ha redatto la prima scheda AeDES (Agibilità e Danno Emergenza Sismica) dopo 3 anni di lavoro nel 2000. Ha esercitato la libera professione a Padova e a Venezia.
Come ingegnere volontario ha effettuato le verifiche degli edifici colpiti dal sisma in Irpinia nel 1980, in Abruzzo nel 2009, in Emilia nel 2012 e in Centro Italia nel 2016 e 2017.
Dalla primavera 2021 è in pensione.

Il rischio sismico in Italia è elevato e diffuso.
I recenti e devastanti terremoti che hanno colpito l’Abruzzo nel 2009, l’Emilia nel 2012 e il Centro Italia nel 2016 hanno causato danni elevati a territori molto vasti, con decine di Comuni colpiti, centinaia di morti e decine di migliaia di cittadini coinvolti.
Sono ingegnere civile edile e ho fatto le verifiche degli edifici colpiti dal sisma in Irpinia nel 1980, in Abruzzo nel 2009, in Emilia nel 2012 e in Centro Italia nel 2016 e nel 2017.
Durante le verifiche, a cui assistevano in sicurezza i proprietari degli edifici, ho visto nei loro volti e nelle loro parole la sofferenza e la paura causate dal terremoto. Queste persone alloggiavano temporaneamente da parenti, o nella seconda casa lontana dalla zona colpita, o in albergo oppure in tenda. Dai loro sguardi e dalle loro parole ho compreso che lasciare la propria abitazione colpita dal terremoto e iniziare una altra vita, dove si dipende in tutto e per tutto dagli altri, è una delle peggiori disgrazie che possano capitare.

Allora il compito di noi tecnici era quello di fare prima possibile la verifica dell’immobile, mediante la compilazione della scheda AeDES (Agibilità e Danno Emergenza Sismica, https://terremotiegrandirischi.com/wp-content/uploads/2022/03/scheda-aedes.pdf), per stabilire se era agibile e quindi permettere alle persone di tornare alle loro abitazioni e a una vita normale, oppure inagibile o agibile parzialmente per attivare le procedure dello Stato per ridare una abitazione a questi nostri sfortunati connazionali. In sintesi: fare presto e fare bene. E’ importante rilevare che si tratta di un compito di grande responsabilità umana e professionale, perché “La valutazione di agibilità in emergenza post-sismica è una valutazione temporanea e speditiva – vale a dire formulata sulla base di un giudizio esperto e condotta in tempi limitati, in base alla semplice analisi visiva ed alla raccolta di informazioni facilmente accessibili – volta a stabilire se, in presenza di una crisi sismica in atto, gli edifici colpiti dal terremoto possano essere utilizzati restando ragionevolmente protetta la vita umana. L’esito Agibile va scelto, quindi, se si soddisfa pienamente la precedente definizione”. In media il sopralluogo con esame visivo esterno e interno dell’edificio e la compilazione della scheda AeDES (3 pagine + 1 di istruzioni) impegnavano la squadra composta da 2 tecnici per circa 60 minuti.

In Emilia, colpita il 20 e il 29 maggio 2012, sono stati impegnati circa 1.000 tecnici volontari in turni settimanali con oltre 90.000 verifiche AeDES che hanno permesso in 10 settimane, dall’inizio di giugno ai primi di agosto 2012, di verificare tutti gli edifici colpiti dal sisma.
Dopo questa emergenza sismica nazionale, Il Dipartimento Nazionale di Protezione Civile, con il DPCM dell’8 luglio 2014, ha stabilito che le verifiche di agibilità (compilazione della scheda AeDES) sia compito di tecnici appositamente formati con corsi specifici a livello regionale e organizzati nel Nucleo Tecnico Nazionale.

Il DPCM nelle premesse dice: “Considerato che durante la gestione dell’emergenza post-sismica, nell’ambito delle attività di assistenza alla popolazione, è necessario effettuare speditamente il rilievo del danno e la valutazione di agibilità delle costruzioni, finalizzati al rientro tempestivo della popolazione nelle proprie abitazioni ed alla salvaguardia della pubblica incolumità, con l’obiettivo di ridurre i disagi dei cittadini e gli ulteriori possibili danni; Considerata l’esigenza, maturata in seguito agli eventi sismici degli ultimi anni, di migliorare il sistema di gestione delle operazioni
tecniche di rilievo del danno e valutazione dell’agibilità degli edifici nella fase di emergenza post-sisma, mediante la creazione di un sistema strutturato che preveda l’istituzione di un elenco di tecnici appositamente formati;…”

La prima considerazione che mi venne in mente allora fu che mancava una disposizione transitoria, da utilizzare in una emergenza sismica di rilievo nazionale come l’Emilia. Da tener presente che trattandosi di tecnici volontari, che potrebbero essere non disponibili per vari motivi (lavorativi, familiari, personali) è necessario avere una potenziale disponibilità almeno doppia di quella necessaria, quindi 2.000 – 2.500 tecnici, oltre qualche centinaio di tecnici di supporto come Data Entry. Ma sarebbero stati necessari circa 6 anni, al ritmo di 5-6 corsi con 60 partecipanti all’anno.

Il 24 agosto e il 30 ottobre 2016 c’è stato il terremoto in Italia Centrale. Il Dipartimento Nazionale della Protezione Civile si è trovato con un numero insufficiente di tecnici abilitati AeDES. Nella mia Regione Veneto c’erano in totale 44 ingegneri abilitati AeDES. E coloro che non avevano potuto partecipare al corso AeDES per lo scarso numero di posti a disposizione o per impegni di lavoro, non sono stati utilizzati nella prima fase dell’emergenza. Ma le verifiche da fare erano circa 200.000 e bisognava trovare una soluzione. Mi sarei aspettato una norma transitoria che permettesse di utilizzare i tecnici che avevano fatto le verifiche AeDES in Emilia nel 2012 e in Abruzzo nel 2009.

La soluzione è stata di approvare rapidamente una nuova scheda, la FAST (Fabbricati Agibilità Sintetica post-Terremoto, ALL. 2), che poteva essere compilata da tecnici che dichiaravano ”di aver frequentato il corso AeDES oppure di aver operato come verificatore per precedenti esperienze sismiche oppure di essere esperto in ambito strutturale senza esperienza sul campo”. Da tener presente che la scheda FAST (1 pagina + 1 di istruzioni) è una sintesi della scheda AeDES con gli stessi criteri di valutazione:

” Esito FAST Finale: va scelta una sola delle opzioni riportate. Il giudizio va emesso tenendo conto che: la valutazione di agibilità in emergenza post-sismica è una valutazione temporanea e speditiva – vale a dire formulata sulla base di un giudizio esperto e condotta in tempi limitati, in base alla semplice analisi visiva ed alla raccolta di informazioni facilmente accessibili – volta a stabilire se, in presenza di una crisi sismica in atto, gli edifici colpiti dal terremoto possano essere utilizzati restando ragionevolmente protetta la vita umana. Il giudizio «Agibile» significa che a seguito di una scossa successiva, di intensità non superiore a quella per cui è richiesta la verifica, sia ragionevole supporre che non ne derivi un incremento significativo del livello di danneggiamento generale. L’esito «Edificio agibile» va scelto, quindi, se si soddisfa pienamente la precedente definizione. Invece, se le condizioni di rischio derivanti dallo stato di danneggiamento dello stesso edificio non sono considerabili basse, si opterà per l’esito «Edificio non utilizzabile».“

L’esito ‘edificio non utilizzabile’ comportava che poi l’edificio doveva ulteriormente essere verificato dai tecnici AeDES, che ne accertavano l’inagibilità totale o parziale e quindi dare inizio all’iter per la ricostruzione da parte dello Stato. In media il sopralluogo con esame visivo esterno e interno dell’edificio e la compilazione della scheda FAST impegnava la squadra composta da 2 tecnici per circa 40 minuti. Quindi centinaia di tecnici volontari, me compreso, sono state impegnate per le verifiche FAST. Se la verifica con la scheda FAST dava esito di edificio agibile il cittadino rientrava a casa e la pratica era conclusa. Se la verifica FAST dava esito di edificio non utilizzabile il cittadino restava nella soluzione abitativa provvisoria (parenti, seconda casa o albergo sulla costa marchigiana) e doveva attendere laverifica dei tecnici AeDES, a seguito della quale sarebbe iniziato l’iter della ricostruzione da parte dello Stato.
Quindi allungamento dei tempi del ritorno alla normalità e i cittadini amareggiati per il fatto che la loro abitazione non veniva verificata dai tecnici AEDES, ma dai tecnici FAST. Ho fatto 3 turni settimanali di verifica FAST in Centro Italia (dicembre 2016 nelle Marche, febbraio 2017 in Umbria e maggio 2017 nelle Marche) e in ogni turno di 30 tecnici volontari c’erano 4-6 tecnici AeDES e 24-26 tecnici FAST.
E ogni collega AeDES mi confermava che nella sua regione i tecnici AeDES erano poche decine.

La necessità di aumentare le verifiche AeDES è stata risolta in questo modo: il cittadino si doveva rivolgere ad un tecnico di sua fiducia, per la compilazione della scheda AeDES e la presentazione dell’istanza per la ricostruzione. Il costo del tecnico veniva aggiunto nelle spese rimborsate dallo Stato. Da notare che prima in tutti i terremoti tutti gli interventi di verifica di agibilità sono stati fatti da tutti i tecnici a titolo volontario e gratuito. Tanti di noi hanno anche rinunciato al rimborso delle spese dell’auto e del vitto. Da notare anche che è venuta a mancare la terzietà del tecnico, perché ai tecnici AeDES è fatto divieto, per ovvi motivi, di lavorare nella provincia dove hanno fatto le verifiche.
Questa situazione di mancanza di tecnici AeDES è continuata negli anni successivi.
Recentemente, a seguito di una circolare dell’11 novembre 2021 della STN (Struttura Tecnica Nazionale, cioè l’insieme dei Consigli Nazionali degli ingegneri, degli architetti, dei geologi, dei geometri e dei periti agrari) la FOIV (Federazione Ordine Ingegneri del Veneto) ha comunicato agli Ordini provinciali degli ingegneri del Veneto l’attivazione di un corso AeDES di 60 ore per 60 partecipanti nel mese di febbraio 2022.

Siamo ancora lontani dalla lettera e dallo spirito del DPCM dell’8 luglio 2014 e dalle Indicazioni Operative del Dipartimento Nazionale della Protezione Civile del 29 ottobre 2020:
“Le esperienze anche recenti di gestione delle emergenze sismiche su base nazionale e regionale ha confermato che l’esigenza prioritaria è quella di poter disporre di numeri elevati di tecnici formati per il rilievo con schede Aedes.”
La mia modesta opinione è che sia necessario che la cultura della prevenzione sismica e la compilazione della scheda AeDES siano parte integrante dei programmi delle facoltà universitarie di ingegneria civile, di architettura, di geologia, e dagli istituti superiori per geometri e periti agrari. In tal modo in emergenza sismica ci sarebbe il numero adeguato di tecnici AeDES per la verifica in tempi rapidi di tutti gli edifici colpiti dal sisma, in modo da far rientrare la popolazione nelle proprie abitazioni in caso di agibilità e, in caso di inagibilità, di attivare rapidamente l’iter per la ricostruzione.

80 anni fa nasceva Enzo Boschi. Ricordi di Alessandra Stefàno, Dante De Paz intervistato da Patrizia Feletig e Massimiliano Stucchi

Schermata 2022-02-20 alle 22.47.37

Sono pochi, se non pochissimi, i tentativi di riassumere in poche pagine la vita, la carriera, le peculiarità e le intuizioni di Enzo Boschi. Meglio immaginarlo come una sorta di “apeirogon”, un poligono con un numero illimitato di lati, che da lontano sembra rotondo ma non lo è (Boschi era tutto fuorché rotondo). Per questo motivo questo blog gli ha dedicato un mosaico di ricordi

https://terremotiegrandirischi.com/2020/12/22/un-mosaico-per-enzo-boschi-a-cura-di-alcuni-colleghi-e-amici/

e ora gliene dedica altri tre.


Alessandra Stefàno
Il primo impatto con il prof. Boschi? Un po’ di soggezione nei suoi confronti, ovviamente a me già noto come uno dei massimi esperti di sismologia e vulcanologia. Appariva un po’ burbero, ma a me suscitò simpatia.
Sempre molto serio, ma anche molto turbato perché, come tutti gli imputati di quel processo, non riusciva a capacitarsi delle accuse che gli venivano contestate. Dialogava un po’ con tutti, cercava il contatto con tutti, rivendicando le proprie ragioni e ribadendo che lui, alla famosa riunione del 30 marzo, lo aveva detto a chiare lettere al Sindaco: prima o poi ci sarà un forte terremoto! A volte durante le udienze non riusciva a trattenere il disappunto e borbottava, sbuffando spesso, al punto da essere ‘ripreso’, seppur bonariamente, dal giudice.
Un episodio particolare, che non potrò mai dimenticare, furono le sue lacrime alla fine del processo d’appello. La Corte lo aveva, giustamente, assolto. Dal fondo dell’aula una parte del pubblico iniziò ad inveire contro la Corte, urlando la disapprovazione per il ribaltamento della sentenza di primo grado. Alcuni carabinieri ci accompagnarono fuori dall’aula in un piccolo corridoio, in attesa che la situazione si tranquillizzasse un po’. Fu lì che lo vidi piangere e mi abbracciò commosso e sollevato, finalmente. Fu l’ultima volta che lo vidi.
Per me è stato un onore conoscerlo. Mi spiace che abbia molto sofferto per quel processo.


Dante De Paz, intervistato da Patrizia Feletig
Quando Enzo Boschi entrava in negozio era una persona completamente diversa dal personaggio pubblico”, ricorda Dante De Paz, proprietario del negozio di abbigliamento maschile più iconico di Bologna. Anni di frequentazione dei felpati interni della boutique nella centrale via Ugo Bassi, e questo cliente esigente in fatto di gusti ma simpatico e spendaccione, diventa un amico del titolare suo coetaneo.
“Ci frequentava quasi fossimo un club. Veniva a scegliere stoffe per un abito sartoriale che andava ad arricchire la sua collezione di oltre 150 capi. Gessati, flanelle, il prof Boschi era molto classico nello stile con una spiccata inclinazione per i tessuti british; debolezza forse contratta durante la sua permanenza all’Università di Cambridge. Aveva imparato a riconoscere ad occhio sicuro le stoffe. Era preparatissimo sui fabbricanti. Pretendeva forniture da Coopers o da Hardy Minnis. Oppure entrava e mi chiedeva imperioso un metraggio di Seersucker ma solo se è della tessitura Solbiati” racconta De Paz.
Quando gli chiedevo dove trovasse il tempo per imparare queste cose, rispondeva che gli capitava di sfogliare le mazzette di tessuti dal suo sarto. Nell’atelier di Caraceni, dietro via Veneto,  tra i ritratti autografati dei grandi e potenti del mondo c’è anche la foto del prof. sorridente e scanzonato.

Sempre con la battuta pronta, da noi si divertiva lasciando sfogando il suo modo molto schietto di essere aretino. Interpellava i commessi con uno faceto “Bischero” ma trattava tutti sempre con rispetto e signorilità” riconosce il signor Dante. “Con lui si facevano grandi chiacchierate su tutto, tranne sui terremoti. Viaggi, politica, film e libri e a volte qualche confidenza più intima. Si capiva che per Enzo era liberatorio venire qui”.
Diventava una pausa spensierata quando era all’apice del successo e dei riconoscimenti. E poi divenne un approdo rassicurante quando, nel 2009 dopo il terremoto dell’Aquila, all’improvviso onori e incarichi gli furono strappati via, a seguito dell’accusa di omicidio colposo che fece insorgere e schierarsi a suo fianco gli scienziati di mezzo mondo.
“Nel penultimo inverno s’incapricciò di una pezza di British Warm, un doppio tessuto da 1.000 grammi al metro. Un articolo praticamente invendibile in Italia. Si fece confezionare un cappotto e le rare volte che la meteo gli concesse di indossarlo, scherzava sostenendo che era come marciare con lo zaino zavorrato di un alpino”.

Indossare i panni (letteralmente!) del geofisico che ha conquistato l’Olimpo dei sismologi non è inverosimile. “Dopo la sua scomparsa, sua moglie venne ad offrirmi la collezione di abiti di Enzo. Ora sono in vendita nell’outlet e catturano sempre l’attenzione. Ma le misure sono difficilmente compatibili. Enzo era molto alto e al seguito di un incidente giovanile in moto, che gli rese inservibile il braccio destro, usava particolari imbottiture sulla spalla.”


Massimiliano Stucchi
In quel negozio di Bologna ebbi modo di entrare anche io. Boschi portava spesso giacche di tonalità verde e io mi lamentavo con lui di non riuscire a trovarne. Un giorno ci incontrammo a Bologna e con una scusa mi portò al negozio e mi fece scegliere un tessuto. “Lovat” mi disse, “tienilo a mente”. Lovat Harris Tweed. Mi presero le misure e dopo qualche settimana un amico mi portò a Milano una giacca che conservo religiosamente e uso per le ormai poche grandi occasioni.
Non la potei indossare quando riuscì a farci ricevere con un gruppo di colleghi dal Presidente Napolitano al Quirinale, il 9 settembre 2010. Era prescritto un abito scuro. Non era la prima volta che Boschi veniva ricevuto ma quella volta volle farsi accompagnare da una delegazione dell’INGV. Boschi era già stato incriminato per gli eventi dell’Aquila, e Giulio Selvaggi con lui; scherzò con Napolitano che gli garantì che in caso di condanna sarebbe andato a trovarlo in carcere o quanto meno gli avrebbe fatto avere le arance. Mi aveva suggerito di portare con me una copia della Gazzetta Ufficiale del 2006 che aveva reso Legge dello Stato la mappa di pericolosità sismica, che definiva “uno dei lavori più importanti dell’INGV”. A me sembrava brutto portare la Gazzetta Ufficiale proprio a colui che firmava leggi e decreti che la popolavano; Napolitano invece apprezzò e si ricordò che era stata l’ultima OPCM del Governo Berlusconi.

PHOTO-2022-02-21-10-09-50

Non sono cresciuto nella scuola di Boschi e nemmeno nell’ING. Pure ci hanno sempre legato rispetto e simpatia, dal primo incontro ad Ancona nel 1973 a tutti gli episodi in cui, magari da parti separate e anche in conflitto, abbiamo collaborato a mettere in posto una serie di mattoni di quello che oggi è l’INGV. Ho fatto parte per anni dell’area “avversaria” (CNR, GNDT) ma riconosceva la mia indipendenza di giudizio. Aveva apprezzato che fossi stato uno dei pochi di quell’area a esprimergli solidarietà quando un noto giornalista televisivo aveva accennato alla sua persona sottolineando in malo modo la sua menomazione fisica.
Nel gennaio 2013 organizzai un evento scientifico per “festeggiare” il mio pensionamento (naturalmente indossavo la giacca di Lovat).

Schermata 2022-02-23 alle 10.34.11Venne a Milano e vi pernottò; era già in pensione. Durante l’evento, che coincise per puro caso con la giornata in cui vennero pubblicate le motivazioni della sentenza di condanna di primo grado del processo dell’Aquila, fece un paio di numeri come suo solito. Poi lo chiamai con me per il saluto finale, ricordandogli che aveva suggerito lui stesso che un giorno saremmo andati insieme al centro del campo a salutare il pubblico come fanno i calciatori quando si ritirano. Non se lo aspettava, forse non si sentiva pronto. Ma lo facemmo insieme e mi abbracciò forte, commosso.

Schermata 2022-02-26 alle 23.39.20

Questo post è stato rilanciato da Alessandro Amato qui https://www.facebook.com/permalink.php?story_fbid=1518235118573809&id=100011620057542

L’anniversariodella nascita di Enzo Boschi è stato ricordato anche dagli amici de “Il Foglietto”

https://ilfoglietto.it/il-foglietto/6757-enzo-boschi-oggi-avrebbe-compiuto-80-anni-un-ricordo-del-foglietto

 

“Le tre velocità”: la cultura del terremoto in Abruzzo. Colloquio con Fabrizio Galadini

Dopo aver presentato in questo blog, lo scorso anno, il volume “Tracce ondulanti di terremoto” di Fabrizio Galadini (https://terremotiegrandirischi.com/2021/03/15/tracce-ondulanti-di-terremoto-colloquio-con-fabrizio-galadini/, è ora il turno del recentissimo, fresco di stampa, “Le tre velocità” (https://www.alepheditrice.it/prodotto/le-tre-velocita/) del medesimo autore, con il quale parliamo dei contenuti.

Copertina

Fabrizio Galadini è dirigente di ricerca dell’Istituto nazionale di geofisica e vulcanologia ed è stato ricercatore del Cnr presso l’Istituto di geologia ambientale e geoingegneria. Insegna Geologia per il rischio sismico all’Università Roma Tre. Svolge ricerche geologiche, geomorfologiche, archeosismologiche e storiche sulle faglie attive, sugli effetti dei terremoti del passato e sulle risposte antropiche alle criticità ambientali.

Questo tuo libro viene a valle di altri (recentemente, Tracce ondulanti di terremoto e la curatela di Marsica 1915-L’Aquila 2009. Un secolo di ricostruzioni) e, come affermi nella introduzione, rappresenta la sintesi della personale esperienza in rapporto a un concetto generale di cultura del terremoto. Ci puoi spiegare?

Il libro nasce da riflessioni su attività e personali esperienze di comunicazione della scienza negli anni seguenti al sisma aquilano del 2009. Mi riferisco, quindi, al secondo decennio di questo secolo che, in Abruzzo, è stato anche scandito dalle numerose manifestazioni legate al centenario del terremoto del 1915 e al decennale, appunto, di quello aquilano; in mezzo, la sequenza sismica del 2016-2017. Fino al 2009, svolgendo l’attività di ricerca nel campo delle Scienze della Terra, per me “cultura del terremoto” aveva senso quasi esclusivamente in riferimento al fenomeno fisico, alle sue evidenze geologiche, ai suoi effetti sul costruito, ai danni del passato ecc. Parlare di una storia della conoscenza, di evoluzione della cultura, poteva significare guardare a ciò che avevano scritto cento anni fa geologi e sismologi e confrontarlo con quanto sappiamo adesso.
Le urgenze del 2009, la necessità di un rapporto più stretto con i residenti nei territori sismici, di solito portatori di una conoscenza astratta o idealizzata dell’accaduto, l’impegno con i colleghi per la comprensione delle molteplici sfaccettature del “Processo Grandi Rischi” mi hanno costretto a un ampliamento dell’orizzonte. Quindi, nel tempo ho prestato attenzione anche a come la conoscenza scientifica fosse recepita in altri contesti, ad esempio al livello della società civile, delle amministrazioni territoriali e dei governi centrali che di quella dovrebbero essere specchio. “Cultura del terremoto”, nel libro, include certamente le conquiste scientifiche, ma anche le loro traduzioni in atti normativi cui si informa l’azione del cittadino e, soprattutto, la consapevolezza da parte di chi vive nei territori sismici di cosa sia e possa comportare un terremoto con effetti al di sopra della soglia del danno.

Il titolo del volume solleva una immediata curiosità. Puoi riassumere quali siano le tre velocità, in che relazione stanno fra di loro e il perché dell’uso di questo termine?

Se guardo alla cultura del terremoto nel senso ampio che ho detto, estremizzando, posso distinguere i tre aspetti prima richiamati, tenendo comunque presente che sono tra loro strettamente legati: i) l’avanzamento della conoscenza scientifica e la sua divulgazione, cioè l’esito del lavoro dei ricercatori; ii) la traduzione normativa delle acquisizioni scientifiche perché aggiornamenti e modifiche delle norme misurano il cambiamento della conoscenza, l’evoluzione di una cultura del decisore, oltre che il mutamento delle condizioni della società; iii) la cultura del cittadino in relazione a “sismicità”, “pericolosità sismica”, “vulnerabilità”, “riduzione del rischio sismico” ecc., temi rispetto ai quali, considerate le ricadute, proprio i cittadini dovrebbero rappresentare i principali portatori di interesse. Alle componenti che costituiscono questo sistema riferisco l’artificio delle tre velocità perché diversamente si evolvono la ricerca scientifica, l’azione dei decisori nei governi centrali e la sensibilità per la difesa dai terremoti da parte dei cittadini e di chi li rappresenta a livello locale.
Nonostante periodi più o meno fortunati, l’evoluzione della ricerca è caratterizzata da un andamento piuttosto costante. Anche la traduzione della conoscenza scientifica in atti normativi – il secondo elemento del sistema – è vincolata, sebbene dipendente dalla mediazione politica che stabilisce le priorità nei vari ambiti di intervento per la crescita del Paese. Il vincolo, in questo caso, è legato allo stesso progresso della scienza che il legislatore non può ignorare. In sintesi, come desumibile dalla storia della difesa dai terremoti nell’arco di un secolo, è accaduto che l’avanzamento della conoscenza scientifica sia stata non immediatamente tradotta sul piano delle politiche governative, ma in generale è impossibile non rilevare la consistente evoluzione. È il terzo elemento che compone il sistema, l’aggiornamento degli atteggiamenti culturali di coloro che vivono nei territori sismici, a procedere a rilento. Ed è una criticità non trascurabile, considerando che un aspetto come la riduzione del rischio necessita anche del convinto impegno del cittadino.
Le tre velocità, quindi, sintetizza una evoluzione della conoscenza scientifica che si attua con maggiore costanza rispetto a come avviene il suo recepimento sul piano normativo. Per entrambi gli aspetti si può comunque parlare di progresso assai più consistente della crescita della sensibilità per la difesa dai terremoti e della consapevolezza del rischio nei cittadini che, in ultima analisi, del cambiamento dovrebbero beneficiare.

La prima velocità, cui sono dedicati due capitoli, riguarda essenzialmente la geologia e in particolare le sorgenti dei terremoti. Possiamo dire che proponi uno sguardo particolare a questi aspetti?

Sì, diciamo per comodità, visto che si tratta del campo di ricerca nel quale ho lavorato per più di tre decenni. È stato più agevole guardare allo sviluppo della conoscenza sul rapporto tra faglie e terremoti. Per questa prima velocità, inizio con Federico Sacco, 1907: lo schema dell’Abruzzo con i colori tipici di una carta geologica, ma senza faglie. Queste sono riportate in una tavola a parte. La divisione, la geologia con le sue distinzioni stratigrafiche separata dallo Schema delle principali fratture degli Abruzzi (questo il titolo), fa capire che non era del tutto chiaro il ruolo dei movimenti delle faglie nell’evoluzione geologica di un territorio, come non lo erano le conseguenze in termini di sismicità. Se si paragona questa sintesi alle conoscenze rappresentate nei moderni schemi di faglie sismogenetiche, mettendo in fila tutte le tappe intermedie, si possono tangibilmente apprezzare gli enormi passi avanti della ricerca geologica in poco più di un secolo.

Figura_Sacco“Schema delle principali fratture degli Abruzzi” realizzato da Federico Sacco nel 1907 e pubblicato sul Bollettino della Società Geologica Italiana.

La seconda velocità riguarda la storia della cosiddetta “classificazione sismica”, ovvero della distribuzione delle aree (Comuni) nelle quali sono state adottate normative sismiche per la costruzione degli edifici. A questo proposito proponi anche qualche riflessione sul rapporto fra scienza e normativa. Argomento attuale e complesso, giusto?

Per una ricostruzione storica della classificazione sismica, ho riletto più volte i tanti atti normativi emanati nell’arco temporale di più di un secolo e ho fatto riferimento a quanto pubblicato in proposito, soprattutto i tuoi lavori con Carlo Meletti [es., Meletti et al., 2006; 2014]. Poi, ho approfondito il caso dell’Abruzzo, che di fatto ben si inserisce nel più ampio orizzonte dell’Italia sismica. Complessivamente, è facile cogliere il consistente progresso, nonostante interruzioni e qualche retromarcia (leggi declassificazione: comuni precedentemente classificati che non sono più considerati sismici o comuni in prima categoria che vengono posti in seconda). L’impostazione dei primordi, per cui la classificazione interessava territori per aggiunte di abitati terremotati, dopo singoli accadimenti particolarmente distruttivi (es. 1908, 1915) o insieme di eventi (es. quelli dell’Appennino settentrionale tra 1917 e 1920), ha comunque consentito avanzamenti anche significativi: i territori sismici soggetti a normativa per le costruzioni aumentavano, anche se i vincoli imposti avevano la prospettiva limitata del “già terremotato” e non quella delle conseguenze degli scuotimenti futuri in altre aree. L’impianto era sostanzialmente amministrativo, per aggiunte di liste di abitati danneggiati. Poi, a un certo punto, soprattutto dalla fine degli anni Settanta e in maniera più determinante dopo il terremoto del 1980, la conoscenza scientifica ha assunto un peso più determinante, con le ipotesi dell’epoca sulle aree sismiche, non definite solo sulla base di accadimenti degli anni precedenti. Non si è trattato esattamente dell’avvio di un sistema virtuoso; il ricorso alla conoscenza scientifica per aggiornamenti, modifiche, avanzamenti sostanziali in materia di classificazione e riferimenti normativi, come noto, è stato influenzato anche negli ultimi decenni dagli eventi sismici. Così, se c’è una costanza del progresso scientifico, all’impatto sul fronte dei vincoli per la società può attribuirsi l’andamento a singhiozzo: la necessità di fare il punto, tenendo conto dell’avanzamento della conoscenza, non è avvenuto fisiologicamente, ma è stato stimolato dall’evento esterno e luttuoso.

Class. AbruzzoA sinistra, la attuale classificazione sismica dell’Abruzzo. A destra, le tappe della classificazione del territorio. L’ultima tappa è del 2003.

La terza velocità riguarda il tentativo di leggere la consapevolezza del rischio sismico nella cittadinanza attraverso la mediazione dei programmi amministrativi per le elezioni in Abruzzo. In pratica, cerchi di analizzare se e come il tema della riduzione del rischio sismico sia presente nei propositi di liste e candidati delle varie tornate elettorali abruzzesi. Si tratta di un argomento piuttosto originale. Come mai hai scelto questa chiave di indagine?

Nelle realtà demograficamente contenute, come è il caso della maggior parte dei comuni abruzzesi, la politica ha un rapporto assai diretto con l’elettorato. In pratica, chi è eletto conosce bene necessità e desiderata di chi vota. Le visioni personali di un politico o le impostazioni generali di area politica, ammesso che ce ne siano, contano meno che nelle grandi e medie città. Allora, se ci sono priorità, esigenze, urgenze, più facilmente queste vengono incamerate e fatte proprie dai candidati e fissate nei programmi amministrativi. Ciò detto, in una regione negli ultimi anni colpita dai terremoti, ci si aspetterebbe che i residenti, cioè gli elettori, ponessero il tema della mitigazione del rischio al centro del dibattito politico e delle iniziative di governo locale. Perciò ho letto i programmi di tutte le liste e dei vari sindaci candidati in Abruzzo del 2015, 2016 e 2017: nel complesso, più di 3200 pagine, in verità non molto incoraggianti. A parte pochi casi virtuosi, che puntualmente richiamo, emerge la tendenza a non considerare il potenziale effetto di un terremoto come un problema prioritario. Si ravvisa un consistente disinteresse per l’argomento, oppure la tendenza ad affrontarlo in maniera inappropriata, su basi tecniche e culturali errate. Paradossalmente, nella regione in cui per anni si è parlato delle scosse sismiche e delle varie conseguenze sociali, emerge una maggiore attenzione per il rischio idrogeologico. Ecco la terza velocità: questo tipo di cultura del terremoto si evolve (se si evolve) col passo della lumaca.

Qua e là nel testo dedichi molta attenzione ai rapporti, diretti e mediati con la popolazione. Sembra di evincere che si tratta di un argomento complesso e controverso…

Della costante collaborazione tra esperti e cittadini dei territori sismici, a seguito del terremoto del 2009, sono prova le tante e multiformi iniziative e manifestazioni cui ho avuto modo di partecipare o assistere. Il carattere multiforme è, appunto, legato alle varie possibilità comunicative: si va dai seminari alle conferenze per platee selezionate, ai vari tipi di interventi nelle scuole, fino alle mostre, all’impegno nelle piazze con stand dedicati, alle visite guidate, alle escursioni geologiche e agli interventi sulla rete. Ho potuto constatare che ogni modalità ha positivi effetti, posto che si abbia la capacità di proporsi con rappresentazioni e linguaggio adeguati. Personalmente ho utilizzato con costanza, sperimentandone l’efficacia, immagini dal paesaggio fisico e dagli spazi edificati per trasmettere messaggi sulla storia sismica locale e sugli effetti delle manifestazioni della natura. Un versante montuoso su cui sia visibile l’emergenza di una faglia attiva, ruderi, edifici tipicamente riconducibili alle ricostruzioni post sisma, cesure nelle tessiture murarie, iscrizioni che ricordano l’evento distruttivo o celebrano l’avvenuta riedificazione – insomma tutto ciò che fa parte del quotidiano di chi vive in un certo luogo, e che però è legato alla natura sismica del territorio, può acquisire una forte valenza educativa. Del resto, questa potenziale funzione del paesaggio non è una mia scoperta.

Figura_Albe_colori

Resti dell’antico abitato di Albe distrutto dal terremoto del 1915, emersi a seguito degli scavi archeologici del primo decennio di questo secolo.

Gli argomenti trattati sono molto vasti; per certi versi potresti avere scoperchiato il classico vaso di Pandora, come già capitato ad altri. E, come d’obbligo, cerchi di proporre delle conclusioni. Quali, se è possibile sintetizzarle? In particolare, hai la sensazione che la cultura del terremoto sia aumentata in Abruzzo rispetto a cinquant’anni fa, e che di conseguenza il rischio sismico si stia riducendo?

C’è anzitutto la risposta alla seconda domanda, in pratica il punto di partenza. Il quadro della cultura del terremoto in Abruzzo, se ci si riferisce alla sensibilità e alla consapevolezza di chi vi abita, non è particolarmente confortante. È comunque per me difficile dire se la cultura media sia uguale o superiore a quella di cinquant’anni fa. A parte queste considerazioni, è evidente la non priorità della difesa dai terremoti per chi risiede nella regione. Le conseguenze di questo atteggiamento non investono soltanto chi vive nelle zone interne, se si considera che i territori costieri sono stati a lungo non classificati e quindi sono oggi caratterizzati da un significativo deficit di sicurezza sismica. L’obiettivo di chi dedica una parte del suo tempo alla divulgazione, indipendentemente dai modelli adottati, è semplice a dirsi e tante volte espresso: fare in modo che si passi da una sorta di aggiramento dei problemi da parte della maggioranza di residenti e proprietari a una maggiore attenzione e sensibilità, soprattutto considerando gli odierni strumenti per intervenire sul costruito che lo Stato mette a disposizione del cittadino.
Certo, le ragioni dell’inerzia su questo fronte sono molteplici. Ad esempio: l’enorme numero di seconde case, praticamente disabitate, di cui è costituito il tessuto di molti centri abitati non favorisce l’atteggiamento positivo dei proprietari. Può anche darsi che l’impegno per la divulgazione non sia stato ancora sufficiente a far sì che nei paesi ci siano più cantieri di quanti se ne vedono ora. Comunque, a fronte dei limitati interventi, piacerebbe almeno che i proprietari fossero più consapevoli delle caratteristiche dei loro immobili in termini di sicurezza sismica. Ciò sulla base di perizie determinate, ove possibile, anche attraverso azioni delle amministrazioni – ci sono un paio di casi di comuni “virtuosi” al proposito – oppure volute dagli stessi residenti più sensibili al problema di quanto non lo fossero in passato. Quindi, che siano disponibili le diagnosi, che siano note a chi usufruisce di un fabbricato e a chi lo possiede, che questi documenti siano un passaggio verso la responsabilizzazione, che non si debba sentire, a giochi fatti, a danni subiti “io non sapevo”. Ciò aprirebbe poi a scenari di altro tipo: forse lo Stato riparatore potrebbe avere uno strumento di misura per la sua azione.

In definitiva, riassumendo: la cultura del terremoto si sviluppa in Abruzzo secondo tre percorsi le cui velocità non sono sincrone, giusto? E adesso che hai concluso questo tuo libro, hai programmi per una successiva tappa?

Sulle velocità è come dici tu e credo che l’Abruzzo sia una sorta di parte per il tutto, in riferimento all’intero Paese. Con il pregio che valutare le tendenze in questa regione può essere di un certo interesse, in considerazione della peculiarità dei numerosi terremoti recenti e di ciò che a essi è seguito. Su un binario c’è l’impegno di chi fa ricerca e divulga la conoscenza, su un altro la traduzione di questa sul piano normativo e amministrativo, su un terzo la consapevolezza, la sensibilità e la cultura di chi vive nei territori sismici. Sembra che i tre percorsi, pur intersecandosi ogni tanto, soprattutto nei frangenti emergenziali, abbiano avuto per il resto una certa indipendenza e assai diverse siano state le velocità dei tre convogli portatori delle categorie culturali sopra citate.

Infine, uno sguardo al futuro: da un lato, personalmente, continuerò ad approfondire le potenzialità del paesaggio in funzione educativa. Anche riflettendo, criticamente, se sia opportuno o meno insistere sull’utilizzo di uno strumento come questo. Poi, mi piacerebbe ragionare e confrontarmi su una questione più alta: se a distanza di quasi tredici anni dal sisma dell’Aquilano stia cambiando qualcosa o meno al livello dei riferimenti su cui è stata finora incardinata la difesa dai terremoti. È chiaro che un qualsiasi cambiamento avrebbe per conseguenza la modifica del messaggio rivolto a chi vive nelle zone sismiche.

Riferimenti

Meletti C., Stucchi M., Boschi E., 2006. Dalla classificazione sismica del territorio nazionale alle zone sismiche secondo la nuova normativa sismica. In: D. Guzzoni (a cura di), Norme tecniche per le costruzioni, Milano, pp. 139-160, https://www.researchgate.net/publication/235960327_Dalla_classificazione_sismica_del_territorio_nazionale_alle_zone_sismiche_secondo_la_nuova_normativa_sismica

Meletti C., Stucchi M., Calvi G.M., 2014. La classificazione sismica in Italia, oggi. Progettazione sismica, 5 (3), pp. 13-23. https://bookstore.eucentre.it/progettazione-sismica/archivio-numeri/progettazione-sismica-2014/

Sacco F., 1907. Gli Abruzzi. Bollettino della Società Geologica Italiana, 26 (3), pp. 377-460.

 

Enzo Boschi e il Foglietto: una storia da raccontare. Colloquio con Adriana Spera e Rocco Tritto

In questi giorni ricorre il terzo anniversario della scomparsa di Enzo Boschi. Questo blog ha ospitato diversi suoi contributi e commenti, oltre che i ricordi lasciati da amici e colleghi.
Quest’anno abbiamo pensato di ricordare alcune vicende che lo hanno coinvolto dopo il termine della presidenza dell’INGV e dopo il pensionamento.
Il primo colloquio riguarda la sua lunga collaborazione con il “Foglietto della Ricerca”, che mantiene online, in bella evidenza, la sezione denominata “L’angolo di Boschi”, di cui si parla più sotto.
Da questa sezione abbiamo tratto l’icona dell’INGV, quale è rimasta fino al 2017. Boschi spiega le sottili e meditate ragioni di quel logo, successivamente semplificato fino ad apparire ai suoi occhi una sorta di “pallone da spiaggia”, nel post

https://ilfoglietto.it/l-angolo-di-boschi/5575-il-logo-dell-invg-e-la-tettonica-a-placche


Il “Foglietto della Ricerca”, settimanale on line fondato nel 2004 da Adriana Spera, che ne è direttrice responsabile, e da Rocco Tritto, per oltre un quarto di secolo segretario nazionale del sindacato Usi-Ricerca (che è editore dello stesso Foglietto), entrambi funzionari dell’Istat ora in quiescenza, che per 18 anni ha dedicato migliaia di articoli al variegato mondo della Ricerca ed anche dell’Università.

Come nacque la collaborazione di Boschi al Foglietto?

All’indomani del terremoto di L’Aquila del 6 aprile 2009 e delle vicende giudiziarie che ne seguirono, che lo videro ingiustamente accusato di omicidio colposo plurimo, Boschi cadde in uno stato di profonda prostrazione. In molti gli voltarono le spalle, in gran parte persone che riteneva amiche e che forse tanto, se non tutto, gli dovevano, sposando evidentemente la tesi, accolta nel primo grado di giudizio, conclusosi il 22 ottobre 2012 con la sentenza di condanna a 6 anni di reclusione, ma travolta sia in appello (10 novembre 2014) che innanzi alla Suprema Corte di Cassazione (21 novembre 2015). Ritenendo prive di consistenza le accuse mossegli – sia alla luce della normativa vigente, che demandava la comunicazione alla Protezione Civile, sia tenuto conto che Boschi, come confermato in dibattimento dal Sindaco di L’Aquila, Massimo Cialente, durante la riunione della Commissione Grandi Rischi incriminata, non aveva affatto tranquillizzato, anzi aveva lanciato l’allarme sui rischi derivanti dalle continue scosse telluriche che da mesi si ripetevano in città – il nostro giornale invitò, con rispettosa insistenza, l’ex presidente dell’INGV a scrivere degli articoli a tema libero per il Foglietto.
Solo a distanza di molti mesi dalla sentenza di condanna emessa dal Tribunale di L’Aquila, egli ci comunicò la sua disponibilità.

In quale arco di tempo si svolse la collaborazione? quanti pezzi scrisse?

Il primo editoriale di Enzo Boschi apparve sul Foglietto, dopo la sosta estiva, sul numero del 3 settembre 2013; l’ultimo, il 20 settembre 2018, tre mesi prima della sua prematura scomparsa. Complessivamente, nell’arco di 5 anni, per il nostro giornale Boschi scrisse 217 articoli.

Era principalmente Boschi che sceglieva gli argomenti, oppure ci sono state sollecitazioni di qualche tipo?

Nessuna sollecitazione, gli argomenti degli editoriali che settimanalmente ci proponeva venivano scelti da lui e, una volta pubblicati sul Foglietto, raccolti nella rubrica “L’angolo di Boschi”.

E’ possibile suddividere in sub-categorie gli argomenti trattati, e dare le relative percentuali?

Crediamo di no, perché gli editoriali di Boschi erano a tema libero, anche se con prevalenza scientifica.

Una delle caratteristiche degli interventi di Boschi era la franchezza del linguaggio, a volte anche aspro. Immagino che abbiate avuto il vostro bel da fare per rendere pubblicabile qualche pezzo…..

Quando il 3 settembre del 2013 comunicammo ai nostri lettori che Enzo Boschi entrava a far parte della famiglia dl Foglietto, egli ci pregò di aggiungere questa sua dichiarazione:

Ringrazio Il Foglietto per questa opportunità. Parlerò di cose che conosco: di Geofisica e di coloro che la fanno, principalmente. Ma anche di altro. Esprimerò le mie opinioni, consapevole di poter sbagliare e sempre pronto a ricredermi e a scusarmi”

I suoi articoli, che abbiamo avuto il privilegio di leggere in anteprima, sì a volte contenevano qualche espressione “forte”, che forse avrebbe potuto urtare la suscettibilità di qualche personaggio con la coda di paglia. Ma, quando glielo facevamo notare, non faceva resistenza alcuna ed era semplice per tutti trovare un sinonimo più elegante e, spesso, più efficace.
E poi dai suoi articoli c’era sempre qualcosa da imparare, come accade solo quando a scrivere sono degli scienziati veri.

Sentite la mancanza di Boschi?

Sì, enormemente. Ci mancano innanzitutto le sue telefonate quotidiane, che puntualmente iniziavano con uno stentoreo “Come va?”, cui seguivano i suoi lucidi e quasi sempre condivisibili commenti sui fatti del giorno. Tra noi e Boschi si era solidificato un rapporto di grande stima reciproca, per non dire di amicizia, che derivava da quanto accadde al nostro primo incontro, in occasione di una trattativa sindacale, quando provò ad offrirci un caffè e si sentì rispondere: “Grazie, ma dalla controparte neppure un bicchiere d’acqua”. Dai successivi incontri sindacali, il caffè lo prendemmo al bar dell’ente, ma abbiamo sempre preteso, nonostante le sue resistenze, di essere noi a pagare.

Da parte nostra, la grande stima nei suoi confronti nacque nel 2007 quando, ancora al vertice dell’Ingv, unico presidente nel variegato mondo della ricerca – un universo sempre pronto a denunciare la penuria di finanziamenti – ci chiamò al sindacato (Usi Ricerca, ndr) per chiederci di suggerirgli una soluzione per cercare di agevolare il processo di stabilizzazione del personale precario presente nell’ente, problema che gli toglieva letteralmente il sonno e lo faceva soffrire. Nonostante i blocchi di legge, che si perpetuavano da anni, che impedivano l’ampliamento della pianta organica e, quindi, le assunzioni, riuscimmo a condurre in porto, per una decina di assegnisti, grazie anche ai nostri legali, una storica conciliazione innanzi alla Direzione Provinciale del Lavoro, a costo zero per l’ente, che a distanza di tempo ha permesso la stabilizzazione degli stessi.
L’operazione, incredibilmente, venne aspramente contrastata e condannata da talune sigle sindacali.

La rubrica “L’angolo di Boschi” è tutt’ora presente sul sito del Foglietto. Immagino che vi siano ancora accessi giornalieri. E’ così?

Certamente. Come abbiamo scritto in passato, i 217 editoriali scritti dal professor Boschi per Il Foglietto rappresentano un “unicum”, un vero e proprio “tesoretto” che appartiene a tutti e che continueremo per sempre a mettere a disposizione di tutti. Mentre lui, il grande e insuperato geofisico, continuerà ad essere nei nostri cuori e nei nostri indelebili ricordi. 

https://ilfoglietto.it/l-angolo-di-boschi

Che cosa rimane della vicenda giudiziaria “Grandi Rischi” (di Claudio Moroni)

Introduzione di M. Stucchi.
Ogni tanto appaiono “aftershocks” del cosiddetto processo “Grandi Rischi”: in genere dalla parte dell’accusa e del giudizio di primo grado, ovvero di chi non si rassegna al fatto che le successive sentenze hanno demolito il castello accusatorio. Ad esempio, proprio in questi giorni alcuni media hanno rifritto un po’ di aria in relazione alla nomina di Mauro Dolce a Assessore della Regione Calabria.
Ma parliamo di cose più importanti.  
l giudice del processo di primo grado, Marco Billi, nel 2017 pubblicò un libro dal titolo “La causalità psichica nei reati colposi”, sottotitolo “Il caso del processo alla Commissione Grandi Rischi”. Nel volume, in realtà dedicato quasi integralmente al sottotitolo (peraltro errato, come provato dalle sentenze successive alla sua) e nelle occasioni in cui l’ha presentato, l’autore sostiene fra le altre cose che “riscriverebbe” oggi la stessa sentenza (in parte lo fa, appunto), frase che fa rabbrividire e addirittura dubitare della Giustizia. Per fare un paragone, gli arbitri di calcio che manifestamente fanno errori importanti vengono sospesi, anche se le partite non vengono rigiocate. In questo caso no: la Corte d’Appello ha letteralmente fatto a pezzi la sentenza di primo grado e l’accusa su cui si basava, e Billi può continuare a pensare di essere nel giusto e affermarlo in giro. Peraltro, è persona impegnata e sensibile, dato che ha pubblicato un volume sul problema del “fine vita”.
Di recente, il giornalista Alberto Orsini ha pubblicato un volume che raccoglie gli articoli da lui pubblicati su “abruzzoweb.it” nel corso della lunga vicenda giudiziaria. Un volume senza dubbio utile come antologia, con l’aggiunta di chiose dell’autore ai suoi stessi articoli, chiose meditate a vicenda conclusa: peccato solo per il titolo e l’iconografia. In una delle prefazioni, così come in una delle presentazioni in pubblico, il giudice Billi sostiene che sia giusto che lo Stato possa processare se stesso. Concordo, ma aggiungo: se vi sono le ragioni per farlo. Se si costruisce un impianto accusatorio a dir poco farlocco e la Corte d’Appello e la Corte di Cassazione concludono che per sei dei sette imputati “il fatto non sussiste”, di che cosa stiamo parlando? Questo blog tornerà sull’argomento con un prossimo post. Nel frattempo pubblichiamo un articolo rimasto in archivio per lungo tempo, dal 2017, scusandoci con l’autore per il ritardo.

————————————————————

Claudio Moroni, ingegnere. Opera da sempre nel campo delle strutture, con particolare riferimento alla riduzione del rischio sismico, sia nell’ambito della ricerca numerica e sperimentale, sia in quello della diffusione della conoscenza e delle applicazioni reali sul campo. Fa, ed ha fatto parte, di numerose commissioni per la redazione di norme, linee guida ed istruzioni.

Premessa. Una fortuita ricerca di redazione ha rispolverato un pezzo ormai quasi dimenticato che, riletto oggi, è più che mai attuale. Si potrebbe dire che negli ultimi anni, con la questione “Palamara”, la cronaca ha acclarato che i riscontri sul campo relativi alle non rare distorsioni del sistema inquirente, e talvolta anche giudicante, in alcuni casi costituiscono persino la regola, invece che l’eccezione. Ciò, per contro, non muta di una virgola la sostanza di quanto, con riferimento al “processo Grandi Rischi”, era stato analizzato con il dovuto distacco di tempo dagli eventi e che, nel seguito, si riporta integralmente.

E’ passato qualche anno da quando, in attesa della sentenza d’appello, rimettevo la mia speranza in una magistratura capace di analizzare i fatti senza pregiudizio e con il dovuto distacco razionale che dovrebbe caratterizzare chi ha il compito di giudicare. Come sono poi andati i fatti è cosa nota all’intero mondo e, data la riforma della sentenza, sembrerebbe ovvio che possa considerarmi felice e tutto sia tornato a posto. Non è così, o almeno credo non potrà mai più essere esattamente come prima, così come non potrà esserlo per coloro che, erroneamente, sono stati definiti, e talvolta essi stessi si sono definiti, “parte” avversa. Un procedimento giudiziario, soprattutto quando penale, ha un effetto devastante sia per gli imputati, che quando innocenti non possono che considerarsi giustamente vessati da una abnorme ingiustizia, sia per le parti civili che, logicamente, devono dedurre che se una Procura richiede il rinvio a giudizio, necessariamente siano stati individuati elementi di colpevolezza tali che il Giudice chiamato ad analizzarli non potrà che confermarli nei diversi gradi previsti dal sistema giudiziario. Quest’ultimo aspetto è ciò che ho sempre pensato da cittadino estraneo alle vicende che di volta in volta la cronaca raccontava. Non vedo perché i parenti delle vittime, peraltro provati da un terribile dolore, ancor più insopportabile se relativo alla perdita di un parente o, peggio, di un figlio, dovrebbero riuscire ad averne una visione diversa.

Mio malgrado, seguendo il procedimento “Grandi Rischi”, ho imparato che è abissale la distanza tra la percezione che ne ha il cittadino comune e la realtà del sistema giudiziario. Ero fermamente contrario ai termini di prescrizione e convinto che fossero l’escamotage voluto dai malfattori per sfuggire alle loro responsabilità. Consideravo l’operato dei Pubblici Ministeri (PM) pressoché identico a quello dei Giudici e non sopportavo che un individuo rinviato a giudizio potesse asserire di essere una persona non solo innocente ma, addirittura, estranea ai fatti, in spregio al fatto che ben due magistrati, PM e Giudici dell’Udienza Preliminare (GUP), avevano ritenuto di imputarlo, magari a fronte di un fascicolo che i mezzi d’informazione comunicavano essere di migliaia di pagine.

Ho imparato che anche il mondo giudiziario, come qualsiasi settore, ha le sue regole, le sue prassi e non è affatto privo di storture. Ho dovuto apprendere che, se i cittadini avessero un’adeguata preparazione in materia, basterebbe analizzare quanto lunghi siano i termini di prescrizione italiani per comprendere che sono sintomatici di un sistema malfunzionante, quasi medievale e tutt’altro che assolutorio. Che il GUP non è chiamato a valutare se l’indagato è colpevole o innocente ma, esagerando, quasi solo a “ratificare” il rinvio a giudizio chiesto dal PM. Che i faldoni sono pieni di articoli di giornali (!?!!), fotocopie di missioni della Polizia Giudiziaria che esegue le indagini, richieste di missioni, autorizzazioni alle missioni, ricevute di buoni pasto, ecc., e che dei fatti oggetto delle indagini se ne parla spesso in poche pagine, al massimo ritrascritte o fotocopiate più volte. Che se sei veramente innocente, ed hai ragioni da vendere, l’avvocato ti consiglia di non raccontarlo praticamente mai, onde evitare che il PM si adoperi per forzare qualche elemento così da nascondere, o quanto meno rendere meno evidenti, le tue ragioni al Giudice. Peraltro, più l’innocente sta zitto, più il procedimento non ha tecnicamente modo di fermarsi (considerando che talvolta i PM si adoperano a trovare i pochi elementi a favore dell’indagato solo per confutarli e non per analizzarli a sua discolpa), cosa che ovviamente finisce con l’accrescere la parcella dell’avvocato ed aumentare la convinzione collettiva che sia stato individuato il colpevole.

La cosa per me più sconcertante è che analizzando il sistema non riesco ad individuare una colpa specifica in qualcuno. Certamente si potrebbe dire che le Procure dovrebbero operare con più diligenza. Ma quanti rischi corrono? I PM sarebbero da classificare santi già solo quando decidono di svolgere quel ruolo. E quante migliaia di pratiche hanno? Allora si appoggiano molto alla Polizia Giudiziaria, a cui di fatto viene affidata l’indagine. Allora sono questi ultimi i responsabili? Persone che con spirito di servizio passano il tempo a leggere carte, cercare di capire fatti di cui non hanno nessuna competenza, il tutto incrociandolo con una conoscenza giuridica spesso sommaria. Certo, qualche volta qualcuno di loro si esalta, sentendosi padrone della verità e giustiziere dei cattivi, forse talvolta inconsciamente considerati tali ancor di più se c’è un divario di ruoli o di stipendio, calpestando buon senso e diritto. Ma, per contro, se non trovassero un individuo a cui attribuire una colpa, i giornali griderebbero allo scandalo millantando che gli inquirenti non sanno fare il loro dovere. In fondo è dai tempi dei romani che, soprattutto l’italiano, trova piacere nel vedere qualcuno sbranato. Ieri si andava al Colosseo, oggi c’è l’informazione che ci solleva nel sapere che ci sono tanti cattivi/ladri/malfattori in giro per l’Italia a cui attribuire le malefatte ed il malfunzionamento del nostro Paese. Questo fornisce l’indulgenza plenaria alla nostra coscienza che possiamo così continuare a considerare candida e pulita, anche se magari delle otto ore di lavoro, una la passiamo a leggere sul giornale le presunte malefatte altrui e, altre due, a commentarle con i colleghi delle altre stanze.

Insomma, ho imparato tanto, a cominciare dal fatto che, soprattutto quando si cerca di operare seriamente e coscienziosamente, bisogna avere la fortuna di stare lontani da eventi mediatici che possano calamitare l’attenzione morbosa degli “spettatori”, e conseguentemente del sistema giudiziario (in particolare delle Procure per il tramite di consulenti d‘ufficio ansiosi di raccontare le loro ascetiche visioni dei fatti), e, soprattutto, della politica il cui gioco delle parti l’ha ridotta, più o meno consapevolmente, ad un altoparlante del sistema giudiziario, al solo fine di millantare le potenziali malefatte della controparte, rimanendo così imbrigliata in un gioco perverso dove non è più possibile distinguere la vittima dal carnefice. In sintesi potrei dire che ho appreso, in modo pieno e consapevole, quanto asserito da qualcuno molto lungimirante circa l’importanza di formare gli Italiani. Temo che tutt’ora sia una battaglia così impegnativa che difficilmente potrà essere realizzata in pochi anni.

Correttamente molti parenti delle vittime speravano che le loro battaglie giudiziarie potessero almeno portare ad un innalzamento generalizzato della prevenzione dagli effetti del sisma. Non posso che associarmi all’ambizione che le vite umane spezzatesi quel 6 aprile, come in altri casi, continuino a vivere, anche se in un’altra forma, specchiandosi in tutti quei processi virtuosi in grado di portare ad una riduzione del rischio. Avrei avuto, e credo avrei, l’identica aspirazione dei parenti sopravvissuti. Per contro ritengo che, proprio per perseguire questa strada, servirebbe la forza e la capacità di aggregare e costruire processi virtuosi, che sappiano fare tesoro della dialettica e del confronto competente di tutti i maggiori esperti della materia, a cominciare da quelli che sono stati visti, almeno da alcuni, come gli antagonisti. Talvolta mi è sembrato di non rilevare queste finalità. Ho persino constatato, di volta in volta e forse nella maggior parte dei casi in buona fede, attacchi rivolti a persone che sono estranee ad ogni addebito, anche in termini giudiziari (oggi che ho conosciuto il mondo giudiziario mi sentirei di aggiungere fortunatamente), quali coloro che erano stati individuati come imputati. Temo purtroppo che non potrò essere compreso da molti ma, così come sono consapevole che il dolore dei parenti, che uccide dentro e quotidianamente, lo puoi conoscere, purtroppo, solo se hai la disgrazia di provarlo dal vero, anche il male che si prova ad essere accusati ingiustamente si può capire solo quando lo si vive.

Qualche tempo fa era uscita la notizia che uno dei politici che più si era speso per dare solidarietà ai parenti delle vittime era stato indagato per corruzione. Anche per lui (un lui indicativo del politico, il sesso invece può restare indefinito), nonostante abbia avuto modo di rilevarne la cordialità e l’ondivaga agilità del pensiero, vale quanto ho detto sopra circa il sistema giudiziario, sebbene in questo caso sembrerebbe che ci sia un’accusa fatta direttamente da chi ha cacciato i soldi. Ciò che posso dire è che in questa vicenda “Grandi Rischi” l’unica cosa che mi è parsa, alla luce di quanto emerso nell’aula del Tribunale, è che molti di coloro che più si sono adoperati per portare accuse, e che non erano parenti delle vittime, per un motivo o per un altro probabilmente avevano piacere che l’attenzione si focalizzasse sui sette imputati. In fondo incitare a scagliare la pietra è sempre facile e riduce la possibilità che qualcuno miri altrove.

Concludo questo sfogo con un dettaglio, per me emblematico, che gli avvocati raccontavano senza remora alcuna, indipendentemente dal ruolo di difensore o di parte civile, il giorno in cui venne emessa la sentenza finale. Data la rilevanza dell’evento, infatti, rimasero ad attendere la lettura del dispositivo della Corte contrariamente all’approccio solito per il quale è prassi lasciare qualche euro di mancia al personale delle cancellerie affinché, all’esito della decisione, si venga poi chiamati la sera a casa per conoscere quale sia stata la statuizione. Nel solito paese civile ritengo che, nell’era dei computer, nella Suprema Corte di Cassazione il dispositivo della sentenza dovrebbe essere redatto dalla Corte con strumenti informatici in grado di renderlo automaticamente pubblico. Non la sera stessa, ma un attimo dopo che sia stato sottoscritto. E’ invece prassi ammessa, consolidata e accettata, in primo luogo proprio in quel “santuario” dove operano i magistrati che impersonano la più alta rappresentazione della giustizia della nazione, che le cose vadano così. Solo alcuni anni fa emerse che anche diversi magistrati nel medesimo ambiente fossero sensibili al denaro. Mi domando come possa, il genitore di un figlio deceduto, avere la lucidità per credere all’innocenza di coloro che inizialmente un qualche magistrato ha persino condannato. Allo stesso tempo, però, c’è da chiedersi chi possa capire la grande ingiustizia subita dall’innocente che, suo malgrado, è stato sottoposto ad un meccanismo così perverso che, in spregio ad una sentenza di piena assoluzione, deve supinamente accettare che chiunque, nella finzione del dovere d’informazione ed appoggiandosi ai titoloni (vecchi e nuovi) dei giornali, possa a proprio piacimento in qualsiasi momento ritirare fuori dal cilindro vicende passate e chiuse, finendo di fatto con l’addossargliele nuovamente, come se il povero malcapitato di turno (passivo spettatore di un erroneo inziale coinvolgimento in inchieste poi finite diversamente) debba quasi essere nuovamente processato per appurare di nuovo i fatti, prima su base popolare e poi, “auspicabilmente”, di nuovo giudiziaria.

L’ossessione della mappa di pericolosità sismica (di Massimiliano Stucchi)

Questo post è il seguito di “Ferma restando l’autonomia scientifica”
https://terremotiegrandirischi.com/2021/11/09/ferma-restando-lautonomia-scientifica-di-massimiliano-stucchi
in cui si è analizzato il tentativo di INGV di “sganciarsi” dal controllo che DPC eserciterebbe sull’ente tramite la gestione di una parte dei suoi finanziamenti, limitandone così l’autonomia scientifica, senza che sia emersa alcuna evidenza di come questa limitazione si sia fin qui manifestata.
In questo post si dimostra che, se un lettore attento cerca nei documenti citati i motivi che mettono a repentaglio l’autonomia scientifica delle attività svolte da INGV per DPC trova ben poco. Trova solo critiche non nuove, inconsistenti e mal documentate, alla mappa di pericolosità sismica prodotta dall’INGV nel 2004: una vera e propria ossessione del suo attuale Presidente.

Un argomento che potrebbe prestarsi a una discussione seria sull’autonomia scientifica riguarda la Commissione nazionale per la previsione e la prevenzione dei grandi rischi, comunemente chiamata “Commissione Grandi Rischi” (CGR); questa è organo di consulenza tecnico-scientifica del Dipartimento della protezione civile, come recita ad esempio il Decreto del Presidente del Consiglio dei Ministri del 16.09.2020, ultimo di una lunga serie di aggiustamenti.
La Commissione è costituita, in ciascuno dei settori in cui si articola, da ricercatori esperti nei settori di competenza e “fornisce pareri tecnico-scientifici su quesiti e argomenti posti dal Capo del Dipartimento della protezione civile”.

Della Commissione fanno parte anche i Presidenti (o loro delegati) dei Centri di competenza del DPC nei vari settori, centri che intrattengono rapporti di convenzione con il DPC stesso; pertanto può sorgere il sospetto che questi rapporti possano in qualche modo limitare l’autonomia di giudizio dei componenti della Commissione (il caso più noto è rappresentato dalle accuse che seguirono la riunione della CGR del 30 marzo 2009 e dal processo che ne scaturì, processo dalla cui celebrazione nacque questo blog).

Tuttavia non risulta che questo aspetto sia mai stato posto in modo esplicito. Come detto nel post precedente, le accuse pesanti a DPC di voler limitare l’autonomia scientifica di INGV o addirittura di voler controllarne le attività
https://www.huffingtonpost.it/entry/doglioni-la-protezione-civile-vuole-gestire-i-finanziamenti-dellingv-per-poterne-controllare-le-attivita_it_615c09d0e4b075408bdb42c9
non sono corredate da evidenze, tanto meno con particolare riferimento al tema del monitoraggio sismico vulcanico, cui è dedicata la parte maggiore dei finanziamenti in questione.

Lincei imprecisi. A leggere bene l’intervista rilasciata dai vertici dei Lincei
https://www.huffingtonpost.it/entry/la-liberta-dellingv-e-durata-quanto-la-vita-di-una-farfalla-di-r-antonelli-g-parisi_it_61557414e4b05025422edf27
in realtà si trova un accenno a un caso di presunta volontà coercitiva del DPC. Antonelli e Parisi affermano infatti che

...la Protezione Civile impone all’INGV molti dei criteri con cui svolgere queste attività. Tra questi, per esempio, anche quelli della mappa di pericolosità sismica nazionale, che detta le norme con cui costruire in modo antisismico. I criteri scientifici per fare questa mappa devono essere decisi da un ente scientifico, non da una struttura non scientifica…“.

Spiace leggere tante affermazioni imprecise da parte di persone tanto importanti in così poco spazio. Come coordinatore del Gruppo di Lavoro che ha realizzato nel 2004 la mappa di pericolosità sismica mi sento in dovere di fare qualche precisazione
(per una analisi più estesa si veda https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/).

I criteri generali con cui sono state compilate le mappe di pericolosità sismica non sono “stati imposti da DPC” a INGV ma:

a) nel caso di MPS04 erano fissati da una norma dello stato (Ordinanza del Presidente del Consiglio dei Ministri, OPCM, 3274/2003) cui aveva contribuito primariamente una commissione di ricercatori istituita – su iniziativa dell’allora Presidente INGV – dal Presidente del Consiglio dei Ministri. Tali criteri generali erano stabiliti per indirizzare la compilazione di qualsivoglia mappa di pericolosità finalizzata alla normativa sismica, a livello nazionale o regionale, al fine di garantirne la qualità e la omogeneità. MPS04 era stata una di queste;
b) nel caso della più recente MPS19 (2019), già pubblicata ma il cui utilizzo è ancora in stand-by presso la CGR, i criteri sono stati fissati dopo un’ampia consultazione della comunità ingegneristica, rifacendosi ai criteri precedenti e con riferimento all’aggiornamento della normativa tecnica per le costruzioni.

In queste operazioni DPC ha funzionato da tramite fra INGV e Governo, agevolando di fatto il rapporto con il Ministero delle Infrastrutture e Trasporti che, in quanto titolare delle Norme Tecniche, dovrebbe in realtà essere il Committente delle mappe di pericolosità sismica, ma la cui velocità di esecuzione è purtroppo molto bassa.

Viceversa, i criteri scientifici sono stati fissati dai due gruppi di ricerca che nei due casi si sono fatti carico di realizzare le mappe. Nel caso di MPS04, tra l’altro, DPC non ha nemmeno fornito un contributo finanziario; INGV ha coordinato l’esecuzione dei lavori con fondi propri, mentre DPC ha istituito un board di review internazionale che ha assistito criticamente la compilazione, come avviene nei maggiori progetti scientifici. Nel caso di MPS19, DPC ha co-finanziato i lavori mediante convenzioni con INGV, regolarmente sottoscritte dal suo Presidente.
Infine, “last but not least”, la mappa non “detta” le norme che, redatte dal Consiglio Superiore dei Lavori Pubblici, sono rappresentate da apposito “corpus” cui le valutazioni di pericolosità contribuiscono per la propria parte.

Insomma, spiace osservare che le affermazioni di Antonelli e Parisi sono gravemente imprecise: fatto inaccettabile per degli scienziati da cui di solito ci si aspetta che si documentino prima di fare affermazioni importanti, senza limitarsi a utilizzare fonti di seconda mano.

Altri equivoci, al Senato. Che il tema della compilazione della mappa di pericolosità sismica sia di fatto l’unico argomento messo in campo per provare una eventuale “limitazione” dell’autonomia scientifica esercitata da DPC nei confronti di INGV è dimostrato anche da una recente audizione del Presidente dell’INGV al Senato, https://webtv.senato.it/Leg18/4621?video_evento=238625, nella fase di conversione in legge del Decreto dello scorso settembre (per la successione cronologica degli atti legislativi qui discussi si veda il post precedente). In questa audizione il Presidente ha ripreso in buona sostanzale argomentazioni dell’articolo dei Lincei sostenendo, erroneamente come già spiegato più sopra, che i criteri di compilazione delle mappe di pericolosità siano fissati da DPC. Poi, come ulteriore prova della presunta limitazione della azione scientifica, ha citato la seguente tabella, che fa parte dell’All.1 alla OPCM 3274/2003:

che a suo dire vincolerebbe, nella colonna di sinistra, i risultati della compilazione della mappa di pericolosità sismica, parlando addirittura di “accelerazione imposte”.
È stato spiegato in tutte le sedi possibili che la colonna di sinistra non aveva il compito di determinare le azioni sismiche di progetto ma di stabilire, per la prima volta nella storia italiana, dei criteri scientifici per l’assegnazione dei Comuni italiani a una delle quattro zone sismiche (in gergo riclassificazione sismica). A ciascuna zona la stessa OPCM 3274/2003 assegna uno spettro di risposta elastico, di cui in tabella (parte destra) vengono rappresentati i valori di ancoraggio.

Da dove provenivano i valori di soglia contenuti nella colonna di sinistra? Da scelte eseguite dalla citata commissione sulla base degli elaborati di pericolosità sismica resi disponibili -prima del 2003 – per l’Italia. Va comunque osservato che i valori determinati in seguito da MPS04 (2004), dal progetto europeo SHARE (2013) e di recente da MPS19 (2019) per lo stesso parametro di pericolosità sismica (accelerazione orizzontale su suolo rigido con probabilità di superamento del 10% in 50 anni) sono distribuiti più o meno intorno alla stessa scala di valori.
Le parole del Presidente (2:46:00 e segg.) potrebbero quasi adombrare che i valori della colonna di sinistra abbiano in qualche modo influenzato la compilazione di MPS04, quasi che quest’ultima avesse dovuto adeguarsi a essi, senza considerare – tra l’altro – gli esiti molto positivi del processo di revisione scientifica indipendente (peer-review) della mappa stessa.

Il Presidente ha poi mostrato il solito confronto con i valori di PGA registrati in occasione dei terremoti del 2016, avvenuti quindi dopo la compilazione di MPS04, senza segnalare che, rispetto al 2004:

•     la normativa per le costruzioni in zona sismica (NTC08 e NTC18) è cambiata, ovvero gli spettri di risposta elastici sono determinati in altro modo rispetto alla OPCM 3274/2003;

•     le zone sismiche di fatto non hanno più influenza sulle modalità di costruzione.

È vero che i terremoti del 2016 hanno fatto registrare valori elevati di scuotimento, superiori a quelli proposti da MPS04 per una probabilità di superamento del 10% in 50 anni: ma è altrettanto vero che il modello MPS04, così come il recente MPS19, rendono disponibili valori più elevati per probabilità di superamento inferiori. Senza contare che i valori forniti dai due modelli di pericolosità si riferiscono a condizioni standard del sito, ovvero non considerano le eventuali amplificazioni locali che vengono valutate a parte dal progettista.

Colpisce infine che non si voglia riflettere – o chiedere a chi ha elaborato le Norme Tecniche – come mai la normativa del 2018 non abbia modificato le caratteristiche dell’input sismico rispetto a quelle del 2008, precedenti i terremoti del 2016. Una analisi del problema dal punto di vista ingegneristico è contenuta qui
https://terremotiegrandirischi.com/2021/04/08/quando-le-azioni-sismiche-di-progetto-vengono-superate-colloquio-con-iunio-iervolino/
da cui emerge che la questione della sicurezza degli edifici – per chi ha voglia di affrontarla seriamente – non risiede nelle modalità di calcolo della pericolosità sismica ma dall’approccio integrale delle Norme Tecniche.

Qualche domanda. Il Presidente dell’INGV dovrebbe essere consapevole del fatto che MPS04 è un elaborato che tra l’altro ha da tempo esaurito il compito per il quale è stato prodotto (si veda ad esempio https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/).
Allo stesso modo non ignora certo che è stato il successo di MPS04 a consegnare a INGV un ruolo-guida in un settore che fino al 2004 era stato appannaggio di altri enti di ricerca; e che questo ruolo poi ha portato a INGV – oltre che un ritorno di immagine- ulteriori finanziamenti.

Ci si può chiedere allora perché – da quando è Presidente e solo sui media – ha prodotto critiche unilaterali che non sono mai sfociate in interventi di tipo e formato scientifico, e tanto meno in pubblicazioni scientifiche?
Perché, se ritiene di avere visioni e proposte scientifiche diverse, non ha mai promosso confronti scientifici sul tema, in particolare all’interno dell’INGV come peraltro è stato più volte sollecitato a fare, e quando sono stati organizzati da altri non vi ha partecipato?
Perché non ha ricercato il dialogo aperto con la comunità ingegneristica che predispone le norme tecniche e, quindi, determina le modalità più opportune per esprimere la valutazione della pericolosità sismica a supporto delle norme stesse?
Perché, in presenza di articoli di stampa o trasmissioni televisive a dir poco fuorvianti non ha preso l’iniziativa di difendere i prodotti dell’ente che presiede, e nemmeno ha permesso che i principali compilatori di MPS04 li difendessero sul blog del Dipartimento Terremoti?

E per concludere: il fatto che DPC, dipartimento della Presidenza del Consiglio, abbia richiesto a INGV, che ha accettato, la realizzazione di un prodotto scientifico secondo formati e modalità idonei al suo utilizzo non significa certo che INGV non sia libero di produrne infiniti altri, secondo i criteri più diversificati.
Perché dunque queste critiche contro le MPS (04 e 19) non hanno finora trovato riscontro nella produzione – all’interno dell’INGV – di mappe o modelli di pericolosità alternativi? I costi non sarebbero elevatissimi, i tempi neppure; non è necessario un CERN per realizzarle.

“Ferma restando l’autonomia scientifica …..” (di Massimiliano Stucchi)

Dove si commenta lo scontro, a colpi di emendamenti, fra INGV e DPC, con la discesa in campo di Presidente e Presidente emerito dell’Accademia dei Lincei a tutela della autonomia scientifica dell’INGV, evidentemente minacciata o addirittura compromessa.

Davvero c’era bisogno di inserire la frase “ferma restando l’autonomia scientifica dell’INGV” (Istituto Nazionale di Geofisica e Vulcanologia) in una legge dello Stato, anzi nella legge istitutiva dell’INGV stesso? Se lo sono chiesti in molti, lo scorso luglio, leggendo un emendamento bi-partisan (primo firmatario l’On. Trancassini, FdI) al Decreto “Sostegni bis”, poi approvato dal Parlamento. Una frase di questo tipo è ambigua e pericolosa, perché “restando” si riferisce a qualcosa che c’è già, ma che forse è in procinto di essere compromessa; e perché proprio nel caso dell’INGV, visto che altri enti che compongono il Servizio Nazionale di Protezione Civile (SNPC) non lo richiedono?

Colpiva tra l’altro il fatto che una modifica dei rapporti fra enti che collaborano da decenni nell’interesse pubblico non fosse stata discussa e pianificata da entrambi gli attori e che invece fosse stata promossa da uno degli enti e demandata, unilateralmente e all’insaputa dell’altro, a un emendamento ad un Decreto Legge del Governo. Che cosa stava succedendo?

L’emendamento in questione modificava addirittura come segue il Decreto Legislativo 381/1999 che istituì l’INGV sostituendo la frase:

“svolte in regime di convenzione con il Dipartimento della protezione civile”

con la seguente:

“svolte in coordinamento con il Dipartimento della protezione civile, ferma restando l’autonomia scientifica dell’INGV”.

Lo stesso emendamento assegnava poi 15 ML annui direttamente a INGV, sottraendoli al fondo del Dipartimento della Protezione Civile (DPC) per la prevenzione. Una semplificazione amministrativa, venne spiegato: l’eliminazione di un’inutile partita di giro. Certo, l’emendamento evitava quella noiosa pratica della rendicontazione, amministrativa e scientifica, cioè quella modalità con cui le Amministrazioni Pubbliche “rendono conto” appunto delle risorse ricevute.

Ne seguì una severa critica da parte del Presidente della Repubblica riguardo all’uso spregiudicato dei Decreti tipo “omnibus” (https://www.quirinale.it/elementi/59260) e, soprattutto, una fiera reazione da parte del DPC stesso, e anche da parte di altri enti che compongono, al pari di INGV, il SNPC. Questa reazione si tradusse in una sorta di contro-modifica del Governo inserita in un Decreto Legge (Disposizioni per il contrasto degli incendi boschivi e altre misure urgenti di protezione civile), appena approvato dal Parlamento (legge 8 novembre 2011 n. 155), senza che questa parte sia stata modificata.

In questa modifica viene reintrodotto il regime di convenzione con DPC (le attività verranno “svolte nel quadro di accordi pluriennali attuati mediante convenzioni di durata almeno biennale con il Dipartimento della Protezione Civile”) e viene mantenuta la frase “ferma restando l’autonomia scientifica dell’INGV”. I finanziamenti diventano “non meno di 7.5 ML per le attività in convenzione con DPC”; a questi si aggiungono, a partire dal 2022, 7.5 milioni di euro annui ottenuti da una corrispondente riduzione del Fondo per interventi strutturali di politica economica di cui all’articolo 10, comma 5, del decreto-legge 29 novembre 2004, n. 282, convertito, con modificazioni, dalla legge 27 dicembre 2004, n. 307, che recita:

“Al fine di agevolare il perseguimento degli obiettivi di finanza pubblica, anche mediante interventi volti alla riduzione della pressione fiscale, nello stato di previsione del Ministero dell’economia e delle finanze è istituito un apposito «Fondo per interventi strutturali di politica economica», alla cui costituzione concorrono le maggiori entrate, valutate in 2.215,5 milioni di euro per l’anno 2005, derivanti dal comma 1

Tutto sommato non male per l’INGV, anche se ci si può chiedere a che titolo il MEF gli conceda 7.5 ML annui. Invece, subito dopo la pubblicazione del DL si è assistito a un virulento attacco di alcuni esponenti scientifici contro Governo e Dipartimento della Protezione Civile (DPC), colpevoli a loro dire di minacciare l’autonomia scientifica dell’INGV. Non più dunque, o non solo, un problema di semplificazione amministrativa, ma evidentemente un problema di ordine superiore.

Digressione
Il rapporto fra DPC e enti di ricerca ha una storia complessa; risale addirittura agli inizi degli anni ’80 quando, dopo il terremoto di Irpinia e Basilicata del 1980, la Protezione Civile di Zamberletti, nel vuoto di iniziativa di Ministero della Ricerca e CNR, per fare in modo che le competenze accumulate nel Progetto Finalizzato Geodinamica del CNR non andassero disperse, promosse l’istituzione – e il relativo finanziamento – del Gruppo Nazionale per la Difesa dai Terremoti (GNDT) prima e, successivamente del Gruppo Nazionale per la Vulcanologia (GNV) e di altri Gruppi Nazionali.

Che la ricerca scientifica nel settore dei terremoti (attenzione: Il GNDT era una struttura di ricerca, non di monitoraggio) venisse finanziata dalla Protezione Civile invece che dal Ministero competente costituiva una anomalia che, in modo tipicamente italico, conveniva a tutte le parti: i) al mondo della ricerca sismologica e ingegneristica, prevalentemente universitaria, che poteva attingere a una fonte di finanziamento altrimenti molto ridotta o quasi, ii) al Ministero della ricerca e al Consiglio Nazionale delle Ricerche, che vedevano in questo modo sgravati i rispettivi bilanci dalle spese per il settore. La ricerca finanziata dal GNDT era un misto di ricerca “di base” e “applicata”; la gestione era affidata al CNR, anche se la Oritezione Civile manteneva la possibilità di indirizzo verso i prodotti applicativi di maggior interesse, così come una supervisione sulla organizzazione del GNDT stesso. Anche se a molti ricercatori stava (ideologicamente) stretto il fatto che la ricerca sui terremoti e sulle loro conseguenze non fosse finanziata attraverso i normali canali (Ministero e CNR), non ricordo episodi o denunce di limitazione della autonomia scientifica.

GNDT e GNV confluirono nell’INGV alla sua nascita; il GNDT aveva già subito una sorta di “major revision”, trasformandosi da una struttura semi-permanente in una serie di progetti cofinanziati da DPC, aperti alla partecipazione di Università e Centri di Ricerca. Lo stesso avvenne poi anche per il GNV. Anche in questo caso DPC mantenne una supervisione costante sulle ricerche, senza che in nessun caso venissero segnalati problemi di limitazione della autonomia scientifica.

Diverso è il caso del monitoraggio sismico, che è sempre stati oggetto di convenzioni ad-hoc, prima con ING e poi con INGV, che prevedevano sia le spese di funzionamento, comprensive di quelle per parte del personale, che una certa somma da dedicare allo sviluppo tecnologico.

Come è normale nei rapporti fra enti pubblici non tutto si è svolto in modo semplice nei rapporti fra INGV e Protezione Civile, ma questo ci può stare. Diversi funzionari del DPC sono di estrazione scientifica e quindi hanno le loro rispettabili opinioni, e anche questo ci sta. Ci possono essere stati degli screzi con DPC, che a volte sottolineava – forse eccessivamente – il proprio ruolo di finanziatore più che di committente. La opportunità di un aggiustamento dei rapporti ci può stare ma, fra enti pubblici non mancano certo le occasioni e i tavoli di confronto. Viceversa, una iniziativa unilaterale – destinata facilmente a lasciare ferite nei rapporti – si poteva giustificare, o almeno capire, solo in presenza di un conflitto conclamato, ovvero di questioni forti, irrisolte, messe in chiaro pubblicamente. Ma di ragioni di questo tipo non vi era pubblica traccia: che io ricordi, in tutti questi anni nessuno dei tanti ricercatori che hanno partecipato alle attività in convenzione con DPC ha mai denunciato una situazione insostenibile né – per questo motivo – ha mai rinunciato a parteciparvi.

Autonomia scientifica?
Qualcosa di più si è potuto capire solo più tardi, quando cioè, poco dopo la pubblicazione del DL di settembre, sono scesi in campo nientemeno che il Presidente e il Presidente Emerito dell’Accademia dei Lincei, Roberto Antonelli e Giorgio Parisi (giusto alla vigilia del conferimento del Nobel per la Fisica a quest’ultimo, ma questa è solo una coincidenza).

In un intervento dal titolo ‘acchiappa-lettori’: “La ‘libertà’ dell’INGV è durata quanto la vita di una farfalla”  (!)

https://www.huffingtonpost.it/entry/la-liberta-dellingv-e-durata-quanto-la-vita-di-una-farfalla-di-r-antonelli-g-parisi_it_61557414e4b05025422edf27

i due sostengono che in luglio il Parlamento avesse votato l’autonomia economica e quindi (sic!) scientifica dell’INGV dal DPC; come se, in sostanza, fino ad allora INGV non fosse stato autonomo scientificamente e come se questa autonomia passasse automaticamente da quella economica. Nel seguito sostengono che il Governo, in settembre, “ha costretto INGV a tornare in gran parte (sic!) sotto il controllo finanziario del DPC”. Sostengono anche, erroneamente, che “dei 15 milioni di finanziamenti in autonomia gliene è rimasta la metà”. Evidentemente non hanno letto bene il Decreto di settembre, o forse non hanno capito bene – come molti peraltro – da dove provengano gli altri 7.5 ML; o forse ancora sono semplicemente stati male informati. Certo che parlare di fine della libertà, sia pure fra virgolette, sembra veramente grossa….

Viene da chiedersi se e come – al di là delle dei massimi principi – l’autonomia scientifica dell’INGV nell’esercizio del monitoraggio sismico, cui negli ultimi anni è dedicata la stragrande maggioranza dei finanziamenti DPC, fosse negata o compromessa dalla gestione della convenzione. Ma di fatti concreti, di esempi non si trova traccia: si trovano solo paroloni (terzietà, libertà, imparzialità). Colpisce poi l’affermazione, molto pesante:

“Lobby culturali possono determinare conflitti d’interesse quando la scienza viene messa sotto controllo, di fatto influenzando la direzione e la qualità della ricerca. Il caso dell’INGV è paradigmatico di questo corto circuito, probabilmente ereditato da stratificazioni organizzative iniziate a crearsi nei decenni passati”

Frase criptica, allusiva (quale sarebbe il caso paradigmatico? le stratificazioni organizzative?).
E quali sarebbero le “lobby culturali”? Fa sorridere che questo termine venga usato dai maggiori esponenti di quella che è a tutti gli effetti una lobby culturale, una specie di Superlega nella quale si entra solo per cooptazione.

A Curcio, capo del DPC, che aveva risposto ai Lincei, ha poi replicato il presidente INGV

https://www.huffingtonpost.it/entry/doglioni-la-protezione-civile-vuole-gestire-i-finanziamenti-dellingv-per-poterne-controllare-le-attivita_it_615c09d0e4b075408bdb42c9

con una affermazione: “È in gioco la incontestabile autonomia scientifica” tanto grave quanto non documentata. Nel seguito ha addirittura affermato:

“ciò dimostra in realtà che la Protezione Civile vuole gestire i finanziamenti dell’INGV per poterne controllare le attività, contraddicendo la incontestabile autonomia scientifica”

quasi che i finanziamenti di cui si parla fossero “dell’INGV” a priori e non il corrispettivo per un servizio da svolgere in un determinato ambito e con determinate caratteristiche, al punto poi da spingere l’intervistatore a chiedere addirittura:

“in caso di mancata autonomia dell’INGV c’è un rischio sicurezza per i cittadini?”

cui il Presidente risponde con giri di parole.

Più recentemente è stata organizzata, all’interno dell’INGV, una petizione (https://chng.it/DRgt5bzxfR) in cui si ribadiscono i concetti di cui sopra e addirittura

“si chiede al Senato di intervenire per assicurare la completa autonomia economica e quindi scientifica dell’INGV”

Evidentemente la materia del contendere è ancora la quota, sia pure dimezzata rispetto a prima, che la legge assegna a INGV per attività da svolgere in convenzione con DPC; ma soprattutto la presunta, mancata autonomia scientifica di cui non vengono prodotte le prove, forse perché non esistono.
L’unica traccia possibile sono le recentissime dimissioni del Presidente INGV dalla Commissione Grandi Rischi del DPC, una posizione che occupava ai sensi dello statuto della medesima.

(continua)

Quando le azioni sismiche di progetto vengono superate: colloquio con Iunio Iervolino

La stampa riporta, con attenzione crescente, informazioni sull’avvenuto superamento – in occasione di terremoti forti in Italia – delle azioni sismiche di progetto previste dalla normativa sismica. Il confronto fra le azioni sismiche di progetto, previste dalle attuali NTC, e i valori registrati in occasione di terremoti forti in Italia ha una storia abbastanza recente. Questo confronto è reso possibile dal fatto che le azioni sismiche di progetto sono espresse oggi in termini direttamente confrontabili con quelli delle registrazioni stesse, per esempio mediante spettri di risposta, cosa che non avveniva in passato.
Spesso l’informazione sui superamenti è accompagnata – nella stampa o da commenti inesperti – da un giudizio sommario di inadeguatezza delle norme sismiche e, a volte, dei modello di pericolosità sismica sui quali si appoggiano. Questo giudizio rischia di gettare un’ombra anche sulla sicurezza degli edifici costruiti secondo quelle norme.
Ne parliamo oggi con Iunio Iervolino, ingegnere, professore ordinario per il settore scientifico-disciplinare Tecnica delle Costruzioni presso l’Università Federico II di Napoli, dove coordina anche il dottorato di ricerca in Ingegneria Strutturale, Geotecnica e Rischio Sismico. Tra le altre cose ha conseguito un dottorato in Rischio Sismico ed è stato allievo di C. Allin Cornell alla Stanford University in California. Da circa vent’anni si occupa di ricerca nel campo della pericolosità e del rischio sismico delle costruzioni. Ha recentemente scritto, per Hoepli, Dinamica delle Strutture e Ingegneria Sismica.

Da diversi anni ti sei occupato dei problemi di cui al titolo di questo colloquio. Ricordo un tuo lavoro in cui sostenevi che il confronto fra lo spettro di una singola registrazione con gli spettri della normativa non fosse “lecito”. In altri lavori, pubblicati con i tuoi collaboratori, hai analizzato le caratteristiche e la distribuzione dei “superamenti” in occasione dei terremoti più recenti, il cui numero è aumentato nel 2016 anche a seguito dell’aumento del numero di registrazioni (si veda l’esempio, ormai classico, delle registrazioni di Amatrice). Se non vado errato tu concludi che è impossibile evitare che si verifichino tali superamenti.

La figura è tratta da: Iervolino I., Giorgio M. (2017). È possibile evitare il superamento delle azioni di progetto nell’area epicentrale di terremoti forti? Progettazione Sismica, 8 (3), https://drive.google.com/file//1lAcn0GMlBhvSeYEjgT7U0rdRbFuhsA8x/view

Sì, è praticamente impossibile qualunque sia la misura dell’intensità considerata (PGA, accelerazione spettrale, ecc.), oltre che essere incoerente con la logica dei codici di progettazione sismica più moderni, tra cui quello italiano. Le norme allo stato dell’arte, infatti, invece che fissare una intensità (cioè accelerazione) di progetto, fissano una probabilità tollerata che le azioni di progetto siano superate al sito della costruzione. Per esempio, se il periodo di ritorno di progetto è 475 anni, allora c’è il 10% di probabilità che tale azione sia superata in 50 anni, per definizione. Una volta stabilita tale probabilità di superamento si determina, con la analisi di pericolosità, quale sia la intensità (accelerazione) che vi corrisponde al sito della costruzione. Con questa procedura si fa sì che le intensità di progetto siano diverse per siti diversi, ma che abbiano – per equità – la stessa probabilità di essere superate.
Essendo l’accelerazione di progetto stabilita sulla base di una probabilità che sia superata, è ben strano sorprendersi se essa poi venga effettivamente superata. Al massimo ci si può sorprendere (cioè biasimare l’analisi di pericolosità) se, al sito della costruzione, la misura di intensità in questione è superata troppo frequentemente rispetto a quanto indicato dalla analisi di pericolosità. Tuttavia, siccome essa, sempre per definizione, è superata mediamente ogni 475 anni, vuol dire che parliamo di un fenomeno molto raro, quindi difficilmente nell’ambito dei dati a disposizione da quando si registrano sistematicamente i terremoti (cioè dagli anni ’70 in Italia) si può fare questa valutazione in modo convincente per un qualunque sito [1].

Questo ragionamento dovrebbe anche aiutare a capire che, anche se il superamento della accelerazione di progetto a un dato sito è un fenomeno raro, guardando all’Italia intera ogni qual volta che c’è un terremoto, di una magnitudo da moderata in su, c’è da attendersi che esso provochi almeno un superamento. Questo è il perché i superamenti non ci sembrano rari: perché, per definizione, lo sono per un dato sito, ma non per tutta l’Italia; si veda a tale proposito [2].
Vale anche la pena dire che si può verificare più facilmente, rispetto a quella prevista dalla analisi di pericolosità, la frequenza osservata di superamento di accelerazioni con periodi di ritorno inferiori a 475 anni, e più e basso il periodo di ritorno più è facile fare questa verifica ‘sperimentale’. Essa però, oltre che essere poco interessante perché quelli che interessano la sicurezza strutturale sono i terremoti rari, non sarebbe estrapolabile, almeno non direttamente, per le intensità corrispondenti ai periodi di ritorno più lunghi.

Che i superamenti siano impossibili da evitare è dovuto a questo tipo di normativa oppure al modello di pericolosità adottato?

Direi a nessuna delle due, ma alla conoscenza dei terremoti molto limitata che abbiamo. L’unico modo per trasformare in termini quantitativi, quindi utilizzabili dagli ingegneri (i professionisti), la conoscenza incompleta su un fenomeno, è il calcolo delle probabilità. Ecco perché c’è grandissimo consenso sulla analisi probabilistica di pericolosità sismica, e le critiche a essa portate (ciclicamente) non sono state finora mai convincenti, per chi ha gli strumenti per capire le questioni portate in discussione.
Infatti, siccome i terremoti sono un fenomeno su cui si ha una conoscenza parziale, non si può essere certi che per qualunque valore di accelerazione (intensità del moto al suolo, per essere precisi) si progetti, esso non possa essere superato. Per questo, come detto prima, le norme allo stato dell’arte, invece che fissare una accelerazione, fissano una probabilità tollerata che le azioni di progetto siano superate al sito della costruzione.
Si potrebbe cambiare approccio, passando da probabilità di superamento della azione di progetto accettata a rischio di fallimento strutturale accettato (la ricerca parla, in questo caso, di risk-targeted design [3]); è una strada che si sta cercando di percorrere in alcuni paesi, ma la sostanza non cambierebbe, non ci si può garantire in progettazione che non venga un terremoto che mandi in crisi la struttura.

Qui qualcuno potrebbe obiettare che basterebbe allora proteggersi dal massimo terremoto possibile…

Che – io almeno – non so definire, perché ammesso che lo si possa fare in termini di magnitudo massima e distanza minima dal sito, non lo si può fare in termini di accelerazione che ne scaturisce perché i residui delle leggi di attenuazione sono – in linea di principio – illimitati. Inoltre, ammesso e non concesso che si possa stabilire l’accelerazione massima possibile, non è detto ci siano le tecnologie progettuali e costruttive perché con certezza essa non mandi comunque in crisi la struttura. Da professore di dinamica strutturale devo qui ricordare che anche le accelerazioni (e.g., le pseudo-accelerazioni spettrali) hanno un potere esplicativo limitato della risposta sismica di strutture a molti gradi di libertà non-elastiche e non-lineari (cioè le strutture reali).

Sempre nei tuoi lavori recenti hai sostenuto che il fatto che i valori di progetto possano essere o vengano superati non pregiudica la validità delle norme. Puoi spiegare meglio?

Mi riferisco alla analisi di pericolosità alla base delle norme: i superamenti non solo non la mettono in discussione, ma forse più che altro la confermano. Come dicevo, si può pensare che l’Italia sia un bersaglio su cui si lancia una freccia che sarebbe il terremoto. Il bersaglio è grande, quindi ogni punto raramente sarà colpito (diciamo con un periodo di ritorno di 475 anni), ma la freccia un punto lo colpisce, e ciò sarà caratterizzato dal periodo di ritorno con cui sono scagliate le frecce, che è molto minore di 475 anni. È facilissimo dimostrare analiticamente anzi, che se si guardano le accelerazioni che a tutti i siti hanno 10% di probabilità di essere superate in 50 anni allora, ci si aspetta che il 10% del territorio italiano dovrà avere osservato almeno un superamento in 50 anni. In questo senso dicevo che, più che smentire l’analisi di pericolosità, i superamenti la confermano, a meno che – come si diceva sopra – non si dimostri che i superamenti siano ‘troppi’.

(Rispondendo a questa domanda si può anche tornare a una delle domande precedenti, precisando che i superamenti osservati finora non sono in generale abbastanza per una verifica della frequenza dei superamenti sito per sito, ma permettono una valutazione complessiva dei superamenti in Italia; finora anche questi calcoli non hanno mai convincentemente smentito la pericolosità).

Il messaggio che a volte passa, a volte solo indirettamente, è che se le azioni sismiche superano quelle previste dalle norme l’edificio possa, o debba, crollare. Non tutti hanno chiaro – tra l’altro – il fatto che le nuove norme richiedano la verifica di quattro stati limite. Si tratta di un timore teorico oppure vi sono evidenze (casi) concrete? Nei tuoi lavori fai riferimento a dei margini di sicurezza più o meno intrinseci nelle modalità costruttive, che tuttavia non sono esplicitati nelle NTC. Anche in questo caso, puoi spiegare?

Abbiamo già detto che le azioni sismiche, attraverso la analisi di pericolosità, sono controllate probabilisticamente in modo che sia raro che tali azioni siano superate al sito della costruzione (per esempio mediamente ogni 475 anni, cioè con probabilità 10% in 50 anni). Quindi, per definizione, esse possono essere superate. Abbiamo dimostrato, ma è facile intuirlo, che ciò avviene quando il sito si viene a trovare nei pressi della sorgente di un terremoto da una certa magnitudo in poi. In effetti, il modello di pericolosità MPS04 [5] prevede intrinsecamente che, qualunque sia il sito in Italia, se esso si trova vicino (e.g., entro 5 km) dalla sorgente di un terremoto di magnitudo almeno sei, c’è da aspettarsi che la PGA (ma anche altre ordinate spettrali) con periodo di ritorno 475 anni sia superata. Questi terremoti li abbiamo chiamati ‘terremoti forti’, costruendo la mappa delle magnitudo nella cui area epicentrale c’è da attendersi il superamento delle azioni di progetto [6] (si veda la figura sotto). Come già detto ciò non contraddice l’analisi di pericolosità, ma ne è una caratteristica intrinseca, perché che il sito si trovi nell’area epicentrale di un terremoto di magnitudo da sei in poi è una cosa che avviene – parlando grossolanamente – mediamente, molto più raramente di 475 anni.

Figura 1. Mappa dei terremoti ‘forti’, cioè le magnitudo minime con probabilità superiore al 50% di superare due ordinate spettrali con periodo di ritorno del superamento pari a 475 anni, qualora il terremoto occorresse entro 5 km (in alto), 15 km (al centro) e 50 km (in basso) dal sito. Le aree bianche indicano che per i siti in esse contenuti non ci sono terremoti, secondo il modello [5], che hanno più del 50% di probabilità di superare le ordinate spettrali in questione, qualora occorressero vicino al sito. Figura tratta da [6].

E per quanto riguarda la progettazione?

La progettazione è tale per cui ci sono altri margini di sicurezza (per esempio si usano resistenze cautelative dei materiali, criteri di gerarchia delle resistenze etc.) per cui è lecito aspettarsi che se la struttura è progettata con azioni con periodo di ritorno, per esempio 475 anni, il periodo di ritorno della crisi strutturale sia più grande di 475 anni, eventualmente anche di molto. Inoltre, la progettazione considera che la struttura vada in crisi, cioè sia ‘fallita’ violando lo stato limite di progetto, molto prima che essa ‘collassi’, cioè anche lo stato limite di progetto non è il collasso inteso come scompaginamento strutturale, ma una definizione molto convenzionale dello stesso, e questa è una cautela aggiuntiva.
Tuttavia, c’è da dire che tutti questi margini aggiuntivi sono controllati in modo semi-probabilistico e non probabilistico, per cui il rischio implicito delle strutture progettate secondo norma non è noto al progettista. Per cui non è lecito aspettarsi direttamente il collasso al superamento delle azioni di progetto, ma non si sa esplicitamente quanto, oltre le azioni di progetto, ciascuna struttura può resistere, a meno di fare ex-post analisi molto accurate della struttura progettata. Abbiamo visto in un progetto finanziato al consorzio ReLUIS dalla protezione civile, a cui hanno partecipato i più grandi esperti italiani di ingegneria sismica e che ho avuto (immeritatamente) l’onore di coordinare, che tale margine cambia con la tipologia strutturale e col sito di progettazione [7], per questioni che è difficile approfondire qui. In questo senso è difficile stabilire se e quanto si possa fare affidamento su tale margine ulteriore, perciò per me questo è un tema delicato.
Devo infine aggiungere che ritengo che proprio perché la parte di azioni sismiche è molto chiara nel suo significato (almeno per chi la ha studiata), mentre il resto della sicurezza strutturale è meno trasparente, la pericolosità sismica è sempre messa in discussione, mentre io personalmente ritengo si debba lavorare sul resto della sicurezza implicata dalla progettazione per renderla altrettanto esplicita.

Qualcuno si chiede comunque se non sia il caso di aumentare la severità delle norme, per lo meno nelle vicinanze delle faglie conosciute. Si deve peraltro osservare che le NTC18 hanno adottato le stesse azioni delle precedenti NTC08, che a loro volta non hanno considerato l’incertezza fornita dal modello di pericolosità MPS04. Inoltre, tali azioni risultano generalmente inferiori di quelle previste dall’OPCM 3279/2003. Posto che già ora le azioni previste dalle norme rappresentano un minimo ma non certo un massimo, pensi che un eventuale aumento sarebbe opportuno, valutando il rapporto costi-benefici? E, senza ricorrere all’obbligo, potrebbe essere introdotto come raccomandazione su base volontaria?

Questa è una domanda che è lecito porsi, ma la discussione è per me molto più complessa di come appare. Infatti, se il periodo di ritorno della intensità di progetto è lo stesso ovunque per un sito vicino a una faglia nota e per uno lontano, in principio non ci sarebbe bisogno di differenziare tra chi si trova in prossimità di una faglia oppure no; tuttavia sappiamo che non è possibile conoscere tutte le faglie (almeno in Italia) e per questo usiamo modelli a zone sismogenetiche che, di fatto, le faglie non le considerano esplicitamente. Inoltre, sappiamo che per “effetti di bordo” in alcuni casi confrontabili con l’effetto Doppler della acustica, si possono avere variabilità spaziali del moto sismico intorno alle rotture dei terremoti che possono creare effetti deleteri per alcune strutture (vedi anche una delle domande successive) e che la analisi di pericolosità classica non considera se non ‘mediamente’. Quindi più che alzare le azioni, ci vorrebbero modelli più raffinati (cioè maggiore conoscenza) per le faglie.

C’è da dire invece che, come dicevo nella risposta precedente, abbiamo trovato, che in Italia, le accelerazioni nelle zone ad alta pericolosità oltre il periodo di ritorno di progetto, sono disproporzionalmente più alte rispetto a rispetto a quelle dei siti a bassa pericolosità. In altre parole, le accelerazioni per periodi di ritorno maggiori di 475 anni crescono molto di più che proporzionalmente rispetto a quelle di Milano, per esempio. Questo fa sì che il rischio di fallimento cui è esposta una struttura a l’Aquila è molto maggiore di una struttura della stessa tipologia progettata, per lo stesso periodo di ritorno, a Milano [8]. Questo non ha a che fare con la pericolosità, ma solo col fatto che progettiamo con un numero limitato di periodi di ritorno, mentre quello che succede per periodi di ritorno più grandi comunque influenza la sicurezza. Questo problema non è un limite della norma italiana, ma mondiale, perché è lo stato dell’arte di tutte le normative più avanzate. Forse questa è una questione ancora più rilevante e che si più mitigare con il recente risk-targeted design e che consiste nel progettare fissando un periodo di ritorno del fallimento, e non fissando il periodo di ritorno del superamento della azione sismica. Ovviamente anche in questo caso si fa riferimento alla pericolosità probabilistica, ma si usa in modo diverso.

La tematica del confronto di cui al titolo del colloquio è solo italiana oppure il dibattito è esteso a livello internazionale?

Il tema è di rilevanza mondiale [9] [10]. Negli Stati Uniti si sta cercando di cambiare approccio passando, come detto, da norme che definiscono la probabilità di superamento delle azioni di progetto alla probabilità di fallimento accettata della struttura (risk-targeted design). È la strada giusta, e auspicata molti decenni fa dal padre della pericolosità sismica C. Allin Cornell, ma è anche questo approccio ha i suoi problemi, principalmente dovuti al fatto che la probabilità di fallimento di una struttura è molto difficile controllarla fin dal progetto se non facendo assunzioni forti.
In Europa, nel frattempo, si sta lavorando alla revisione dello Eurocodice 8 per la progettazione sismica, e io presiedo il gruppo italiano per conto dell’UNI. Siccome l’approccio sarà lo stesso delle NTC, le questioni che ci stiamo dicendo si ripropongono allo stesso modo, ma le idee sono poco chiare e la percezione è limitata, soprattutto da parte dei paesi ‘meno sismici’, soprattutto perché questi temi richiedono una competenza molto specifica. Stiamo cercando comunque di mettere l’esperienza del nostro paese e cultura sismica che portiamo, al servizio dell’Europa su questo tema.

Un aspetto emergente, del quale ti sei occupato di recente, riguarda i cosiddetti effetti “near source”, ovvero “near fault”. Ci puoi riassumere brevemente di che cosa si tratta? La normativa attuale italiana non ne tiene conto: esistono normative internazionali che invece hanno già affrontato il problema? Che cosa suggeriscono le tue analisi?

Come dicevo sopra, tra i vari effetti che si osservano vicino alle rotture dei terremoti ce n’è uno potenzialmente di interesse per l’ingegneria sismica: è quello dei cosiddetti terremoti impulsivi per direttività. Succede che, in date configurazioni della rottura rispetto al sito, la registrazione di velocità dello scuotimento sismico può mostrare un grande ciclo che concentra la maggior parte dell’energia portata in dote dal segnale. Che l’energia del segnale sia concentrata in un solo ‘impulso’ può essere particolarmente rilevante per strutture con proprietà dinamiche legate alla durata dell’impulso. Questo è un fenomeno noto da molti decenni e osservato anche in terremoti italiani come quello di L’Aquila [11]. Tuttavia, come dicevo, la sua rilevanza dipende dalla posizione del sito rispetto alla sorgente e se la struttura ha periodo di vibrazione naturale in una certa relazione con quello dell’impulso. In ogni caso, di tale effetto si può tenere in conto nella analisi di pericolosità probabilistica, ma richiede una conoscenza molto accurata delle faglie possibile origine dei terremoti [12].

Fin qui abbiamo parlato di accelerazioni. Non sarebbe forse opportuno ragionare anche in termini di spostamento?

È vero che le strutture si danneggiano per spostamenti (in effetti, rotazioni de nodi nelle strutture a telaio) imposti dai terremoti. Tuttavia, va ricordato che sono le accelerazioni che costituiscono il termine noto delle equazioni del moto delle stesse strutture e determinano tali spostamenti, quindi ha senso definire le azioni sismiche in termini di accelerazione. Inoltre, in effetti, come sai le azioni di norma sono in termini di pseudo-accelerazione che, per definizione, è la forza da applicare staticamente alla massa di un sistema, che abbia un certo periodo di oscillazione, per ottenere lo spostamento massimo imposto dal terremoto che ha quella pseudo-accelerazione spettrale a quel dato periodo [13].

Quanto discusso fin qui riguarda essenzialmente il rapporto fra domanda e capacità nel caso di edifici nuovo ben costruiti. Per edifici costruiti con normative precedenti, oppure in assenza di normativa (oppure costruiti “male” o ancora usurati o rimaneggiati) la questione si pone negli stessi termini?

Permettimi di escludere dalla mia risposta gli edifici costruiti male. Non ho elementi sufficienti per dire che “costruiti male” sia una condizione generalizzata del costruito esistente italiano. Per queste costruzioni ci sarebbe bisogno di una valutazione caso per caso. Più appropriato trovo invece porsi la questione delle strutture costruite con codici di progettazione ora considerati obsoleti o prima della adozione di qualunque norma sismica. Ciò praticamente tutto il patrimonio pre-terremoto di Messina del 1908 (tranne buone pratiche costruttive storiche in alcune zone di Italia). Tali strutture possono essere state progettate per soli carichi verticali o con azioni sismiche (cioè orizzontali) valutate con metodi convenzionali, cioè non su base probabilistica, e con criteri progettuali meno efficaci di quelli che usiamo oggi. In entrambi i casi tali strutture hanno comunque una capacità sismica, anche se controllata ancora meno di quelle di nuova progettazione e con minori margini di sicurezza attesi (per esempio per assenza di gerarchia delle resistenze). Questo è un tema molto rilevante per quanto riguarda la sicurezza sismica: infatti si può dire che le strutture costruite con le correnti norme tecniche, ancora per molto tempo saranno una frazione molto piccola dell’intero patrimonio italiano.

Riferimenti

  1. Iervolino, I. (2013). Probabilities and fallacies: Why hazard maps cannot be validated by individual earthquakes. Earthquake Spectra29(3), 1125-1136.
  2. Iervolino, I., Giorgio, M., & Cito, P. (2019). Which earthquakes are expected to exceed the design spectra? Earthquake spectra35(3), 1465-1483.
  3. Luco, N., Ellingwood, B. R., Hamburger, R. O., Hooper, J. D., Kimball, J. K., & Kircher, C. A. (2007). Risk-targeted versus current seismic design maps for the conterminous United States.
  4. Iervolino, I., Giorgio, M., & Cito, P. (2017). The effect of spatial dependence on hazard validation. Geophysical Journal International, 209(3), 1363-1368.
  5. Stucchi, M., Meletti, C., Montaldo, V., Crowley, H., Calvi, G. M., & Boschi, E. (2011). Seismic hazard assessment (2003–2009) for the Italian building code. Bulletin of the Seismological Society of America, 101(4), 1885-1911.
  6. Cito, P., & Iervolino, I. (2020). Rarity, proximity, and design actions: mapping strong earthquakes in Italy. Annals of Geophysics63(6), 671.
  7. Iervolino, I., Spillatura, A., & Bazzurro, P. (2018). Seismic reliability of code-conforming Italian buildings. Journal of Earthquake Engineering, 22(sup2), 5-27.
  8. Cito, P., & Iervolino, I. (2020). Peak‐over‐threshold: Quantifying ground motion beyond design. Earthquake Engineering & Structural Dynamics, 49(5), 458-478.
  9. Hanks, T. C., Beroza, G. C., & Toda, S. (2012). Have recent earthquakes exposed flaws in or misunderstandings of probabilistic seismic hazard analysis? Seismological Research Letters, 83(5), 759-764.
  10. Stirling, M., & Gerstenberger, M. (2010). Ground motion–based testing of seismic hazard models in New Zealand. Bulletin of the Seismological Society of America, 100(4), 1407-1414.
  11. Chioccarelli, E., & Iervolino, I. (2010). Near‐source seismic demand and pulse‐like records: A discussion for L’Aquila earthquake. Earthquake Engineering & Structural Dynamics, 39(9), 1039-1062.
  12. Chioccarelli, E., & Iervolino, I. (2013). Near‐source seismic hazard and design scenarios. Earthquake engineering & structural dynamics, 42(4), 603-622.
  13. Iervolino I. (2021). Dinamica delle Strutture e Ingegneria Sismica, Hoepli, Milano.

Tracce ondulanti di terremoto: colloquio con Fabrizio Galadini

Fabrizio Galadini è dirigente di ricerca dell’Istituto Nazionale di Geofisica e Vulcanologia ed è stato ricercatore del Cnr presso l’Istituto di geologia ambientale e geoingegneria. Insegna geologia per il rischio sismico all’Università Roma Tre. Svolge ricerche sulle faglie attive, sugli effetti dei terremoti del passato e sulle risposte antropiche alle criticità ambientali, mediante indagini geologiche, geomorfologiche, archeosismologiche e di geologia storica.

1-Copertina Tracce ondulanti di terremoto_Tegris

Fabrizio, tu ti occupi prevalentemente di studio delle faglie attive e più in generale di geologia del terremoto anche in riferimento a eventi sismici storici. Su questi argomenti hai scritto articoli scientifici, saggi divulgativi e hai anche curato l’edizione di volumi per un pubblico più vasto, citati più sotto in bibliografia.
Questo volume è qualcosa di diverso. Il titolo del libro è particolarmente evocativo; ci puoi spiegare il progetto del libro e le ragioni del titolo?

I motivi della scrittura del libro e la ragione del titolo necessitano di chiarire un percorso personale che, come tu ricordi, parte dall’esperienza geologica. La geologia dei territori sismici ti porta a capire quanto le forme del paesaggio fisico siano manifestazione delle locali storie sismiche. Nell’attività divulgativa, ho spesso “utilizzato” il paesaggio del determinato territorio nel quale mi trovavo in quel momento per spiegare a chi vi risiede che le stesse immagini della quotidianità, in luoghi caratterizzati da elevata pericolosità sismica, testimoniano dei parossismi del passato. Col tempo ho ampliato la gamma delle immagini, utilizzando anche (e a un certo punto soprattutto) riferimenti agli spazi costruiti, le tracce delle distruzioni sismiche del passato e quelle delle ricostruzioni, mai assenti nei territori sismici, facendo vedere che sono gli stessi paesi a raccontarci la loro storia di danni, anche con i residui murari di un abbandono, e di rinascite, spesso con i macroscopici esempi di edificazione “altrove” di nuovi centri.
L’insieme di manifestazioni della sismicità negli ambienti naturali e negli spazi costruiti contribuisce a generare un paesaggio. Non invento granché… basta leggere il Codice dei beni culturali, art. 131: «Per paesaggio si intende una parte omogenea di territorio i cui caratteri derivano dalla natura, dalla storia umana o dalle reciproche interrelazioni». Ecco il paesaggio come costruzione di eventi del passato o come palinsesto di memorie (volendo citare Eugenio Turri). Se in quanto ci circonda si individua un portato informativo, ne consegue che anche immagini dei luoghi della quotidianità possono essere viste in funzione del loro potenziale didattico. Nel tentativo di migliorare la rappresentazione di questo paesaggio legato alla sismicità di un territorio, ho a un certo punto pensato di utilizzare anche la produzione letteraria, casualmente, durante una rilettura di Vino e pane di Ignazio Silone, riflettendo su un passaggio che faceva riferimento ai paesi che a distanza di decenni ancora recavano i segni del terremoto (quello che nel 1915 colpì la Marsica), rappresentati come alveari spaccati, diroccati, solo in parte ricostruiti. Immagine assai forte ma emblematica di una regione intera. A quel punto ho riletto l’intero Silone, alla ricerca di ulteriori richiami agli effetti di lungo periodo del terremoto, puntualmente trovati in quasi tutti i suoi romanzi e nella produzione di diverso genere. Ho quindi cominciato a citarlo insieme ad altri riferimenti letterari “sismici” relativi all’Abruzzo nei miei interventi pubblici, anche per far capire che non è necessario essere esperti di sismologia per leggere un paesaggio in funzione dei parossismi che hanno contribuito a generarlo, come accade in Silone, Laudomia Bonanni, Mario Pomilio, Massimo Lelj, per citare alcuni che hanno catturato tracce sismiche della regione.
Poi ho allargato lo sguardo all’intero territorio nazionale, riprendendo autori che sospettavo sensibili alle criticità naturali dei territori utilizzati come sfondi delle loro rappresentazioni. Data la mole del materiale letterario disponibile, ho cominciato a scriverci sopra per mettere ordine, trovare un filo logico.
Così è nato il libro. Il titolo, quelle strane tracce ondulanti, è la citazione di Edward Lear, il noto paesaggista inglese dell’Ottocento, che a un certo punto del suo viaggio in Calabria richiama le tracce ondulanti di terremoto come parte del paesaggio che ebbe modo di osservare prima di raggiungere Terranova. Chissà cos’erano nella realtà quelle tracce, ma è evidente, appunto, che siamo nel quadro della rappresentazione letteraria di un territorio sismico. Da qui all’idea di usare il riferimento come titolo del libro il passo è stato breve.

Ti riferisci alle trasformazioni di lungo periodo di un territorio che ha subito un forte terremoto: sappiamo però che gli stessi eventi sismici mentre avvengono sono oggetto di numerose attenzioni letterarie…

È così. Nelle tracce sismiche che costituiscono il paesaggio cercato nella letteratura non è incluso il terremoto mentre accade (e quindi non è compresa la cospicua letteratura che propone descrizioni sincrone alle scosse). Ciò è chiarito nel primo capitolo, nel quale di discute di quel “paesaggio” come rappresentazione – evidentemente personale – da parte di un osservatore, di un contesto naturale o antropico che abbia subito nel corso del tempo, geologico o storico che sia, gli effetti di uno o più terremoti: soprattutto in termini di improvvise o graduali, comunque persistenti, variazioni delle geometrie del costruito e delle forme relative all’ambiente naturale circostante. In sintesi, sono gli effetti di lungo periodo di una determinata scossa o di più eventi sismici.
Questo tipo di lettura implica, da parte dello scrittore, la consapevolezza della relazione tra manifestazioni parossistiche della natura, quindi espressioni della dinamica geologica, e conformazione del paesaggio in generale, sia esso relativo agli ambienti naturali che agli spazi edificati. È quella che Gadda (Le meraviglie d’Italia) definiva acquisita cognizione del profondo, enfatizzando il ruolo della consapevolezza della natura dei luoghi, originati ed evoluti mediante la catena delle cause remote. E in quel caso Gadda prendeva spunto da un vero e proprio territorio “simbolo” della sismicità come la Piana del Fucino.

2-panoramica_Fucino_(AQ)_Tegris

Piana del Fucino (AQ), panoramica da nord. Il bacino di origine tettonica, area epicentrale del terremoto del 1915, è oggetto delle riflessioni di Carlo Emilio Gadda in “Le meraviglie d’Italia”.

Quando si guarda a questi aspetti, cioè al paesaggio come esito di un percorso storico, ne consegue che la cospicua letteratura dedicata agli effetti dei terremoti “in corso” non è argomento prioritario. Tuttavia, è altrettanto vero che l’evento sismico costituisce l’origine dell’evoluzione e della conformazione di un territorio. Per questa ragione il secondo capitolo dà spazio proprio alle descrizioni che hai richiamato, ai terremoti “mentre avvengono”. Trattandosi di un argomento presente in numerosi testi letterari, i riferimenti si limitano alla regione abruzzese, anche in ragione di una storia sismica che sconfina nell’attualità. Nel secondo capitolo, pertanto, è possibile trovare descrizioni sincrone delle scosse del 1349, 1706, 1881, 1915, 1933, 2009 e 2017, da Giovanni Quatrario a Roberta Scorranese, passando per D’Annunzio e Silone.
Oltre alla costanza di riferimenti come la densa polvere causata dai crolli, rinvenibili dal Medioevo a oggi, mi colpisce il concetto di “novità” del paesaggio. Emerge ad esempio con Silone in riferimento al 1915: quando la nebbia di gesso si è dissipata, c’era davanti a noi un mondo nuovo. È l’inizio della trasformazione, un aspetto che riguarda tutti i parossismi della natura. Recentemente mi è accaduto di leggere un passaggio di Roland Barthes sull’alluvione di Parigi del 1955: la piena […] ha stravolto la stessa cenestesia del paesaggio, l’organizzazione ancestrale degli orizzonti: le linee abituali del catasto […]. Il dissesto dell’organismo, cui fa riferimento la cenestesia, è il preludio a geometrie che potranno ripetere le precedenti o essere del tutto estranee a quelle. Comunque, non saranno mai più esattamente le stesse di prima.

Il libro è diviso in alcune parti: ce le illustri per sommi capi?

Ai primi due capitoli ho già accennato; con i successivi si entra più direttamente nel paesaggio costituito dalle conseguenze di lungo periodo dei forti terremoti.
Nel terzo provo a rintracciare testimonianze letterarie che pongano in relazione forme dei paesaggi naturali o sensazioni legate al carattere dei luoghi e alla conoscenza della loro storia, con le caratteristiche sismiche dei territori. Un esempio per tutti, il Pascoli di Un poeta di lingua morta (Pensieri e discorsi), ricordo del poeta reggino Diego Vitrioli, in cui, in riferimento allo Stretto, si afferma che in fondo al mare […] è appiattata, dicono, la morte […] quella che sradica […] quella cui segue l’oblio. Si tratta di un luogo da cui s’irradia la rovina e lo stritolio. Che il passaggio sia di dieci anni precedente al terremoto del 1908 e la sua pubblicazione sia del 1907, sono aspetti che fanno riflettere.
Nel lungo periodo, il paesaggio sismico relativo agli spazi costruiti è rappresentato dai residui della distruzione dovuta al terremoto. A questi residui, quindi alle persistenti (negli anni, decenni, secoli) tracce del danno, alle rovine e ai ruderi sismici con le forme assunte nelle rappresentazioni letterarie è dedicato il quarto capitolo. Il pensiero qui si volge a Ignazio Silone, alla presenza continua, anche a decenni di distanza, della distruzione del terremoto del 1915 nei suoi scritti. I paesi sono sistematicamente residui di quello che furono secoli addietro, mal riparati o abbandonati, comunque in pieno irreversibile degrado.

3-Sulmona_San_Francesco_della_Scarpa_(AQ)_Tegris

Persistenza delle forme acquisite col danno sismico: abside della chiesa di San Francesco della Scarpa a Sulmona (AQ), priva della copertura (terremoto del 1706). A questa emergenza monumentale fanno riferimento, tra Ottocento e Novecento, testimonianze di viaggiatori inglesi come J. A. Cuthbert Hare e A. Macdonell.

4-Aquilonia_Vecchia_(AV)_Tegris

Trasformazione degli abitati a seguito dell’abbandono post-sisma: Aquilonia (AV); terremoto del 1930. L’antico abitato, oggi trasformato in area archeologica, è meta di Paolo Rumiz (“La leggenda dei monti naviganti”); a Franco Arminio si devono invece impressioni sul paese attuale (“Vento forte tra Lacedonia e Candela. Esercizi di paesologia”).

Dopo la distruzione, gli spazi abitati subiscono una prima riedificazione, quella che per definizione sarebbe provvisoria, ma che spesso tale non è. A queste ricostruzioni, che spesso modellano indelebilmente gli ambienti edificati, è dedicato il quinto capitolo, con i riferimenti che spaziano da Goethe (Messina post-1783: una città di baracche) al Belice di Piero Chiara (le baracche […] formeranno […] dei falansteri) e di Vincenzo Consolo (i nuovi ghetti che sono le baraccopoli della Valle del Belice), passando per le baracche di Settecento e Ottocento descritte dai viaggiatori (in prevalenza stranieri) in Calabria, per quelle abruzzesi post-1915 (ancora Silone) e approdando a quelle friulane del 1976 (il Campo Ceclis di Chiusaforte,Pierluigi Cappello). Si tratta spesso delle ambientazioni di vicende quotidiane che si articolano su un piano di degrado sociale, come nel caso del romanzo di Fortunato Seminara dall’indicativo titolo Le baracche.

5-Pescina_nuova_(AQ)_Tegris

Persistenza delle costruzioni provvisorie: “casette asismiche” di Pescina Nuova (AQ); terremoto del 1915. I riferimenti a queste costruzioni e alle vere e proprie baracche post-sisma sono presenti in vari passaggi di Ignazio Silone (“Uscita di sicurezza”, “Una piazza è una piazza”, …), e altri letterati abruzzesi (Laudomia Bonanni, Ottaviano Giannangeli, Renzo Paris,…) e non (Nino Savarese, Guido Piovene,…).

Dopo la fase della residenza provvisoria, con l’inizio della perdita di identità dell’abitato (di cui rimangono le macerie alle spalle del residente) e lo spaesamento tipico di chi si trova a vivere nella promiscuità delle baraccopoli, i terremotati accedono a nuove dimore stabili, tipiche espressioni delle ricostruzioni post-sisma. Agli esiti di queste riedificazioni si riferisce il sesto capitolo, che attinge alle rappresentazioni degli spazi abitati generalmente realizzati ex novo, frutto di una rinascita lontanissima da forme e contenuti di quanto esisteva, a sancire la netta cesura con l’accumulo della storia, rappresentata proprio nei muri, negli ambienti, nei tessuti urbani plurisecolari. In sostanza, la perdita di identità è esemplificata, quasi sempre, dalle geometrie delle riedificazioni.

cof

Riedificazione post-sisma: Teora (AV); terremoto del 1980. La ricostruzione in Irpinia è argomento molto discusso. Al proposito, ad esempio, Cesare De Seta (“Terremoti”), Vinicio Capossela (“Il paese dei coppoloni”), Franco Arminio (“Viaggio nel cratere”, “Vento forte tra Lacedonia e Candela. Esercizi di paesologia”, “Terracarne”,…).

Particolarmente interessante, su questo punto, la forte contrapposizione che emerge in Sicilia dall’accostamento di una ricostruzione famosa come quella del Val di Noto – Consolo vedeva nelle forme barocche l’immagine stessa, cristallizzata, dell’onda sismica, una specie di mirabile sfida alla natura – a quella più recente del Belice. Su quest’ultima, in riferimento al paradigma di Gibellina Nuova, le parole di Carola Susani sono indicative: “cose anche belle. Pensiero concentrato su un punto, solo che quel pensiero è del tutto scollato dal contesto […] Così capita che anche il pensiero incarnato dalle opere faccia un effetto comico: un pensierino.

7-Noto_chiesa_San_Domenico_Tegris

Ricostruzione post-sisma: Noto (SR), chiesa di San Domenico; terremoto del 1693. Nei movimenti delle forme barocche del Val di Noto, Vincenzo Consolo ha individuato «una suprema provocazione, una sfida ad ogni futuro sommovimento della terra, ad ogni ulteriore terremoto; e sembrano insieme, le facciate di quelle chiese, di quei conventi, di quei palazzi pubblici e privati […] la rappresentazione, la pietrificazione, l’immagine, apotropaica o scaramantica, del terremoto stesso […]» (“Di qua dal faro”).

Si possono individuare letterati che più di altri hanno spiccata sensibilità per le caratteristiche geologiche o sismiche dei territori?

Direi di sì. Volendo proporre un elenco – senza pretesa di completezza, atemporale per quanto riguarda i riferimenti anagrafici, estraneo a paradigmi stilistici e di contenuto e, infine, che guardi indifferentemente a narrativa, poesia e impressioni di viaggio – vedrei Vincenzo Consolo per la Sicilia e Stefano D’Arrigo per lo Stretto, Corrado Alvaro per la Calabria, Franco Arminio e Vinicio Capossela per l’Irpinia, Michele Sovente per l’area flegrea, Ignazio Silone per l’Abruzzo, Umberto Piersanti per l’Urbinate, Andrea Zanzotto per il Veneto prealpino. In pratica, siamo di fronte alla resa letteraria delle caratteristiche di territori che nella mappa di pericolosità sismica si trovano nelle zone 1 e 2, cioè nelle zone a maggior pericolosità sismica.

Evidentemente, anche se l’hai scritto in tempi di lockdown, il progetto del libro ha radice antiche; o sbaglio?

Il progetto del libro non è di molto tempo fa. Diciamo potrebbe essere nato nel 2018. Però è vero che si tratta di una maturazione piuttosto lenta, con un percorso iniziato anni prima. Figurarsi che in prima battuta, parlo del 2015 o del 2016, era mia intenzione che le rappresentazioni letterarie costituissero un semplice paragrafo all’interno di un saggio dedicato ad aspetti di cultura del terremoto in Abruzzo. Quando poi le pagine sono cominciate ad aumentare a dismisura (quelle pubblicate sono 481…) allora ho cambiato prospettiva. In effetti, la ricerca faceva continuamente emergere (o riemergere da libri letti in passato) punti di vista, riflessioni, passaggi di scrittori più e meno famosi, spesso originari dei territori sismici di cui trattavano, talora invece solo di passaggio in quegli stessi territori, magari avendo origini in altre regioni la cui storia è stata condizionata dai terremoti (si pensi al siciliano Nino Savarese che viaggia in Abruzzo o, viceversa, all’abruzzese Domenico Ciampoli che affronta l’Etna), oppure in regioni non particolarmente note per la sismicità (pensiamo al torinese Carlo Levi che si misura con la Basilicata). L’aumento del materiale a disposizione ha reso necessaria l’individuazione di una chiave di lettura e la definizione di un percorso critico; ciò si è risolto in abbozzi di capitoli anche poco organizzati. Poi, l’isolamento per il Covid ha reso possibile fare ordine e dare (spero) un senso.

Anche la disponibilità del consistente insieme di riferimenti deve avere radici antiche…

 La lettura mi ha sempre accompagnato. Mi pare che una volta tu mi raccontasti che durante i tuoi spostamenti, magari alla fine di una giornata di lavoro in attesa di un treno o di un aereo, ti “occorreva” fermarti in una libreria. L’ho sempre fatto anch’io. Questo fa capire che i libri sono spesso una necessità. Il risultato di questa necessità è che la casa in cui vivo è praticamente costruita attorno a svariate migliaia di libri incastonati nei pilastri e nelle travi di acciaio che rendono antisismico l’edificio in un paese del pluri-terremotato Appennino centrale. Poi, da quando faccio il ricercatore, durante la lettura mi è sempre venuto naturale sottolineare i passaggi che avessero riferimenti alle caratteristiche sismiche di un determinato territorio. Questa tendenza va avanti da decenni. Con ciò tante citazioni nel libro sono realmente il risultato di riletture di testi già letti magari venti o trenta anni fa.

Ritieni che questa ricerca possa avere ulteriori sviluppi in un prossimo futuro?

 Continuerò a utilizzare i segni dei terremoti del passato rinvenibili negli ambienti naturali e negli spazi costruiti di un determinato territorio in prospettiva divulgativa, nelle diverse forme in cui questa può essere declinata. Significa mettere insieme informazioni di vario tipo, dalla geomorfologia alla geologia storica, dalla cosiddetta archeosismologia alla storia sismica degli edifici e anche, qualora presenti, le testimonianze letterarie del paesaggio che si è realizzato scontando gli effetti dei terremoti. A questo proposito sto provando a fare una sintesi, quindi anche un bilancio, della personale esperienza degli ultimi dieci anni, periodo nel quale ho potuto rapportarmi alle varie comunità della regione abruzzese, raccontando con varie modalità le storie sismiche dei territori e le tracce di queste nella natura e nei manufatti.

Bibliografia

Galadini, 2020, Tracce ondulanti di terremoto. Rappresentazioni letterarie dei territori sismici d’Italia, Edizioni Kirke, Cerchio-Avezzano (AQ), 481 pp.;
Galadini, C. Varagnoli (a cura di), 2016, Marsica 1915 – L’Aquila 2009. Un secolo di ricostruzioni, Gangemi Editore, Roma, 367 pp.;
Galadini, 2014, Terremoto, geologia, tracce e cultura sismica, in: Il giorno che non vide mai l’alba, Edizioni Kirke, Cerchio-Avezzano, pp. 11-91;
Galadini, 2013, I terremoti in Abruzzo e la cultura sismologica tra la fine dell’Ottocento e i primi del Novecento, in: Pareva quel giorno dell’Universal Giuditio. Il terremoto aquilano del 1703 tra indagine storica e sviluppo della sismologia moderna, Edizioni Kirke, Cerchio-Avezzano, pp. XVII-CIV;
Castenetto, F. Galadini (a cura di), 1999, 13 gennaio 1915, il terremoto nella Marsica, Istituto Poligrafico e Zecca dello Stato, Roma, 788 pp.

Segnaliamo che il volume è disponibile anche su amazon.it e ibs.it

Un mosaico per Enzo Boschi (a cura di alcuni colleghi e amici)

Ricorre il secondo anniversario della sua scomparsa. Alcuni colleghi, fra quelli che gli sono stati più vicini nel lavoro di ricerca e, negli ultimi tempi, anche sui “social”, hanno scritto dei ricordi. Ne esce un ritratto di un personaggio complesso, controverso, mutevole, che poteva apparire spigoloso, affabile, schietto, sorridente, brusco, sogghignante, irascibile, premuroso. Ma soprattutto un personaggio visionario, capace di guardare lontano, di offrire a tutti una possibilità e, a molti, un affetto profondo.
Sarebbe stato bello offrirgli, in vita, un suo ritratto dipinto da un artista: il ritratto di Enzo Boschi Presidente, a inaugurare la parete dei presidenti, all’INGV. O forse avremmo potuto iniziare noi stessi a comporre un mosaico con il suo ritratto, con il rischio che ci scoprisse sul fatto e…..: “Ma che c. state facendo….?”
Le storie raccontate di seguito sono forse tessere di quel mosaico che non sarà mai completo. Intanto cercano di tenere viva la sua memoria e di colmare, almeno in parte, il vuoto lasciato dalla forzata cancellazione della Scuola Internazionale di Geofisica a lui dedicata, organizzata da alcuni colleghi per iniziativa di Daniela Pantosti e Gianluca Valensise, che doveva tenersi a Erice la scorsa primavera.

Le foto provengono dagli archivi personali di colleghi che le hanno messe a disposizione.
Chiunque può aggiungere un ricordo inserendolo nei “commenti”.
I lettori sono pregati di diffondere il link di questo post.

Gianluca Valensise, Marco Olivieri, Patrizia Feletig, Silvia Pondrelli, Daniela Pantosti, Carlo Meletti, Giorgio Spada, Gianni Bressan, Fabrizio Galadini, Maria Laura Oddo, Bruno Zolesi, Luca Malagnini, Antonella Cianchi, Dario Slejko, Alessandro Bonaccorso, Alessandro Amato, Patrizia Gucci, Michele Dragoni, Massimo Cocco, Tullio Pepe, Massimiliano Stucchi, Alberto Michelini, Sergio Del Mese, Marianna Gianforte

A


Gianluca Valensise
Sono passati due anni dalla scomparsa di Enzo Boschi. E come quasi sempre avviene in questi casi, il trascorrere del tempo aiuta a considerare gli eventi con maggior serenità, con maggior distacco, e forse – per noi che siamo ricercatori – anche con maggiore accuratezza. ­
Fino a due anni fa io e altri ci eravamo convinti di aver conosciuto due Boschi diversi. Il primo, che io personalmente ho incontrato nel 1983, e che ai miei occhi è rimasto sempre sé stesso fino alla fine del 2010; e il secondo, un uomo completamente differente, quale lui è stato tra il 2011 e la sua scomparsa, comunque prematura. Nel 2011 il mondo gli è crollato addosso, senza che la sua intelligenza ed arguzia gli permettessero di schivarlo: prima, a maggio, con l’incriminazione nel processo dell’Aquila, e pochi mesi dopo, ad agosto, con la fine del suo incarico all’INGV.
Quei pochi mesi lo avevano cambiato profondamente, ed avevano cambiato molto anche l’atteggiamento verso molti suoi colleghi e collaboratori, a partire dal sottoscritto. Non poteva – e certamente non voleva – dare a noi la colpa di quanto gli stava accadendo, ma quasi senza accorgersene già dai primi mesi del 2011 il rapporto di cordialità, di collaborazione e di reale affetto che aveva stabilito con molti di noi andò in frantumi. Da lui venimmo accusati di molte cose: accuse mai gravi, ma che marcavano – e ai suoi occhi giustificavano – la distanza che aveva voluto porre tra sé stesso e noi. Io, per esempio, ero accusato di essere troppo accondiscendente verso le richieste dei colleghi della Protezione Civile: non capii, ma me ne feci una ragione. E tutto cospirava a rendergli il momento sempre più cupo: come quando ci vide salutare con soddisfazione l’arrivo di Domenico Giardini, suo amato-odiato pupillo, alla presidenza dell’ente che Enzo stesso riteneva – a ragione – una sua creazione.
Il rapporto tra me e lui, ma credo che lo stesso valga per diversi altri colleghi INGV della mia generazione, sembrava incrinato per sempre. Non ci sentivamo né ci scambiavamo messaggi: io tenevo per me il dispiacere di questo distacco, e lui – forse, posso solo fare ipotesi – fece lo stesso. Ricominciammo a sentirci nel 2016, ma solo per interposta persona, con scambi di idee e valutazioni su fatti scientifici. Sempre per interposta persona ricevevo notizie sull’aggravarsi del suo stato di salute, e proprio a dicembre di due anni fa stavo meditando di andare a trovarlo nella sua amata Tredozio: ma ormai era troppo tardi.
I due anni trascorsi dalla sua scomparsa mi hanno finalmente fatto capire che non ci sono mai stati due Boschi: lui è rimasto sempre quello di un tempo, fino all’ultimo. Un uomo amato e ammirato, ma anche temuto e odiato; vittima del suo carattere tanto forte quanto difficile, e forse anche dell’aver speso troppa della sua esistenza nel rilanciare quell’istituto che tanti anni prima era riuscito a tirare fuori dalla ignominiosa lista degli “enti inutili”. Un ente senza il quale molta parte di quella comunità che oggi si commuove nel suo ricordo – ma anche la parte che non si commuove – non sarebbe neppure nata, e molti di coloro che all’INGV hanno operato, o ancora operano, sarebbero finiti chissà dove. Ricordiamocelo.

Torna all’indice


Marco Olivieri
Ragionando della morte di Maradona con mia moglie siamo arrivati alla conclusione che certe persone grazie all’ammirazione che nutriamo per loro maturano una sorta di passaporto speciale nella nostra testa. Un passaporto che non permette all’opinione degli altri di scalfirne la nostra considerazione, il nostro rispetto o la nostra stima.
Enzo Boschi per me era una di queste poche persone con un passaporto speciale. A lui devo moltissimo. La mia carriera ed anche, credo, il mio modo di essere un ricercatore sono in buona parte il frutto del rapporto avuto con lui. Mi ha deluso? Qualche volta si, ma conta poco. Ricordo con orgoglio la prima volta che riuscii a rispondere al suo ennesimo sfottò nei corridoi di Vigna Murata e lui che mi disse a voce alta “Olivo, mi stai prendendo forse in giro?” “Non mi permetterei mai, professore” risposi e scoprii il coraggio di essere me stesso, e di dire quel che penso. Questo è il segno che Boschi mi ha lasciato. Mi sono seduto a tavola, ed ho partecipato a riunioni, con i grandi sismologi del mio tempo, dicendo la mia, senza paura ma con rispetto. Poi c’è la passione per i terremoti figlia di una lezione tenuta da Boschi una sera a Cesena mentre facevo la quinta liceo (e di un libro rosso che al tempo girava per casa scritto anche da Stucchi). Ma questo quasi passa in secondo piano. O forse no.

Torna all’indice


1giovani



Patrizia Feletig
Anch’io faccio parte della confraternita degli “orfani” del professor Boschi. Non che io abbia qualcosa a che fare sommovimenti tellurici, nient’affatto. Ho avuto il privilegio di conoscerlo alla presentazione di un libro sulla natura di cui sono co-autrice.  Era nel periodo in cui Enzo Boschi era in attesa della sentenza di terzo grado di un surreale e scellerato processo antiscientifico, e scontava la meschinità di diversi personaggi che prima lo acclamavano e vezzeggiavano. Era uno scienziato umanista come pochi capace di mescolare erudizione con cultura pop. Poteva discorrere con disinvoltura del suo incontro con il grande matematico Paul Dirac quanto altrettanto amabilmente del colore della fodera del cappello di Monsieur Molé nella Recherche di Proust, suo pallino letterario.
Aveva un portamento distinto con dei lineamenti di un fascino un po’ fuorimoda perciò tanto più intrigante. Possedeva la gestualità di una persona abituata ancor più che a comandare, a essere naturalmente assecondata. I suoi occhi ti rovistavano l’anima: uno sguardo ossidrico ­- sebbene anche lui avesse qualche vulnerabilità – combinato a un’imprevedibile empatia verso il prossimo, anche sconosciuto.
Un pomeriggio romano gli proposi per allentare l’ansia del procedimento, di andare alla mostra di Matisse. Ci fermammo a lungo davanti alle Tre Sorelle. Era ipnotizzato dal quadro. Così per gioco, iniziammo a inventare storie sulle tre fanciulle in un crescendo di situazioni improbabili. Fu quell’episodio a suggerirmi di lanciare un gioco su Twitter – social sul quale il professore era molto attivo guadagnandosi un esercito di affezionati follower. Nacque QuizzArt il profilo di quiz su dipinti, non riferiti alla storia dell’arte bensì a curiosità sull’opera, a interpretazioni personali del soggetto, eccetera. Era un gran animatore del gioco con la sua ironia, le battute sferzanti, il suo acume. Mancano molto. Quizzart prosegue anche come omaggio da parte della sua tribù di twitteri devoti.

Torna all’indice




Silvia Pondrelli
Ho conosciuto Enzo Boschi nel 1986 come studentessa del suo corso di Sismologia all’Università di Bologna. Molto probabilmente ero la prima studentessa di geologia che seguisse il suo corso. Questo è stato argomento di lazzi e scherzi per tutta l’annata. Partendo da lì sono sbarcata all’ING diversi anni dopo, a Roma, seguendo la passione che mi aveva trasmesso per lo studio dei terremoti in cui mettevo il mio background geologico.
Negli anni 90 in Istituto ci si poteva rapportare con Boschi con una certa facilità, c’erano i giorni buoni e i meno buoni. Chiacchierare con lui era un piacere, divagava, infarciva le conversazioni di citazioni, di racconti. Come quando faceva lezione, dove tra una formula e un’altra ci raccontava del film che aveva visto al cinema col figlio il giorno prima. E’ stato un emettitore potente di energia.
Gli avrei voluto risparmiare il periodo del terremoto dell’Aquila e delle vicende che ad esso sono succedute, ma era il frontman, lo è stato sempre e quindi era impossibile interporgli una qualsiasi funzione di intermediazione. Solo quando ha lasciato l’INGV abbiamo dovuto, potuto imparare a relazionarci verso l’esterno. La sua figura così riempitiva ci ha lasciato un vuoto che abbiamo imparato, o almeno provato, a rioccupare un passo per volta e con il tempo.

Torna all’indice


3quattro

Con Renato Funiciello, Claudio Eva e Paolo Scandone



Daniela Pantosti
1987: arrivo all’ING senza sapere cosa mi dovevo aspettare, cosa significava lavorare in un Ente di ricerca e poi in sismologia, io che mi ero laureata in geologia strutturale, avevo il sogno di fare la vulcanologa e avevo esperienze lavorative al Servizio Geologico d’Italia per mappare carte geologiche e all’ISMES per individuare siti per lo stoccaggio di scorie radioattive: non potevo che essere in gran confusione.
Ma l’ING della fine degli anni ‘80 era una grande famiglia, con tanti giovani che erano stati reclutati da Enzo Boschi presidente insieme a Renato Funiciello, vice-presidente, e con il prezioso supporto di Cesidio Lippa Direttore Generale. C’erano i ricercatori, i borsisti, tanti i tesisti. Tanta collaborazione e aiuto reciproco, giovani pieni di entusiasmo che si specializzavano in tanti campi diversi, trascorrevano periodi all’estero e mettevano in piedi attività di ricerca nuove non solo per l’ING ma anche per l’Italia. Un’energia straordinaria, messa in campo in un ente piccolissimo utilizzando metodologie all’avanguardia per dare una svolta alla comprensione dei terremoti, dell’interno della terra, della sismicità italiana, e per consolidare le attività di sorveglianza sismica del territorio nazionale iniziate da poco. Gran parte di questa energia ce la metteva proprio Enzo.
Enzo Boschi era molto interessato a conoscerci, avere scambi scientifici con tutti noi ma devo ammettere che non era facile, ti riempiva di domande, voleva sapere, sapere tutto, voleva capire i tuoi punti deboli e le tue certezze e metteva sempre sotto inchiesta il tuo problema scientifico e il modo di affrontarlo. Lui col suo sorriso ironico e la maledetta sigaretta tra le dita cercava di far uscire le tue aspirazioni e al tempo stesso le criticava fornendoti indirettamente quegli elementi che servivano a raggiungerle. Un modo un po’ strano per formare un ricercatore ma riusciva a farti capire che con l’impegno e la curiosità ce la potevamo fare, che dovevamo analizzare e valutare a fondo tutto, mettere in discussione risultati e modelli, dovevamo interessarci e sapere di tutto anche al di fuori dalle scienze della terra, non dovevamo mai focalizzarci solo sulla piccola tessera del grande mosaico che stavamo componendo assieme agli altri. E lui questo sapere in tutte le direzioni lo rappresentava profondamente. I miei primi anni all’ING con Enzo Boschi presidente sono stati preziosi e sono le fondamenta della mia carriera scientifica: mai fermarsi davanti a delle domande difficili e affrontare tutto a testa bassa, con impegno, decisione e spirito critico, collaborare ma anche competere in modo corretto e non rinunciare mai a una bella risata. Convincerlo che la geologia poteva dirci qualcosa di prezioso sui terremoti è stata un’impresa, ma Enzo sapeva ascoltare e con Gianluca Valensise ce l’abbiamo fatta ed abbiamo ottenuto il suo fermo rispetto e considerazione che è sfociato addirittura nell’organizzazione di un corso della International School of Geophysics di Erice. Grazie Enzo!

Torna all’indice




Carlo Meletti
Nei due anni che sono trascorsi dalla scomparsa di Enzo Boschi ho spesso pensato a cosa mi avrebbe detto in vari momenti della mia vita professionale e ho così ripensato alle occasioni di incontro che abbiamo avuto in quasi 30 anni. Chissà perché mi restano in mente la prima e l’ultima volta che l’ho visto.
La prima volta è stata nel 1990, quando lui si presentò a Pisa per una riunione del GNDT durante l’occupazione del movimento noto come “la pantera”. Io ero un giovane laureato da qualche anno che incontrava una persona già famosa e che aveva visto solo in TV. Ricordo che lui si fermò a parlare con gli studenti che occupavano il Dipartimento e li esortava ad andare avanti nella protesta e di non guardare in faccia nessuno. Una sollecitazione che fece anche a me qualche anno più tardi, quando mi invitò a liberarmi della sindrome di Stoccolma nei confronti di chi in quel momento mi dava un lavoro. Mi ci vollero ancora 4 anni…
L’ultima volta fu il 18 gennaio 2013. Eravamo stati a Milano a festeggiare il pensionamento di Max Stucchi e proprio quel giorno uscirono le motivazioni della condanna in primo grado della Commissione Grandi Rischi per il terremoto dell’Aquila. Alla stazione di Milano ci salutammo prima di salire sul treno e lui mi abbracciò stringendomi molto forte e, quasi con le lacrime agli occhi, mi disse di tenere duro e di continuare a chiamarlo o scrivergli. Quell’abbraccio mi turbò, anche perché, a parte le normali strette di mano, non avevo mai avuto con lui contatti fisici di quel tipo. Capii allora quanto la vicenda di quel processo lo avesse colpito e coinvolto ad ogni livello, molto più di quanto lasciasse trasparire.

Torna all’indice


2Con I Presidenti della Repubblica

Con i Presidenti della Repubblica



Giorgio Spada
Come incontrai Enzo. Ero al 3° anno di Fisica a Bologna, nel 1985. Un giorno, a lezione incontrammo un docente per un ciclo si seminari di Struttura della Materia, dotato di formidabile chiarezza. Tutti, poco dopo, corremmo da lui per una Tesi. Andai anch’io al primo piano della sede di via Irnerio. Il Prof, ritto di fronte alla finestra, mi disse che aveva troppi studenti, non aveva tempo… Poi mi chiese di avvicinarmi e guardare giù, verso il cortile, dove all’altezza del cancello c’era una persona che stava uscendo. “Ah, ecco” – disse – “lo vede? E’ Boschi, il sismologo. Chieda a lui.… le darà certo qualche buon consiglio”.
Gli diedi retta. Nei mesi successivi cercai di imparare la sismologia – non son certo di esserci riuscito. A lezione eravamo in due nella sala riunioni del secondo piano; lui stava a capo tavola e a volte mi dava del secchione. Da allora è passato tanto tempo. Negli anni ho apprezzato i momenti in cui Enzo voleva scambiare qualche idea; verso pomeriggio tardi si precipitava lungo i corridoi uscendo forse da qualche riunione, a caccia di chi si trovava ancora in ufficio. Si parlava a volte di questioni che presto evaporavano nel nulla ma che a volte, di lì a pochi mesi, uscivano su una buona rivista.
Pochi giorni prima della sua scomparsa mi chiese “Perché in Italia non c’è una grande Geofisica?” Io credo che ci sia, e che questo si debba soprattutto a lui. 

Torna all’indice




Gianni Bressan
La mia, dall’esterno del INGV, non può che essere una opinione superficiale. Personaggio che a volte mi appariva complesso, sfaccettato. Però gli dò atto di essersi identificato con l’istituzione di cui era Presidente, facendone gli interessi. Promuovendo e incentivando tanti. Gli si possono riconoscere in tanti momenti grande lucidità e intelligenza. Aspetti che del resto emergevano nel rapporto epistolare che abbiamo avuto qualche tempo prima che mancasse.

Torna all’indice




Fabrizio Galadini
Un anno fa, tra vecchi documenti di quando cominciavo a muovere i primi passi nel mondo della ricerca, ho casualmente rinvenuto un ritaglio di giornale dal Messaggero del 23 agosto 1992; in primo piano una fotografia di Boschi forse trentenne. Nel testo, dedicato al convegno di Erice sulle emergenze planetarie, c’era qualche parola su MedNet e sul progetto di un osservatorio terrestre permanente per l’acquisizione di dati necessari a prevedere i terremoti.
Pur non avendo particolare interesse per il contenuto dell’articolo (e non so perché quasi trent’anni fa decisi di conservarlo), ho voluto affiggere il ritaglio alla parete della mia stanza di via di Vigna Murata. L’ho fatto perché quello stralcio giallo e sbiadito mi ha ricordato e mi ricorda il solido senso “non strumentale” (richiamato nello statuto dell’Ingv) che Boschi attribuiva alla ricerca dell’Istituto: anche quando questa assumeva connotati “applicativi”, uscendo dai favoriti canoni della scienza fondamentale, ciò doveva avvenire in modalità mediata, articolando l’attività su tempi e necessità della ricerca, tra cui quella imprescindibile del sensibile avanzamento della conoscenza.
Tale impostazione ha anche una sua funzione per la difesa dalle intromissioni di segmenti della società estranei al mondo della scienza e dei suoi metodi. La condivisione di quella visione della ricerca è stato uno dei motivi, tra i vari, che mi ha spinto, nel tempo del cosiddetto “Processo alla Commissione Grandi Rischi”, a impegnarmi per approfondire e capire quanto era accaduto dal terremoto dell’Aquila in poi. Proprio quel tipo di intromissioni si erano negativamente manifestate in una strumentalizzazione dell’informazione scientifica. Ancora oggi penso che il sentito ringraziamento che Boschi mi rivolse alla fine dell’iter giudiziario non fosse soltanto conseguenza del positivo esito personale, ma anche il riconoscimento per lo sforzo condiviso con i colleghi a difesa dell’unico modello di ricerca possibile.


Torna all’indice

4Erice1

Due delle scuole di Erice: 1989 e 1995




Maria Laura Oddo
Settembre 2015. Mi sono iscritta a Facebook e mi piace molto; belli questi social! Quasi quasi provo anche con Twitter! Fatto! Chi seguo? Comincio da qualche giornalista; proviamo con Mentana! Ma chi vedo?
C’è “un” Enzo Boschi che interloquisce con lui! Ma sarà proprio ” il ” Prof. Enzo Boschi che conosco, quello che è stato tanti anni a capo dell’INGV e prima ancora dell’ING? Quello che teneva i corsi di geofisica a Erice, alla scuola Ettore Majorana e ne è stato anche Vicepresidente?
Poche domande e capisco che è proprio lui! Sono felice Professore, ti ho ritrovato!
Ti ho ritrovato in quello che, in un secondo momento, definisti “un gioco di società” che – dicevi – ti aveva salvato la vita quando eri stato cinicamente “messo in panchina“. Sapete, Boschi era una STAR su Twitter, ma NON lo era scrivendo “solo” sui terremoti , ma anche affrontando gli argomenti più disparati, dall’arte alla storia, alla letteratura, alla poesia!
Aveva “iniziato” migliaia di persone ai sonetti di Shakespeare , alla “toscanità” e ai pittori moderni.
Con lui ho conosciuto Jack Vettriano, Hopper! Gli piaceva tanto Hopper, forse perché rappresentava la solitudine, la solitudine nella quale lo avevano lasciato molti suoi colleghi che lo avevano abbandonato nel momento più buio! Tanti guizzi con QuizzArt, tanta scienza con “Terremoti e grandi rischi“!
Eri tu, caro Professore, complesso e, nello stesso tempo, semplice! Poi quel “Tu ce la farai, io no” ed il silenzio, poco prima della fine! Fine che fine non è perché ci sarai sempre in mezzo a noi, con la tua Cultura, la tua Ironia, la tua “Toscanità“!
Ciao, Professore, speriamo che tu ti sia sbagliato e che esista un aldilà dove ci si possa ritrovare a parlare di Hopper!

Torna all’indice


Bruno Zolesi
In un ente con un rilevante orientamento sismologico, caratterizzato da una forte interazione con il mondo accademico e mediatico nazionale, non è stato facile rapportarsi con una personalità come quella di Boschi per chi come me si occupava di fisica ionosferica, disciplina che negli anni ottanta soffriva di una profonda crisi generata dal progresso tecnologico satellitare e dalla attenuata tensione internazionale successiva alla fine della guerra fredda. Non come oggi ove è parte importante del suggestivo Space Weather.
E’ merito di Boschi, della sua lungimiranza nel sostenere un piccolo gruppo di ricercatori dell’ING, che ha consentito di mantenere il know-how della osservazione ionosferica durante una difficile fase di transizione.
Negli ultimi 50 anni ho avuto l’opportunità e la fortuna di essere testimone della evoluzione dell’ING, prima come studente di E. Medi, all’inizio degli anni 70, e poi come ricercatore dell’ente dalla fine di quel decennio. Ho nel mio ricordo ben chiaro quale fosse l’ING nel periodo che precedette la nomina di Boschi a commissario.
Nei giorni intorno a Natale viene ritrasmesso quel bel film di Frank Capra “La vita è meravigliosa” nel quale al protagonista viene mostrato magicamente come sarebbe stato il suo paese se lui non fosse esistito. Due anni fa questo mi ha fatto pensare quale sarebbe stata oggi la sorte dell’INGV, il destino di tutti noi e delle nostre famiglie, compresi i forse ignari stabilizzati del 22 Dicembre 2018, senza la presenza, l’azione e la generosità di Boschi.

Torna all’indice


Luca Malagnini

Enzo è stato per me un riferimento importante. Sempre disposto ad ascoltarmi, siamo rimasti in contatto fino a poco prima della sua morte. Negli ultimi tempi facevamo lunghe chiacchierate al telefono, durante le quali mi chiedeva delle mie vicende personali e di quelle dell’INGV. Di sé non parlava quasi mai. Il suo cruccio era che noi, creatori insieme a lui di un’eccellenza assoluta, sembravamo incapaci di far correre il testimone che lui stesso, suo malgrado, ci aveva consegnato.
Con rabbia, ci accusava di essere corresponsabili della deriva che stava portando il nostro Ente verso un ruolo sempre più subalterno rispetto a quello dei suoi finanziatori. Per evitare questo problema, quando era ancora al vertice dell’INGV mi disse che dovevamo rapidamente evolverci in un Ente con due anime distinte: un primo dipartimento dedicato alla ricerca di base, mentre nel secondo sarebbero confluite tutte le attività di monitoraggio e servizio. Non so se questa nuova versione dell’INGV avrebbe avuto miglior fortuna di quella attuale, ma era chiara la sua voglia di rilanciare la ricerca. Perché il successo personale di Enzo Boschi coincideva con quello dei suoi ricercatori.
Credo che chiunque adesso faccia parte dell’INGV abbia verso di lui un enorme debito di riconoscenza. Anche se è venuto dopo. Anche se lo ha dimenticato. Nessuno escluso.

Torna all’indice

6Erice98

La scuola di Erice del 1998, dove l’INGV cominciò a nascere


Antonella Cianchi
Originalità e caparbietà, cultura e curiosità, arguzia e humor, eleganza e vanità sono alcune delle doti che ho personalmente conosciuto del bagaglio personale e professionale di Enzo Boschi. Ma oltre a queste doti ciò che rende indelebile in me il ricordo del Prof. Boschi è il fatto che fosse un “visionario”. Intendiamoci subito: intendo un uomo che, grazie alle sue doti e al suo istinto coraggioso, possedeva il dono della “vision”, di guardare oltre, di riuscire a pensare oltre il limite che nessuno avrebbe osato oltrepassare. Non sempre i suoi giudizi e i suoi programmi sembravano avere una solida base di dati, di prove, e diciamo che non sempre ha colto nel segno, talvolta anche entrando a gamba tesa senza i virtuosismi della diplomazia. Diceva e ribadiva quello che pensava, anche rudemente. Ma Enzo Boschi è stato capace, grazie a quella “vision”, di realizzare il futuro. Un futuro che, per circa 7 anni, ho avuto il privilegio di conoscere.

Torna all’indice

8impegnato

Con Walter Veltroni e Antonella Cianchi all’INGV. Con Franco Barberi e Gianluca Valensise a Reggio Calabria



Dario Slejko
Enzo Boschi era una persona speciale. Imprevedibile, sempre e comunque. Ho avuto occasione di interfacciarmi con lui numerose volte e sono numerosi gli aneddoti che mi vengono alla mente pensando a lui, adesso, a due anni dalla sua scomparsa.
La prima volta lo incontrai nel 1976 ad Udine in occasione del convegno sul terremoto del Friuli. Non ricordo le sue presentazioni o i suoi interventi nelle discussioni ma ho una visione di lui insieme a Maurizio Bonafede mentre scendevano le scale del palazzo che ospitava il convegno. Scherzavano fra loro, rilassati, freschi e dinamici nel contesto serioso della manifestazione.
Un’altra volta, non ricordo quando e dove, eravamo seduti vicini su un aereo che non si decideva a decollare. Enzo mi ripeteva “Caro Dario, bisogna avere pazienza, una grande pazienza”, e, intanto, non riusciva a stare un momento fermo sul sedile. Passava il tempo e, nell’attesa del decollo, lo stewart distribuì bibite e noccioline che Enzo mangiò nervosamente ripetendo “Ci vuole pazienza, bisogna coltivare l’arte della pazienza”.
Boschi diresse molte scuole a Erice, sempre molto valide scientificamente. In quel bel posto, ebbi occasione di cenare molte volte con Enzo, generalmente in compagnie allargate, dove lui dominava le discussioni con la sua sagacia e il suo humor. Alcune volte mi è capitato anche di essere al tavolo solo con Enzo e di apprezzare la sua vasta cultura, scientifica e letteraria e la sua grande sensibilità per le cose della vita che lo avevano toccato, da vicino o da lontano.
Una personalità eclettica, estroversa, credo sempre sincera nel suo modo imprevedibile.

Torna all’indice


Alessandro Bonaccorso
Ho conosciuto Enzo Boschi più da vicino a fine anni ’90 nella fase di transizione all’INGV. Le sue prime visite alla Sezione di Catania furono sorprendenti per vivacità di pensiero, visione proiettata nel futuro, capacità di sfrondare i problemi secondari e mirare a obiettivi primari e di lunga gittata.
Il suo scopo di portare avanti la nuova sfida di far crescere l’INGV era sostenuto in modo prorompente, per noi provenienti dal CNR quasi sbalorditivo. E di questa sua spinta propulsiva sicuramente la Vulcanologia ne ha beneficiato enormemente, facendo uno straordinario balzo in avanti nel decennio 2000-2010 in termini di personale, risorse, attività, prodotti scientifici. Per quel periodo, caratterizzato da numerose eruzioni critiche, è sorprendente ripensare a tutti gli spunti e le opportunità che ha promosso e favorito in termini scientifici e progettuali (basti pensare alla ‘storica’ prima Convenzione INGV con il DPC).
Non ho mai smesso di essere in contatto con Enzo Boschi e, volutamente, soprattutto nel delicato periodo post L’Aquila, durante il quale percepivo bene la sua grande sofferenza umana in quella triste vicenda. E quello fu un periodo in cui sicuramente il bilancio tra quanto da lui dato e quanto ricevuto è andato ingiustamente in negativo. Conservo nel mio intimo numerosi episodi in cui Enzo ha mostrato genialità e lungimiranza. E per me queste sono le caratteristiche che meglio lo hanno identificato e contraddistinto.
Nella mia memoria mi piace ricordarlo come nel nostro ultimo incontro al Caffè Zanarini di Bologna nel giugno 2017 (con classica spremuta di arancia), dove dopo diverse ore di battute, arguzie e anche molto sarcasmo, tipico del suo spirito ‘aretino’, la splendida mattinata si concluse con un forte e affettuoso, ma molto melanconico, abbraccio.

Torna all’indice

7Catania1981

A Catania durante l’eruzione dell’Etna del 2001. A destra con Carlo Piccarreda



Alessandro Amato
(Pensiero fatto qualche giorno dopo la morte, che non mi ero mai deciso a rendere pubblico)

Ieri notte ho sognato Enzo Boschi. O meglio, ho sognato che non so per quale ragione andavo a vedere quale fosse stato il suo ultimo tweet dall’ospedale. Di questa cosa mi aveva parlato Max Stucchi, ma io mi ero sempre rifiutato di andare a curiosare. Lo trovavo indiscreto e anche un po’ macabro, e poi quella cosa dei profili social interrotti dalla morte mi ha sempre angosciato.
Nel sogno invece le cose andavano diversamente. Lo facevo con leggerezza e quasi con gioia, soprattutto dopo aver visto che Enzo aveva cambiato la sua immagine del profilo mettendoci una sua caricatura sul letto di ospedale. Mi pareva avesse un termometro in bocca e una faccia tipo Commissario Basettoni. Simpatico e divertente. Mentre dicevo Guarda che grande auto-ironia, pur sapendo che…, mi accorgevo che la caricatura era in realtà una GIF in cui la faccia cambiava continuamente, diventando altri personaggi: un orso (tipo Baloo), un rinoceronte, ecc. La cosa mi ha divertito e mi ha fatto sorridere a lungo nel sonno.
Non ricordo altro di quel sogno ma la sensazione è stata quella di un’amicizia, di una mancanza, di un non detto. Che ora, dopo tanti giorni dalla tua scomparsa, vorrei dire.
Vorrei dirti, Enzo, che nonostante le tue ire e i tuoi strali degli ultimi anni, nonostante i tuoi duri attacchi soprattutto per quella storia di Ischia del 2017, che mi fecero stare molto male, io ti ho voluto bene e ti sarò sempre riconoscente. Riconoscente perché mi hai insegnato molto, dandomi l’opportunità di fare tante cose (belle) nel mio lavoro di ricercatore. Non credere che me le sia dimenticate. Come non mi sono scordato, e non mi scorderò mai, i tanti momenti importanti e quelli difficili che abbiamo passato insieme, tu da Presidente e io da ricercatore prima, da Direttore del CNT poi. I convegni di Erice dove ho potuto conoscere i grandi sismologi e geologi di tutto il mondo. I problemi con i terremoti degli anni ’90 (Potenza, Siracusa, Colfiorito). La grande fiducia che mi hai concesso nel 2001 affidandomi il compito di rifare daccapo la Rete Sismica nazionale dell’INGV. Fiducia e libertà. La crisi del 2002, quando ci presero di peso e ci portarono in Molise dopo la tragedia della scuola di San Giuliano, con la Grandi Rischi. Ma anche le discussioni tra noi, talvolta aspre, su tante cose. Sempre però con grande rispetto e con la disponibilità al confronto e a cambiare opinione.
E poi gli anni dell’Aquila, che tanto ti hanno addolorato. L’alone di sfiducia e critica nei tuoi confronti. L’atteggiamento, meschino, di chi si è approfittato del tuo momento di grande difficoltà per vendicarsi di qualche torto (vero o presunto, qualcuno lo avevi sicuramente inflitto, accidenti…). Alcuni saranno forse stati capaci di gioire perfino della tua morte. Non io. Anzi, al tuo funerale a Bologna ho indossato quel tuo completo di velluto nero a coste che mi avevi voluto regalare (dicevi che avevamo più o meno lo stesso fisico, ma in realtà la sarta ha dovuto fare un gran lavoro…).
Sono orgoglioso di esserti stato d’aiuto (sia pure piccolo, a te e a Giulio) negli anni bui della condanna in primo grado, e in quelli che hanno preceduto e seguito la vostra riabilitazione (mai abbastanza ricordata e riconosciuta!) dopo l’appello e la Cassazione. Il fatto non sussisteva.
Negli anni a seguire ci siamo allontanati, e di questo ti chiedo scusa, io sopportavo poco i tuoi attacchi contro tutti, probabilmente originati dai tanti anni di processi. Mi era sembrato impossibile ritrovare un dialogo, ma avrei dovuto provarci.
Mi manca la tua intelligenza, la tua cultura, la tua lucidità, la capacità che avevi di stupire con idee originali e futuriste, con citazioni di autori greci e latini, e subito dopo degli Skiantos o degli Oasis. Sicuramente gli anni a venire saranno più noiosi senza di te. Un abbraccio

Torna all’indice


Patrizia Gucci
Lettera ad Enzo Boschi
Sì, mi manchi tanto, ma soprattutto mi manca il tuo personaggio, così fuori dalle righe che con schiettezza e verità, dice le sue opinioni. Su tutto? Quasi!
Fisico, chimico, vulcanologo e, come scrivi tu “rabdomante“, ovvero “colui che cerca e trova i misteri della terra“. Ad ogni domanda rispondi, sai tutto!
“Ma che cultura, Professore!” “Lo sai o l’hai studiato? “ “L’ho studiato e leggo tanto“.
“Ma ti rendi conto, che hai mandato al quel paese quelle persone? Sono ignoranti, ma non si fa!”
“Io lo faccio perché lo penso, dicono continue inesattezze e sono stufo!”
Sei stato grandioso quel giorno che, qui vicino Firenze, c’è stata una scossa di terremoto! Hai risposto subito, con grafici, punto focale, ora precisa, secondi e profondità! Mi hai veramente tranquillizzata! Mi dicevo: “Che fortuna ho di conoscerti!”
Tutta l’Italia è a rischio sismico” dicevi. “Allora può succedere anche dove sono seduta io?” “Probabile!”
“Ma gli esperti del governo lo sanno?” “Certo e non fanno nulla, niente di niente!”
“Ti piace tanto l’arte, vero, Patrizia? Anche a me, moltissimo!” E poi …” Hopper, non è un po’ troppo realista, quel senso di solitudine?” “La vita è così!”
E Quizz Art? Quei quadri? Chi è l’autore? Nove su dieci li indovini, Io forse uno o due! “Ed il video sulle balene? Ti piace?” “Tantissimo; l’ho visto e rivisto tre volte!” “Io amo tanto gli animali e la natura”, ti dico!
“Hai un senso dell’umorismo veramente speciale, sai Professore?” Ti dico: “Vieni a Firenze a trovarmi?” Mi rispondi: “Una persona nata ad Arezzo, non verrà mai a Firenze; abbiamo fatto la guerra per anni!”
“Ti ringrazio tanto dei bei fiori che mi mandi anche se virtuali!”
“Grazie, Enzo, di esserci!”

Torna all’indice


Michele Dragoni
Sono trascorsi due anni dalla scomparsa di Enzo Boschi. L’anno scorso un gruppo di ricercatori e docenti dell’INGV e dell’Università di Bologna aveva pensato di celebrarne la memoria organizzando un convegno che si sarebbe tenuto a Erice, luogo che molti di noi hanno frequentato per oltre vent’anni grazie alla Scuola Internazionale di Geofisica di cui Enzo era il direttore. Il sopraggiungere della pandemia ha reso impossibile la realizzazione dell’iniziativa e pertanto mi fa particolare piacere rinnovare il ricordo di Enzo in questa occasione.
Non ripeterò l’elenco dei suoi grandi meriti, sui quali mi sono soffermato nel mio intervento su questo blog due anni fa e che tutti conosciamo. Desidero solo esprimere ancora una volta la mia riconoscenza per quello che ha fatto e testimoniare che il suo ricordo rimane indelebile nella mia memoria e – ne sono certo – in quella di moltissimi altri colleghi e colleghe che lo hanno conosciuto e apprezzato.

Torna all’indice

9varie


Massimo Cocco
Ricordare Enzo Boschi a due anni dalla sua scomparsa è facile e difficile al tempo stesso. È facile perché nello svolgimento attuale del mio lavoro la sua presenza e la sua memoria è stabile. È difficile perché ricordarlo mi lascia la sensazione di una lacuna, come se ci fosse qualcosa che non abbiamo potuto completare assieme.
Il mio rapporto con Enzo è sempre stato diretto e sincero. E come tutti i rapporti diretti ci siamo anche scontrati duramente confrontandoci da posizioni molto diverse, superandole poi nell’ambito di un rapporto professionale e umano vivo. Oggi però voglio ricordare la condivisione di obiettivi scientifici, l’idea di far diventare l’ING prima e l’INGV dopo un Ente pubblico di Ricerca di rilevanza mondiale e all’avanguardia nelle scienze della Terra. Io credo che Enzo questo obiettivo l’abbia conseguito pienamente.
Mi piace ricordare il Presidente che girava nei corridoi dell’ING e dell’INGV la sera e si fermava con chi stava facendo ricerca, scherzando a modo suo ma anche motivando chi si dedicava al suo lavoro.
Forse la lacuna che sento è quella di non aver potuto discutere con lui serenamente dell’INGV e della ricerca scientifica nelle scienze della Terra quando lui non era più il mio Presidente e dopo il 2009, l’anno del terremoto dell’Aquila.
Credo sia giusto ricordarlo oggi riconoscendo l’enorme contributo che Enzo ha dato alla geofisica e alle scienze della Terra in Italia.

Torna all’indice

Feltrinelli-Catania_aprile 2011

A Catania con Alessandro Bonaccorso


Tullio Pepe
Due anni dopo. Sul mio account di Twitter, nell’elenco dei miei pochi following ho conservato il profilo di Boschi.Ogni tanto rileggo i suoi tweet e allora me lo immagino nella casa di Bologna, in centro, a pochi passi dalla chiesa dove due anni fa, in una livida vigilia di Natale, celebrammo il suo funerale, oppure nella casa di campagna sull’appennino tosco romagnolo, mentre compulsa, con un dito solo, la tastiera dell’iPad e beneficia i suoi 26mila follower della sua intelligenza, alternando spunti di arte, letteratura, politica, scienza, ambiente; e poi polemiche; e poi galanterie verso qualche sua follower particolarmente attraente. E in questo modo tiene lontani la solitudine, gli incubi legati al processo dell’Aquila, i problemi di salute e si sente ancora – almeno in parte – quello che è sempre stato: un protagonista del suo tempo.
Twitter, dopo la sua uscita dalla scena dell’INGV, è stato il mio legame con Enzo per molti anni. Tra noi non mancavano i contatti via email e telefonici; ma email e telefonate giravano sempre intorno alle vicende dell’INGV e allora le vivevo spesso con disagio perché il suo principale obiettivo era dimostrare che dopo di lui l’Istituto era sprofondato nella mediocrità e allora cercava solo conferme che non sempre mi sentivo di fornirgli, anche se percepivo il suo amore per l’ente che aveva contribuito massimamente a far nascere e a fare grande.
Su Twitter, invece, ritrovavo la vivacità di pensiero, la cultura immensa, l’arguzia aretina, il modo di fare che mi avevano affascinato sin da quando, nel 1982, me lo trovai davanti in Istituto, per la prima volta, alto, magro, che mi sembrava un ragazzo e mi porgeva la mano sinistra rovesciata, senza imbarazzo, e mi diceva “ok, diamoci del tu”. Nel salotto sintetico della rete rivedevo la personalità che ci guidò attraverso tre decenni di scommesse e di successi nel mondo complesso della ricerca scientifica pubblica.
So bene che il suo account è fermo a due anni fa. Ogni tanto, però, lo apro: hai visto mai che ci trovi qualche battuta al vetriolo sui sismologi che non la pensano come lui?

Torna all’indice


Massimiliano Stucchi
Scrivere qualcosa su Boschi è come entrare in un frullatore. Pensieri, affetti, contrasti. Ricordi pubblici e personali; e quelli più intimi che restano dentro ciascuno di noi.
I primi incontri, lontani; poi sempre più ravvicinati, telefonate, brevi colloqui, scherzi, scazzi. I progetti, le tappe. L’intesa, quando c’era, era piena, impetuosa, trascinante. I regali che faceva: libri, giacche, cravatte: una cravatta tagliata, durante una riunione INGV. Il suo vestire elegante, e il perché. Erice, una delle sue creazioni, dove era più rilassato che a Roma: la gara per farsi invitare a pranzare al suo tavolo.
E le battute, tante. “Sarà un trionfo”; e lo fu. “Dove vai questa volta?” “Vicino Almerìa” “Ah, a sud di Granada!” (aveva letto il libro omonimo di G. Renan, prima di me)”. In mensa a Milano, dove si sforzava di pronunciare la “cassoeula”, e giù risate. E poi il periodo “social” con il Foglietto, Twitter, @Quizzart. Questo blog volava con i suoi retweet.
E soprattutto la sua forza d’animo (!!): la menomazione antica, e poi la frattura mentre si imbarcava in aereo. E L’Aquila, quel pugno nello stomaco. “Affronteremo anche questa”, disse dopo il rinvio a giudizio. La affrontò, combatté e vinse, ma ne portò i segni.
Oggi però voglio ricordare un Boschi che pochi conoscono. Nel Progetto Finalizzato Geodinamica (PFG), dove prevalevano geologia, vulcanologia e ingegneria sismica, c’erano solo alcuni embrioni di sismologia: reti sismiche, catalogo dei terremoti, un po’ di sismogenesi. Pure, quel PFG sentì la necessità di una visione più ampia, avanzata; istituì il “Comitato Coordinamento Sismicità” (CCS) e ne affidò il coordinamento a Boschi.
Di questa vicenda conservo un verbale e un documento dal titolo mirabile, entrambi scritti a mano nel 1979. Nel documento c’è il futuro della sismologia italiana, l’attenzione a tutti i settori, la necessità di migliorare l’organizzazione degli enti di ricerca. C’è il Boschi visionario e propositivo, da poco professore ordinario, non ancora presidente ING: il Boschi che ha in mente l’INGV.

Torna all’indice


CCS1

Alberto Michelini
Ho veramente poche parole da dire perché l’ho conosciuto poco di persona mentre l’ho messo a fuoco molto meglio per  quello che faceva o aveva fatto. Penso che Enzo sia stato un uomo illuminato con una grande visione sul ruolo che la geofisica, e la sismologia in particolare, dovessero avere in un paese sismico come il nostro. Ha capito da subito che bisognava puntare su una nuova generazione di ricercatori e che questa doveva essere istruita a dovere per poter andare al passo coi tempi. Negli anni ‘80 si trattava di rivedere un po’ tutto a partire dal monitoraggio a scala nazionale che non poteva essere una federazione di osservatori indipendenti mentre si doveva centralizzare per fare in modo che i dati fluissero e venissero processati opportunamente in tempo reale per effettuare la sorveglianza sismica e per monitorare la sismicità. Cioè era necessaria la rete sismica nazionale. Ma era altrettanto necessario investire su nuovi campi di ricerca altrettanto necessari per comprendere meglio la complessità dei fenomeni sismici.  Nei miei anni trascorsi in California ho incontrato tanti di coloro che sarebbero diventati i miei futuri colleghi. Erano tutti che appartenevano all’ING.  Avevamo tutti la stessa età. Enzo capì l’importanza di realizzare un grande istituto mettendo insieme geofisica e vulcanologia: ha creato l’INGV.  Da poche decine di persone a piu’ di 1.000 in pochi anni. Penso che basti questo per comprendere la sua reale statura e quanto il paese gli debba essere riconoscente. 

Torna all’indice


Sergio Del Mese
Tanti anni fa, io c’ero, arrivò un uomo con occhi vivi, brillanti, pungenti. Un uomo che scherzava con tutti, mentre la radiografia era in atto. Chiamò a raccolta le truppe, nessuno escluso, vaneggiando nomi mai sentiti prima come Sala Sismica, Sorveglianza Sismica, Rete nazionale, Turni… Quindi costruì castelli ed elevò capitani al ruolo di generali, incitando, a volte urlando, mai domo, mai sazio.
Quando la prima roccaforte ebbe una forma, entrava spesso, per vedere, chiedere, capire…     …la battuta non mancava mai, tra un allarme, un terremotino, i telefoni che squillavano, tra rulli e righelli pieghevoli, tra Alex, Epin, Epic…
…il progetto si evolveva, si ingrandiva, arrivarono falchi, poche aquile, molti fringuelli, alcuni volando altri su solidi posatoi, prima a Villa Ricotti, poi a Vigna murata e, infine, diede vita al sogno dell’INGV, attraverso molte rivoluzioni piccole e grandi, certamente non soltanto logistiche…
Siamo cresciuti, tutti, sotto una spinta continua, pungente, costruttiva. Però non si possono mettere tanti anni in poche righe, anche sorvolando sulle ultime terribili battaglie. Episodi da raccontare, anche divertenti, ce ne sono stati molti…   ma fanno parte di un privato che stonerebbe in questo contesto, dico soltanto che parlare, intrattenersi con tecnici (…Franco Pirro, Luciano Giovani o lo stesso Piergiorgio De Simone) era un chiaro segnale di chi voleva veramente capire esigenze e problemi a tutti i livelli.
Chiudo, con un ricordo personale di Boschi, una lettera con cui si congratulava per i nostri lavori all’interno del PFG, mostrata soltanto per onorare la memoria di Maria Cecilia Spadea, artefice di quell’encomio, scomparsa tragicamente in un incidente stradale, mentre si recava al lavoro, nella sede di Monte Porzio Catone.

BOSCHI SPADEA

Quelle poche righe scritte di suo pugno, per i due “contrattisti” interessati, erano un sogno ad occhi aperti ma anche la misura di come un CAPO fosse attento alle mille attività di quanto stava costruendo.

Torna all’indice


Marianna Gianforte

«È dall’Aprile del 2014 che non siamo in contatto. Speravo di incontrarti a L’Aquila quando son venuto a testimoniare nel processo Bertolaso. Oggi ho visto un tuo tweet su Tornimparte… Come stai? Come va il tuo lavoro?».
Era il 27 luglio 2016 quando Enzo Boschi mi scrisse questo messaggio su Twitter. Non gli risposi mai. Non c’è un motivo preciso del perché non lo feci, forse ero presa dal tam-tam della vita quotidiana e lavorativa che, allora, per me aveva ritmi assurdi. Più volte dissi a me stessa che dovevo trovare il tempo di rispondere, perché era un messaggio diverso. Mi rammarico ancora oggi del mio silenzio. Ancora oggi, quando penso alla notizia della sua morte, mi sento profondamente in debito con lui per quel messaggio non risposto, per la sensazione sottile che mi ha lasciato: forse cercava una sponda per comunicare qualcosa.

Qualche anno prima – il 2 aprile 2014 – lo avevo invitato a partecipare a una mostra fotografica dedicata al quinto anniversario del sisma aquilano, a casa Onna, nella quale io e altri colleghi del quotidiano abruzzese Il Centro mettevamo a confronto con ritratti fotografici cittadini aquilani nella loro vita pre e post sisma. Declinò l’invito scrivendomi che, per come erano andate le cose (la condanna in primo grado per il processo alla commissione Grandi rischi), temeva che la sua presenza potesse «infastidire qualcuno». E poi aggiunse: «Non ho mai tranquillizzato nessuno prima del terremoto del 2009. Anzi, ho sempre evidenziato l’alta pericolosità abruzzese. Spero che tutto si chiarisca con l’Appello. Poi, spero che m’inviterai a raccontare le cose da un altro punto di vista». Il suo “grazie di cuore” che chiudeva quella conversazione su Twitter descrive perfettamente l’uomo che Boschi era. Capita raramente che qualcuno ringrazi mettendoci il cuore. Boschi era così. Soltanto pochi mesi dopo – a novembre – l’ex presidente dell’Ingv venne assolto insieme a Giulio Selvaggi, Franco Barberi, Mauro Dolce, Claudio Eva e Michele Calvi, mentre la condanna fu confermata (anche se rideterminata) per Bernardo De Bernardinis della Protezione civile.

E adesso ripercorrendo quei messaggi, di cui l’ultimo colpevolmente senza la mia risposta, mi torna perfettamente chiara quella passeggiata che nel settembre del 2010 da via dell’Arcivescovado ci condusse in quella che sarebbe diventata – seppur per un brevissimo periodo di tempo – la tanto attesa sede aquilana dell’Ingv, in un palazzo privato che un tempo aveva ospitato gli uffici delle Poste, e alla cui inaugurazione, in un freddissimo novembre dello stesso anno, partecipammo insieme, lui presidente dell’Ingv e io come cronista del “Il Centro”. Durante quel tragitto mi fece questa considerazione: «Le persone sono diventate più sensibili anche alle scosse più piccole dopo il dramma del 6 aprile 2009. Negli ultimi cinque anni l’Ingv ha registrato 54.900 piccolissime scosse, e cioè 11mila all’anno, in Italia, che è un paese altamente sismico dall’Abruzzo alla Sicilia». Da allora ho adottato la locuzione “dall’Abruzzo alla Sicilia” facendola mia, l’ho usata infinite volte in ogni circostanza possibile: nei mei articoli sul terremoto, nei convegni che ho moderato, nelle conversazioni tra amici e colleghi, perché, forse, mai come in quella chiacchierata con Boschi avevo capito cosa fosse il nostro paese: un territorio sismicamente ballerino, di cui l’Abruzzo è la regione a più alto rischio sismico, in cui ci si salva soltanto se ciascuno fa con coscienza, consapevolezza e lucidità ciò che deve fare. In questo caso: progettare e costruire in sicurezza e – a livello più “alto”, istituzionale – creare le condizioni normative, strutturali, finanziarie e operative affinché i quasi mille Comuni italiani, le autostrade e le infrastrutture vengano messi in sicurezza. Ma la “sicurezza anti sismica” è uscita oggi di scena, scalzata da un nuovo nemico, il Sars-Cov-2, che attanaglia le nostre vite e su cui si concentrano sforzi politici, dibattiti pubblici, cronache e inchieste giornalistiche. Poi tornerà il momento in cui nuovi morti sotto le macerie ci sveglieranno dal torpore ricordandoci che l’Italia è fragile esattamente come 12 anni fa e che dal terremoto dell’Aquila, il 6 aprile 2009, con i suoi 309 morti, non è cambiato nulla. Se, forse, in questo preciso momento storico L’Aquila e i 56 Comuni del cratere sismico sono le uniche oasi sicure, tutto il resto del paese è un colabrodo. E Boschi, sempre in quel tragitto per le vie aquilane all’epoca ancora deserte e silenziose, disabitate e anche maleodoranti per i palazzi disabitati e danneggiati, più volte mi ripetette il senso del concetto di “sicurezza”: poter uscire da casa vivi durante una forte scossa, come in Giappone.
E questa è una responsabilità di ciascuno di noi per la propria parte, competenza e posizione o ruolo; agli scienziati, invece, l’altro arduo compito di fornire alla società la spiegazione (ovviamente sempre mutevole in base alle risultanze scientifiche che via via si acquisiscono) di quello che succede nel mondo della natura, dalle placche o le faglie sismiche, sino all’infinitesimale virus. Ecco, dunque, che questo invito a lasciare un ricordo dello scienziato Enzo Boschi è per me un modo per salutarlo, finalmente, dopo quel messaggio mai risposto, e chiedergli “scusa”, quanto meno, per la mia scortesia.

Torna all’indice

Foto 1

Gli amici de “Il Foglietto della Ricerca” l’hanno ricordato come loro editorialista e amico

https://www.ilfoglietto.it/il-foglietto/6425-enzo-boschi-geofisico-editorialista-che-manca-tanto-al-foglietto

La sismologia strumentale ai tempi del terremoto del 1980: colloquio con Edoardo Del Pezzo

Ricorre il quarantesimo anniversario del terremoto del 1980, che avvenne mentre la sismologia osservazionale stava compiendo un passaggio epocale. Accanto ai ricordi delle distruzioni e della tragedia non vanno dimenticati gli sforzi, il coraggio e la dedizione della comunità scientifica, e in particolare di quanti si trovarono a operare in prima linea, negli osservatori sismologici e sul campo.  Abbiamo chiesto di ricordare quel periodo a Edoardo Del Pezzo, che nel 1980 ha fatto parte del nucleo di ricercatori che ha gestito l’emergenza legata al terremoto e in particolare la raccolta e alla analisi delle registrazioni sismometriche.
Napoletano, sismologo e vulcanologo, Edoardo ha iniziato la sua attività presso l’Osservatorio Vesuviano (Napoli). Nel seguito ha operato presso l’Istituto Internazionale di Vulcanologia (Catania), l’Istituto per la Geofisica della Litosfera (Milano), l’Università di Catania, l’Università di Salerno per poi tornare all’Osservatorio Vesuviano. Quando quest’ultimo è confluito nell’INGV è stato componente del consiglio direttivo dell’ente dal 2001 al 2005. In pensione da alcuni anni collabora, oltre che con INGV, con l’Università di Granada e con l’azienda vinicola della moglie, nel beneventano.

Schermata 2020-11-17 alle 19.28.03

Edoardo, tu hai operato nel punto focale delle operazioni di analisi dei dati sismometrici dopo il terremoto del 1980, presso l’Osservatorio Vesuviano (OV). Ne parliamo più avanti. Prima però vorrei ricordare con te lo stato della sismologia strumentale prima del terremoto. Accanto a una rete sismica nazionale gestita dall’ING con strumenti abbastanza obsoleti, erano fiorite una serie di reti locali più moderne che, in ambito PFG, si erano costituite in una struttura federata per inviare a ING i dati delle proprie stazioni. Nel 1979, in occasione del terremoto di Norcia, questa struttura coordinò l’istallazione e la gestione di una rete temporanea. I metodi di localizzazione erano in alcuni casi ancora abbastanza primitivi; addirittura nel 1978 il PFG organizzò un seminario per mettere a confronto questi metodi. Nel 1981 venne organizzato un seminario sul calcolo della magnitudo. La Commissione CNEN-ENEL aveva avviato la gestione di una rete accelerometrica. Puoi aggiungere qualche ricordo?

Che ruolo svolgevi prima del terremoto? Ci puoi raccontare la situazione dell’OV quando avvenne il terremoto, e quale fu la risposta immediata?

Come detto più sopra, mi occupavo della raccolta dati della rete delle isole Eolie, che aveva il duplice scopo di una rete di “sorveglianza” dei vulcani (Stromboli, Lipari-Vulcano) e di studio della sismicità del basso Tirreno: un compito che col senno del poi avrei giudicato immane, data l’importanza dell’area nella tettonica del Mediterraneo, ma che al momento affrontavo con la spavalderia di un ventisettenne e con le risorse che “passava il convento”. Tra capo e collo ad aprile del 1978 un terremoto nel golfo di Patti (M5.5) mise a dura prova sia la strumentazione (che rispose alla grande per fortuna mia e di tutta la comunità sismologica), sia la capacità di analisi che i miei colleghi ed io avevamo acquisito fino ad allora (anche in questo caso la risposta fu positiva). In quel periodo lavoravo tra Lipari (l’Osservatorio Geofisico del CNR) e l’Osservatorio Vesuviano di Napoli, dove ero distaccato 15 giorni al mese per l’analisi dei dati e le collaborazioni scientifiche. Questa situazione durò fino al 23 novembre del 1980, quando l’evento che avrebbe cambiato la sismologia in Italia, e ridimensionato gran parte della mia spavalderia, ebbe luogo in Irpinia.

I sismologi che operavano in quegli anni vivevano una transizione molto rapida dalla sismologia basata sullo studio dei singoli sismogrammi (a volte registrati ancora su carta affumicata), volto alla comprensione dell’interno della Terra nelle sue strutture a larga scala alla sismologia basata sui dati raccolti da “reti” di sismometri, a volte centralizzati via radio ad un “osservatorio” , che permetteva di mettere a fuoco strutture geologiche a “scala minore”, come per esempio le strutture sismogenetiche. In questa transizione il riferimento culturale era nelle università statunitensi più importanti (la Columbia University ed il Lamont Observatory, MIT, Caltech). Giocoforza si “adottarono” anche in Italia, per lo studio dei dati delle reti temporanee, paradigmi e metodi provenienti dagli Stati Uniti. “Hypo 71” era il codice standard del calcolo ipocentrale. Il seminario tenuto a Milano (IGL) sul calcolo ipocentrale fu un’occasione per i “gestori” delle reti per scambiarsi informazioni e per mettere a fuoco, in uno schema culturale consono ai Fisici ed ai geologi che iniziavano la loro attività in quegli anni, le basi matematiche del calcolo ipocentrale. Ricordo che a quel seminario parteciparono un gruppo di matematici dell’Università di Milano, che chiarirono a tutti che il calcolo ipocentrale rientra nei i processi di ottimizzazione matematica, ben noti a chi aveva seguito i corsi universitari di matematica avanzata. Per me e qualche collega quel seminario fu un momento rassicurante, in cui capimmo che ci saremmo mossi in binari già tracciati e conosciuti.
L’elettronica tedesca (Lennartz) ci aiutò molto in quel difficile momento di crescita, mettendo a disposizione, a prezzi ragionevoli, strumentazione molto affidabile e robusta. Grazie alle stazioni sismiche prodotte da Lennartz, il divario tecnologico con gli Stati Uniti (e forse anche con il Giappone) iniziava a restringersi. Alcuni colleghi si dedicarono allo studio degli strumenti come loro attività primaria, costituendo il nucleo degli “strumentisti” che avrebbe formato in seguito generazioni di tecnologi. Con i finanziamenti del PFG furono acquistate molte stazioni sismiche Lennartz, alcune dotate di trasmissione (analogica) radio. Nel mio ruolo di allora (responsabile della rete sismica delle isole Eolie) acquistai anch’io, grazie a questi finanziamenti, un piccolo numero di stazioni Lennartz che andarono a sostituire un’elettronica poco affidabile di produzione americana su cui si basava la rete sismica che “ereditai” quando presi servizio.

Sulla falsariga di quanto avvenne un anno prima per il terremoto di Norcia, il PFG organizzò una rete temporanea e l’Osservatorio Vesuviano divenne il punto focale. Ci può raccontare come venivano registrati e trasmessi i dati, come li analizzavate e come – e a chi – comunicavate i risultati delle analisi?

La casa dove abitavo a Napoli fu danneggiata dal sisma. Mi trasferii con la famiglia a casa di parenti, ma in sostanza vivevo all’Osservatorio vesuviano, la cui sede era allora a quota 800 metri sulle pendici del Vesuvio. Il collega Roberto Scarpa ed io ci assumemmo la responsabilità del (difficile) coordinamento tra gli operatori in campagna (che lavoravano in condizioni disagiate a dir poco) e la raccolta centralizzata dei dati. Il coordinamento avveniva utilizzando due linee telefoniche allora operative all’Osservatorio, e alcune radiotrasmittenti di cui erano dotati i “gruppi esterni”. I dati preliminari (sostanzialmente i tempi di arrivo delle fasi P- ed S- delle numerosissime repliche del sisma dell’80) erano subito riportati su schede (cartacee) ed elaborati. Le stazioni erano di due tipi: quelle con registrazione su nastro analogico e quelle con registrazione su carta. I nastri e le carte dei monitor erano fatti pervenire all’Osservatorio con le poche automobili di servizio.
Contemporaneamente, gruppi di operatori volontari (studenti e colleghi, anche di altri settori, docenti di scuola media e superiore) rileggevano i tempi di arrivo sulle carte dei monitor e/o decodificavano i nastri magnetici, riproducevano i dati su oscillografi e quindi analizzavano i sismogrammi così ottenuti. A fine giornata, i dati delle schede venivano trasferite al Computer Main Frame del centro di calcolo dell’Università di Napoli dove erano processate con Hypo71. La lista delle coordinate ipocentrali e (quando era possibile) delle magnitudo, veniva così alla luce per l’indomani mattina.
I disagi erano soprattutto logistici (telefoni in tilt, strumenti che subivano guasti, trasmissioni interrotte per motivi tecnici, auto in panne, mancanza di alberghi in area ipocentrale). Le difficoltà risiedevano nella difficile comunicazione con i gruppi non italiani (francesi ed inglesi) che avveniva, come ho già detto, per telefono, e nella stanchezza degli operatori e collaboratori, che dopo un paio di settimane di delirante attività, si fece sentire in tutta la sua gravità.

Se non ricordo male, nei mesi successivi al terremoto venivate tempestati di telefonate in occasione di repliche risentite in particolare a Napoli (non dal “cratere”, ovviamente, dove c’erano altri problemi). Se mi consenti un po’ di ironia, molte persone divennero incapaci di addormentarsi senza la “buona notte del sismologo”. Concordi?

Concordo. Le telefonate in Osservatorio divennero presto un incubo. Roberto Scarpa ed io decidemmo di applicare al telefono una segreteria telefonica, sul cui nastro incidevamo le informazioni salienti. Fummo subito criticati da chi dirigeva. Si voleva infatti far apparire l’Osservatorio Vesuviano una sorta di “Agenzia” di utilità pubblica. Una visione che definisco “populistica”. E sulla quale non fui per niente d’accordo.

Nonostante la vostra fatica, la vostra attività non andò immune da critiche ad esempio in occasione della forte replica del 14 febbraio 1981, per qualche lieve ritardo nella comunicazione dei dati. Se non ricordo male fu l’avvio di una sorta di “qualunquismo anti-sismologico”; si passò rapidamente dalla scoperta che esistevano gli Osservatori alla critica che “non solo non ci difendono dai terremoti, ma nemmeno servono a dirci di quale morte dobbiamo morire”. E’ così?

Sì, purtroppo è così. Il qualunquismo anti-scientifico c’era anche allora, anche se più nascosto di quello attuale. L’idea del pubblico (male istruito anche dall’atteggiamento populista di cui ho parlato prima) era che l’Osservatorio dovesse in qualche modo fare previsioni, e diventare una sorta di Agenzia. Chiedevano il quando e il quanto delle future repliche, in sostanza. A risposte oneste dei ricercatori onesti (non lo sappiamo, non lo sa nessuno, nemmeno gli esperti stranieri) veniva opposta la solita qualunquistica tiritera: “ma allora a cosa servite, siete pagati con soldi pubblici”. Paradossalmente, ma non tanto in fondo, rispondevano a queste domande soprattutto sulla carta stampata ed in TV, anche ricercatori meno onesti, dando pareri ed informazioni. Hai presente quel che sta avvenendo oggi a proposito del COVID? C’è sempre un immunologo che contraddica e sostenga tutto ed il suo contrario. Così anche allora per il terremoto dell’Irpinia: un esperto lo trovavano sempre, che rassicurasse o che spaventasse, a seconda delle contingenze.

Vi fu un rapporto con la comunità scientifica internazionale ai tempi di quel terremoto?

Ricercatori francesi, inglesi ed in seguito anche statunitensi furono colpiti dalla devastazione che il terremoto produsse. Alcuni gruppi (francesi ed inglesi) parteciparono immediatamente con (poca) strumentazione alla raccolta dati, insegnandoci una prassi che allora non era per niente consolidata nel nostro ambiente: quella dello scambio immediato dei dati e delle informazioni. Un gruppo di geologi inglesi visitò la zona epicentrale, evidenziando, con molto clamore, gli effetti in superficie della frattura e contrastando il paradigma “italiano” di allora che sosteneva l’impossibilità di osservare fratturazioni fin in superficie, data la profondità dell’evento. In seguito alcuni sismologi statunitensi contribuirono in maniera molto efficace all’interpretazione dei risultati corroborando l’ipotesi, già avanzata da CNEN-ENEL e da noi, di una sorgente a frattura multipla. 

Quanto durò la vostra attività “emergenziale” e come si concluse questa attività?

L’attività emergenziale in osservatorio durò alcuni mesi. In questo periodo la distribuzione ipocentrale delle “repliche” del terremoto si era delineata già molto chiaramente, ed inoltre il loro numero decresceva nel tempo, com’è naturale che sia.
Più avanti scoprimmo, anzi è meglio dire “sospettammo”, che parte delle informazioni prodotte dal gruppo di lavoro che faceva capo all’OV, di cui ho parlato prima, erano trasmesse, a nostra totale insaputa, ad agenzie, a Istituzioni (anche pubbliche – Comuni) come elementi di consulenze, richieste ad esperti nel settore. Fummo tragicamente colpiti da questi sospetti, ma non avemmo i nervi saldi per mettere nella giusta luce la vicenda. Tuttavia, i “sospetti” che avemmo non furono seguiti da una lucida presa di posizione da parte nostra. Ma spensero molti entusiasmi tra cui il mio. I volontari intanto ritornavano alle loro attività principali, e le repliche dell’evento M 6.9 accadevano sempre più raramente. Si ritornò ad un regime lavorativo “normale”. Personalmente chiesi ed ottenni un trasferimento ad un Istituto lontano da Napoli, e salvai così la mia pace interiore. Altri si dissociarono dalla dirigenza dell’OV e si predisposero ad altre carriere.
L’importante, comunque, fu l’acquisizione di una base di dati importantissima, che avrebbe permesso in seguito moltissime pubblicazioni scientifiche di ottima qualità da parte di molteplici gruppi di ricerca, che di fatto lanciò in ambito internazionale la sismologia italiana.

Hai passato moltissime ore, giorni, notti, in Osservatorio. Che percezione hai avuto del disastro? Hai avuto l’occasione di girare un po’ per le zone più danneggiate? E per Napoli?

Il disastro era in quei giorni sotto i miei occhi costantemente. Ancora oggi il ricordo dl terremoto mi produce un senso di sconforto e di precarietà. Pur passando gran parte del mio tempo in osservatorio, mi capitò una volta di recarmi all’Università di Salerno, che fu gravemente danneggiata dal sisma. In quell’occasione, girando per le zone danneggiate, mi resi conto che la popolazione delle zone colpite rispondeva con terrore, tangibile, e sacrosanto; rabbia, contro tutti e tutto, e ahimè odio per le Istituzioni. Ma anche con senso di adattamento, voglia di superare e di vivere di nuovo. A volte con sarcasmo misto a superstizione. Si sa, i meridionali sono fatti così….

Quali furono secondo te i maggiori avanzamenti conseguiti e quale l’eredità di questa vicenda?

Il terremoto dell’Irpinia fece nascere la sismologia moderna in Italia. Si capì subito la necessità di avere una rete sismologica uniforme e centralizzata, con una organizzazione protocollata di trasferimento al pubblico (scientifico e non) delle informazioni. Si capì la necessità di una organizzazione di Protezione Civile, che sulla base delle informazioni della rete centralizzata (epicentro e magnitudo) potesse intervenire in caso di necessità di soccorso. Si capì che era necessario formare i prossimi sismologi fornendo loro nel corso dei loro studi universitari, background solidi di materie di base (fisica, matematica etc.). Personalmente immaginai la nascita di un Istituto simile a quello che era già allora INFN per i fisici, sede della rete centralizzata ed aperto ai dipartimenti universitari ed agli altri istituti di ricerca in geofisica. Parte di quel che immaginavo si è poi realizzata nella nascita dell’INGV, vent’anni dopo: un istituto nazionale che si occupa di vulcani, terremoti e ambiente, e che è il riferimento per la Protezione Civile. Pur in alcune difficoltà di interazione con il mondo universitario, che spero in via di superamento, ero e sono convinto che la struttura di questo istituto, in cui tra l’altro ho lavorato vent’anni della mia vita e che ho contribuito a fondare, costituisca l’idea vincente per un progresso sostanziale nelle scienze della terra ed in sismologia. In sintesi quindi il terremoto dell’Irpinia ha fatto nascere la Protezione Civile in Italia; la rete sismica nazionale; una nuova figura professionale, il sismologo.

Sismabonus, un aggiornamento (colloquio con Alessandro Grazzini)

I recenti provvedimenti governativi hanno aggiornato la possibilità di usufruire degli aiuti di Stato per ridurre la vulnerabilità sismica degli edifici. Abbiamo chiesto a Alessandro Grazzini, che già aveva discusso l’argomento in https://terremotiegrandirischi.com/2020/07/02/sismabonus-qualche-spiegazione-dedicata-a-chi-abita-gli-edifici-colloquio-con-alessandro-grazzini/, di illustrarci le novità.

Alessandro, ci puoi riassumere le novità introdotte, di cui hai parlato ad esempio in https://www.ediltecnico.it/79648/sismabonus-superbonus-110-classificazione-sismica/?

Il D.L. 19/05/2020 n. 34 (c.d. Decreto Rilancio a sostegno dell’economia dopo il lockdown COVID-19) ha introdotto un superbonus di detrazione fiscale al 110% da utilizzare anche per i lavori di miglioramento sismico relativi al tradizionale Sismabonus. Il Superbonus può essere sfruttato per lavori svolti dal ‪1° luglio 2020 al 31 dicembre 2021, anche se ci auguriamo una proroga in quanto gli interventi di miglioramento sismico, come sappiamo, richiedono più tempo nella pianificazione e nell’esecuzione. La novità principale consiste nel fatto che la super aliquota del 110% vale sia per gli interventi di semplice consolidamento statico (cucitura delle lesioni, consolidamento delle fondazioni, rinforzo di solai solo per fare qualche esempio) sia per gli interventi di miglioramento sismico.

Il Decreto ha eliminato la necessità di dimostrare che gli interventi abbiano portato al passaggio di una o due classi di “rischio”, come richiesto dalla normativa precedente. Non è forse un passo indietro nella direzione della prevenzione?

Col Superbonus tutti gli interventi strutturali sono premiati indifferentemente con l’aliquota di detrazione del 110% a prescindere dalla classe di rischio sismico che si è ottenuta a seguito dei lavori, facendo pertanto decadere la precedente differenziazione delle aliquote in base al risultato di miglioramento sismico raggiunto. Inoltre il Superbonus è stato esteso a un maggior ventaglio di interventi strutturali, anche solo locali, che sebbene utili ai fini statici non permettono di valutare e perseguire un aumento della sicurezza sismica.
Faccio un esempio: se inserisco delle catene solo in un piano di un edificio alto 4 piani, il tecnico può dimostrare che la situazione statica del fabbricato sia migliorata: magari le catene servono per contrastare la spinta di alcune volte; tuttavia averle inserite solo ad un piano potrà al massimo aver bloccato uno o due cinematismi di ribaltamento sismico della singola parete interessata, ma non contrastare le altre possibilità di ribaltamento delle singole pareti o dell’insieme di pareti che costituiscono la facciata, oltre a non contribuire ad alcun aumento di resistenza dell’intero scheletro strutturale.
Pertanto il loro inserimento così limitato non sarà sufficiente a ridurre il rischio sismico neppure di una classe. Tuttavia è una spesa coperta dal Sismabonus 110%.

E come si “valuterà” dunque la riduzione della vulnerabilità sismica dell’edificio sottoposto ai lavori?

La classificazione sismica serve a sensibilizzare il cittadino sui rischi della propria abitazione, aiutarlo a capire quali sono le vulnerabilità principali e quantificare in modo intuitivo di quanto potrà migliorare la risposta sismica del proprio fabbricato. Sebbene in questo frangente non sia più obbligatoria, è auspicabile che i tecnici continuino ad utilizzarla per queste finalità. Una volta intrapreso il calcolo strutturale per la progettazione dell’intervento, in generale costa davvero poco valutare anche la classificazione sismica.
Il professionista dovrà certificare, mediante i tradizionali calcoli statici, che l’intervento di consolidamento abbia migliorato la sicurezza strutturale almeno della porzione di struttura interessata. Nel caso di intervento antisismico, varranno le consuete procedure di calcolo legate alla modellazione complessiva del fabbricato da cui ricavare il rapporto tra l’accelerazione al suolo che può sopportare la struttura e quella richiesta dalla normativa tecnica per un edificio di nuova realizzazione. Ossia uno dei due parametri contenuti nella classificazione sismica, l’indice di sicurezza descritto nella precedente intervista.
A questo punto costa poco al professionista calcolare anche il PAM (perdita annua media) e redigere la classificazione sismica, anche se non è obbligatoria, ma auspicabile per far capire meglio al committente il guadagno in termini di sicurezza.

Il Sismabonus è senz’altro uno strumento importante per cominciare ad affrontare il problema della riduzione della vulnerabilità sismica degli edifici. Con l’offerta del 110% lo Stato ha deciso di accollarsi praticamente per intero il costo dei lavori, evidentemente perché la disponibilità dei cittadini ad assumere una quota di compartecipazione ai costi era risultata scarsa.
Mi viene una domanda: il Sismabonus verrà concesso indipendentemente da una valutazione su eventuali azioni volontarie di compromissione della vulnerabilità e/o non rispetto della normativa?

Per usufruire del superbonus 110% occorrerà avere un certificato di conformità urbanistica che attesti al massimo la presenza di lievi difformità (alcuni chiarimenti dell’Agenzia delle Entrate parlano di una tolleranza del 2% delle misure prescritte relative a cubatura, distacchi, altezze, superficie). In presenza di abusivismi maggiori lo Stato non riconoscerà alcuna detrazione fiscale. La ingente quantità di certificazioni richieste per accedere al superbonus e l’aumento consistente dei controlli dovrebbero rappresentare la giusta garanzia per distribuire l’incentivo fiscale solo a chi è in regola.

Lo strumento dell’incentivo fiscale lascia alla libera iniziativa dei cittadini la scelta se prendersi cura o meno della propria (e di altri) sicurezza. In aggiunta agli ovvi problemi relativi alla gestione dei condomini, non vi è anche il rischio di interventi a “macchia di leopardo” in centri abitati dove l’eventuale terremoto potrà compromettere la “agibilità” di tutto l’abitato?

Inizialmente è probabile e addirittura fisiologico attendersi una distribuzione a “macchia di leopardo”. Occorre considerare sempre da che punto iniziale partiamo: un patrimonio edilizio esistente molto variegato caratterizzato da scarsa manutenzione e un’alta vulnerabilità sismica. E’ impossibile che tutti i proprietari partano nello stesso momento ad eseguire lavori di miglioramento sismico. Inizierà qualcuno, elevando il grado di sicurezza del proprio fabbricato. Ma resterà un gap rispetto alla vulnerabilità del vicino di casa che non ha ancora eseguito alcun intervento.
Questa rappresenta sicuramente una fase intermedia di potenziale rischio collettivo in caso di forte scossa di terremoto, in quanto come sappiamo gli edifici migliorati potrebbero comunque risultare inagibili per i collassi di quelli adiacenti non consolidati. Ma trattandosi di un processo a medio-lungo termine di progressiva sensibilizzazione del rischio e agevolazione fiscale per intraprendere in autonomia i necessari interventi di mitigazione sismica, resta auspicabile che col giusto tempo questo gap tenda a ridursi, al fine di avere aggregati edilizi o paesi quasi interamente resilienti.

Per finire: i benefici si applicano nelle zone sismiche 1, 2 e 3, secondo la classificazione attuale di competenza di ciascuna Regione. Posto che sembra ragionevole procedere secondo priorità, andrebbe comunque ricordato che la vulnerabilità sismica degli edifici, che è l’oggetto degli interventi, può essere molto elevata anche in zona 4, proprio perché in gran parte della zona non è mai stata applicata nessuna normativa sismica, oppure lo è stato con varie limitazioni. Sarebbe bene, insomma, che non passasse il messaggio che gli edifici in zona 4 sono “sicuri”, e che scuotimenti forti posso verificarsi anche lì, sia pure con probabilità molto bassa; concordi?

Sono perfettamente d’accordo con te. Hai usato il termine giusto: si parla di vulnerabilità, che deriva dal degrado dei materiali e dalla mancanza di manutenzione. Situazione pericolosa anche solo a livello statico, indipendentemente dalla mappa sismica. Magari con detrazioni più basse, ma sarebbe utile estendere il Sismabonus anche ai fabbricati della zona 4.


Early Warning: facciamo il punto (colloquio con Marco Olivieri)

Periodicamente i media riportano notizie che riguardano il cosiddetto “Early Warning”, proponendolo come un sistema di allarme sismico (per inciso, il termine viene usato in una casistica estesa, non solamente sismica, dalle frane alle inondazioni ai movimenti di borsa ecc.).
In realtà l’Early Warning “sismico” non rappresenta un allarme pre-terremoto in senso stretto, ma un “avviso” che stanno per arrivare onde sismiche potenzialmente distruttive.
Per capirci: a molti di voi sarà capitato di sentire un terremoto, e magari di riuscire a distinguere l’arrivo delle onde compressionali, dette P, dall’effetto prevalentemente sussultorio, e in seguito le onde trasversali, dette S, dall’effetto prevalentemente ondulatorio. Ecco, se ciascuno di noi fosse in grado di discernere con precisione l’arrivo delle onde P potrebbe disporre di un certo numero di secondi per prepararsi all’arrivo delle onde S.
L’Early Warning rappresenta un perfezionamento tecnologico di questo principio semplice e geniale: in sostanza è il terremoto stesso che, una volta avvenuto, “avvisa” – mediante le onde P, le più veloci – che stanno per arrivare le onde S e quelle superficiali, più lente ma distruttive.
Più sotto riportiamo alcuni riferimenti ad articoli “divulgativi” italiani; uno di questi è addirittura firmato dall’attuale Ministro per la Ricerca, Gaetano Manfredi.
Per cercare di fare chiarezza ne discutiamo con Marco Olivieri, ricercatore all’Istituto Nazionale di Geofisica e Vulcanologia, competente su queste tematiche. 

Ci spieghi in modo più preciso su che principio si basa l’Early Warning sismico?

Un sistema di Early Warning si basa su 2 ipotesi:

  • bastano i tempi di arrivo delle onde P registrate a poche stazioni intorno all’epicentro per localizzare accuratamente il terremoto.
  • bastano pochi secondi di forma d’onda P per determinare la magnitudo. 

La seconda ipotesi è quella più complessa, presume che già nei primi istanti di propagazione della rottura sulla faglia sia contenuta l’informazione sulla completa rottura della faglia che può non essere ancora completata.
Se il territorio è monitorato da una densa rete di stazioni sismiche possiamo avere una stima dei parametri di sorgente entro pochi secondi, meno di 10. In 10 secondi le onde S hanno viaggiato per circa 40 km.
Stimati questi parametri di sorgente (localizzazione, profondità e magnitudo), un sistema di Early Warning è in grado di predire lo scuotimento atteso (in termini di intensità o accelerazione) nell’area non ancora investita dalle onde S e fornire questo dato, con una realistica barra di errore o con una probabilità associata, alla popolazione o a chi può e deve prendere decisioni e agire (o non agire).
Vista la descrizione appena fatta, la traduzione che in italiano rende meglio l’idea di cosa sia un Early Warning è “avviso in anticipo”, cioè che arriva prima delle onde distruttive.

La partita si gioca dunque sul fattore tempo?

Si, oggi abbiamo la capacità tecnologica e le competenze scientifiche per conoscere quanto forte sarà l’effetto di un terremoto prima che le onde S investano una più o meno vasta area intorno all’epicentro e, per forti terremoti, prima ancora che la rottura della faglia sia completata.
Per schematizzare la questione, un sistema di Early Warning funziona così:

  1. al tempo ZERO succede un terremoto e le onde P (veloci ma non distruttive) e le onde S (lente ma potenzialmente distruttive) si mettono in viaggio;
  2. Dopo T secondi le onde P hanno raggiunto le 4 stazioni sismiche più vicine e si fa la prima localizzazione (questo tempo variabile dipende dalla densità della rete intorno all’epicentro);
  3. Dopo circa altri 4 secondi abbiamo la stima della magnitudo;
  4. Dopo circa un ulteriore secondo abbiamo una predizione dello scuotimento atteso per tutti i luoghi del territorio in cui sarà risentito il terremoto.
  5. Dopo un altro secondo l’allerta verrà ricevuto da tutte le realtà o persone interessate.

Nel frattempo, le onde S avranno raggiunto una determinata area, che viene definita “zona d’ombra” (“shadow zone” in inglese) in quanto all’interno di essa l’allerta non sarà efficace: lo sarà invece al di fuori di detta area.
Questo ci ricorda anche che un Early Warning sismico non è pensato per l’area più vicina all’epicentro, quello che in termini giornalistici viene chiamato “cratere”. Lì la difesa di infrastrutture e persone può essere fatta solo costruendo e ristrutturando a regola d’arte secondo le norme antisismiche e prendendo le precauzioni opportune.
Oltre al fattore tempo c’è un altro fattore cruciale per l’utilizzo di un sistema di Early Warning ed è la comunicazione tra chi produce un’allerta e chi lo deve utilizzare. Perché l’allarme non sia vano deve essere affidabile (pochi o nessun falso sia positivo che negativo) e una accurata barra di errore che permetta all’utente di usarlo in modo automatico, quantificando il rischio di fare e di non fare in funzione dei parametri forniti dal sistema.

Da quando la ricerca ha cominciato a implementare questa tecnologia? In quali paesi in particolare?

Direi da dopo il terremoto del Messico del 1985, anche se in quel caso si puntava solo a fornire un Early Warning a Città del Messico [1]. Parallelamente, la diffusione dei sismometri a larga banda e della trasmissione dei dati a larga banda in tempo reale ha permesso, all’inizio degli anni duemila, la concettualizzazione di un dispositivo di Early Warning Sismico in Giappone e in California. Penso alle idee di Yutaka Nakamura ed il suo Uredas [2] dedicato alle Ferrovie Giapponesi con lo scopo di bloccare i “bullet trains” ed a quelle di Richard Allen e Hiroo Kanamori con ElarmS [3]. Da questi lavori molti sismologi hanno preso ispirazione per capire se e come un sistema di Early Warning possa funzionare in Italia, a Taiwan, in Romania o in Turchia. Permettimi di ricordare qui il ruolo di Paolo Gasparini che tra il 2006 e il 2009 portò, con un progetto europeo chiamato SAFER, i migliori esperti mondiali a dialogare con i sismologi europei per capire un po’ meglio le cose.

In quali paesi vi sono delle applicazioni “ufficiali”?

In Messico il sistema SAS gestito dal CIRES (Centro de Instrumentación y Registro Sísmico, A. C.)[4] è operativo dall’inizio degli anni ‘90. Detto a grandi linee, il sistema mira ad allertare la popolazione di Città del Messico nel caso di un forte terremoto sulla costa (sulla faglia del terremoto del 1985). Una rete di stazioni sismiche è stata installata sulla costa, in grado di registrare il terremoto pochi secondi dopo la sua occorrenza e disseminare l’allerta alcune decine di secondi prima che le onde S arrivino nella capitale. Se non ricordo male la maggior parte delle famiglie tiene una radio FM sintonizzata su un canale specifico ed a volume alto. Questo canale è sempre muto a parte quando un forte terremoto sulla costa genera un’allerta. 

Da poco tempo è attivo ShakeAlert [5] in California, da USGS (Il Servizio Geologico degli Stati Uniti) in sinergia con un consorzio di Stati ed Università tra cui UCBerkeley e Caltech. Questo è uno strumento molto più sofisticato, i terremoti sono attesi anche nelle zone densamente popolate (la Faglia di San Andreas interessa San Francisco e Los Angeles) e il sistema qui produce una mappa di scuotimento predittiva dando per ciascun punto una accelerazione attesa ed una probabilità. La metropolitana della Bay Area è completamente automatizzata e, interfacciandosi con i dati di ShakeAlert, il sistema in automatico decide quali metropolitane fermare, quali far viaggiare e quali deviare. Però parliamo di un paese, la California, con una consapevolezza enorme. Penso solo al fatto che esiste una banca dati informatizzata con il massimo scuotimento che può sopportare ciascun ponte della città. 

Riassumendo, un sistema di Early Warning è operativo a scala nazionale in Giappone, Taiwan e California; a scala regionale o locale in Messico, Romania, British Columbia (Canada).

Ci puoi segnalare dei casi positivi di applicazione?

Si, un esempio è il terremoto del 11 Marzo del 2011, il terremoto “di Fukushima” in Giappone. Fu un terremoto di magnitudo 9.0 con zona sorgente a circa 150 km dalla costa. il sistema di Early Warning giapponese, in funzione dal 2007, fu in grado di disseminare una allerta con 10-30 secondi di anticipo rispetto all’arrivo del forte scuotimento. In Giappone l’allerta automatica viene inviata a cellulari, tv e radio ma anche usata per fermare treni, ascensori o impianti industriali [6]

Un altro esempio, più recente, è la sequenza di terremoti di Ridgecrest, California. Qui ShakeAlert è stato in grado di stimare i parametri di sorgente in 8 secondi lasciando circa 48 secondi utili al centro di Los Angeles [7]. In questo caso però l’allerta sui cellulari che a Los Angeles utilizzano la app non sono stati allertati poiché l’intensità predetta era al di sotto della soglia predefinita.

Che cosa c’è di particolare in quanto è stato diffuso dai media recentemente?

La notizia, da quel che capisco leggendo l’articolo di The Verge[1], è che i telefoni Android avranno a disposizione la app “shakealert” che riceve le allerte del sistema di Early Warning californiano. Nei progetti, o nelle ambizioni di Google, che come sempre pensa in grande, c’è l’idea di usare gli accelerometri dei milioni di cellulari nel mondo per integrare i dati che attualmente sono solo quelli della rete sismica gestita dalla collaborazione tra USGS, Caltech e UCBerkeley, e permettere quindi una estensione del servizio di Early Warning potenzialmente a tutto il mondo. Pertanto al momento la notizia è positiva solo per chi vive in una regione dotata di Early Warning e che lo dissemina alla popolazione. 

Ci sono studi di questo tipo in corso in Italia ?

Sì, ci sono diversi gruppi e ricercatori che lavorano su questi temi da tempo, in particolare all’Università di Napoli guidati dal Aldo Zollo e all’Istituto Nazionale di Geofisica e Vulcanologia. Recentemente è uscito anche un lavoro scritto da ricercatori dell’Istituto Nazionale di Oceanografia e di Geofisica Sperimentale (Trieste) e questo fa ben sperare. A questo mi preme aggiungere che, essendo la Terra una, come pure sono unici sia il meccanismo di nucleazione dei terremoti che la teoria di propagazione delle onde sismiche, la sismologia e con essa lo studio dei sistemi di Early Warning Sismico non conosce i confini nazionali.

Date le caratteristiche dei terremoti italiani, quali possono essere le applicazioni da noi?

Per rispondere alla domanda, penso a due cose che influenzano l’applicabilità di un Early Warning in Italia. La prima è che l’Italia è un paese densamente antropizzato, in cui i terremoti spesso hanno epicentro ed area di maggior scuotimento nei pressi di città e paesi. La seconda è che per la maggior parte del territorio italiano la massima magnitudo attesa, o magnitudo caratteristica che dir si voglia, è grande ma raramente supera la magnitudo 7-7.5. La combinazione delle due cose, oltre al fatto che il tempo di ritorno dei terremoti in Italia è lungo (edifici ed infrastrutture vecchie anche di secoli nei centri urbani…) fa sì che la zona di danneggiamento, soprattutto nel caso di terremoti di magnitudo moderata, sia piccola e vicina all’epicentro, spesso per buona parte all’interno della “shadow zone”. Viceversa le aree di risentimento, ma senza danno, o con danni minori, spesso sono ampie.

Ho divagato. Dopo la lunga premessa rispondo: l’applicabilità in Italia è la stessa che negli altri paesi soggetti a forti terremoti: fermare i treni diretti in zona epicentrale e non fermarli quando lo scuotimento predetto non implica un danno alle strutture. Per le scuole in cui, posto che siano state costruite o adeguate sismicamente a regola d’arte, un’allerta preventiva potrebbe fornire al docente l’informazione necessaria a decidere se evacuare la classe o tranquillizzare gli studenti. Per i grandi impianti industriali, in cui grazie ad un’allerta preventiva e accurata, si potrebbe decidere se applicare un rapido spegnimento o proseguire la produzione, in funzione dei rischi e dei costi connessi alle due cose. Per i singoli cittadini che, opportunamente informati potrebbero avere la risposta a quella classica domanda “a posteriori” che si e ci pongono: ho sentito il terremoto, cosa devo fare?

Per entrare in dettaglio, In Italia quel tempo T di cui parlavamo più sopra è in media di circa 5 secondi, quindi è ragionevole pensare che un’allerta di Early Warning possa essere disponibile 11-12 secondi dopo il tempo ZERO. Da uno studio in corso sui terremoti italiani del passato posso dire che questo renderebbe inutile un sistema di Early Warning per quasi tutte (meno del 10%) quelle località in cui l’intensità è stata pari a 9 o superiore, ovvero quelle pesantemente danneggiate. Ma questo rapporto cambia enormemente per tutti quei luoghi in cui abbiamo una intensità pari a 7, che significa danni comunque consistenti. In questo caso infatti circa il 30% del territorio con intensità pari a 7 riceverebbe l’allerta prima dell’arrivo delle onde S.
Quanto prima? Posto che per fare una delle cose elencate sopra basta veramente poco, forse meno di un secondo, nel 70% dei casi, se ci troviamo fuori dalla zona d’ombra per il terremoto che subiremo con intensità pari a 7 o superiore avremo più di 2 secondi tra l’allerta e l’arrivo delle S.

E’ in circolazione una app per iPhone ed Android che si chiama Rilevatore Terremoto. Svolge un servizio, in parte o in toto, simile ad un sistema di Early Warning?

Non ne conosco i dettagli, e non l’ho installata sul mio telefono. Ma leggendo la descrizione e sentendo i commenti di un collega che la usa, questa app sembra sfruttare tre tipi di informazioni: le rilevazioni dell’accelerometro interno al telefono, le informazioni fornite da chi, sentendo un terremoto o allertato dalla app stessa, clicca sulla app indicando se il terremoto sia stato leggero, forte o molto forte e le localizzazioni ufficiali rilasciate da diverse agenzie nazionali ed internazionali. Combinando queste informazioni e geolocalizzando l’utente, la app è in grado di funzionare come un sistema di Early Warning informando l’utente che si trovi al di fuori della zona d’ombra. E’ un bell’esempio di quella che si chiama “citizen science” in cui la popolazione contribuisce allo studio di un argomento. Non saprei giudicare questa app in termini di robustezza ed accuratezza che è la principale preoccupazione di chi sviluppa sistemi di Early Warning, ma l’autore, Francesco Finazzi, ha pubblicato recentemente un articolo scientifico su questo [9].

La grande curiosità e la grande aspettativa con cui vengono accolte le notizie sull’ Early Warning  in Italia e più in generale le notizie sulla possibilità di previsione, anche solo statistica, dei terremoti, lascia trapelare una scarsa fiducia, da parte dei cittadini, nell’approccio di prevenzione dei danni alle costruzioni. Non dovrebbe essere così, giusto?

Penso che sia giusto che ci siano aspettative rispetto alle innovazioni e al miglioramento che esse possono portare. Il problema come sempre è spiegare bene le cose e aver voglia di capire a cosa servono. Facendo un esempio legato alla vita di tutti i giorni: immagino che qualcuno abbia pensato che le informazioni di Isoradio in autostrada possano servire per andare serenamente più forte o per non usare la cintura. E così ci sarà qualcuno che pensa che le previsioni, o gli Early Warning, servano a poter continuare a costruire case scadenti. Ma penso anche che quelle persone lo avrebbero fatto anche senza le innovazioni a cui la comunità scientifica sta lavorando. 

Early Warning, prevenzione e previsione sono tre strumenti di difesa dai terremoti complementari. Una casa non potrà mai smettere di essere costruita a regola d’arte e in modo da resistere ai terremoti, ma io credo che ci sarà un giorno in cui sapremo che per quella data è previsto un terremoto, pochi secondi prima riceveremo un’allerta che ci avvisa che effettivamente le onde S stanno arrivando e ci faranno ballare forte e l’unica azione che dovremo fare sarà stringere un po’ più forte il calice di vino che stiamo sorseggiando per ingannare l’attesa nel salotto della nostra casa perfettamente antisismica.

 

[1] http://cires.mx/docs_info/CIRES_033.pdf

https://en.wikipedia.org/wiki/Mexican_Seismic_Alert_System

[2] https://link.springer.com/chapter/10.1007/978-3-540-72241-0_13

https://en.wikipedia.org/wiki/Earthquake_Early_Warning_(Japan)

[3] https://www.shakealert.org/eew-research/elarms-2/

https://science.sciencemag.org/content/300/5620/786/tab-pdf

[4] http://www.cires.org.mx/

[5] https://www.shakealert.org/

[6] https://spectrum.ieee.org/tech-talk/computing/networks/japans-earthquake-earlywarning-system-worked

[7] https://www.scec.org/publication/9607

[8] https://www.theverge.com/2020/8/11/21362370/android-earthquake-detection-seismometer-epicenter-shakealert-google?scrolla=5eb6d68b7fedc32c19ef33b4&amp;utm_

[9] https://www.frontiersin.org/articles/10.3389/feart.2020.00243/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Earth_Science&id=536741

https://www.ingenio-web.it/1589-early-warning-uno-strumento-per-la-riduzione-del-rischio-sismico

https://www.scienzainrete.it/articolo/ma-l%E2%80%99early-warning-dei-terremoti-%C3%A8-cosa-seria/aldo-zollo/2015-01-26

Sismabonus: qualche spiegazione dedicata a chi abita gli edifici (colloquio con Alessandro Grazzini)

I problemi legati alla pandemia Covid-19 hanno messo in secondo piano quelli legati alla sicurezza sismica. Tuttavia, in modo apparentemente sorprendente il Governo ha deciso di sostenere l’iniziativa del Sismabonus aumentando addirittura al 110% il valore del contributo dello Stato sotto forma di credito di imposta, abbassando il periodo di recupero del credito e agevolando la possibilità di cederlo a banche o imprese che possono farsi promotori delle ristrutturazioni.
L’iniziativa del Sismabonus nacque quando un Governo – come vedremo – cercò di rendere operativo il concetto secondo il quale è meglio spendere soldi per ridurre i danni piuttosto che per ripararli; ma, e questa fu la novità, introdusse il concetto che il problema non riguarda solo lo Stato, ossia la collettività, ma anche – almeno in parte – i proprietari. Da questo concetto, semplificando, proviene il Sismabonus.
La comunicazione al pubblico su questo argomento non è mai stata molto dettagliata. Vi sono molti articoli tecnici che ne parlano, ma è difficile trovare materiale che spieghi in modo chiaro i vantaggi. Spesso i proprietari di casa si affidano agli ingegneri in un modo simile a come un malato si affida al chirurgo che gli consiglia la soluzione migliore, che poi la praticherà nei fatti. Ora, un paziente non deve certo studiare medicina per capire ma è giusto che richieda qualche spiegazione e qualche alternativa. Questo dovrebbe avvenire anche nel caso del Sismabonus.

Ne parliamo oggi con Alessandro Grazzini, assegnista di ricerca presso il Dipartimento di Ingegneria Strutturale Edile e Geotecnica del Politecnico di Torino, esperto in consolidamento e miglioramento sismico degli edifici storici in muratura, che ha scritto diversi interventi in materia che vengono ripresi nelle sue risposte. Alla formulazione delle domande ha contribuito Carlo Fontana.

Quando è nata l’iniziativa del Sismabonus e come si è sviluppata in questi anni? Sono disponibili dati relativi all’utilizzo?

Lo strumento del Sismabonus nasce con la Legge di Bilancio del 2017, subito dopo il terremoto del Centro Italia, per sensibilizzare maggiormente i cittadini sul tema della sicurezza delle loro case e fornire loro uno strumento tecnico-finanziario che incentivi gli interventi privati per la riduzione del rischio sismico. Questo rischio, a volte non così avvertito diffusamente dall’opinione pubblica, dipende sia dalla frequenza e intensità con cui accadono i terremoti in determinate aree ben identificate sulla mappa sismica italiana, sia dall’elevata vulnerabilità del patrimonio edilizio. Esiste ancora oggi un gran numero di edifici antichi che non rispondono ai minimi requisiti di sicurezza in caso di forte terremoto.
Mentre i costi sociali e in perdite di vite umane rimarranno incalcolabili, limitare i danni in caso di terremoto significa salvare un maggior numero di vite umane e gestire in tempi più brevi la riparazione, limitando anche i disagi socio-economici. Per arrivare a questo risultato occorre partire da una base indispensabile: ovvero avere edifici esistenti molto più resistenti al sisma, quasi come quelli di nuova progettazione. Gli edifici privati di Norcia, precedentemente rinforzati in modo efficiente dopo il sisma del 1997, hanno dimostrato che investire in questa direzione conviene. Sono nuovamente inagibili. Ma non rasi al suolo come quelli di Amatrice. La comunità che li abitava potrà ritornare ad insediarsi nei medesimi luoghi di origine con costi inferiori a quelli della completa demolizione e ricostruzione. Significa salvare vite umane.
Per questo il legislatore ha scelto di intraprendere una strada battuta con successo affidandosi al già collaudato meccanismo delle detrazioni fiscali. Tuttavia, l’esordio del Sismabonus è stato molto timido malgrado le alte percentuali di detrazione fiscale offerte. Le pratiche sono state fino ad oggi inferiori, anche come ordine di grandezza, rispetto a quelle più gettonate delle ristrutturazioni edilizie e dell’Ecobonus, già conosciute e ampiamente utilizzate dall’opinione pubblica.

Quali sono i motivi?

I motivi sono molteplici. Complessità del progetto strutturale, che comporta oneri e tempi maggiori rispetto a quello di una semplice coibentazione. Per valutare il rischio sismico di un edificio occorre spesso una modellazione al computer molto complessa, oltre all’esecuzione di prove diagnostiche per la caratterizzazione delle resistenze meccaniche e della qualità degli elementi portanti.  Ancora scarsa sensibilità dell’opinione pubblica al tema della sicurezza del patrimonio immobiliare, contestualmente alla crisi economica che porta ad investire somme ridotte sull’abitazione, e spesso più propense all’Ecobonus o alle semplici ristrutturazioni. Inoltre mettere in sicurezza l’edificio comporta a volte cantieri più lunghi con lavori incompatibili con la presenza delle persone all’interno, pertanto può sussistere in alcuni casi anche il disagio di affrontare un trasloco temporaneo del nucleo familiare. Tuttavia resta evidente che questa è la strada principale da percorrere. Se vogliamo vivere più sicuri nelle proprie abitazioni, i cittadini prima di tutti devono prendere coscienza del rischio sismico e, con l’aiuto dello Stato, attivare i cantieri della messa in sicurezza; il prima possibile.

La “classificazione sismica” degli edifici (termine discutibile, che forse non a caso viene confuso con la zonazione di competenza regionale), ovvero la valutazione del rischio singolo del singolo edificio, è in uso ormai da qualche tempo. È possibile dare un’idea sintetica, ovviamente semplificata, di come le varie tipologie costruttive (cemento armato, muratura, misto etc.) ed epoche di costruzione sono state prevalentemente classificate? Probabilmente ad un addetto ai lavori ogni classe fa venire in mente un tipo di edificio. Gli utenti potrebbero trovare utile un primo riferimento di massima di questo tipo. 

La classificazione è funzione delle vulnerabilità dell’edificio, senza specifici riferimenti alla tipologia strutturale. Deriva dalla qualità degli elementi portanti, come la tessitura muraria, le resistenze, gli schemi di armatura degli elementi in cemento armato, la presenza o assenza di collegamenti tra solai e pareti, l’efficacia del comportamento scatolare, ecc. La classificazione è specifica per ogni singolo edificio. Così si può anche trovare un edificio in muratura ben costruito in una classe inferiore (lettere più “alte”) rispetto ad uno in cemento armato progettato prima del 1971 e magari mal costruito, per esempio. Gli utenti devono comunque considerare che un edificio di nuova progettazione, verificato ai minimi requisiti richiesti per la sicurezza sismica, si attesta all’incirca nella classe B, e non in A+.
Ovviamente molti edifici esistenti, soprattutto quelli costruiti prima delle prime norme antisismiche o mal costruiti/mantenuti, si posizionano allo stato di fatto nelle classi F o al più E. Senza distinzione di tipologia costruttiva. Se costruiti senza dettagli antisismici o soggetti a forte degrado, risiedono tutti nelle classi più alte (lettere più “basse”). Un po’ come accade per la certificazione energetica di un edificio datato, privo di coibentazioni, con caldaia e serramenti vecchi: si attesta inequivocabilmente nella classe a più alto consumo energetico.

Uno dei maggiori elementi di diffidenza, per quello che ho potuto percepire da persone sensibili al problema della sicurezza sismica e anche disponibili ad affrontare costi e disagi, è la scarsa comprensibilità, in termini di scala della sicurezza sismica, dei vari livelli “di rischio” previsti dal Sismabonus. Il pubblico non è certo in grado di decifrare concetti abbastanza astrusi quali le perdite annue medie (PAM), che inducono a credere che in ogni anno si verifichino danni sismici. In definitiva, che cosa vuol dire in concreto in termini di sicurezza sismica – ad esempio – diminuire di due classi il rischio sismico di un edificio?

La classificazione è uno strumento efficace per offrire al cittadino una valutazione facilmente comprensibile del rischio sismico della sua abitazione, sulla falsa riga di quanto già fatto con la certificazione energetica dove le classi contrassegnate con le lettere e le graduazioni di colore ad esse associate favoriscono al cittadino un’idea qualitativa del consumo energetico della propria abitazione. Qui è la stessa situazione. Provo a spiegare brevemente i due parametri su cui si basa la classificazione sismica. Il primo è la Perdita Annuale Media attesa (PAM), ossia quanto sarebbe l’onere economico da sborsare ogni qual volta l’edificio si danneggi in modo grave dopo una grossa scossa di terremoto. Chiaramente, più l’edificio è vulnerabile, maggiore sarà questo costo, che rappresenta appunto una perdita economica che lo Stato, insieme al cittadino, vogliono limitare in caso di forte evento sismico. L’altro parametro è più ingegneristico, e rappresenta un indice di sicurezza che attesta quanto sia vicina o distante la resistenza sismica del fabbricato se paragonata con quella di una casa di nuova costruzione progettata con gli attuali requisiti di sicurezza sismica dettati dalle recenti norme tecniche.
Nella grande maggioranza degli edifici esistenti questo indice è inferiore ad 1 perché l’accelerazione che potrebbe sopportare la struttura (in termini di capacità) è inferiore rispetto a quella prescritta dalle norme tecniche (in termini di domanda di sicurezza). I motivi sono molteplici, prima fra tutti la constatazione che moltissimi fabbricati esistenti sono stati progettati e costruiti prima delle norme antisismiche. Tengo a precisare che, sebbene non sia sempre possibile negli edifici esistenti (per ragioni economiche e/o tecniche) raggiungere un’uguaglianza tra capacità e domanda di sicurezza, tuttavia il miglioramento della capacità rappresenta già un buon risultato per ottenere un edificio più sicuro e meno danneggiabile. Il caso degli edifici di Norcia, consolidati ad un 60% della domanda, conferma la validità dell’intervento nel tempo.
Chiaramente, all’aumentare dell’indici di sicurezza, si abbasserà il PAM, ossia i costi legati alle riparazioni perché l’edificio maggiormente consolidato si danneggerà di meno, in modo meno grave, e quindi con tempi di inagibilità e recupero più brevi.

Che relazione c’è fra le classi di rischio del Sismabonus e altri due concetti abbastanza difficili per il pubblico, quali i cosiddetti “miglioramento sismico” e “adeguamento sismico”, dei quali già poco era chiaro il termine di aumento di sicurezza?

L’ “adeguamento sismico” consiste in una serie di interventi, a volte molto invasivi e sicuramente più costosi, per raggiungere gli stessi livelli di sicurezza di un edificio di nuova progettazione. Significa arrivare ad avere l’indice di rischio pari ad 1. Tuttavia, soprattutto in edifici storici o comunque di pregio, questo significherebbe devastarli e perdere i loro connotati storico-architettonici. All’adeguamento, spesso è preferibile attuare un “miglioramento sismico”, ossia non raggiungo l’unità nell’indice di sicurezza ma incremento comunque la capacità della struttura, ovvero l’accelerazione sismica che può sopportare. E questo, a mio modo di vedere, rappresenta già un bel passo in avanti, soprattutto nei casi (molteplici) in cui si parte con vulnerabilità molto elevate e una capacità quasi tendente a zero. (https://www.ediltecnico.it/72186/miglioramento-sismico-edifici-storici-sicurezza-conservazione/).
In un edificio esistente, per esempio in muratura, occorrerà prima di tutto intervenire sulla legatura dei suoi elementi portanti (solai e pareti), in modo da ottenere un buon comportamento d’insieme durante la scossa sismica ed evitare che singole pareti ribaltino a terra. Questo può essere ottenuto anche con semplici interventi puntuali e non invasivi, come l’inserimento delle catene e il rinforzo dei solai esistenti. Se si ha in previsione di rifare il tetto, procedere all’inserimento di presidi antisismici come il cordolo sommitale e preferire schemi di copertura non spingente. Sono tutti dettagli che poi faranno la differenza al momento opportuno. (https://www.ediltecnico.it/78440/sismabonus-come-detrazione-interventi-locali/).
Se sarà necessario intervenire anche sulle resistenze delle pareti o dei telai in cemento armato, a questo punto si passerà a lavori più onerosi che garantiranno un miglioramento sismico più consistente. (https://www.ediltecnico.it/78805/sismabonus-intervento-esteso-riduzione-rischio-detrazioni/; https://www.ingenio-web.it/26439-analisi-criteri-e-suggerimenti-per-scegliere-la-tecnica-di-rinforzo-adeguata-alledificio-esistente).
Ricordo, cosa non trascurabile, che molti rischi per l’incolumità delle persone derivano all’interno delle proprie abitazioni da tutta una serie di elementi non strutturali ma la cui caduta può comportare gravi danni alle persone: controsoffitti, pareti di tamponamento, mobili. Anche su di essi occorre intervenire. (https://www.ingegneri.cc/verifiche-elementi-non-strutturali.html).
Molti interventi di adeguamento sismico normati e suggeriti a partire dagli anni 70-80, consistenti in pesanti protesi in c.a., sostituzione degli originali solai e tetti in legno con strutture pesanti in c.a., hanno in alcuni casi fallito dopo le successive grandi scosse sismiche, se inseriti su strutture murarie già molto compromesse e non adeguatamente consolidate. La finalità dell’intervento sismico non deve stravolgere l’originario schema strutturale, portando ad un ibrido non facilmente interpretabile, bensì migliorarlo nei punti di vulnerabilità. Spesso è sufficiente intervenire con tecniche tradizionali, o riviste con materiali moderni, ma sempre compatibili con l’originaria tecnica costruttiva del fabbricato.

Gli interventi di riduzione del rischio, o comunque della vulnerabilità sismica, richiedono risorse, competenze e tempi di esecuzione. A meno che gli interventi vengano realizzati durante una ristrutturazione completa dell’immobile o di sua parte (come avvenne ad esempio nel mio caso, pre-Sismabonus purtroppo…..) è possibile che gli inquilini debbano spostarsi e vivere in un alloggio diverso. Questa eventualità accresce le difficoltà ad accettare l’iniziativa. Hai qualche informazione relativa a casi reali?

Rappresenta sicuramente il limite logistico più forte, se l’intervento viene eseguito su un edificio già abitato. Tuttavia, molti lavori di rinforzo possono essere anche solo puntuali, come l’inserimento di tiranti, il consolidamento di un solaio, le cuciture di lesioni, il rifacimento di una copertura con dettagli antisismici, per fare solo alcuni esempi, che al limite potrebbero richiedere delle inagibilità parziali (nel tempo e nello spazio) compatibili con la convivenza di persone all’interno dell’abitazione. Poi ci sono interventi più estesi (e maggiormente performanti per diminuire le classi di rischio), che riguardano l’aumento delle resistenze degli elementi portanti dell’intero scheletro strutturale della casa (murature o elementi in cemento armato), che potrebbero richiedere l’allontanamento dall’abitazione per alcune settimane. Molti interventi possono essere pianificati nel tempo a più riprese, magari in concomitanza con periodi di vacanza fuori dall’abitazione principale.

Il salto di due classi non ha lo stesso costo in tutte le zone italiane, ma il beneficio economico è uguale. Capisco che sia un problema nel problema, ma mi piacerebbe avere la tua idea in proposito.

È vero, sicuramente migliorare la sicurezza di un edificio destinato a subire terremoti di maggiore intensità e frequenza data la sua ubicazione in un’area ad alto rischio, non avrà il medesimo onere economico di una abitazione posizionata in un’area a basso rischio. Il legislatore dovrà probabilmente rivalutare i massimali a disposizione per le detrazioni fiscali, prevedendo un tetto di importo più alto per le zone ad alto rischio sismico. Oppure meccanismi fiscali più vantaggiosi.

Adesso ti pongo domande maturate da mie riflessioni, che riguardano più la strategia globale che non il Sismabonus propriamente detto.
Prima di tutto, il Sismabonus “vede” un edificio come unità minima di intervento, ma anche massima. MI spiego: io posso benissimo chiederlo per ristrutturare un immobile nel centro storico di una certa località; arriva un terremoto e danneggia gravemente il centro storico a eccezione del mio edificio che si conserva benissimo. A quel punto io sarò costretto comunque a sloggiare come gli altri abitanti per molto tempo e forse per sempre. Non è stato un buon affare né per me né per lo Stato (cioè noi) che ci ha messo i soldi….

 È un problema, hai ragione, ed è già successo in molti crateri sismici. Tuttavia, se ognuno non inizia a mettere nella collettività il proprio contributo, non si raggiungerà mai un risultato collettivo efficace ed esteso. La sicurezza degli aggregati edilizi è complessa. Ho visto unità strutturali consolidate rimanere integre ma martellare e distruggere, a causa della loro maggiore rigidezza, l’unità adiacente non rinforzata. Col risultato, come dici tu, che anche quella rimasta in piedi è diventata inagibile a causa del pericolo derivante dai crolli circostanti. O addirittura rischiare la demolizione, anche se la struttura è salva, perché l’intero borgo verrà ricostruito altrove. Provo a risponderti con un paragone medico di stretta attualità sanitaria: se si vaccinano in pochi, non si otterrà mai l’immunità di gregge. Credo che la stessa considerazione possa essere estesa alla sicurezza sismica degli aggregati edilizi. Difficile mettere d’accordo proprietari diversi, con differenti disponibilità economiche. Però, magari eseguendo lavori distinti differenziati nel tempo, si può ambire a raggiungere una resilienza collettiva che non faccia più correre il pericolo della dislocazione dei borghi.

Nel nostro paese la casa è sacra e ciascuno è abbastanza libero di costruire in barba alle regole, arrivando fino all’abusivismo. Una situazione come quella che si verifica in alcune città degli Stati Uniti, in cui certi edifici vengono definiti “pericolosi” e pertanto “inabitabili” o anche da demolire è pressoché impensabile. È logico/accettabile che il Sismabonus (risorse della comunità) venga concesso, ad esempio, a edifici che avrebbero dovuto essere costruiti secondo le norme sismiche e non lo sono, oppure hanno subito ristrutturazioni inopportune/illegali, o addirittura edifici abusivi?
E, parallelamente, è logico che lo Stato rimborsi il 50% per una ristrutturazione non “sismica” (non Sismabonus) di un edificio in zona sismica?

Sicuramente una buona parte della grande vulnerabilità sismica del patrimonio immobiliare deriva da interventi scellerati di ampliamento, elevazione, parti abusive costruite in barba ai criteri di sicurezza. È un problema complesso, che necessita di risposte ad hoc dal punto di vista amministrativo. Sarebbe opportuno non concedere l’incentivo fiscale, prima almeno di aver condonato l’abusivismo con una ammenda ad esso proporzionale. Per fare questo, occorre rendere obbligatoria una verifica strutturale per ogni edificio esistente che individui anche le parti non costruite a norma di legge. Si ritorna al dibattuto tema del certificato di idoneità statica per il costruito esistente. Sicuramente auspicabile, ma anche in questo caso da incentivare fiscalmente perché oneroso per complessità e responsabilità del tecnico incaricato.
Riguardo la semplice ristrutturazione, concordo con te che almeno nelle aree a maggior pericolosità sismica l’accesso allo strumento delle detrazioni fiscali in generale dovrebbe avvenire contestualmente all’obbligo di far eseguire almeno una verifica della vulnerabilità sismica per rendere il proprietario cosciente del rischio della casa in cui vive. Il buon senso vorrebbe che si intraprendessero prima gli interventi di messa in sicurezza strutturale, e poi, se ci sono ancora disponibilità economiche, anche la ristrutturazione edilizia e la coibentazione. E non viceversa.
Ho già espresso le mie perplessità sul bonus facciate, non perché non sia utile, anzi, ma il rischio è di offrire al cittadino tante possibilità di detrazione fiscale e di lavori da poter eseguire con essi, senza aiutarlo a comprendere che esistono alcune priorità, che riguardano prima di tutto la sicurezza delle persone che vivono all’interno delle proprie abitazioni. Il rischio è di rifare la facciata perché il cittadino tiene molto all’estetica, senza essersi minimamente preoccupato se quella parete offra la necessaria sicurezza sismica in caso di terremoto (https://www.ediltecnico.it/76133/detrazioni-fiscali-edilizia-incremento-ristrutturazione-sicurezza/)

Supponiamo che un edificio abbia diminuito la sua classe di rischio di qualche unità usufruendo del Sismabonus. Domani viene un terremoto e succede che l’edificio si danneggia “più del previsto”. Che cosa deve succedere a questo punto? Paga sempre lo Stato?

Sappiamo bene che una struttura, anche consolidata, sarà comunque soggetta ad una probabilità che il suo danneggiamento vada oltre i limiti previsti. Fa parte del calcolo probabilistico su cui si basa la moderna ingegneria sismica. Oggi le norme per le nuove costruzioni in zone sismiche prevedono che gli edifici non si danneggino per terremoti di bassa intensità, non abbiano danni strutturali per terremoti di media intensità e non crollino in occasione di terremoti forti, pur potendo subire gravi danni.
Aver migliorato sismicamente il proprio edificio, aderendo al Sismabonus, significa che, in caso di una forte scossa di terremoto, diminuisce il rischio di morire sotto il crollo e nello stesso tempo riduce l’entità dei danni con costi di ricostruzione ridotti, che probabilmente saranno o ad onere sempre dello Stato, oppure, se il legislatore lo riterrà opportuno, a carico di un’assicurazione. Il cui costo potrà essere proporzionale alla classe di rischio sismico, per esempio. Ma queste scelte sono di carattere politico e legislativo. Da ingegnere, ritengo che riuscire a migliorare la resilienza collettiva del costruito esistente sia un’impresa enorme in cui tuttavia credo fortemente. Per non contare più morti, ma solo danni riparabili in poco tempo. Niente più chiese interamente crollate. Comunità trasferite per breve tempo. Un’economia locale che riparte dopo pochi mesi. In questo diverso scenario, qualsiasi intervento economico di ricostruzione diventerebbe più facile e attuabile da diversi attori, senza chiedere più nulla al cittadino che ha già fatto prima la sua parte.

Naturalmente lo speriamo; ti chiedo che cosa è necessario, a tuo parere, per incentivare l’utilizzo del “Sismabonus”, sempre che le risorse dello Stato siano sufficienti: Ti chiedo anche se, a parer tuo, fra Sismabonus, estensione della normativa sismica a tutto il territorio, aumento delle competenze ecc. il rischio sismico del nostro paese è minore o no rispetto, ad esempio, a 30 anni fa.

Per incentivare l’utilizzo del Sismabonus a mio avviso è necessaria molta informazione da dare ai cittadini, in modo da sensibilizzarli riguardo al rischio e contestualmente offrire loro valide soluzioni tecniche di intervento. Ritengo che se ci fosse un incentivo iniziale per la sola valutazione della vulnerabilità, magari da rendere obbligatorio per accedere alle detrazioni fiscali dei successivi lavori sulla casa, sarebbe già un’occasione importante per discutere insieme al cittadino dei risultati di analisi sulla propria abitazione e quindi renderlo sensibile al tema. Poi deciderà lui (ci auguriamo di sì) se proseguire con gli incentivi e i relativi interventi del Sismabonus. Riguardo la progettazione ed esecuzione di importanti opere di consolidamento strutturale, ribadisco che solamente un tecnico esperto in ingegneria sismica e ditte specializzate possono offrire le adeguate competenze affinché questi interventi siano realizzati in modo efficace.
La normativa tecnica attuale è molto stringente e ci sta già garantendo nuovi edifici più sicuri. Ma, come ripetuto, resta un immenso patrimonio edilizio esistente che rappresenta la maggior parte della vulnerabilità collettiva. Qui sarà il Sismabonus, promosso dalla voglia dei cittadini di costruirsi un nido familiare più sicuro, a ridurre la differenza di sicurezza tra nuove costruzioni e quelle esistenti.

Nota. Un aggiornamento a questo colloqui è disponibile qui

Sismabonus, un aggiornamento (colloquio con Alessandro Grazzini)

 

 

 

Paolo Scandone: uno dei “Grandi” del Progetto Finalizzato Geodinamica e del Gruppo Nazionale per la Difesa dai Terremoti (colloquio fra Massimiliano Stucchi e Dario Slejko)

Quattro anni fa ci ha lasciati Paolo Scandone, una figura centrale nello sviluppo della geologia e delle ricerche nel settore della difesa dai terremoti in Italia a partire dagli anni ’70 del secolo scorso. Lo ricordano qui Massimiliano Stucchi e Dario Slejko i quali con Paolo – tra le altre cose – misero le basi per una delle prime valutazioni di stampo moderno della pericolosità sismica del territorio italiano.
Lo ricordano con il rammarico che riconoscimenti e belle parole andrebbero offerti alla persona cui sono destinati quando la persona stessa è ancora in vita e li può apprezzare.

MS. Ho conosciuto Paolo Scandone all’avvio del Progetto Finalizzato Geodinamica (PFG) del CNR, nel 1976. Era responsabile del Sottoprogetto “Modello Strutturale”, al quale contribuivano moltissimi geologi di numerose università e istituti di ricerca. Era una persona dotata di notevole carisma e al tempo stesso di grande umanità, con il quale veniva istintivo cercare il dialogo e il confronto su temi scientifici, politici e più in generale della vita.
Venne delegato dal PFG a rappresentare il progetto in un convegno sindacale da me organizzato nel 1977, nel quale si chiedeva una parziale riorganizzazione del progetto e stesso e una sua più concreta finalizzazione alla “difesa dai terremoti”. Paolo ascoltò, intervenne e alla fine il PFG accolse buona parte delle proposte.
Da allora facemmo parte entrambi della cosiddetta “Giunta Allargata” che gestì il “Progetto Geodinamica”, una stagione unica di grande fervore e collaborazione scientifica multidisciplinare fra geologi, sismologi e ingegneri, che richiese tra l’altro di affrontare in 6 anni alcuni terremoti distruttivi (Friuli, 1976; Norcia, 1979; Irpinia e Basilicata, 1980). Indimenticabili le cene di lavoro a Roma e le riunioni affumicate fino a tarda serata nella saletta dell’Hotel Milani. In particolare collaborammo alla redazione della “Carta della Pericolosità Sismica” e della “Proposta di Riclassificazione Sismica”, destinata ad ampliare sensibilmente il numero dei comuni inclusi nelle zone sismiche.

pericolosità

DS. All’epoca del Geodinamica iniziavo a partecipare ai progetti nazionali ed ebbi scarse occasioni di incontrare quel geologo tipico, vestito da geologo, estroverso da buon geologo, molto apprezzato scientificamente ed entusiasta come un uomo di scienza dovrebbe essere che rispondeva al nome di Paolo Scandone.

MS. Il Sottoprogetto coordinato da Paolo rilasciò il “Modello Strutturale” (https://www.socgeol.it/438/structural-model-of-italy-scale-1-500-000.html) 

Modello strutturale

IL PFG terminò nel 1981 e la sua eredità venne raccolta dal Gruppo Nazionale per la Difesa dai Terremoti (GNDT, diverse versioni) e dal Gruppo Nazionale di Vulcanologia. Venne anche riorganizzato, sotto la presidenza di Enzo Boschi, l’Istituto Nazionale di Geofisica che intraprese il suo entusiasmante sviluppo. In particolare si formò, per l’iniziativa di Renato Funiciello, un gruppetto di geologi che cercava in superficie le evidenze delle rotture sismiche corrispondenti alle faglie. Nel 1984, a più di tre anni dal terremoto del 1980, vennero presentate le tracce superficiali di quel terremoto, che Paolo non aveva cercato in quanto le considerava improbabili. Questo fatto determinò un avvio di ricerche “alternative” al filone principale di cui Paolo era l’indiscusso leader.

Nel gennaio del 1985 Paolo fece parte del ristretto gruppo di esperti che suggerirono la possibilità a breve di un forte terremoto in Garfagnana, successivamente allertata e evacuata dall’allora Ministro per la Protezione Civile Zamberletti. E fu nel GNDT, negli anni successivi, che Paolo Scandone costruì, sulla base del suo Modello Strutturale, il Modello Sismotettonico (Meletti C., Patacca E., Scandone P. (2000), che cercava di inserire la attività sismica italiana in un quadro unitario. Successivamente da questo modello venne derivato il modello delle zone sismogenetiche, che venne migliorato in varie versioni (nella figura è presentato ZS4, Scandone e Stucchi, 1999) e divenne strumento delle successive elaborazioni in materia di valutazione della pericolosità sismica.

ZS

Questa fase vide un notevole numero di riunioni che si svolgevano prevalentemente a Pisa, al Dipartimento di Scienze della Terra, nella cosiddetta “soffitta”, vero e proprio “laboratorio di geologia e sismologia” dove – in condizioni climatiche a volte difficili e in presenza di una permanente nuvola di fumo – lavoravano alcuni giovani geologi. Dario (GdL pericolosità sismica) e io (GdL catalogo dei terremoti) partecipammo a numerose di queste riunioni, a volte noi due soli, a volte con altri colleghi, secondo uno schema operativo che, ricordato oggi, fa venire i brividi. Andavo a Linate alle 8.00 a prendere Dario che arrivava in volo da Trieste; in tre ore di autostrada (la Cisa !) eravamo a Pisa, parcheggio a “La Torre”, inizio alle 11.30, lavoro, poi alle 17.00 ripartenza per Milano, alle 20.00 cena vicino a Linate, volo per Trieste e fine della giornata.

DS. Ricordo gli anni del GNDT con grande nostalgia perché mi rendevo conto che stavo partecipando a qualcosa di grande dal punto di vista scientifico ed umano. Eravamo giovani allora, Max ed io, o almeno noi ci sentivamo così, e il viaggio al “santuario” di Pisa non ci pesava affatto, anzi era atteso con entusiasmo perché era in ballo la carta di pericolosità nazionale, prodotto all’avanguardia europea che raccoglieva “il sapere” italiano in materia. L’atmosfera nella soffitta di Geologia poteva definirsi “domestica” con Paolo padrone di casa attorniato dalle sue due famiglie. Quella istituzionale, nel senso che era motivato nell’essere presente in quanto gruppo universitario di Paolo con Carlo Meletti, che estraeva dal computer tutto ciò che serviva a documentare le idee di Paolo, e Simonetta Ruberti, che riportava Paolo di tanto in tanto alla dura realtà dell’amministrazione universitaria. E poi c’era la famiglia vera con Etta Patacca nel piano di sotto che appariva raramente solo per dare a Paolo qualche comunicazione domestica, Berenice che giocava tranquilla fra carte geologiche e campioni di rocce e, talvolta, un bel meticcio bianco chiamato “Canòne”, credo nel senso di grande cane, ma non abbiamo mai approfondito.

MS. Fu un periodo ricco di scambi, approfondimenti, umanità, che si consolidava nelle occasioni che prevedevano anche un pernottamento (a Pisa, Roma o Milano) e una serata mangereccia e dedicata ad argomenti vari. A me fa piacere ricordare l’impegno comune quasi quotidiano in certi periodi, le lunghe telefonate in assenza di posta elettronica e di cellulari e gli incontri di cui ho parlato. Paolo esprimeva curiosità a 365 gradi; durante i convegni, quali ad esempio quelli del PFG, GNDT e GNGT, non si muoveva dalla sala e ascoltava tutto. Aveva promosso la ricerca storica sul grande terremoto del 1456 e la prima raccolta sistematica delle mappe delle isosisme, come si usava allora, da cui scaturì poi la nozione e la valorizzazione degli MDP (macroseismic data points, valori puntuali di intensità macrosismica che nell’insieme andavano a formare i cosiddetti “piani quotati”). DOM 4.1 fu il primo database macrosismico italiano interrogabile online (seguito poi dalle varie versioni di DMBI) e Paolo fu il primo cui lo mostrai funzionante commentandolo per telefono.

DS. Da matematico quale sono, o più esattamente cercavo di essere, non trovavo allora entusiasmanti le discussioni geologiche sull’evoluzione in ere milioni d’anni lontane che mi sembravano poco attinenti con i terremoti attuali. Con Paolo mi si è aperto un nuovo orizzonte perché egli riusciva a spiegare “meccanicamente”, accartocciando fogli di carta spesso stracciati a indicare faglie, le forze in atto e i movimenti conseguenti. Potremmo dire che Max ed io seguivamo una lezione di geodinamica in stile “non è mai troppo tardi”. Paolo era convincente come una dimostrazione di un teorema di geometria e la mappa delle sorgenti sismogenetiche che ne è derivata rimane per me un paradigma basato su cinematica, poi sismotettonica e, infine, sismogenesi.
E poi ricordo i pranzi che facevamo con Paolo. Se ci trovavamo a Pisa, la riunione iniziava alle 11:30 e intorno alle 13 Paolo usciva con la solita frase: “Panino o primo veloce?” Poiché il primo veloce significava il primo, il contorno, spesso il dolce e il tutto innaffiato da un po’ di vino, non si è mai sentita la voce che optasse per il panino. A Roma, invece, si andava a pranzo alla Birreria Peroni, in una traversa di via Nizza, sede del PFG e poi del GNDT. Lì il piatto di Paolo era rigorosamente il bratwurstel (salsiccia bianca) con contorno misto di crauti e patate e birra chiara alla spina. Questa scelta in effetti veniva seguita anche da gran parte di noi. Non c’è stata volta, però, che dopo il pranzo Paolo fosse minimamente provato dal cibo ma anzi il pranzo gli dava la carica, se ce ne fosse bisogno, per continuare con entusiasmo le discussioni scientifiche.

MS. Dopo la pubblicazione dei principali prodotti sismologici del GNDT (modello delle zone sismogenetiche ZS1/4, catalogo dei terremoti NT4.1 & database macrosismico DOM4.1, mappa di pericolosità sismica PS4), il GNDT proseguì per qualche anno a rilasciare buoni elaborati ma cominciò ad andare in crisi, sia per motivi interni che per gli attacchi di Enzo Boschi. Venne quindi commissariato dal Comitato 05 del CNR da cui dipendeva; furono nominati commissari Carlo Bosi e poi Claudio Eva, fino alla afferenza all’INGV e alla definitiva riorganizzazione in termini di progetti INGV-DPC.

Con l’ingresso nel nuovo INGV dell’Istituto di Ricerca sul Rischio Sismico, allora da me diretto, nel 2001 le nostre strade si separarono. Due anni prima eravamo andati insieme ai funerali di Giampaolo Pialli, altro grande geologo, grande uomo e amico. Incontrai Paolo ancora una volta a un convegno a Spoleto, nel 2004, organizzato di fatto in antagonismo a INGV, al quale volli partecipare in segno dell’antica amicizia. In seguito anche lui andò in pensione e seppi che, in forza delle sue ampie conoscenze, aveva fatto parte della commissione “Ichese” (International Commission on Hydrocarbon Exploration and Seismicity in the Emilia Region), incaricata tra l’altro di far luce su possibili relazioni fra la attività di ricerca di idrocarburi e di sfruttamento dei depositi e la sequenza sismica del 2012.

DS. Entusiasta dall’esperienza vissuta per la carta di pericolosità nazionale, feci invitare Paolo a Zurigo perché esponesse le basi della costruzione del modello sismogenetico italiano agli esperti del progetto Pegasos per il calcolo dello scuotimento atteso ai siti delle centrali nucleari svizzere. Paolo fu, come sempre, magnifico e le sue linee guida vennero seguite da diversi gruppi coinvolti in Pegasos e io fui fiero di aver portato un contributo così importante.

MS. Anche se – come si dice – “ci eravamo persi di vista”, la sua figura e i suoi insegnamenti sono rimasti vivi dentro di me. Purtroppo la polarizzazione che si era verificata con la nascita dell’INGV fece sì che non venni invitato, al pari di altri, al convegno che si tenne nel 2019 presso l’Accademia dei Lincei per ricordarne l’opera.
Ricordo i suoi racconti, le visioni che sapeva evocare, i suoni dei nomi di città e paesi e luoghi dove andava a rilevare, con pochi colleghi o con gli studenti, o dove era andato per il piacere di conoscere. Ricordo fra gli altri i brevi accenni che Paolo fece a proposito di un suo viaggio sulle Ande nel nord dell’Argentina, in parte a piedi con un animale da soma; furono anche le sue poche parole che mi stimolarono, molto tempo dopo, a viaggiare da quelle parti. Infine ricordo una storia che raccontava a proposito della sua partecipazione a una campagna di ricerche geofisiche nel Pakistan settentrionale: con un paio di colleghi aveva scorto una ventina di esseri (ominidi o yeti?), che risalivano rapidamente un costone di fronte a loro. Rimasero a guardarli increduli, un collega scattò delle foto per accorgersi più tardi che nell’apparecchio mancava la pellicola; e Paolo non era il tipo da inventarsi storie così solo per farsi ammirare.

Voglio concludere ricordando due episodi. Una sera, dopo aver ben mangiato e bevuto, Paolo ricordò il nostro primo incontro e disse che gli ero rimasto impresso perché allora assomigliavo a un “putto” (avevo i capelli lunghi e ricci), ma un “putto incazzato”…..
Negli anni ’90 poi, quando preparavo le carte per il concorso a dirigente di ricerca, gli chiesi con un po’ di timore una lettera di “endorsement”; me la scrisse e leggerla per me fu una bella sorpresa, in particolare quando sostenne che ero come un buon vino che “migliora invecchiando”.

DS. Ci “siamo persi di vista” dopo l’esperienza svizzera perché Paolo poco frequentava i convegni e io quel poco che sono stato coinvolto a livello nazionale è stato con ruoli direttivi senza partecipare allo sviluppo di nuova cose. E così ho sentito Paolo solo saltuariamente al telefono maturando in me la consapevolezza di aver fatto un piccolo tratto di strada con una grande persona che mi ha lasciato tanto, scientificamente ed umanamente.

Paolo è stato ricordato di recente anche da Roberto Scandone
https://www.facebook.com/roberto.scandone.5/posts/283085526215964

Qualche riflessione su Covid19 e Giustizia (colloquio con Alessandra Stefàno e Cecilia Valbonesi)

L’argomento di questo colloquio esce alquanto dai temi di interesse di questo blog. Tuttavia presenta sia elementi novità, sia qualche elemento di vicinanza con i temi sismici. Per parlarne abbiamo pensato a un colloquio con due avvocati penalist, con la cui esperienza questo blog ha già interagito. Entrambe hanno risposto in modo indipendente alle stesse domande.

 Alessandra Stefàno (nel seguito AS) è avvocato penalista del Foro di Pavia: ha fatto parte del collegio di difesa degli imputati al Processo “Grandi Rischi”. Su questo blog è stata intervistata sul tema “Il “nesso causale” nel cosiddetto processo alla “Commissione Grandi Rischi”
https://wordpress.com/post/terremotiegrandirischi.com/400

Cecilia Valbonesi (nel seguito CV) è Dottore di ricerca in Diritto penale presso l’Università degli Studi di Firenze e Avvocato del Foro di Firenze. Per motivi scientifici ha seguito e commentato il cosiddetto processo alla “Commissione Grandi Rischi”. Su questo blog è stata intervistata riguardo alla vicenda processuale alla prova del romanzo. Luci e ombre del volume “La causalità psichica nei reati colposi” di Marco Billi.
https://wordpress.com/post/terremotiegrandirischi.com/1303 Continua a leggere

Norme tecniche per le costruzioni, modelli di pericolosità sismica e sicurezza degli edifici (colloquio con Antonio Occhiuzzi)

Anche se l’interesse maggiore di questi tempi è ovviamente per l’emergenza Covid, abbiamo ritenuto utile proporre una interessante analisi sul problema della sicurezza sismica degli edifici in relazione alle norme tecniche e ai modelli di pericolosità sismica.

Antonio Occhiuzzi, napoletano e tifoso del Napoli, è professore di Tecnica delle Costruzioni presso l’Università Parthenope. E’ laureato in ingegneria a Napoli e al MIT di Boston, ha un dottorato di ricerca in ingegneria delle strutture, materia cui si dedica da sempre.
Dal 2014 dirige l’Istituto per le Tecnologie della Costruzione (ITC), ossia la struttura del CNR che si occupa di costruzioni, con sedi a Milano, Padova, L’Aquila, Bari e Napoli.

Caro Antonio, tempo fa avevi commentato un mio post di risposta a un articolo dell’Espresso in cui veniva riproposta, come avviene periodicamente, la questione del superamento dei valori di progetto in occasione dei terremoti recenti e, di conseguenza, la presunta fallacia dei modelli di pericolosità e delle normative basate su di essi, quasi che entrambi fossero responsabili dei crolli e delle vittime. https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/

Poichè in questa problematica si intrecciano aspetti sismologici e ingegneristici, ti ho invitato a approfondire la tematica.

Caro Max, l’avevo commentato perché ero assolutamente d’accordo con te. L’articolo dell’Espresso, rivolto al grande pubblico, risulta ingannevole per il non addetto ai lavori perché vengono mescolate considerazioni ragionevoli a clamorose inesattezze. Il giornalista si basa su di un’intervista a un geofisico, la figura professionale più credibile per studiare i fenomeni fisici del nostro pianeta: tuttavia, quando poi si passa agli effetti di tali fenomeni sulle costruzioni, il geofisico diventa, come lo sarebbe un medico o un letterato, un incompetente, perché si “entra” nei temi dell’ingegneria strutturale e, in particolare, di quella antisismica. Temi che non fanno parte degli studi e delle esperienze di geologi, fisici, medici e letterati (tra i tanti).

Le mappe, o meglio I modelli, di pericolosità sismica vengono compilati – nella maggior parte delle nazioni e anche dei progetti internazionali – secondo un approccio probabilistico, poiché questo viene “richiesto” dagli utilizzatori dei modelli stessi, ovvero dagli ingegneri progettisti. Ci puoi spiegare perché?

La progettazione strutturale e antisismica è, in tutto il mondo evoluto, basata su concetti probabilistici, anche per quanto concerne le azioni, incluse quelle sismiche. E questo approccio non è in discussione nella comunità mondiale dell’ingegneria strutturale (e antisismica). Il motivo, che spesso sfugge a chi non è del mestiere, è che la progettazione strutturale è dominata dalle incertezze: incertezze nella definizione delle azioni, sui modelli utilizzati, sulle resistenze dei materiali. Per tale motivo, la progettazione strutturale è convenzionale: nessuno al mondo pensa che nei solai di abitazione ci sia un carico variabile uniformemente distribuito pari a 2 kN/mq, che sarebbe a dire che in ogni stanza della casa c’è un allagamento con l’acqua alta 20 cm. Tuttavia, praticamente tutte le case del mondo sono progettate secondo questo tipo di ipotesi, per la quale gli effetti dei carichi che possono realmente interessare gli ambienti di una casa sono probabilisticamente minori di quelli corrispondenti a quella specie di “piscina” di cui parlavo prima. L’approccio probabilistico cerca di coniugare accuratezza e fattibilità operativa: in alternativa, ad esempio, un progettista dovrebbe prevedere, nell’ambito di un soggiorno, quale possa mai essere la disposizione dell’arredo e la posizione degli occupanti, eseguire i calcoli e imporre di non spostare divani, tavoli e pianoforte e di sedersi sempre tutti allo stesso posto. Sarebbe la “maximum credible furniture position”, concetto analogo a quello di “maximum credible earthquake” descritto nell’articolo dell’Espresso. In entrambi i casi, inutilizzabile per l’ingegneria antisismica: ti assicuro che prima o poi il pianoforte lo spostano e che il prossimo terremoto che arriva in un’area avrà caratteristiche che ai fini della sicurezza delle costruzioni saranno differenti da quelle previste: occorre progettare senza avere la presunzione di “sapere tutto”, ma gestendo “probabilisticamente” le incertezze.

Per inciso, è corretto dire che le azioni proposte dalla normativa rappresentano un valore minimo, obbligatorio, ma che se un proprietario decide di adottare valori superiori per ottenere una sicurezza maggiore è libero di farlo?

E’ corretto. Il “minimo obbligatorio” è frutto di un compromesso tra esigenze diverse e “contrastanti”. Nell’ambito delle costruzioni, due esigenze contrastanti sono la “resistenza al crollo” e il “danneggiamento delle componenti non strutturali”. Aumentare l’intensità delle azioni corrisponde a costruzioni più resistenti e più rigide: questo corrisponde ad accelerazioni ai piani più elevate e, di conseguenza, a danneggiamenti più elevati per partizioni esterne e interne, impianti, finiture, etc. Se diminuisce l’intensità delle azioni attese, la costruzione è meno resistente, meno rigida e durante un terremoto subisce accelerazioni ai piani più modeste: meno danni, ma aumenta il “rischio crollo” (per semplificare). Il “punto di equilibrio”, basato sull’esperienza, è – per ora – quel 10% in 50 anni.
Se però io avessi un minuto da dedicare a ciascun proprietario di casa, lo utilizzerei dicendogli di non fare soppalchi abusivi, non nascondere i radiatori realizzando nicchie nelle murature portanti, non tagliare o comunque danneggiare travi e pilastri in calcestruzzo armato per fare spazio agli impianti tecnologici, di risparmiare e poi spendere qualche soldo per le verifiche strutturali e per il consolidamento strutturale. Il minuto sarebbe finito e non sarei pentito di non avere avuto il tempo di parlargli dell’ultimo dei problemi, ossia la modifica di dettaglio dell’intensità dell’azione sismica rispetto a una definizione che va già sostanzialmente bene.

E’ però vero che in alcuni paesi si cominciano a adottare azioni con probabilità di superamento più basse, così come avviene, per inciso, per opere pubbliche di particolare rilevanza. E qualcuno spinge per adottare il massimo terremoto atteso, sempre ammesso che lo si sappia valutare.

Mi perdonerai la franchezza, ma questo è un falso problema. Ti racconto un aneddoto. Alla fine del 2008 partecipai alla progettazione di un nuovo padiglione dell’ospedale di Fivizzano, in Garfagnana. Proposi subito l’adozione delle allora recenti NTC 2008: tutti, committente, tecnici, persino i colleghi del locale Genio Civile mi dicevano “siamo nel periodo transitorio, perché non vai con le norme del 1996?”. Insistetti, e l’edificio fu realizzato secondo le NTC 2008, forse uno dei primi in Italia, all’inizio del 2009, prima del terremoto di L’Aquila. Nel giugno 2013 accadde un terremoto, non un evento epocale (M=5.1), ma con epicentro molto prossimo a Fivizzano. Nel plesso ospedaliero c’è una stazione accelerometrica della rete nazionale: guardando PGA e spettro di risposta in accelerazione ricavati dal segnale registrato, mi accorsi che si trovavano ben al di sopra dello spettro di progetto allo SLD e al di sotto di quello allo SLU. Un sopralluogo permise di constatare che gli unici danni rilevati nel nuovo padiglione riguardarono due piccole lesioni nei componenti non strutturali di partizione esterna. La riparazione durò mezza giornata. Voglio dire che mentre ci sono testimonianze empiriche, come quella che ti ho raccontato, del fatto che la scelta di utilizzare una certa probabilità di superamento in un dato periodo “ha funzionato”, non esiste alcun caso reale, per edifici progettati e realizzati secondo le norme attuali (dalle NTC 2008 in poi), che mostri che le scelte alla base di tali normative sono sbagliate.

Uno degli argomenti più usati – strumentalmente – per attaccare modelli di pericolosità e normativa sismica basata su di essi è l’avvenuto superamento dei valori di progetto in occasione di terremoti recenti. Premesso che, a parte gli svarioni che vengono commessi nell’effettuare questi confronti,  i valori adottati per la progettazione sono “superabili” per definizione se si accetta un x% di probabilità di superamento in x anni, l’idea che viene trasmessa al pubblico è che se le azioni sismiche superano quelle di progetto la costruzione crolla. E’ così?

 In generale non è così. Come dicevamo prima, l’approccio attuale dell’ingegneria antisismica mondiale è fondato su basi probabilistiche. Questo significa che l’impostazione normativa prevede esplicitamente che non sia nota, ad esempio, l’entità dell’azione sismica (ovviamente in un certo, ragionevole intervallo). Per esemplificare, se la PGA di progetto allo Stato Limite Ultimo (SLU) è, per un dato sito, pari a 0,27g, puoi star sicuro che un edificio correttamente progettato avrà il comportamento previsto anche per valori superiori della PGA. Naturalmente, se impattiamo un asteroide e il moto del suolo arriva a punte di accelerazione molto maggiori, ad esempio 10 volte maggiori, questo discorso non vale più. Ma per una data area, l’attuale impostazione progettuale tiene in considerazione il fatto che le azioni possano essere ragionevolmente superiori a quelle di progetto senza che la sicurezza della costruzione ne risenta significativamente. A tale risultato si perviene per due strade principali.
La prima concerne i coefficienti di sicurezza (parziali) previsti dalle norme vigenti, che riguardano le azioni, le resistenze e i modelli di valutazione. La questione è un po’ sottile, per addetti ai lavori: i coefficienti parziali sono parzialmente esplicitati nelle norme, ma sono spesso invisibili ai “non specialisti” e pertanto applicati spesso senza che progettisti ed esecutori ne abbiano esatta contezza. Semplificando in maniera estrema, e perdendo quindi in rigore scientifico, posso dirti che l’effetto globale dei coefficienti parziali (espliciti e nascosti) comporta per una costruzione in calcestruzzo armato un margine di sicurezza compreso tra 2,5 e 3, che aumenta nel caso di meccanismi di rottura fragile (di nuovo, roba da super-specialisti). Questo significa che azioni, modelli e resistenze previste in progetto possono essere sbagliati – complessivamente – fino al 150-200% prima di causare un crollo. Può sembrare tanto, ma al momento in tutto il mondo questa è più o meno la riserva di resistenza che viene ritenuta necessaria.
La seconda è il concetto di duttilità. Secondo le attuali norme di progettazione e di esecuzione, gli organismi strutturali sono in grado di resistere ad azioni maggiori di quelle previste in progetto utilizzando meccanismi di duttilità e di dissipazione energetica e purché non insorgano meccanismi di rottura fragile (accuratamente evitati mediante l’applicazione di coefficienti parziali di modello e del concetto di “gerarchia delle resistenze”). Aggiungo, inoltre, che le costruzioni moderne dispongono di “riserve di resistenza” aggiuntive delle quali non si tiene conto nella progettazione, ma che comunque esistono.
Per quanto detto, quindi, la tesi che accelerazioni sismiche effettive alla base superiori a quelle convenzionali di progetto (di quanto: 10, 20, 50%?) siano in qualche modo un problema che riguarda la sicurezza delle costruzioni è priva di qualsiasi riscontro nel mondo dell’ingegneria antisismica.

Tornando al problema principale, possiamo affermare che i crolli che riscontriamo in occasione di molti terremoti non sono dovuti al superamento delle azioni di progetto? Sei a conoscenza di casi in cui questo si sia verificato in modo dimostrato?

Le costruzioni realizzate a partire delle recenti normative antisismiche (dall’Ordinanza PCM del 2003 in poi) hanno un grado di sicurezza nei riguardi delle azioni sismiche molto elevato (la sicurezza “assoluta” non esiste!). Quelle che hanno “sofferto” e soffriranno per i terremoti sono sostanzialmente costruzioni non realizzate secondo criteri antisismici o oggetto di manomissioni operate con poco scrupolo. Sintetizzando, fino ad oggi hanno fatto più morti i soppalchi e le aperture abusive che la PGA.

Qui ovviamente si apre la questione del come mai questo avvenga. Che crollino alcune costruzioni non realizzate secondo criteri antisismici, ad esempio prima che il relativo Comune venisse inserito nelle zone sismiche, ci può stare: tuttavia ci sono fior di costruzioni di quel tipo che hanno superato in maniera decente la prova del terremoto. Come mai avviene questo?

L’ingegneria antisismica è una disciplina relativamente moderna. Fino agli anni ’80 è rimasta confinata nei dipartimenti (allora erano istituti) universitari, la prima generazione di laureati in ingegneria civile con l’esame di costruzioni in zona sismica nel libretto è apparsa sul mercato del lavoro nella decade a cavallo del nuovo millennio. I crolli registrati in Italia in corrispondenza dei terremoti sono riferiti, nella stragrande maggioranza dei casi, a costruzioni in muratura non ingegnerizzate o a edifici in calcestruzzo armato non progettati e realizzati secondo criteri antisismici. Anche per questo tipo di costruzioni, però, esiste una capacità, ancorché limitata, di resistere alle azioni sismiche. Una muratura regolare, ben conservata, con aperture geometricamente ordinate può essere in grado di sostenere azioni orizzontali significative anche se chi l’ha realizzata non lo sapeva.

Anche senza tirare in ballo probabilità di superamento, argomento sempre ostico e scivoloso ad ogni semplificazione, si può dire che il modello di pericolosità ha fornito alcuni “terremoti” di riferimento di entità crescente, per ogni località Italiana. Le NTC hanno deciso di usare (per civile abitazione) due di questi, richiedendo ai progettisti di superarne uno senza danni e l’altro senza crolli.  Alla luce delle esperienze degli ultimi anni, ritieni ancora questa assegnazione la migliore (per lo Stato e per il proprietario) o c’è spazio per un passaggio dall’approccio “salva vite” a quello “limitazione del danno”, per avere in futuro crateri ancora più piccoli e meno danneggiati?”

Caro Max, devo dire che ancora una volta siamo “fuori fuoco”. Le vite perdute e i danni occorsi durante i terremoti italiani delle ultime decadi sono dovuti a due diversi fattori, tra i quali certamente non c’è la scelta operata in sede di NTC. Il primo è che morti e danni hanno riguardato costruzioni precedenti all’attuale assetto normativo. Sotto questo profilo è fuorviante associare i danni e le tragedie che osserviamo al telegiornale con l’attuale norma tecnica. Il secondo è che morti e danni hanno riguardato molto spesso costruzioni malamente manipolate e per questo indebolite nei riguardi della sicurezza strutturale e antisismica (ricordi la “casa dello studente” di L’Aquila? O le foto di Amatrice con le murature portanti “tagliate” in corrispondenza di improbabili soppalchi?). Ovviamente, tutto è migliorabile, anche le mappe di pericolosità e l’uso che se ne fa nell’ingegneria antisismica: tuttavia, questi aspetti oggi sono molto meno importanti del dramma di avere in tutto il Paese una maggioranza di costruzioni irrispettose di qualsiasi criterio antisismico anche minimo.

A volte, perdonami la franchezza, mi sembra che il dibattito scada nel paradossale osservando che una diversa modellazione delle azioni sismiche porta a oscillare il rapporto tra capacità e domanda (ossia il livello di sicurezza antisismica) tra 0,9 e 1,1 mentre la stragrande maggioranza delle costruzioni italiane delle zone sismiche 1 e 2, ivi incluse scuole, tribunali, edifici sportivi e case, ha valori prossimi a 0,3, offrendo quindi una sicurezza strutturale pari a circa un terzo di quella che viene richiesta oggi alle nuove costruzioni!

Parlare di terremoti e di pericolosità sismica, oggi? (Massimiliano Stucchi)

Meglio di no, certo. Ci sono ben altri problemi, oggi; anche se, inevitabilmente, qualcuno azzarda paragoni con l’epidemia, a volte azzeccati, a volte maldestri.
Anche la puntata di “Presa Diretta”, che doveva continuare l’opera di critica nei confronti del modello di pericolosità sismica adottato dalla Normativa Tecnica per le Costruzioni, già rinfocolata da L’Espresso lo scorso agosto e ripresa addirittura da una indagine della Corte dei Conti (!), è stata rinviata.

Rimandare alla fase 2? La fase 3? Ma quando comincia la fase 2, e soprattutto come sarà questa fase 2? Molti si ingegnano a cercare il “picco” attraverso modelli più o meno complessi, che cercano di utilizzare dati abbastanza farlocchi. Altri protestano perché non viene spiegata in dettaglio la fase 2; altri ancora se la prendono con i “trasgressori” del lockdown, che impediscono la discesa della curva. Si aprono inchieste, giuste ma forse non prioritarie, quando si pensa ai degenti del Triulzio o di altre RSA ancora vivi, da proteggere (vogliamo parlare di che cosa si fa per loro, oggi?).

E da parte dei media continua, imperterrita, la ricerca del parere degli esperti, più spesso per evidenziare eventuali disaccordi che non per fornire al pubblico elementi di informazione e di conoscenza. Come nel caso di terremoti, appunto.

Nell’autunno scorso, con Carlo Meletti, avevamo scritto un articolo che voleva fare il punto sul modello di pericolosità sismica MPS04 e cercava di smontare bufale e fake news in proposito.
Anzi, cercava di fare di più: di ragionare sul problema.

Questo articolo sta per essere pubblicato sul prossimo numero di “Progettazione Sismica”, che ringrazio per aver reso disponibile una preview al seguente link

https://drive.google.com/file/d/1bFNXPSqZL2K6I6njQJlFy9tu_a7EyJDe/view

Ho pensato di renderlo disponibile comunque.

In aggiunta, succede che mercoledì 15 aprile, alle ore 12, parlerò proprio di questi temi nel corso di un Webinar organizzato dalla Università di Camerino, in particolare da Emanuele Tondi, che è anche direttore della locale sede INGV.

Doveva essere un seminario per studenti, in loco: le circostanze l’hanno trasformato in un webinar aperto a tutti, che potrà essere seguito da questo link

https://unicam.webex.com/meet/emanuele.tondi

Niente di speciale, cose forse già dette. Per studenti che vogliono continuare a studiare, capire e prepararsi alle prossime fasi.

Gravimoti: la discussione continua (Patrizio Petricca e Giuseppe De Natale)

Patrizio Petricca (Università Sapienza, Roma). Caro Gianluca, grazie per questa tua intervista che alimenta la discussione alla base della ricerca scientifica, importante sia tramite canali ufficiali (le riviste peer-reviewed) che, in qualche modo, su blog come questo. Condivido ciò che dice nel suo commento Giuseppe De Natale, che riprende un concetto di Popper, ovvero che la Scienza progredisce attraverso nuove proposte che spingono la comunità scientifica a chiarire meglio i concetti ed a trovare precisamente gli errori. Vedo con soddisfazione che l’argomento genera interesse e spero che in futuro il modello venga confutato o confermato da nuovi studi.

Il modello dei graviquakes, che tratto come autore o coautore in vari lavori, è spesso criticato sulla base del meccanismo di doppia coppia, che è un sistema di rappresentazione di forze non in contrasto con quanto previsto dal collasso gravitativo. Questo punto viene spesso sollevato e utilizzato come argomento a sfavore con “darebbe osservazioni diverse dal modello di doppia coppia”. Sarebbe interessante capire quali siano le differenze nelle osservazioni (sismologiche) di uno stesso risultato (scivolamento del tetto lungo la faglia) controllato però da due meccanismi differenti (accumulo di energia elastica o gravitazionale).

Non posso non notare, nel tuo post e nei commenti, una certa confusione tra la critica al modello generale e a uno dei suoi osservabili (o meglio al metodo utilizzato per evidenziarlo). Nell’articolo di Segall e Heimisson (2019), in effetti, si critica il metodo utilizzato per il calcolo del “volume unbalance” e si dimostra che per generare i valori di sollevamento/subsidenza descritti in Bignami et al. (2019) è sufficiente utilizzare una sorgente puntiforme (anche se con una discrepanza nei risultati del 20% che non è un valore trascurabile). Mi astengo dal commentare il metodo DinSAR poichè non conosco la materia. Il punto è che il risultato di Segall e Heimisson non confuta affatto il “volume unbalance” ma lo descrive a partire da un’ipotesi differente. Quanto discusso in quel lavoro si concentra su uno degli osservabili che il modello dei graviquakes cerca di giustificare teoricamente. Di conseguenza non vedo come il loro risultato possa perdipiù confutare (come confermi anche tu in un commento successivo) il modello generale. Il rasoio di Occam si applica quindi al volume unbalance, al metodo utilizzato per calcolarlo o al modello generale? Sono cose diverse.

Il mio commento non voleva però entrare nel merito del modello dei “graviquakes” (in quanto gia fatto da Carlo Doglioni nel post di risposta a questo tuo articolo). Piuttosto vorrei riportare, brevemente, alcune considerazioni che a me inducono a ragionare su un modello del ciclo sismico diverso (qualunque esso sia) e dubitare del convenzionale.

La teoria dell’elastic dislocation. Tu dici che, per descrivere il campo di deformazione generato da un forte terremoto questa teoria è comunemente accettata. Nel commento di De Natale leggo “La teoria della dislocazione elastica è estremamente generale, estremamente elegante e, in senso fisico-matematico, estremamente semplice. Le osservazioni fondamentali sono estremamente d’accordo con la teoria”. Quindi mi domando, la teoria della dislocazione elastica è il modello ultimo e abbiamo l’unico obiettivo di migliorarla e raffinarla? Approfondendo la letteratura al riguardo si hanno impressioni diverse. Ad esempio questa teoria è comunemente “utilizzata” (e non accettata) perchè, questo si, è “semplice”. La comunità dei ricercatori che si occupa di hazard sismico ne è consapevole, ed emerge chiaramente sia nei numerosi lavori che la criticano sia in quelli, altrettanto numerosi, che la utilizzano. Le osservazioni fondamentali non sono “estremamente” d’accordo con la teoria; tuttaltro. Questo si può leggere e approfondire in numerosi articoli scientifici (si vedano ad esempio Stein et al., 2012; Wyss, 2015; Geller et al., 2016). Gli osservabili non sono così in accordo con quanto previsto dal modello (rimando ancora alla risposta di Doglioni). Le difese appassionate di tale modello (elastico) non mancano anche se il suo utilizzo ha portato in passato a numerosi errori di previsione.

Ad ogni modo il mio commento a tutta la discussione è che, a prescindere se i gravimoti rappresentino o meno un nuovo paradigma, bisogna ammettere che nella letteratura si percepisce dell’incertezza sull’argomento, che porta a farsi domande e forse nasconde la necessità di una teoria alternativa. Ben venga il dibattito.

Bignami, C., Valerio, E., Carminati, E., Doglioni, C. and Tizzani, P. (2019). Volume unbalance on the 2016 Amatrice – Norcia (central Italy) seismic sequence and insights on normal fault earthquake mechanism. Scientific Reports, 9:4250.

Geller, R.J., Mulargia, F. and Stark., P.B. (2016). Why we need a new paradigm of earthquake occurrence. Subduction dynamics: From mantle flow to mega disasters, geophysical monograph 211, 183-191.

Segall P. and Heimisson, H.R. (2019). On the Integrated Surface Uplift for Dip-Slip Faults. Bulletin of the Seismological Society of America, 109 (6): 2738-2740.

Stein, S., Geller, R.J. and Liu, M. (2012). Why earthquake hazard maps often fail and what to do about it. Tectonophysics, 562, 1-25.

Wyss, M. (2015). Testing the basic assumption for probabilistic seismic‐hazard assessment: 11 failures. Seismological Research Letters, 86(5), 1405-1411.

Giuseppe De Natale (INGV, Napoli). Entro di nuovo nella discussione per commentare alcune affermazioni di Patrizio Petricca, sulle quali mi sento in dovere di fare delle precisazioni; che riguardano di fatto non la Sismologia ma il metodo scientifico.

So che sembra strano dover discutere di argomenti basilari che nella ricerca scientifica dovrebbero essere dati per scontati. Sembra però che negli ultimi anni il proliferare delle riviste scientifiche, e la stessa ossessione per le pubblicazioni come valore ‘metrico’ (vedi H-index), e non per il valore intrinseco di ciò che affermano, abbia portato spesso a dimenticare i concetti di base; che quindi vorrei qui ribadire.

Innanzitutto, non era mia intenzione, nel commento al post di Gianluca Valensise, scomodare Popper. Popper è nato nel 1902; le basi del metodo scientifico risalgono a molto prima (Occam è del 1300, Bacone del 1200; Galileo, pietra miliare del metodo scientifico, del 1600). La Scienza va avanti così, da sempre. E dunque voglio spiegare meglio, visto che non sembra essere stato ben compreso, il senso del mio commento.
La teoria della dislocazione elastica è una elaborazione fisico-matematica assolutamente universale, validata da tutte le osservazioni di qualunque tipo su qualsiasi materiale (anche quelli recenti di sintesi, polimeri, ecc.) che, entro certi limiti, abbia un comportamento molto vicino a quello di un solido elastico ‘ideale’. Poi, la teoria della dislocazione elastica viene applicata ‘anche’ per spiegare l’origine dei terremoti; ed anche qui non c’è mai stata alcuna ‘forte discrepanza’ che non possa essere motivata dalla non piena corrispondenza tra i materiali rocciosi dell’interno della Terra e i mezzi elastici ‘ideali’; colpisce semmai, come dicevo, l’incredibile corrispondenza con quanto realmente osservato anche in mezzi estremamente complessi.

Il senso del mio commento, necessariamente dai toni sfumati per il dovere di presupporre che certi concetti di base siano ben noti a tutti coloro che si occupano di ricerca, voleva puntualizzare appunto che non si può confutare una teoria ‘universale’, applicabile in innumerevoli ambiti, sulla base di ipotetiche piccole ‘deviazioni’, la cui significatività è tutta da dimostrare (e finora assolutamente indimostrata), che esisterebbero in un ambito estremamente ristretto (i terremoti di faglia normale). D’altra parte, il mio commento nell’ultima frase aggiungeva un’altra cosa che evidentemente non è stata compresa. Ossia che, a parte il ‘volume unbalance’ che, come si è detto, non è realmente misurabile con la precisione affermata, ma anche se lo fosse sarebbe ‘dimostrabilmente’ in accordo con i modelli di dislocazione elastica, non c’è alcuna osservazione fondamentale che il modello ‘graviquakes’ riesca a spiegare e la teoria della dislocazione elastica no.

D’altra parte, quando si afferma appunto (qualitativamente peraltro) che il modello ‘graviquakes’ produrrebbe dati sismologici equivalenti a quelli previsti dalla teoria della dislocazione elastica (sorvolo sul fatto che secondo me non è vero, nel senso che il modello ‘graviquakes’ non spiegherebbe molte osservazioni fondamentali), si sta esattamente dicendo che non ci sono implicazioni sostanzialmente differenti e tali da giustificare l’abbandono di una teoria universalmente validata ‘anche’ per i terremoti di faglia normale. E quindi, quali sarebbero i motivi per abbandonare un modello ancorato ad una teoria ‘universalmente riconosciuta’ in favore di qualcosa di diverso, valido solo in un ambito molto locale, che produrrebbe gli stessi osservabili?

Stavolta cito veramente Popper, e dico che un modello non ‘falsificabile’ non ha molto senso. E lo posso dire anche molto più semplicemente, come probabilmente lo spiegavano i filosofi del ‘200: affermare che la pioggia non è prodotta dalla condensazione del vapore acqueo che ricade dalle nuvole, ma il risultato del pianto di tanti angioletti invisibili e giammai rilevabili in alcun modo, non ha evidentemente senso. Questo discorso, ovviamente, non va assolutamente confuso con altri: tipo ‘previsione dei terremoti’, ‘ciclo sismico’, ‘determinazione della pericolosità sismica’.

Questi problemi, che nel post di Petricca sembrerebbero l’argomento principale di confutazione della teoria della dislocazione elastica (e difatti quasi tutta la letteratura portata ad esempio verte su tali questioni), sono di tutt’altra natura. Rappresentano infatti il nostro limite nella conoscenza e nella trattazione di fenomeni estremamente complessi come l’accumulo e la dissipazione di sforzi tettonici; oppure, nel caso delle stime di pericolosità, rappresentano scelte ‘convenzionali’ (ossia dettate dall’utilità e dagli scopi) per difenderci dai danni dei terremoti. Ma questi, che sono ‘modelli’ (empirici) nel senso stretto della definizione, non hanno nulla a che fare con la validità o meno della teoria della dislocazione elastica, che deriva invece dallo sviluppo di equazioni che descrivono il comportamento fondamentale dei solidi; né tantomeno possono metterla in discussione.

Che poi anch’io abbia letto su alcuni quotidiani (ed ascoltato personalmente in alcuni seminari, non senza essermi alzato per puntualizzare il mio dissenso scientifico), dopo alcuni forti terremoti recenti, che i massimi danni avverrebbero nella zona di abbassamento prodotta dalle faglie normali per effetti ‘gravitativi’, non voglio neanche commentarlo; da Sismologo (e da persona che si occupa di Scienza) preferisco dimenticarlo.
Spero stavolta di essermi espresso in maniera meno ‘sfumata’, in modo comprensibile a tutti.

Gravimoti: altri commenti (Giuseppe De Natale e Roberto Devoti)

E’ chiaro che non è possibile in questa sede trattare rigorosamente di Sismologia, che è una disciplina complessa e richiede una trattazione matematica molto avanzata. Potrei certamente commentare alcuni concetti espressi da Doglioni: ad esempio, le sue affermazioni sul fatto che in profondità non esistano sforzi tensionali ‘assoluti’ non aggiungono nulla al problema, in quanto ciò che conta nel modello di terremoto a doppia coppia sono gli sforzi deviatorici. E certamente il meccanismo di ‘collasso gravitativo’, in termini di meccanismo focale, darebbe osservazioni sismiche significativamente diverse dal modello a doppia coppia.Ci sarebbe anche da discutere sul valore ‘assoluto’ dei dati positivi e negativi nelle immagini SAR; problema comunque superato in ogni caso dalle considerazioni contenute nel lavoro citato del BSSA. Ma il problema non è questo, che certamente non sarebbe affrontabile in questa sede. Il problema è quello in gran parte affrontato e chiarito appunto nel lavoro di Segall e Heimisson, e che tu hai giustamente richiamato in forma discorsiva/divulgativa. Nella sua forma più generale, esso è sintetizzato nelle frasi finali del lavoro citato, ma è molto più profondo: la Scienza è di per sè conservativa; quando si vuol proporre un nuovo modello per sostituire quello accreditato, è necessario prima di tutto che quello finora adottato sia chiaramente incapace di spiegare alcune osservazioni fondamentali; poi, che il nuovo spieghi perfettamente tutte le osservazioni pregresse, almeno come il vecchio modello, e in più spieghi le nuove.

La teoria della dislocazione elastica è estremamente generale, estremamente elegante e, in senso fisico-matematico, estremamente semplice. Le osservazioni fondamentali sono estremamente d’accordo con la teoria, entro i limiti delle approssimazioni implicite in fenomeni così complessi. Le stesse immagini SAR, da quando esistono, forniscono osservazioni incredibilmente in accordo con la teoria, sviluppata in mezzi puramente elastici, quindi ‘ideali’, pur riferendosi a mezzi, come le rocce terrestri, molto più complessi ed ‘imperfetti’. E’ qui il nocciolo della questione: non ha molto senso contestare un modello fisico-matematico semplice, elegante, ed universalmente in grado di spiegare le osservazioni principali in base a piccole differenze nelle osservazioni, che (se anche ci fossero) dipendono essenzialmente dal fatto che la teoria si riferisce necessariamente a modelli ‘ideali’ elastici che possono solo approssimare il comportamento del mezzo reale. In gergo, si direbbe che si vuole ‘interpolare il noise’, ossia dar peso a dettagli che non riguardano il problema fisico bensì gli errori, di misura o di approssimazione del modello.

Nel nostro caso, le osservazioni di dettaglio, dovute alla differenza tra il mezzo elastico ideale ed il mezzo ‘reale’, geologico, possono essere certamente localmente interessanti da analizzare, per i motivi più diversi: ma sono su un altro piano, non certo confrontabile con il modello fisico-matematico, universale, che spiega la sismicità di qualunque natura (perché non dimentichiamo che la teoria della dislocazione elastica non spiega soltanto la sismicità tettonica, a doppia coppia, ma quella dovuta ad ogni tipo di sorgente: comprese le esplosioni, che anzi, quelle nucleari, sono state la ragione principale del grande sviluppo della Sismologia tra gli anni ’60 ed ‘80). Tutto questo, Segall ed Heimisson l’hanno sintetizzato nella frase relativa al ‘Rasoio di Occam’ (dal nome del frate francescano che, già nel 1300, espresse uno dei più importanti principi che ancora oggi guidano la Scienza; e che consente di distinguere le vere ‘scoperte’ da semplici ipotesi ridondanti e non necessarie).

In conclusione, credo sia proprio la mancanza di reali implicazioni fondamentali del modello ‘graviquakes’ (termine anch’esso a mio avviso improprio, perché earthquake significa ‘moto della terra’, che è indipendente da come sia generato), significativamente diverse dal modello acclarato di dislocazione elastica, che a mio avviso ha fatto sì che finora, e con la sola eccezione di Segall e Heimisson, la comunità scientifica se ne sia di fatto disinteressata; anche nell’eventuale critica.

Roberto Devoti (INGV, Roma). Ho letto con attenzione i vari interventi: la questione mi sembra importante perché riguarda i fondamenti dell’avanzamento della conoscenza. Mi sento di riportare solo una breve considerazione che non ho visto rimarcata con il dovuto rilievo.

La pubblicazione di Segall e Heimisson, 2019, una nota breve apparentemente marginale nel corpo della letteratura scientifica e con la pretesa di commentare una pubblicazione specifica sull’argomento “gravimoto” (Bignami et al., 2019), nasconde in realtà una vera e propria chicca scientifica, una piccola scoperta che lascia stupiti anche gli esperti del settore. Gli autori, Paul Segall un professore di geofisica all’Università di Stanford ed Elías Heimisson uno studente brillante appena dottorato, hanno ricavato una formula matematica semplice nella sua struttura ma che esprime una legge di conservazione fondamentale, sconosciuta finora ai libri di testo in sismologia.

Nell’ambito della teoria della dislocazione elastica, la formula quantifica il disavanzo di volumi spostati della crosta terrestre in caso di terremoto, cioè la differenza tra il volume sollevato e quello abbassato. Esprime cioè la deformazione della superficie terrestre indotta dai terremoti nell’ipotesi che la crosta terrestre sia assimilabile ad un materiale comprimibile ed elastico. Tale deformazione è spazialmente simmetrica solo in casi molto particolari (faglie verticali) e dalla misura di tale asimmetria si possono ricavare informazioni sulla sorgente causale del terremoto. Questa deformazione risulta ora misurabile con tecniche satellitari (ad es. InSAR) e quindi la formula di Segall & Heimisson appare ancor più preziosa permettendo di mettere alla prova la teoria.

Cosa prevede dunque la formula di Segall & Heimisson per il terremoto di Norcia 2016? Un semplice calcolo, assumendo valori medi dei parametri elastici per la crosta terrestre, rivela che il disavanzo di volumi è negativo e vale -0.08 km3. Il lavoro di Bignami et al., 2019 riporta un valore misurato con tecniche InSAR del disavanzo pari a -0.1 km3. La differenza tra teoria e misura è del 20%, uno scarto assai piccolo considerando che le ipotesi di partenza sono estremamente semplificate. Questo semplice risultato permette a Segall & Heimisson di suggerire la lex parsimoniae di Ockham per rigettare (per ora) le teorie alternative che si pongono in contrapposizione alla dislocazione elastica.

Enzo Boschi, un anno dopo (colloquio fra Massimiliano Stucchi e Tullio Pepe)

Introduzione. Da un anno Enzo Boschi non è più con noi, e già questo sembra un paradosso: quando gli si parlava, il futuro sembrava sempre molto vicino, tutto sembrava possibile, in una vita abbastanza “spericolata” che sembrava comunque praticamente illimitata, come la crescita dell’ING prima e dell’INGV poi, attraverso lo sfruttamento delle occasioni che si presentavano (terremoti, eruzioni) e l’impegno consapevole di gran parte dei ricercatori che ne avevano beneficiato.
Parlare oggi di Boschi o, addirittura, cercare di tratteggiarne l’opera e la figura, è come iniziare a scalare una montagna di cui non vedi la cima: non ti senti attrezzato, le giri intorno alla ricerca di un accesso e un minimo di pendio e non lo trovi. E quando pensi di averla trovata ti chiedi che cosa ne penserebbe, e ti vien voglia di lasciar perdere…
In questo colloquio due persone che l’hanno frequentato per molti anni hanno cercato di tratteggiare alcuni ricordi della sua vicenda umana e professionale: Massimiliano Stucchi (MS), che lo conobbe nel 1973 e divenne poi suo “dipendente” in INGV dal 2001, e Tullio Pepe (TP), che ne vide l’arrivo all’ING come commissario straordinario nel 1982. Solo alcuni ricordi: perché in realtà per delineare un quadro completo ci vorrebbero diversi volumi.

Schermata 2019-12-22 alle 00.17.09

Prima parte, fino al 2001

MS. Conobbi Boschi nel 1973 ad Ancona, dove era da poco professore incaricato: io ero un ricercatore CNR e collaboravo a installare la rete sismica del mio Istituto per la Geofisica della Litosfera. Mi chiese se fossi un sismologo, mettendomi subito in imbarazzo (“adesso che cosa gli rispondo?”). Mi spiegò che, dalle misure geodetiche effettuate dalla rete installata dal gruppo bolognese, avevano calcolato che si era già immagazzinata energia corrispondente a un terremoto di M3.5. Mi venne da dire: ”ah però…”. Poi compresi che cercava sempre di stupirti e di metterti in soggezione, anche se bonariamente; e ci riusciva.
Dal 1976 al 1982 facemmo parte entrambi della struttura dirigente del Progetto Finalizzato Geodinamica del CNR e della prima edizione del GNDT, lui come responsabile di gruppi di lavoro o linee di ricerca sulla previsione dei terremoti (!) in cui a quei tempi credeva molto. Fu un periodo di grande fervore nella comunità scientifica sismologica, geologica e ingegneristica; si collaborava e ci si scontrava. Alcuni scontri avvenuti nella sala convegni del CNR rimasero memorabili: ovviamente Boschi vi partecipò attivamente.
Una volta diventato commissario straordinario e poi presidente dell’ING, si dedicò a sviluppare l’ING, ossia la geofisica e la sismologia, e si allontanò dal GNDT, non senza avermi candidato, fra lo stupore generale, a Direttore del medesimo (“non c’è rosa senza spine”, disse sogghignando).
Mantenemmo sempre un buon un rapporto, un legame solido. Nel 1990, in occasione del Workshop per il decennale del terremoto dell’Irpinia, mi regalò il distintivo dell’ING, che conservo religiosamente.

TP. Sono un ex dirigente dell’Istituto Nazionale di Geofisica e Vulcanologia, l’ente di ricerca di fatto fondato da Enzo Boschi e da lui presieduto fino al 2011. Fui assunto in Istituto nel 1980; Boschi sbarcò in Istituto nel 1982: perciò, Enzo Boschi è stato il mio Presidente per quasi un trentennio.
Quando arrivò tra noi nei primi anni ottanta del secolo scorso, aveva quarant’anni e sembrava un ragazzo. Ancora non vestiva Caraceni né portava camicie BrookS Brothers e cravatte di Marinella ma indossava completi Principe di Galles che accentuavano la sua aria di enfant prodige dell’università e della geofisica in Italia.
L’Istituto (all’epoca era l’ING, la V sarebbe arrivata una ventina d’anni più tardi) era dignitoso ma molto piccolo e un poco sonnolento; l’arrivo di Boschi ebbe l’effetto di scuoterlo dalle fondamenta, attraversandolo come un cavo elettrico ad alta tensione.
Per prima cosa organizzò il servizio di sorveglianza sismica h24 del territorio nazionale di concerto con Giuseppe Zamberletti, il padre della Protezione Civile italiana, allestendo una prima rudimentale sala operativa, nella quale affluivano i dati rilevati dalle poche stazioni della rete sismica, nella nostra sede di Monte Porzio Catone, in un’ala dell’Osservatorio astronomico che avevamo in subaffitto, con i marinai precettati da Zamberletti che fissavano tutta la notte i rulli dei sismografi e avvertivano il sismologo reperibile al minimo oscillare dei pennini…
Qualche tempo dopo, la sala operativa, presidiata ormai dai nostri ricercatori e tecnici, fu trasferita nella sede ING di Roma, nel quartiere Esquilino, in un appartamento alquanto malandato al secondo piano di un villino bello ma un poco sinistro. Una volta venne a trovarci il conduttore del TG2 La Volpe per un servizio sul terremoto di San Donato Val Comino (quindi, doveva essere l’ottantaquattro) e non riusciva a credere che il cuore di un servizio così importante come quello di sorveglianza sismica fosse alloggiato in quelle stanze spoglie; a un certo punto disse a qualcuno: “mi sembra di stare in una sede sotto copertura della CIA!”.
Il suo grande merito fu quello di sprovincializzare l’Istituto e, a cascata, la geofisica italiana, ad esempio trovando le risorse finanziarie per mandare i ricercatori in missione presso i centri di ricerca più avanzati nel mondo,
Da allora cominciammo una cavalcata frenetica verso il successo, una cavalcata disordinata ma impetuosa, terribilmente seria ma divertente, perché Enzo anche nei momenti più importanti, anche nei passaggi più difficili non rinunciava mai al suo spirito dissacrante, al gusto per la provocazione, al piacere della battuta; il suo slogan era “Comunque sarà un successo!” e noi lo seguivamo senza problemi; d’altra parte eravamo giovani, gratificati, un poco arroganti, guidati da capi rassicuranti come Cesidio Lippa e Renato Funiciello e, soprattutto, da un leader carismatico come lui, esigente ma disposto a favorire le progressioni di carriera di tutti e a non negare opportunità a nessuno.
Una fase di sviluppo formidabile, insomma, che sfociò all’alba del nuovo millennio in una svolta storica per il nostro mondo: l’ING confluisce nel nuovo INGV assieme ai vulcanologi vesuviani ed etnei, ai geochimici palermitani, ai sismologi milanesi e ai qualificati precari dei Gruppi Nazionali per la Difesa dai Terremoti e per la Vulcanologia che avevano raccolta l’eredità del glorioso Progetto “Geodinamica” diretto da Franco Barberi. E il Presidente del nuovo Ente non può che essere lui: il più brillante, il più spregiudicato, il più lungimirante, il più visionario (e anche il più fragile); lui che ha cominciato a essere leader praticamente da bambino e che non ha mai smesso di esserlo: Enzo Boschi.
Ma la nascita dell’INGV merita qualche ulteriore ricordo e tu, Max, puoi ben dire di aver partecipato alla “genesi” dell’Istituto.

MS. Direi proprio di si e ne ho parlato a lungo in un altro post dello scorso settembre.

https://terremotiegrandirischi.com/2019/09/26/come-e-quando-nacque-lingv-di-massimiliano-stucchi/

Ricordo che la svolta si registrò a Erice, alto luogo della ricerca scientifica, dove si tenne presso il Centro “Ettore Majorana” di Antonino Zichichi una delle “School of Geophysics” dirette da Boschi. Anche di questa ho raccontato nel post citato più sopra.

TP. Scusa Max, ti interrompo un attimo perché sono molto affezionato, pur non essendo un ricercatore, a Erice e al suo Centro, dove negli anni ottanta, perdurando ancora la guerra fredda, si incontravano i russi e gli americani e – secondo la leggenda – personaggi come Teller e Velikov tenevano i colloqui più riservati nel mare magnifico di San Vito Lo Capo, in costume da bagno, immersi in acqua fino alla vita, essendo così sicuri di non avere cimici intorno…: un posto veramente magico oltre che centrale per la società scientifica internazionale.

MS. A Erice Boschi era quasi sempre allegro. Era un piacere essere invitati al suo tavolo. Scherzava su molte cose, compresa la politica (vedi foto).

Schermata 2019-12-22 alle 10.30.24

Da buon direttore della Scuola restava quasi sempre per tutta la durata e seguiva le lezioni. Nella foto siamo insieme in occasione della Scuola dedicata alla Sismologia Storica, che ebbi l’onore di dirigere assieme a colleghi di altri paesi.

Schermata 2019-12-22 alle 10.30.34

TP. Torniamo all’INGV. Il Decreto Legislativo 29 settembre 1999, n. 381, stabilì definitivamente il perimetro del riordino prevedendo, come già ricordato, la confluenza nel costituendo ente di ING, di OV, di tre Istituti del CNR e dei Gruppi Nazionali del settore.
Io c’ero quel pomeriggio del 10 gennaio 2001 nello studio del Ministro della Ricerca pro tempore Ortensio Zecchino, alle 5 della sera!, quando l’INGV fu formalmente costituito con Enzo Boschi Presidente e al contempo il Ministro, con gesto teatrale, firmò il decreto che approvava in favore dell’Istituto il cosiddetto Progetto “Irpinia”, un affare da sessanta miliardi del vecchio conio: erano decisamente altri tempi!
Il successivo 1 febbraio 2001 Cesidio Lippa viene nominato Direttore Generale.
Nello stesso periodo vennero nominati i Direttori delle Sezioni nelle quali si articolava l’INGV: Napoli (Osservatorio Vesuviano), Milano, Palermo, Catania (oggi Catania – Osservatorio Etneo), Roma 1, Roma 2, Centro Nazionale Terremoti (oggi Osservatorio Nazionale Terremoti) e l’Amministrazione Centrale. Più tardi verranno istituite le Sezioni di Bologna e Pisa.
E qui Max, farà piacere anche a te ricordare i primi Direttori di Sezione: oltre a te e a me, Gianni Macedonio, Rocco Favara, Gianni Frazzetta, al quale subentrò presto Alessandro Bonaccorso, Massimo Cocco, Bruno Zolesi, Alessandro Amato, e poi, Andrea Morelli e Augusto Neri. Con tutti loro condividemmo – guidati da capi carismatici e rassicuranti come Enzo Boschi e Cesidio Lippa – una stagione caratterizzata da un forte sviluppo di tutte le attività istituzionali e da notevoli risultati scientifici e gestionali e anche l’emozione dell’avvio di un’avventura professionale e umana densa di speranze e di senso di appartenenza, in un clima generale di entusiasmo che negli anni successivi non sempre è stato possibile ricreare.

Seconda parte, dopo il 2001

TP. Nella storia dell’INGV le emergenze sismiche o vulcaniche hanno sempre costituito momenti di forte aggregazione. Ebbene, nel periodo immediatamente successivo alla nascita dell’Ente ci fu una incredibile concentrazione di emergenze. Tralasciando la tristissima emergenza legata al terremoto di San Giuliano di Puglia del 2002, un terremoto piccolo ma che portò a una tragedia immane, ricordo che tra il 2001 e il 2003 si registrarono due eruzioni dell’Etna, una eruzione dello Stromboli particolarmente spettacolare con tanto di tsunami allegato e perfino emissioni gassose al largo dell’isola di Panarea! Queste emergenze comportarono la mobilitazione non solo della Sezione di Catania ma di molte componenti dell’INGV; decine di ricercatori e tecnici provenienti da tutte le Sezioni si alternarono in Sicilia in un clima di grande collaborazione e unitarietà.
Il buon lavoro svolto, peraltro, non mancò di migliorare i rapporti con il DPC e con il MIUR: per alcuni anni vennero stipulate con il Dipartimento della Protezione Civile convenzioni particolarmente favorevoli all’Istituto e, sempre nei primi anni duemila, il MIUR finanziò un progetto dell’Istituto molto ricco e ambizioso che non a caso fu denominato “Progetto Fumo”!

MS. E non solo. Il terremoto di San Giuliano di Puglia del 2002, che tu hai ricordato, ebbe conseguenze importanti per l’INGV, per la Sezione di Milano che all’epoca dirigevo e soprattutto per la normativa sismica italiana.
Boschi, anche se considerava almeno all’inizio i temi della pericolosità e del rischio sismico come temi applicativi e non proprio scientifici, ne intuiva le potenzialità. Questa dell’intuito, del fiuto, era peraltro una delle sue qualità più spiccate.
Sta di fatto che venne il terremoto di San Giuliano di Puglia; era il 31 ottobre 2002 e il sisma fece particolare scalpore per via della tragedia nella scuola e per il fatto che la zona non era inserita in zona sismica. E qui Boschi fece uno dei suoi capolavori; convinse Gianni Letta, ai tempi potente Sottosegretario del governo Berlusconi, a indire subito dopo il terremoto, a Palazzo Chigi, una riunione con sismologi e ingegneri (i nomi li concordammo al telefono), oltre al Ministro per le Infrastrutture e alcuni funzionari.
Ne uscì una commissione che a tempo di record produsse una nuova normativa per le costruzioni da estendere, soprattutto, a tutto il territorio nazionale diviso in 4 zone sismiche: la celebre Ordinanza n. 3724, che richiedeva tra le altre cose la compilazione di una mappa di pericolosità. Quando la Commissione Grandi Rischi ne richiese la compilazione, Boschi si gettò sull’occasione, forte anche degli elaborati di prova che la Sezione di Milano gli aveva preparato, e fece assegnare l’incarico a INGV. Il resto è noto. Meno noto è che Boschi si trovò ad affermare, più tardi, che la mappa era stato uno dei migliori risultati scientifici dell’INGV, che con essa il mondo sismologico aveva saldato il suo “debito” nei confronti della ricerca sul rischio sismico, e che le cose più importanti vengono pubblicate sulla Gazzetta Ufficiale e non sulle riviste.

Schermata 2019-12-22 alle 10.31.25

Non sono mai riuscito a convincerlo, tuttavia, del fatto che il cambiamento più importante di cui è stato il principale promotore fu la mappa di classificazione sismica allegata all’Ordinanza del 2003, che estese le zone sismiche a tutto il territorio nazionale.

TP: Poi, nel 2009, ci fu il tragico terremoto di L’Aquila con il suo carico di dolore, di rovine, di polemiche e di seguiti giudiziari. Nel 2010 iniziò il processo “Grandi Rischi”: Boschi lo visse come un calvario, come un’ingiustizia; una vicenda che lo segnò profondamente nel fisico e nello spirito, che cambiò il suo umore e il suo atteggiamento nei confronti degli altri; questo condizionò pesantemente l’ultimo segmento della sua presidenza: anche fargli sentire la vicinanza non fu semplice per nessuno di noi.

MS L’aspetto per lui beffardo della vicenda è che nel 2008 scadeva il suo secondo e ultimo mandato di presidente INGV (2000 – 2004 e 2004 – 2008) e, come è noto, Boschi fece di tutto per continuare in regime di proroga a tempo indeterminato. Ci riuscì, sfruttando lo stallo prodotto dall’ennesimo provvedimento legislativo di riordino degli Enti Pubblici di Ricerca vigilati dal MIUR nel frattempo intervenuto; non ci fosse riuscito avrebbe evitato il calvario del processo.
Non voglio addentrarmi qui sulla questione del processo, cui peraltro questo blog è stato dedicato inizialmente, se non per ricordare alcuni episodi.
Il giorno stesso del terremoto (6 aprile) convocò una riunione a Roma, per partecipare alla quale i sismologi non romani dovettero scapicollarsi, e propose subito di fare un volume scientifico. Notai però, e non solo io, che era molto preoccupato (sapevamo poco o nulla della riunione del 30 marzo).
Quando fu incriminato, in un’altra riunione disse più o meno: “abbiamo combattuto tante battaglie, combatteremo anche questa”. Si batté come un leone in tutte le sedi, compresi i social cui cominciò ad affacciarsi. Si preoccupava molto per Giulio Selvaggi, che aveva coinvolto nella riunione, come sua abitudine, sia per essere aiutato (era lì come Presidente INGV, non come esperto individuale), sia per lasciare il merito a chi dirigeva la sorveglianza sismica.
Ricevette un invito a incontrare, al Quirinale, il Presidente Giorgio Napolitano che già conosceva di persona. Fece in modo che l’invito venne esteso a diversi dirigenti dell’INGV, fra cui lo stesso Giulio e anche noi due.

Schermata 2019-12-22 alle 10.31.39

La sera della sentenza di primo grado (condanna), faceva finta di nulla, fingeva di stupirsi dei messaggi di solidarietà che gli pervenivano…
La sera della sentenza di appello (assoluzione) era molto commosso, abbracciava tutti, piangeva.
Più tardi maturò una sua versione di come andarono le cose prima e subito dopo quella riunione e divenne cattivo verso persone che secondo lui l’avevano incastrato e anche verso quelle che non si erano schierate decisamente dalla sua parte. E, beninteso, anche verso quelli che stavano dalla sua parte ma non fornivano esattamente la versione che lui voleva/sapeva. Più volte gli proposi di scrivere assieme un articolo e anche di più; ma lui voleva solo raccontare la sua verità e combattere quelli che considerava i suoi nemici.

TP. L’assoluzione definitiva, nel 2015, rappresentò per lui una soddisfazione grande e la fine di un incubo, ma non cancellò certe amarezze.
Nel frattempo, dopo un periodo veramente buio, un po’ per tutti, nel 2011 si concluse il suo mandato di Presidente. Un giorno di agosto, lo accompagnai alla fine della giornata di lavoro nel parcheggio dell’Istituto dove la macchina di servizio lo attendeva per portarlo a prendere l’areo per tornare a Bologna, per l’ultima volta come Presidente, e poi lo guardai mentre si allontanava. Quando risalii nella mia stanza ebbi fortissima la percezione della fine di un’epoca.

Schermata 2019-12-22 alle 10.31.48

MS. Per lui l’uscita di scena rappresentò una specie di partenza per l’esilio. Credo non capisse come mai non c’era stata una “insurrezione popolare” per farlo restare.
Nel 2013 partecipò, come sempre da protagonista, al piccolo convegno che avevo organizzato a Milano per celebrare il mio pensionamento. La sera prima cenammo insieme a molti colleghi.

Schermata 2019-12-22 alle 10.32.38

Il giorno dopo arrivò, nel bel mezzo del convegno, il testo delle motivazioni della sentenza di primo grado, di cui furono letti e commentati alcuni passaggi.
A fine giornata salutammo insieme i colleghi come Boschi aveva detto di voler fare: come i calciatori a fine carriera, che vanno a centrocampo e salutano.

TP. In quel periodo intervenne un fatto nuovo: una sua ex ricercatrice e amica fedele lo aveva introdotto nel mondo dei social network. Dopo alcuni impacci iniziali, Enzo aveva acquisito totale padronanza del mezzo, come un ragazzo, come un nativo digitale! Parlando, con il suo stile colto e provocatorio, rigoroso e dissacrante, di scienza ma anche di politica, di ambiente, di letteratura e soprattutto di arte, in poco tempo ha radunato oltre ventisettemila followers adoranti, diventando una specie di influencer. Una volta lessi una sua intervista nella quale diceva che Twitter gli aveva salvato la vita. In effetti, una volta in pensione, senza più cariche pubbliche e con l’incubo del processo aquilano sulle spalle, Twitter gli ha consentito di continuare a svolgere un ruolo importante nel Paese e di non smettere di essere protagonista Il suo profilo è ancora raggiungibile, fermo agli ultimi retweet dell’autunno 2018.

Schermata 2019-12-22 alle 10.32.49

MS. Si, è vero, più o meno dalla seconda metà del 2012 di dedicò ai “social”: su twitter coltivava anche interessi artistici: si veda ad esempio questo suo tweet, ripreso recentemente da un follower.

Schermata 2019-12-22 alle 10.32.57

E anche Facebook e soprattutto “Il foglietto della Ricerca”, dove gestiva una rubrica chiamata “L’angolo di Boschi”. Vale la pena di ricordare ad esempio uno dei tanti interventi, pubblicato a proposito della nuova ipotesi chiamata dei “gravimoti”, di cui questo blog si è occupato in questi giorni

https://ilfoglietto.it/l-angolo-di-boschi/5051-sara-tre-volte-natale-e-festa-tutto-il-giorno?fbclid=IwAR0PSIOb8r_xz0zkAV-LdznSRCfHNn1yYOA_2HlzJsv6ex9XGPxpc7qpKb0

Aveva molto seguito, come dici tu, ma devo aggiungere che verso la fine tendeva a raccattare soprattutto gli umori “populisti”. Passava facilmente dal consenso anche esagerato a “scazzi” furibondi. Rompemmo via social almeno tre volte; per fortuna ricomponemmo prima della sua scomparsa. Apprezzava questo blog e a volte “retweettava” il link dei nuovi contributi, facendo salire di molto il numero dei lettori.
Ma il suo obiettivo era bombardare il quartiere generale INGV: non digerì mai, invece di esserne fiero, che il suo posto fosse stato preso da due suoi allievi, con i quali era in buoni termini prima. Su alcune critiche aveva forse ragione, su altre era troppo severo.

TP. E qui devo dire che – secondo me – la sua maggiore responsabilità è stata proprio quella di non accettare mai di affrontare il problema della sua successione. A me, molto spesso ha dato l’impressione di essere uno di quei leader che non concepiscono un futuro senza di loro. Se qualcuno di noi cercava di avviare una discussione seria sulla questione, fatalmente incorreva, nella migliore delle ipotesi, nel suo sarcasmo; nella peggiore, diventava suo nemico. E bersaglio della sua cattiveria tutta toscana…

MS. Hai detto “uno di quei leader”…: me ne viene in mente uno a caso, di Cuba… Ho sempre trovato delle analogie fra Fidel e Boschi, al punto che mi veniva spontaneo pensarlo non come il Presidente ma come il “Comandante”. Non so se gli sarebbe piaciuto; non ho mai osato chiamarlo così in pubblico. Ricordo a questo proposito che Boschi esigeva che gli si desse del tu, cosa che non sempre risulta immediata. Però quando ti chiamava al telefono, soprattutto dall’INGV (quando non passava dalla segreteria), diceva “sono Boschi”. A me risultava difficile rivolgersi dicendo “Enzo”; mi veniva più semplice, soprattutto nelle riunioni, dirgli “Presidente”.
Anche mentre costruiva l’INGV e la rete scientifica collegata, il Comandante sembrava trarre energia dal fatto di essere sempre in conflitto con qualcosa o qualcuno. Spesso ci prendeva, altre volte no. E qui lasciami dire che una parte della comunità scientifica che era stata diciamo “maltrattata” da Boschi non perse l’occasione di cercare di “fargliela pagare” quando si presentò l’occasione, fornita dal processo. Un gruppetto di costoro, costituitosi in associazione, oltre a assistere le parti civili al processo “Grandi Rischi”, lasciò tracce indelebili nella requisitoria della accusa e nelle motivazioni della sentenza di primo grado.

TP. La cosa che mi dispiace è che in questa fase, caratterizzato dall’obiettivo che tu hai definito di “bombardare il quartier generale”, ha travolto con la sua vis polemica anche alcune “sue creature”: ricercatori con i quali ha condiviso anni di collaborazione, intesa umana e professionale, complicità scientifica, ecc.; ha manifestatamente strumentalizzato persone emerse e situazioni venutesi a creare sotto le nuove gestioni, sempre allo stesso fine: dimostrare che “dopo di me il diluvio”.

MS. Vero. A volte poi era difficile seguirlo. Non va però dimenticato che parte delle “sue creature”, in particolare molte di quelle che avevano ottimi motivi e mille ragioni di debito per dargli una mano, gli voltarono le spalle in occasione del già citato processo.
Forse anche per questo, e per il fatto che il personale INGV non si batté perché restasse alla guida dell’INGV (!?), nei primi anni dopo l’uscita non volle che si parlasse di una cerimonia INGV di ringraziamento. Gli restarono fedeli e vicini, sia pure spesso in modo critico, persone con cui aveva un legame personale solido, rinforzatosi attraverso diversità di opinione e anche conflitti momentanei.

TP. Enzo Boschi, in definitiva, è stata una figura discussa, spregiudicata, divisiva; negli anni successivi alcune sue scelte non hanno mancato di suscitare perplessità anche in chi – come me – gli è stato sempre vicino. Ma, se posso portare un ricordo personale, per molti anni ho visto all’opera un dirigente di alto livello, trascinante, capace di una visione, esigente ma sensibile alle aspettative del Personale. Una figura che ha recitato un ruolo fondamentale per le fortune dell’INGV e di moltissimi di noi.
Per questo motivo auspico che la sua memoria resti ben viva in tutti noi.

MS. Mi associo. E aggiungo che la complessità della sua figura ha fatto sì che in un anno si sia tenuta una sola occasione di ricordo (Gruppo Nazionale per la Geofisica della Terra Solida, 12 novembre 2019), organizzata dalla sensibilità del Direttore Alessandro Rebez all’interno di una manifestazione che peraltro Boschi non aveva mai “prediletto”.

Schermata 2019-12-22 alle 10.33.10

Le commemorazioni scritte si contano sulla punta delle dita di una mano. Per fortuna, alcuni ricercatori stanno organizzando, proprio in quella Erice che citavi prima, una “School of Geophysics” dedicata a Boschi, dal titolo “Frontiers in Geophysics for the third Millennium” (16-20 marzo 2020).

TP. E ora vorrei chiudere con un ricordo particolare.
Il 21 dicembre 2018 l’Istituto ha stabilizzato centoquarantanove precari, molti dei quali assunti durante la sua lunga presidenza. E’ stata una giornata di festa ed Enzo Boschi ha aspettato che si concludesse prima di lasciarci per sempre, il giorno dopo. Io, nel firmare gli atti che concludevano finalmente quella lunga, defatigante vicenda, non ho potuto fare a meno di ricordare una riunione di dieci anni fa in Funzione Pubblica, a Palazzo Vidoni, organizzata dal Ministro pro tempore della Funzione Pubblica Brunetta, con i presidenti e i direttori di tutti gli enti pubblici di ricerca, peraltro nei giorni in cui si apriva la grande crisi finanziaria che ci avrebbe attanagliato negli anni successivi. Quel pomeriggio, per la prima volta si affrontava in maniera organica il problema del precariato nei nostri enti e il Presidente che si prese ben presto la scena per spendersi più di ogni altro per la causa dei precari fu lui, parlando a braccio, con voce strozzata, davanti a un Brunetta quasi attonito, spiegando a tutti, senza troppi riferimenti normativi (e quei pochi anche un po’ confusi…) ma con le ragioni della ricerca scientifica, che il precariato nella ricerca non era una zavorra, ma una risorsa che il Paese non doveva disperdere.

Schermata 2019-12-22 alle 10.33.19

Gravimoti: alcuni commenti all‘intervista di Valensise (Carlo Doglioni)

Riceviamo da Carlo Doglioni questo commento, che pubblichiamo come contributo indipendente, all’intervista a Gianluca Valensise
https://terremotiegrandirischi.com/2019/12/17/gravimoti-un-nuovo-paradigma-intervista-a-gianluca-valensise/
 
Carlo Doglioni, geologo, è professore di geodinamica all’Università Sapienza di Roma dal 1997. Dal 2009 al 2014 è stato presidente della Società Geologica Italiana; dal 2009 è membro dell’Accademia dei Lincei e dal 2011 dell’Accademia dei XL. Dal 27 aprile 2016 è presidente dell’Istituto Nazionale di Geofisica e Vulcanologia.

La teoria del rimbalzo elastico è stata una grande innovazione all’inizio del secolo scorso. Questo modello assumeva l’ipotesi che le faglie sismogenetiche fossero “prevedibili” nel loro comportamento e che tendessero alla rottura in modo simile e con la stessa magnitudo in un ciclo potenzialmente infinito. Questa assunzione, indistinta per gli ambienti tettonici estensionali, compressivi o trascorrenti, si è dimostrata poco attinente alla realtà più complessa del ciclo sismico.
I terremoti estensionali hanno per esempio un certo numero di differenze rispetto a quelli compressivi che non possono essere spiegate se non con meccanismi genetici diversi.

Sono stato revisore dell’articolo di Segall & Heimisson (BSSA, 2019) e quindi parlo con conoscenza di causa. Gli autori travisano il comportamento elastico della crosta superiore con l’energia elastica accumulata nell’intersismico negli ambienti estensionali, che non c’è, quantomeno quella necessaria al rimbalzo elastico.

Uno dei principali osservabili “accantonato” nella teoria del rimbalzo elastico, considerato invece nel modello dei gravimoti, è la distribuzione dello stress con la profondità. Notoriamente, negli ambienti estensionali, lo stress massimo è all’incirca verticale e parallelo al carico litostatico. Quello che nel modello del rimbalzo elastico, e di conseguenza anche nell’articolo di Segall & Heimisson non funziona clamorosamente è l’assumere che la crosta sia soggetta ad un tiro estensionale: ciò è falso perché sotto 1 km circa di profondità, la crosta è in compressione anche negli ambienti estensionali perché il carico litostatico si ripartisce nel volume e va ad annullare ed invertire la componente orizzontale negativa (estensione) dello stress minimo, che diventa positivo e quindi necessariamente compressivo.

Schermata 2019-12-19 alle 11.12.48
Questa condizione, nota anche nei libri di testo, previene ogni possibilità di avere un tiro orizzontale (con stress minimo, cioè il sigma 3, negativo) che possa generare un rimbalzo elastico. Il carico litostatico aumenta di circa 25-27 MPa/km e sotto 1 km anche il sigma minimo diventa positivo, cioè compressivo: si legga per esempio Twiss & Moores, “Structural Geology” pag 190-191:

Schermata 2019-12-19 alle 11.13.15

Note that the plot of minimum values of sigma3 in Figure 10.5A indicates that actual tensile stresses (negative values of the normal stress) cannot exist below a depth of about 1 km. In fact, tensile stresses have not been measured within the Earth at all.

Figure 10.5A Il sigma minimo (3) sotto 1 km è sempre positivo (compressivo), anche negli ambienti estensionali.

Schermata 2019-12-19 alle 11.13.28

Fig. 9.20 Orientation of the most critically stressed Griffith crack under applied confined compression. The crack is closed, and the orientation of the most criticallynstressed crack falls in the range 45°<b°<90°. A local tensile stress concentration develops near, but not at, the crack tips and is maximum at an angle d°>0°. The local tensile stress maximum sigma1 is oriented such that the crack grows progressively toward parallelism with d1. Crack growth must be accommodated by frictional sliding on the closed part of the crack surface. 

Nel modello dei gravimoti, la crosta superiore ha una reologia sostanzialmente elastica, ma questo non è il punto: il modello di Okada, per esempio, non è messo in discussione dai gravimoti, perché si riferisce alla deformazione modellabile una volta assunto un piano di una certa dimensione e con un determinato slip in un mezzo elastico. Tutto ciò rimane valido e verificato. Il punto nodale è la forza che ha generato il movimento: l’energia sprigionata dai terremoti è accumulata nei volumi e le faglie rilasciano la componente elastica che viene dissipata durante lo slip.
Un’altra mistificazione dei gravimoti è che non generino la doppia coppia: questa è garantita dallo scivolamento lungo il piano di faglia normale e quindi lo shear relativo è rappresentabile come una doppia coppia. Non è dunque un argomento che possa mettere in discussione il modello dei gravimoti. La doppia coppia non ha nulla a che vedere con i volumi ma è un sistema di rappresentazione delle forze, che non è in contrasto con lo scivolamento del tetto della faglia dovuto alla gravità e non a un tiro orizzontale.

Le differenze tra gli ambienti tettonici compressivi ed estensionali sono numerose:

  • Il b-value della Gutenberg-Richter a scala globale è 1.1 per le faglie normali, mentre è 0.9 per i sovrascorrimenti (Schorlemmer et al., 2005): infatti i terremoti estensionali hanno magnitudo anche di due gradi inferiori.
  • La magnitudo massima, di conseguenza è minore per i terremoti estensionali (raramente supera i 7.5) rispetto ai terremoti compressivi che sappiamo arrivare almeno a M 9.5.
  • Nella crosta, i volumi coinvolti dalla tettonica estensionale e di conseguenza la lunghezza delle faglie per i terremoti estensionali hanno una lunghezza che è circa 3 volte lo spessore sismogenetico per gli ambienti estensionali, mentre può superare le 25 volte in quelli compressivi.
  • Gli aftershock durano molto di più per le faglie normali e quindi la legge di Omori ha un esponente diverso per la durata delle sequenze estensionali. Questo è coerente col fatto che i volumi si muovono in favore di gravità negli ambienti distensivi e continuano a muoversi finché non raggiungono il proprio equilibrio gravitazionale, esattamente il contrario degli ambienti compressivi in cui i volumi devono muoversi contro la gravità.
  • Un’altra asimmetria tra terremoti estensionali e compressivi, a parità di magnitudo, è lo stress drop che è maggiore per i terremoti compressivi rispetto a quelli estensionali (si veda Cocco & Rovelli, 1989, JGR).
  • Gli eventi compressivi si enucleano preferibilmente in aree a basso sigma3 (carico litostatico), mentre gli eventi estensionali aumentano di magnitudo con la crescita del sigma1 (carico litostatico), oltre ad avere una migrazione della rottura spesso opposta; si veda Carminati et al. (2004).
  • Il comportamento dei fluidi nel cosismico è opposto tra i due sistemi tettonici (Doglioni et al., 2014); i fluidi sono contenuti nelle fratture e la loro espulsione necessita la chiusura di queste discontinuità formatesi precedentemente nell’intersismico. A questo proposito l’aumento del rapporto Vp/Vs conforta questa interpretazione (Lucente et al. 2010). Pre-, ma soprattutto rialzi cosismici delle falde, aumento della portata delle sorgenti, dei contenuti salini e delle temperature sono stati ampiamente documentati e questi rilasci di fluidi necessitano il restringimento della porosità di frattura preesistente (Barberio et al., 2017; Petitta et al., 2018, ecc.).

Negli articoli sui gravimoti (https://www.nature.com/articles/srep12110), al di là della terminologia e classificazione per identificare fenomeni diversi della natura, così come avviene per la tassonomia delle piante, l’energia rilasciata dal collasso gravitazionale è enormemente superiore a quella liberata dalle onde sismiche: questo ha un doppio significato, cioè 1) l’energia gravitazionale è di gran lunga maggiore rispetto a quella rilasciata dalle onde sismiche ed è quindi più che sufficiente per mobilizzare i volumi a tetto delle faglie normali e generare terremoti estensionali e 2) l’energia in eccesso spiega la deformazione tramite piegamento e fratturazione del volume a tetto (e in parte anche a letto) dei piani di faglia, e il calore di frizione.

Veniamo ai volumi dilatati nell’intersismico negli ambienti estensionali che sono previsti da tutte le modellazioni numeriche al di sopra della transizione fragile-duttile (per esempio Doglioni et al., PEPI 2011). Il rimbalzo elastico necessita di un rimbalzo cosismico prevalente orizzontale, mentre in realtà il movimento dominante è verticale. In un ambiente estensionale il volume comprime verso il basso e può ‘richiudere’ almeno parzialmente il cuneo pre-dilatato durante l’intersismico.

Le rocce fratturate hanno un coefficiente di Poisson minore rispetto a quelle non fratturate. Inoltre il coefficiente di Poisson dipende dalla temperatura e dalla pressione che aumentano con la profondità. Proprio per le proprietà meccaniche, le rocce sovracompresse possono accumulare molta più energia elastica di quanto ne possano accumulare in trazione. Le rocce si fratturano in estensione con un’energia almeno 10 volte inferiore a quella necessaria in contrazione. Anche questo implica una profonda differenza di comportamento meccanico tra le due condizioni tettoniche e di resistenza alla deformazione. Le rocce, una volta fratturate perdono gran parte della loro elasticità. Il paradosso che non esiste trazione negli ambienti estensionali perché tutti e tre i tensori di sforzo sono compressivi è superato dallo stress deviatorico, che agisce in maniera differenziale tra il livello fragile e quello duttile, avendo strain-rate diversi per la loro reologia opposta. Quindi il volume extra che subisce la subsidenza cosismica è naturalmente maggiore negli ambienti estensionali perché va a riprendersi il volume dilatatosi nell’intersismico, ma ciò vale all’opposto anche per gli ambienti compressivi che nel cosismico dilatano invece il volume sovracompresso nell’intersismico a tetto della rampa del sovrascorrimento e che sfogano l’energia, muovendo un volume maggiore verso l’alto (in atmosfera o in mare), senza confinamento, piuttosto che nel sottosuolo.

Segall & Heimisson travisano il contenuto dell’articolo di Bignami et al. 2019 ignorando le basi della geodinamica. Il loro modello assume, come già in Okada, un semispazio elastico infinito isotropico, senza considerare la transizione fragile duttile alla base, condizioni abbastanza irrealistiche. Il modello di Segall & Heimisson non spiega inoltre dove vada a finire il volume mancante in sollevamento. Il loro articolo dice che il volume mancante è un artificio della finitezza del dominio di integrazione, senza escludere che i volumi siano differenti e che per dirimere la questione sia necessario trattare in maniera più approfondita gli errori di misura e di metodo. Inoltre confermano la geometria superficiale in funzione della dislocazione, come già dimostrato da Okada.

Bignami et al. (2019), ma anche Valerio et al. (2018), dimostrano invece che con una tecnica oramai consolidata e di grande risoluzione in termini di minimizzazione dell’errore, c’è uno sbilanciamento di volumi oltre 7 volte maggiore per il volume abbassatosi, che è plausibile solo se vi è un volume pre-dilatato in profondità in grado di assorbire questa grande differenza di massa non riconciliabile con ritiri elastici istantanei. Bignami et al. dimostrano che la deformazione gravitazionale di un mezzo elastico non corrisponde necessariamente a una sorgente energetica di energia elastica.

Segall & Heimisson utilizzano una sorgente puntiforme certamente non in grado di raggiungere la raffinatezza che viene ottenuta oramai dai dati SAR. E’ utile ricordare che l’utilizzo del rimbalzo elastico, che loro invocano, e di ciò che ne consegue (terremoto caratteristico e relativi tempi di ritorno) hanno portato in passato a numerosi errori di valutazione.

Che i graviquakes siano ancora poco accettati è certamente vero, ma ciò non significa che siano sbagliati e rimane il fatto che almeno una decina di riviste internazionali e loro revisori ne hanno ‘promosso’ le evidenze e la modellazione. Qualcuno inoltre inizia a considerare la sismicità estensionale come legata principalmente alla gravità: si veda per esempio Thomson & Parson (2017, PNAS).

In questo breve commento ho omesso per brevità gli ambienti trascorrenti che sono controllati dall’elasticità del mezzo e del rapporto tra la frizione statica del volume crostale con la frizione statica sui piani di faglia, piani che possono essere molto numerosi (si veda la recente sequenza di Ridgecrest 2019, dove sono state mappate oltre 200 faglie attivatesi durante i due mainshock). Solo quando la tettonica trascorrente diventa transtensiva, la componente elastica deve sommarsi alla componente gravitazionale, diminuendo mano a mano che da transtensione si passa a estensione pura.

Vale la pena aggiungere alcuni chiarimenti sulla metodologia utilizzata, a riprova della inesatta analisi dei dati riportati nel citato Bignami et al. 2019, sia da parte di Segall & Heimisson che dal commento di Valensise, e del fatto che il metodo è del tutto corretto. Se si osserva la mappa dei punti che ricadono nell’intervallo -3cm/+3cm (figura in basso) si evince che tale intervallo di deformazioni è praticamente distribuito su tutta la mappa, ad esclusione delle are in subsidenza e sollevamento causate dal terremoto del 2016:

Schermata 2019-12-19 alle 11.13.43

L’analisi statistica di questi dati ci dice che questi punti (sono 663533) con deformazione compresa tra -3 e +3 cm hanno valor medio pari a 0.4437 cm, il che significa che l’immagine, globalmente, ha un bias verso l’alto di circa 4.4 mm che, in quanto tale, non incide sulla differenza tra volumi in sollevamento e volumi in subsidenza.

Schermata 2019-12-19 alle 11.13.51

Se sommiamo le deformazioni dei punti (algebricamente e con bias incluso) si ottiene uno spostamento totale di superficie (ERRATO perché c’è un bias) pari a: 0.00258 km3 (ancora al di sotto del 20% di sottostima). Ma questo conto è errato, proprio per il bias sopracitato, altrimenti dovremmo pensare che si è sollevata mezza Italia tutta insieme. Rimuovendo in modo del tutto corretto il bias, che è indifferente rispetto al calcolo volume up/down relativo, si ottiene un numero ben diverso: -1.02222E-06 km3.
Questo conferma che le misure SAR sono assolutamente affidabili e accurate, molto più di un estremante semplice modello puntiforme proposto da Segall & Heimisson.

L’articolo di Valensise contiene anche altre inesattezze relativamente alla presunta deformazione verso l’Adriatico, dedotte da fonti che presumiamo siano diverse dall’articolo di Bignami et al. 2019. I dati di quest’ultimo mostrano che la deformazione si assesta intorno allo zero man mano che ci si allontana dall’epicentro verso est:

Schermata 2019-12-19 alle 11.14.00

Zoomando nella parte più a est si nota che la deformazione è entro la fascia -3/+ 3 cm di tolleranza, con tendenza anche in abbassamento:

Schermata 2019-12-19 alle 11.14.10
D’altra parte la citata figura 5 tratta da Bignami et al., è ben lontana dalla zona costiera, e non dà informazioni rispetto a cosa succede allontanandosi dell’area epicentrale.

Si fa notare che il SAR non è “cieco” in quel range -3/+3 cm, che è semplicemente la fascia di incertezza per questa specifica mappa fatta con questi specifici dati, un rumore sulla misura che non ci consente di discriminare tra deformazione certamente positiva e certamente negativa, motivo per cui sono state utilizzate tali soglie. Infine, a riprova della scarsa attenzione prestata nella lettura, i dati usati da Bignami et al. 2019, non sono dei satelliti Sentinel dell’Agenzia Spaziale Europea (ESA), bensì del satellite ALOS2, dell’Agenzia Spaziale Giapponese.

Per concludere chiediamoci: negli ambienti estensionali la forza accumulata è dunque l’energia elastica di trazione che non esiste, o è invece la componente gravitazionale che è certa? Questa seconda naturale interpretazione non inficia lo slip in un mezzo elastico. Anche una molla che cade rilascia energia gravitazionale.

Il rasoio di Occam è un percorso mentale utilissimo, ma non può essere un alibi per omettere i dati di fatto. Anzi, Il rasoio di Occam è a favore della energia gravitazionale che sicuramente esiste, in quanto non richiede l’esistenza della trazione elastica che sarebbe una forza aggiuntiva per gli ambienti estensionali.

Carlo Doglioni

Barberio, M.D., Barbieri, M., Billi, A., Doglioni, C., Petitta, M., 2017. Hydrogeochemical changes before and during the 2016 Amatrice-Norcia seismic sequence (central Italy). Scientific Reports, 7, 11735, doi:10.1038/s41598-017-11990-8, https://www.nature.com/articles/s41598-017-11990-8

Barberio M.D., Gori F., Barbieri M., Billi A., Devoti R., Doglioni C., Petitta M., Riguzzi F., Rusi S. 2018. Diurnal and semidiurnal cyclicity of Radon (222Rn) in groundwater, Giardino Spring, central Apennines, Italy. Water, 10, 1276; doi:10.3390/w10091276. https://www.mdpi.com/2073-4441/10/9/1276

Bignami C., Valerio E., Carminati E., Doglioni C., Tizzani P. 2019. Volume unbalance on the 2016 Amatrice – Norcia (central Italy) seismic sequence and insights on normal fault earthquake mechanism. Scientific Reports, 9:4250 | https://doi.org/10.1038/s41598-019-40958-z

Carminati E., Bignami C., Doglioni C., Smeraglia L., 2020. Lithological control on multiple surface ruptures during the 2016-2017 Amatrice-Norcia seismic sequence. Journal of Geodynamics, in press. doi.org/10.1016/j.jog.2019.101676

Carminati E., Doglioni C. & Barba S. (2004): Reverse migration of seismicity on thrusts and normal faults. Earth Science Reviews, 65, 195–222.

Cocco M. & Rovelli A., 1989. Evidence for the Variation of Stress Drop Between Normal and Thrust Faulting Earthquake in Italy. J. Geophys. Res. 94, B7, 9399-9416.

Doglioni C., Barba S., Carminati E. Riguzzi F., 2015. Fault on-off versus strain rate and earthquakes energy. Geoscience Frontiers 6, 265-276, doi: http://dx.doi.org/10.1016/j.gsf.2013.12.007

Doglioni C., Barba S., Carminati E. Riguzzi F., 2014. Fault on-off versus coseismic fluids reaction. Geoscience Frontiers, v. 5, issue 6, pp. 767–780, doi.org/10.1016/j.gsf.2013.08.004

Doglioni C., Carminati E., Petricca P., Riguzzi F. 2015 Normal fault earthquakes or graviquakes. Scientific Reports, 5, 12110 doi:10.1038/srep12110. https://www.nature.com/articles/srep12110

Doglioni, C., Barba, S., Carminati, E. & Riguzzi, F. 2011. Role of the brittle-ductile transition on fault activation. Phys. Earth Planet. Int., 184, 160–171, https://www.sciencedirect.com/science/article/pii/S0031920110002384

Liberatore, D., Doglioni, C., Al Shawa, O., Atzori, S., Sorrentino, L. 2018. Effects of coseismic ground vertical motion on masonry constructions damage during the 2016 Amatrice-Norcia (Central Italy) earthquakes. Soil Dynamics and Earthquake Engineering, 120 (2019) 423–435, https://doi.org/10.1016/j.soildyn.2019.02.015

Lucente, F.P., De Gori, P., Margheriti, L., Piccinini, D., Di Bona, M., Chiarabba, C., Piana Agostinetti, N., 2010. Temporal variation of seismic velocity and anisotropy before the 2009 Mw 6.3 L’Aquila earthquake, Italy. Geology 38 (11), 1015e1018. http://dx.doi.org/10.1130/G31463.1.

Moro, M., Saroli, M., Stramondo, S., Bignami, C., Albano, M., Falcucci, E., Gori, S., Doglioni, C., Polcari, M., Tallini, M., Macerola, L., Novali, F., Costantini, M., Malvarosa, F. and Wegmüller, U., 2017. New insights into earthquake precursors from InSAR. Scientific Reports, 7, 12035, doi:10.1038/s41598-017-12058-3, https://www.nature.com/articles/s41598-017-12058-3

Petitta M., Mastrorillo L., Preziosi E., Banzato F., Barberio M.D., Billi A., Cambi C., De Luca G., Di Carlo P., Di Curzio D., Di Salvo C., Nanni T., Palpacelli S., Rusi S., Saroli M., Tallini M., Tazioli A., Valigi D., Vivalda P., Doglioni C., 2018. Water table and discharge changes associated with the 2016-2017 seismic sequence in central Italy: hydrogeological data and conceptual model for fractured carbonate aquifers. Hydrogeology Journal, https://doi.org/10.1007/s10040-017-1717-7

Petricca P., Barba S., Carminati E., Doglioni C., Riguzzi F. 2015. Graviquakes in Italy. Tectonophysics, 656, 202–214, doi:10.1016/j.tecto.2015.07.001

Petricca, P., Carminati, E., Doglioni, C. and Riguzzi, F., 2018. Brittle-ductile transition depth versus convergence rate: impact on seismicity. Physics of the Earth and Planetary Interior, doi.org/10.1016/j.pepi.2018.09.002

Petricca P., Carminati E. and Doglioni C., 2019. The Decollement Depth of Active Thrust Faults in Italy: Implications on Potential Earthquake Magnitude. Tectonics, 38. https://doi.org/10.1029/ 2019TC005641

Plastino W., Panza G.F., Doglioni C., Frezzotti M.L., Peccerillo A., De Felice P., Bella F., Povinec P.P., Nisi S., Ioannucci L., Aprili P., Balata M., Cozzella M.L., Laubenstein M., 2011. Uranium groundwater anomalies and active normal faulting. J Radioanal Nucl Chem, 288, 101–107.

Riguzzi, F. Crespi, M., Devoti, R., Doglioni, C. Pietrantonio, G. and Pisani, A.R., 2012. Geodetic strain rate and earthquake size: New clues for seismic hazard studies. Physics of the Earth and Planetary Interiors 206-207, 67–75, https://www.sciencedirect.com/science/article/pii/S0031920112001264

Riguzzi F., Crespi M., Devoti R., Doglioni C., Pietrantonio G., Pisani A.R., 2013. Strain rate relaxation of normal and thrust faults in Italy. Geophysical Journal International. doi: 10.1093/gji/ggt304

Schorlemmer, D., Wiemer, S. & Wyss, M. 2005. Variations in earthquake-size distribution across different stress regimes. Nature 437, 22.

Segall P. & Heimisson E.R., 2019. On the Integrated Surface Uplift for Dip‐Slip Faults. Bulletin of the Seismological Society of America (2019) 109 (6): 2738-2740.
https://doi.org/10.1785/0120190220

Smeraglia L., Bernasconi S.M., Berra F., Billi A., Boschi C., Caracausi A., Carminati E., Castorina F., Doglioni C., Italiano F., Rizzo A.L., Uysal T., Zhao X-J. 2018. Crustal-scale fluid circulation and co-seismic shallow comb-veining along the longest normal fault of the central Apennines, Italy. Earth Planet. Sci. Lett., 498, 152-168, https://doi.org/10.1016/j.epsl.2018.06.013.

Thompson, G. A. & Parsons, T. 2017. From coseismic offsets to fault-block mountains. PNAS 114, 9820–9825, https://doi.org/10.1073/pnas.1711203114 (2017).

Valerio, E. Tizzani, P., Carminati, E., Doglioni C., 2017. Longer aftershocks duration in extensional tectonic settings. Scientific Reports, 7, 16403 doi:10.1038/s41598-017-14550-2, https://www.nature.com/articles/s41598-017-14550-2

Valerio, E., Tizzani, P., Carminati, E., Doglioni, C., Pepe, S., Petricca, P., De Luca, C., Bignami, C., Solaro, G., Castaldo, R., De Novellis, V. and Lanari, R. 2018. Ground Deformation and Source Geometry of the 30 October 2016 Mw 6.5 Norcia Earthquake (Central Italy) Investigated Through Seismological Data, DInSAR Measurements, and Numerical Modelling. Remote Sensing, 10, 1901, doi:10.3390/rs10121901, https://www.mdpi.com/2072-4292/10/12/1901

Gravimoti: un nuovo paradigma? (intervista a Gianluca Valensise)

Gianluca Valensise, del Dipartimento Terremoti, INGV, Roma, è sismologo di formazione geologica.Dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).  Ha dedicato oltre 30 anni della sua carriera a esplorare i rapporti tra tettonica attiva e sismicità storica, con l’obiettivo di fondere le osservazioni geologiche con l’evidenza disponibile sui grandi terremoti del passato.
Da qualche anno è emerso, nel panorama geo-sismologico italiano, il termine “gravimoti”: gli abbiamo chiesto di commentare l’origine e il significato.

Da qualche anno abbiamo cominciato a sentire parlare di “gravimoti”, in alcuni casi come alternativa al termine “terremoti”. Ci puoi riassumere da dove nasce questa idea e a cosa si riferisce?

Si tratta di un concetto totalmente nuovo per la Sismologia e abbastanza complesso. La parola “gravimoti” è stata coniata da Doglioni e coautori in un articolo pubblicato sull’autorevole rivista Scientific Reports nel 2015. In genere si ritiene che i terremoti siano generati dal rilascio di energia elastica accumulata nel corso di secoli o millenni. Secondo questi autori, invece, nelle aree del globo sottoposte a estensione crostale, come ad esempio nel nostro Appennino, la maggior fonte di energia disponibile è rappresentata dalla forza di gravità. Ne consegue che le faglie estensionali, che in geologia si chiamano anche faglie normali, sono caratterizzate da un meccanismo di accumulo e dissipazione di energia diverso rispetto a quello di altri contesti geodinamici, come quelli compressivi e trascorrenti, nei quali l’energia elastica consente il movimento dei blocchi posti ai due lati di una faglia anche contro la forza di gravità.

Doglioni e coautori ritengono quindi che i terremoti per faglia normale seguano un meccanismo completamente diverso dal modello ideale dello elastic rebound, o rimbalzo elastico, teorizzato da Harry Fielding Reid nel 1910 sulla base di osservazioni della faglia che aveva generato il grande terremoto di San Francisco del 1906. E poiché ritengono che i terremoti per faglia normale siano dominati dalla gravità, questi autori propongono di definirli graviquakes – traducibile appunto con “gravimoti” in italiano – mentre tutti gli altri terremoti sarebbero degli elastoquakes, termine traducibile in “elastomoti”.

Come è stato recepito questo paradigma dagli altri ricercatori? E come se ne può dimostrare la validità oltre ogni ragionevole dubbio?

A essere onesti, a oggi i graviquakes non hanno ricevuto un’accoglienza entusiastica da parte della comunità scientifica, nonostante che nel frattempo i loro fondamenti teorici siano stati ripresi da Petricca et al. nel 2015. Le critiche principali vengono dagli esperti di meccanica delle rocce, che ritengono non derogabile il meccanismo noto come doppia-coppia che è alla base del calcolo dei meccanismi focali di tutti i terremoti.

Esiste in effetti un modo relativamente semplice per verificare l’ipotesi dei graviquakes. Un normale terremoto causato dall’accumulo e dal successivo improvviso rilascio di energia elastica causa il sollevamento di alcune porzioni della regione interessata dalla fagliazione e lo sprofondamento di altre. Poiché nel processo di generazione di un terremoto non c’è aggiunta o rimozione di volumi rocciosi, e poiché le rocce che formano la litosfera hanno una compressibilità limitata, il volume delle rocce di cui il terremoto – o meglio il movimento della faglia sismogenetica – ha causato lo sprofondamento deve necessariamente essere molto simile al volume delle rocce che ne sono state sollevate. Secondo gli autori citati questo non è però vero per i graviquakes, i quali, essendo dominati dalla forza di gravità, determinano uno sprofondamento di entità molto superiore al sollevamento, causando nel contempo l’espulsione di fluidi profondi ospitati in fratture preesistenti.

In un articolo pubblicato nel 2019 [1], sempre su Scientific Reports, Bignami e coautori hanno analizzato se questa ipotesi sia stata verificata dalla sequenza di Amatrice, Norcia e Visso del 2016, culminata con la scossa di magnitudo 6.5 del 30 ottobre 2016: una serie di terremoti che hanno causato deformazioni molto importanti della superficie topografica – nella Piana di Castelluccio è stato misurato uno sprofondamento massimo dell’ordine di circa un metro – e che sono state registrate da una moltitudine di strumenti e sensori di diversa natura (si veda in proposito la Figura 5 dell’articolo in questione):

Fig.5 Bignami

per la spiegazione si veda qui:
https://www.nature.com/articles/s41598-019-40958-z/figures/5.

In particolare Bignami e coautori hanno analizzato i dati di interferometria differenziale – DInSAR nella letteratura in lingua inglese – forniti dalla costellazione di satelliti europei Sentinel. Questi consentono di misurare con precisione la forma della superficie del pianeta e le sue eventuali variazioni tra passaggi successivi del satellite sulla stessa zona, cosa che alle nostre latitudini avviene con una frequenza media di una volta ogni 3-5 giorni. Le variazioni misurate, opportunamente processate, consentono di rappresentare con straordinaria precisione e con grande risoluzione spaziale gli effetti in superficie del movimento della faglia sismogenetica, incluse le eventuali deformazioni pre- e post-sismiche, ma anche di studiare la dinamica di vulcani attivi, l’evoluzione di grandi corpi franosi, e persino le deformazioni del suolo causate dall’estrazione o immissione di fluidi profondi.

Ebbene, secondo i calcoli di Bignami e coautori il movimento delle faglie che hanno generato i tre terremoti principali (24 agosto, 26 ottobre e 30 ottobre 2016) ha causato lo sprofondamento di un volume di circa 0,120 km3, mentre la somma delle porzioni crostali sollevate non supera i 0,016 km3 (si veda la Figure 7 dell’articolo):

Fig. 7 Bignami

https://www.nature.com/articles/s41598-019-40958-z/figures/7.

Gli autori concludono che il terremoto ha causato un volume unbalance di circa 7,5 volte, in accordo con quanto previsto dalla teoria dei graviquakes. Come ha scritto Carlo Doglioni in un blog divulgativo della Sapienza [2], questo risultato “… getta nuova luce e conferme sul ruolo della forza di gravità nei terremoti”; lo stesso Doglioni ha poi aggiunto che “…Prossimo obiettivo è la caccia ai volumi crostali in cui lungo l’Appennino vi siano zone dilatate, pronte a generare un futuro evento sismico”. Da quest’ultima affermazione consegue che, se l’esistenza dei graviquakes fosse confermata, i sismologi disporrebbero di un nuovo metodo per prevedere i terremoti a breve e medio termine, ancorché solo nelle aree sottoposte a tettonica estensionale (a riguardo ricordo che i terremoti estensionali sono largamente dominanti nel contesto geodinamico italiano). Una applicazione sistematica di questo metodo potrebbe consentire, se non proprio di prevedere i terremoti, quantomeno di identificare “zone di attenzione” prioritarie.

 Dunque i manuali di geofisica e di sismologia sono da riscrivere?

Come ho già detto, la comunità scientifica nazionale è rimasta abbastanza fredda sui graviquakes, ma finora non ha espresso le proprie perplessità con pubblicazioni su riviste peer-reviewed, le uniche adatta ad ospitare un eventuale contraddittorio. Però la scienza è globale, e a maggior ragione lo sono i meccanismi che presiedono alla generazione dei terremoti. E così, a sorpresa, due ricercatori di oltre-Atlantico hanno recentemente deciso di impugnare le conclusioni di Bignami et al. e confutare la tesi di fondo dei graviquakes. Si tratta di Segall e Heimisson, dell’Università di Stanford in Californa, che in un breve ma concettoso articolo apparso sul Bulletin of the Seismological Society of America, una storica rivista considerata molto autorevole dai sismologi, discutono a tutto campo le conclusioni degli autori dell’articolo in questione.

Come prima cosa richiamano uno storico lavoro di Ward del 1986, nel quale si argomenta sul fatto che i volumi crostali mobilitati da un forte terremoto non devono necessariamente azzerarsi tra sollevamento e subsidenza: o meglio, prima o poi lo faranno, ma nell’immediato del verificarsi del terremoto è normale che si riscontri un certo disequilibrio – a favore della subsidenza nei regimi estensionali e a favore del sollevamento in quelli compressivi – proprio in virtù del fatto che la porzione più profonda della crosta terrestre ha un comportamento essenzialmente viscoelastico. In altre parole, la reologia delle rocce che formano la crosta terrestre è tale da rendere accettabile un modesto e transitorio volume unbalance.

Ma la critica principale ai risultati di Bignami e coautori riguarda il metodo utilizzato da questi ricercatori per i loro calcoli. Va premesso che secondo la teoria della elastic dislocation, comunemente accettata per descrivere il campo di deformazione generato da un forte terremoto, nel caso di una faglia normale la subsidenza si presenta concentrata in una depressione allungata come la faglia sismogenetica e poco più lunga della faglia stessa: un’area lunga intorno ai 20 km nel caso del terremoto del 30 ottobre 2016, nella quale, come ho già ricordato, sono stati registrati sprofondamenti fino a un metro circa. Viceversa, l’evidenza sperimentale rappresentata dall’andamento dei dati satellitari mostra che il sollevamento interessa una zona molto più grande, che nel caso in questione arriva fino alla costa adriatica, con valori assoluti che si riducono progressivamente da un massimo di 15 cm circa fino a zero (si veda sempre quanto mostrato nella Figure 5 di Bignami e coautori).

Segall e Heimisson fanno intanto notare che i calcoli sono stati effettuati in modo improprio: in particolare, sono state omesse tutte le aree dove il sollevamento misurato con la tecnica DInSAR dà un valore compreso tra +3 cm e -3 cm. Si tratta di una scelta obbligata, perché il sensore del satellite Sentinel è “cieco” per differenze di valore inferiore a 3 cm, ma che per le ragioni che ho ricordato poco sopra porta a sottovalutare drasticamente il volume della porzione del campo di dislocazione in cui i dati satellitari mostrano un sollevamento. Fanno poi notare che se i volumi fossero stati calcolati correttamente, cioè tenendo conto anche di quella zona molto ampia in cui il sollevamento registrato non è risolvibile con la tecnica usata, il volume unbalance dovrebbe ridursi ad un 20% circa; e concludono che, stando così le cose, i dati DInSAR del terremoto del 30 ottobre resterebbero pienamente compatibili con quanto previsto dalla classica elastic dislocation theory e con quanto asserito da Ward nel 1986.

Segall e Heimisson concludono la loro analisi con una frase che deve far riflettere sull’uso dei dati scientifici per promuovere o confutare una nuova teoria scientifica:

We do not claim that the elastic dislocation model is unique. Occam’s razor, however, suggests that a simpler, well-tested theory (elastic dislocation theory) should be preferred.

Credo che questa chiosa interpreti bene l’accoglienza abbastanza fredda fino ad oggi riservata ai graviquakes dalla comunità sismologica, prima nazionale e ora anche internazionale. Per parte mia posso solo osservare che applicando la metodologia di analisi proposta da Bignami e coautori al caso di faglie inverse, come quelle che hanno generato i terremoti del 20 e 29 maggio 2012 nella Bassa modenese – peraltro analizzati proprio da Bignami e coautori nel 2012 – probabilmente si otterrebbe lo stesso risultato, ma a parti invertite: si misurerebbe principalmente del sollevamento, e la subsidenza apparrebbe del tutto subordinata. Un risultato di questo tipo mostrerebbe senza necessità di ulteriori prove che il volume unbalance di quasi un ordine di grandezza invocato da Bignami e coautori è un artefatto del metodo di calcolo utilizzato, non una proprietà intrinsca del nostro pianeta, e renderebbe inveitabile riconsiderare i fondamenti della teoria dei graviquakes.

La parola torna ora a coloro che hanno inizialmente proposto l’esistenza dei graviquakes, nella speranza che accettino il suggerimento di usare i terremoti del 2012 per capire se quello che stanno vedendo e ipotizzando per la zona di Norcia – e per tutte le faglie normali in giro per il pianeta – è una reale e importante novità scientifica, o se si tratta solo di un artefatto modellistico.

[1] https://www.nature.com/articles/s41598-019-40958-z

[2] https://www.uniroma1.it/it/notizia/terremoti-del-centro-italia-dove-e-il-volume-fantasma

Nota: una risposta di Carlo Doglioni alle considerazione di Gianluca Valensise è stata pubblicata qui

Gravimoti: alcuni commenti all‘intervista di Valensise (Carlo Doglioni)

 Bibliografia citata

Bignami C., P. Burrato, V. Cannelli, M. Chini, E. Falcucci, A. Ferretti, S. Gori, C. Kyriakopoulos, D. Melini, M. Moro, F. Novali, M. Saroli, S. Stramondo, G. Valensise e P. Vannoli (2012). Coseismic deformation pattern of the Emilia 2012 seismic sequence imaged by Radarsat-1 interferometry, Annals of Geophysics, 55, 789-795, ISSN: 1593-5213, doi: 10.4401/ag-6157.

Bignami C., E. Valerio, E. Carminati, C. Doglioni, P. Tizzani, e R. Lanari (2019). Volume unbalance on the 2016 Amatrice-Norcia (Central Italy) seismic sequence and insights on normal fault earthquake mechanism, Sci. Rep. 9, no. 1, 4250.

Doglioni C., E. Carminati, P. Petricca, e F. Riguzzi (2015). Normal fault earthquakes or graviquakes. Sci Rep 2015;5:12110. https://doi.org/10.1038/srep12110, 2015.

Petricca P., S. Barba, E. Carminati, C. Doglioni, e F. Riguzzi F. (2015). Graviquakes in Italy. Tectonophysics, 656(12):202–2014. https://doi.org/10.1016/j.tecto.2015.07. 001.

Segall P., e H. R. Heimisson (2019). On the Integrated Surface Uplift for Dip-Slip Faults. Bulletin of the Seismological Society of America, Vol. XX, No. XX, pp. –, – 2019, doi: 10.1785/0120190220

Reid H. F. (1910). The mechanics of the earthquake, The California earthquake of April 18, 1906. Report of the State Investigation Commission (Carnegie Institution of Washington, Washington, D.C., 1910).

Ward S. N. (1986). A note on the surface volume change of shallow earthquakes, Geophys. J. Int. 85, no. 2, 461–466.

Come (e quando) nacque l’INGV… (Massimiliano Stucchi)

Premessa. A dispetto del fatto che in questi giorni si voglia celebrare il ventesimo anniversario della nascita dell’INGV, l’INGV nacque invece il 10 gennaio 2001. Nel 1999 uscì il Decreto Legislativo 381/1999, che stabilì il percorso e le modalità di costituzione dell’INGV. Fino al 10 gennaio 2001 l’INGV non esisteva; esistevano al suo posto gli istituti che vi sarebbero confluiti, con i loro presidenti, direttori e organi di governo. Come ha commentato un ex-collega, celebrare la nascita dell’INGV nell’anniversario del suo decreto istitutivo, che aveva fissato anche l’itinerario per la nascita vera e propria, è un po’ come “anticipare la celebrazione del compleanno al giorno del concepimento” (cit.). Ma comunque.
Pensavo quindi di avere un po’ di tempo per preparare un ricordo circostanziato, magari assieme a Tullio Pepe e altri; questo anticipo mi costringe a essere un po’ approssimativo, e mi scuso con chi ha vissuto le esperienze che descrivo se non troverà la narrazione perfettamente corrispondente a come si svolsero i fatti. Comunque mi è piaciuto scriverlo: commenti benvenuti e…rimedierò nel 2021.

Correva l’anno 1998 e, come ci ha ricordato un altro ex-collega, a Erice (Trapani), alto luogo della ricerca scientifica, si tenne in luglio una sessione un po’ particolare della “School of Geophysics”, diretta da Enzo Boschi. Si riunirono infatti, in prevalenza, ricercatori italiani afferenti agli istituti di ricerca del settore geofisico, sismologico e vulcanologico (ING, CNR, Osservatorio Vesuviano, Osservatorio Geofisico Sperimentale di Trieste), oltre a docenti universitari di varie discipline afferenti alla geofisica. Era presente anche qualche docente di ambito geologico.

Se il Decreto Legislativo 381/1999 fu l’atto del concepimento dell’INGV, la scuola di Erice ne fu la fase dei flirt, o anche qualcosa di più. Il programma vide presentazioni ad ampio spettro su ricerche in corso e problematiche aperte, pacificamente suddivise fra ricercatori di tutti gli enti senza esasperata competizione ma, anzi, in un clima di collaborazione; una novità assoluta. Fino a poco prima infatti, e per molti anni, gli istituti in questione confliggevano apertamente sia sul piano scientifico che su quello operativo, anche e soprattutto per cercare di accaparrarsi i limitati fondi pubblici disponibili.

Dal 1975 al 1981 Il Progetto Finalizzato Geodinamica (PFG) del CNR, grazie alla larghezza di vedute di Paolo Gasparini (Napoli), che ne fu il primo direttore, e di un board direttivo di alto livello, aveva fatto collaborare fattivamente sismologi e ingegneri, vulcanologi e geologi in un periodo scosso – è il caso di dirlo – da diversi terremoti importanti italiani (Friuli, 1976, Golfo di Patti, 1978; Norcia, 1979; Irpinia-Basilicata, 1980), oltre che da notevoli terremoti all’estero. ING partecipò in maniera marginale, sia a causa della miopia della dirigenza di allora, sia in virtù del fatto che l’ente era addirittura a rischio di essere commissariato, cosa che poi avvenne nel 1981.
Dall’esperienza del PFG nacque il Gruppo Nazionale per la Vulcanologia (GNV) e il Gruppo Nazionale per la Difesa dai Terremoti (GNDT: va sottolineata la finalità applicativa espressa dal titolo). Per certi versi dal PFG nacque anche la Commissione Grandi Rischi (CGR) nel 1982, su modello dell’analoga commissione francese voluta da Haroun Tazieff; Enzo Boschi venne nominato Commissario Straordinario (e in seguito direttore) dell’ING; successivamente, venne istituito il Sottosegretariato alla Protezione Civile. GNV e GNDT passarono di fatto sotto la sponsorizzazione del Dipartimento della Protezione Civile, sviluppatosi per la spinta di Giuseppe Zamberletti (il PFG viceversa emanava dal MIUR, o come allora si chiamava), accentuando il carattere applicativo delle ricerche svolte dai due gruppi. Il GNDT nel seguito subì diversi rivolgimenti istituzionali.
ING non partecipò a GNV e GNDT se non in misura minima, per una scelta di indirizzo e di ripartizione dei fondi fatta ad alto livello: e questo, al di là dei buoni rapporti individuali fra i vari ricercatori, contribuì ad alimentare la conflittualità di cui sopra.

I terremoti di Colfiorito del 1997 (avvenuti con Franco Barberi Sottosegretario alla Protezione Civile) determinarono, oltre un imponente salto di qualità nelle indagini scientifiche e nell’intervento post-terremoto, anche una maggiore attenzione da parte pubblica al problema del sottodimensionamento delle risorse e del personale dedicati allo studio di vulcani e terremoti. Oltre a qualche intervento “tampone” di situazioni pregresse (ricercatori precari), Enzo Boschi e Franco Barberi, con l’aiuto della valente direzione generale ING, cominciarono a studiare la possibilità di un riordino generale del settore (se ne era già iniziato a parlare anche qualche tempo prima, molto più sommessamente; alla fine del PFG accompagnai Franco Barberi a un incontro in materia, nello studio di Enzo Boschi all’Università di Bologna). Boschi ricordava spesso che altri settori, magari meno strategici per la vita del paese rispetto al nostro, quali ad esempio la fisica delle particelle nucleari, avevano acquisito maggior potere contrattuale, e quindi risorse, proprio perché si presentavano uniti (dopo aver magari lavato i panni sporchi in famiglia….) e parlavano con una voce sola.

Fu così che in quella scuola di Erice, dopo un paio di giornate di presentazioni scientifiche, Enzo Boschi aprì una sessione speciale con alcune parole che allora risultarono oscure ai più. Si ebbe comunque la percezione del fatto che qualcosa di grosso stava succedendo e che si stava partecipando a una riunione di cui in futuro si sarebbe potuto dire “c’ero anch’io”. Boschi diede la parola a Paolo Gasparini che illustrò in dettaglio il progetto. Seguirono discussioni in loco e poi “a casa”; qualche litigio, diverse perplessità: ad esempio, per i “non-ING” riguardo al fatto di entrare – modello Germania est/DDR – in una sorta di ING allargato; per gli “ING”, riguardo al timore di doversi accollare qualche peso morto…..
Il 29 settembre di quell’anno uscì il Decreto Legislativo 381/1999, che stabilì il perimetro del riordino, e l’itinerario di costruzione dell’INGV. Venne soppresso l’ING, che confluì nell’INGV, e vi confluirono gli altri Istituti scelti: Osservatorio Vesuviano e i tre Istituti CNR: Istituto Internazionale di Vulcanologia, Catania, Istituto di Ricerca sul Rischio Sismico, Milano e Istituto per la Geochimica dei Fluidi, Palermo. Confluirono anche GNV, GNDT e Sistema “Poseidon”. L’Osservatorio Geofisico Sperimentale di Trieste restò fuori in toto (modello “il Friuli farà da sé”…..), compresa la sezione sismologica e la rete sismologica del Friuli. Venne previsto un Comitato per la redazione dei Regolamenti che lavorò per circa un anno, attraverso numerosi incontri interni, consultazioni, ecc. Se posso portare un ricordo personale, dirò che in quella non facile sequenza di incontri vidi un Boschi al suo più alto livello di sempre, propositivo e determinato.

Il 10 gennaio 2001, con i Regolamenti approvati dall’allora MIUR, il neonato Consiglio di Amministrazione si riunì per la prima volta con il Comitato, nominò i direttori delle Sezioni previste dal Regolamento (Milano, Napoli, Catania, Palermo e tre a Roma (più l’Amministrazione Centrale: novità rispetto a ING) e dichiarò nato l’INGV. L’incarico di direzione delle sezioni fu affidato, come da Regolamento, a ricercatori INGV. L’indomani i nuovi direttori iniziarono a costruire concretamente le sezioni INGV. Le sezioni di Pisa e Bologna furono costituite qualche anno dopo; nel seguito furono costituite anche numerose sedi distaccate.

Il Decreto istitutivo aveva lasciato ai singoli ricercatori la facoltà di optare – a livello individuale e entro alcune settimane – per rimanere nei ruoli del CNR, in forza di alcune differenze di trattamento economico-giuridico che il Regolamento del Personale non aveva saputo (o forse voluto) unificare. Questa opzione fu utilizzata da alcuni ricercatori CNR, e in particolare da una consistente parte del personale di ruolo dell’ex Istituto di Ricerca sul Rischio Sismico (IRRS-CNR, Milano), che rimase nel CNR e afferì in seguito ad altri istituti. Ciò avvenne in parte per motivi di divergenze scientifica, in parte per ragioni di mancata sintonia con il futuro INGV e la relativa dirigenza, a dispetto di una pubblica “supplica” rivolta loro da Enzo Boschi in occasione di una visita di ricognizione a Milano.

Il Decreto aveva previsto anche la possibilità che INGV costituisse sezioni presso le Facoltà Universitarie che ne avessero avanzato proposta, secondo il modello dell’Istituto Nazionale di Fisica Nucleare (INFN). Alla chiusura dei termini pervennero una ventina di richieste. Alcune non furono accolte in quanto provenienti da Facoltà ubicate in città dove era già presente una sezione INGV, oppure dove una sede INGV era in preparazione, ma in questi casi al mancato accoglimento fece seguito l’invito a istituire collaborazioni sul piano locale. Altre non vennero accolte in quanto si trattava di fatto di richieste di mero finanziamento e non di condivisione di risorse, oltre che di obiettivi, impossibili da accettare in relazione alla scarsezza delle risorse disponibili.
La collaborazione con il mondo universitario – e con altri soggetti quali ad esempio alcune Regioni, la Fondazione Eucentre (Pavia), di cui INGV fu co-fondatore, e altre istituzioni –  si realizzò comunque attraverso progetti di ricerca, convenzioni, consorzi, dottorati, ecc. In aggiunta, si rafforzò attraverso il GNV e il GNDT, sostituiti in seguito dai Progetti INGV-DPC, nei quali INGV si fece carico di gestire anche i contratti di ricerca con il mondo esterno. Terminò, viceversa, una lunga fase nella quale il mondo universitario aveva sostanzialmente spadroneggiato, relegando spesso i ricercatori ING, CNR etc. al ruolo prevalente di raccoglitori di dati. Anche questa fu una intuizione di Enzo Boschi il quale, pur essendo lui stesso universitario, puntò molto sui ricercatori INGV che ne ricambiarono ampiamente la fiducia accordata loro.

Che si celebri la ricorrenza del Decreto o quella della nascita vera dell’INGV, colpisce vedere che molti dei protagonisti principali della transizione e dell’avvio dell’INGV – forse tutti – in servizio o in pensione, non sono invitati alle celebrazioni, anche se molti di essi sono tuttora dirigenti apicali impegnati in attività cruciali per la vita dell’ente. Di altri protagonisti, primo fra tutti l’infaticabile Direttore Generale Cesidio Lippa, scomparso nel 2007, viene trascurata anche la memoria. Lo stesso avviene per il promotore principale e primo presidente dell’INGV, Enzo Boschi che, viceversa, resta ben vivo nel ricordo di chi ha avuto il privilegio di accompagnarlo in questa avventura.

Ringrazio Tullio Pepe per la revisione e le precisazioni; Roberto Basili per lo spunto sui compleanni e Marco Olivieri per il ricordo di Erice 1998.

How (and when) INGV was born (Massimiliano Stucchi)

translated from https://terremotiegrandirischi.com/2019/09/26/come-e-quando-nacque-lingv-di-massimiliano-stucchi/ by googletranslate, revised

Premise. In spite of the fact that these days the twentieth anniversary of the birth of INGV is going to be celebrated, INGV was actually born on January 10th 2001. In 1999, Legislative Decree 381/1999 was published, which established the path and methods of establishing the INGV. Until January 10, 2001, INGV did not exist; in its place there existed the institutes that would have merged there later, with their presidents, directors and governing boards.
As one former colleague commented, celebrating the birth of INGV on the anniversary of his institutional decree, is a bit like “anticipating the birthday celebration to the day of conception ”(cit.). Anyhow.
I therefore thought I had some time to prepare a detailed account, perhaps with Tullio Pepe and others; this advance forces me to be a bit approximate, and I apologize to those who have lived through the experiences I describe if they will not find my narrative perfectly corresponding to how the events took place. However I liked writing it: comments are welcome and … I’ll fix it in 2021.

The year was 1998 and, as another ex-colleague reminded us, in Erice (Trapani), a high place of scientific research, a special course was held in July in the frame the “School of Geophysics”, directed by Enzo Boschi . In fact, mainly Italian researchers from research institutes in the geophysical, seismological and volcanological sector (ING, CNR, Vesuvian Observatory, Trieste Geophysical Observatory) met, as well as university professors from various disciplines related to geophysics. Some geological professors were also present.
If the Legislative Decree 381/1999 was the act of conception of the INGV, the Erice’s school was the phase of flirting, or even something more. The program saw broad-spectrum presentations on ongoing research and open problems, peacefully divided between researchers from all the bodies without exaggerated competition but, indeed, in a climate of collaboration; an absolute novelty for Italy. Until recently, in fact, and for many years, the institutions in question were openly conflicting both scientifically and operationally, also and above all to try to grab the limited public funds available.

From 1975 to 1981 the CNR’s Geodynamic Finalized Project (PFG), thanks to the open views of Paolo Gasparini (Naples), who was its first director, and of a high-level board of directors, had made seismologists and engineers, volcanologists and geologists actively collaborate in a “shaken” period – it must be said – from several important Italian earthquakes (Friuli, 1976, Gulf of Patti, 1978; Norcia, 1979; Irpinia-Basilicata, 1980), as well as from considerable earthquakes abroad. ING participated in a marginal way, only, both because of the short-sightedness of the leadership of that time, and by virtue of the fact that the institution was even at risk of being ruled by a commissioner, which then happened in 1981.
From the experience of the PFG the National Group for Volcanology (GNV) and the National Group for the Defense of Earthquakes (GNDT: the applicative purpose expressed by the title should be underlined) were born. In some respects the Great Risks Commission (CGR) was also born from PFG in 1982, based on the model of the French commission commissioned by Haroun Tazieff; Enzo Boschi was appointed Extraordinary Commissioner (and later director) of ING; subsequently, the State Secretary for Civil Protection was established. GNV and GNDT actually passed under the sponsorship of the Civil Protection Department, developed by Giuseppe Zamberletti (the PFG on the other hand emanated from Ministry of Research), emphasizing the applicative character of the research carried out by the two groups. The GNDT subsequently underwent various institutional changes.
ING did not participate in GNV and GNDT but to a minimum extent, for a high-level choice of address and allocation of funds: and this, beyond the good individual relations between the various researchers, contributed to fuel the above mentioned conflict.

The 1997 Colfiorito earthquakes (occurred when Franco Barberi was State Secretary for Civil Protection) determined, in addition to an impressive qualitative leap in scientific investigations and post-earthquake intervention, also a greater public attention to the problem of under-sizing resources and staff dedicated to the study of volcanoes and earthquakes. In addition to some interventions dedicated to ongoing situations (young researchers contracts), Enzo Boschi and Franco Barberi, with the help of the capable ING general director, began to study the possibility of a general reorganization of the sector (talks had begun time before, more quietly, at the end of the PFG I accompanied Franco Barberi to a meeting on the subject, in Enzo Boschi’s office at the University of Bologna). Boschi often remembered that other scientific sectors, perhaps less strategic for the life of the country than ours, such as the physics of nuclear particles, had acquired greater power, and therefore resources, precisely because they presented themselves united (after perhaps having washed their clothes dirty inside the family ….) and spoke with one voice, only.

Thus it was that in that school of Erice, after a couple of days of scientific presentations, Enzo Boschi opened a special session with some words that were then obscure to most. However, there was a perception that something big was happening and that we were attending a meeting of which we could say in the future “I was there too”. Boschi then gave the floor to Paolo Gasparini who illustrated the project in detail. Discussions took place on the spot and then “at home”; some quarrels, several perplexities: for example, for the “non-ING” regarding the fact of entering – model Germany East / DDR – in a sort of enlarged ING; for the “ING”, about the fear of having to bear some dead weight …
On September 29 of that year, the Legislative Decree 381/1999 was published, which established the perimeter of the reorganization, and the itinerary for the construction of the INGV. The ING, which merged into the INGV, was suppressed and the other selected Institutes also merged: Vesuvian Observatory and the three CNR Institutes: International Institute of Volcanology, Catania, Seismic Risk Research Institute, Milan and Institute of Geochemistry, Palermo, GNV, GNDT and “Poseidon System” (a sort of spin-off dedicated to Etna monitoring). The Experimental Geophysical Observatory of Trieste remained outside in its entirety (the “Friuli will do itself” model … ..), including the seismological section and the seismological network of Friuli. A Committee was drafted for the drafting of the Regulations which worked for about a year, through numerous internal meetings, consultations, etc. If I can bring a personal memory, I will say that in that difficult sequence of meetings I saw Boschi at its highest level ever, purposeful and determined.

On 10 January 2001, with the Regulations approved by the Ministry of Research, the Committee in question met for the last time, appointed the Directors of the Sections provided for in the Regulations (Milan, Naples, Catania, Palermo and three in Rome (plus Central Administration: new with respect to ING) and declared the INGV to be born. The position of director of the sections was entrusted, as per the Regulations, to INGV researchers. The next day the new directors began to concretely build the INGV sections. Pisa and Bologna were established a few years later, and a numerous branch offices were also established later.

The institutional Decree had left to  individual researchers the faculty to opt – at individual level and within a few weeks – to remain in the CNR, by virtue of some differences in the economic-juridical treatment that the Staff Regulation did not (or perhaps did not want) ) to unify. This option was used by some CNR researchers, and in particular by a substantial part of the permanent staff of the former Seismic Risk Research Institute (IRRS-CNR, Milan), which remained in the CNR and later joined other institutes. This was partly due to reasons of scientific disagreement, partly for reasons of lack of harmony with the future INGV and its leadership, despite a public “plea” addressed to them by Enzo Boschi during a reconnaissance visit to Milan.

The Decree also envisaged the possibility that INGV would establish sections at the University Faculties that would propose them, according to the model of the National Institute of Nuclear Physics (INFN). At the close of the terms, about twenty requests arrived. Some were not accepted because they came from faculties located in cities where an INGV section was already present, or in preparation. In these cases, the non-acceptance was followed by an invitation to establish collaborations at the local level. Others were not accepted as they were in fact requests for mere funding and not for sharing resources as well as objectives; those requests were impossible to accept in relation to the scarcity of available resources.
The collaboration with the universities – and with other subjects such as for example some Regions, the Eucentre Foundation (Pavia) and other institutions – was consolidated in any case through research projects, conventions, consortia, research doctorates, etc. In addition, it was strengthened through the GNV and the GNDT, later replaced by the INGV-DPC projects, in which INGV took charge of also managing the research contracts with the outside world.
On the other hand, a long phase in which the university world had substantially dominated, often relegating ING, CNR etc. researchers to the prevailing role of data collectors, came to an end. This was also an intuition of Enzo Boschi who, although he was a university professor himself, trusted a lot on the INGV researchers, who later repaid that trust with great amplitude.

Whether we celebrate the recurrence of the Decree or that of a real birth of INGV, it is striking to see that many of the main protagonists of the transition and the start of INGV – perhaps most of them – still on duty or retired, are not invited to the celebrations, even though many of them they are still top executives engaged in crucial activities for the life of the institution. Of other protagonists, first of all the tireless General Director Cesidio Lippa, who died in 2007, even the memory is not acknowledged. The same is true for the main promoter and first president of the ING, Enzo Boschi, who, on the other hand, remains alive in the memory of those who had the privilege of accompanying him on this adventure.

“Non è vero ciò che è vero, ma è vero ciò che si decide sia vero” (Massimiliano Stucchi)

Nota: il virgolettato del titolo è di Claudio Moroni

Parte 1: passaggio a L’Aquila, per un altro processo.
Il giorno 9 settembre 2019 sono stato convocato, in qualità di testimone, da un avvocato difensore di alcuni cittadini che hanno avviato, credo nel lontano 2010, una causa civile contro la Presidenza del Consiglio dei Ministri (PCM) per risarcimenti – pare multimilionari – ai parenti di alcune  vittime del terremoto del 6 aprile 2009, di nuovo in relazione alla riunione di esperti del 31 marzo 2009. Il colpevole sarebbe la PCM, in quanto le attività degli esperti vennero svolte a favore del Dipartimento della Protezione Civile, che dipende dalla PCM. L’accusa, sempre la solita: avere rassicurato le vittime, inducendole a non uscire di casa prima del terremoto distruttivo.
Si tratta in sostanza di un processo parallelo a quello più famoso, penale, cosiddetto “Grandi Rischi”, nel quale sei dei sette accusati vennero prima condannati e poi assolti in Appello e in Cassazione “perché il fatto non sussiste”. Ma evidentemente quelle conclusioni non hanno fatto giurisprudenza e nel nostro ordinamento giudiziario sembra sia lecito istruire un nuovo processo, sia pure civile, sullo stesso argomento.
E – fatto poco spiegabile almeno per me – tirarlo in lungo per quasi dieci anni; con parte dei relativi costi (tribunale, giudici, cancellieri, ecc.) a carico di tutti noi.

Nella lettera di convocazione nessuna spiegazione, solo la minaccia di multa in caso di no show. Un amico avvocato mi dice che, avendo già mancato la prima convocazione (ero all’estero), se non mi presento ora la prossima volta mi vengono a prendere i carabinieri.
Chiamo l’avvocato che mi ha convocato, dopo avergli già scritto senza ottenere risposta. Riesco a parlare dopo varie chiamate e mi viene spiegato che “deve essere per un articolo che ha scritto”. “Quale?” “Non mi ricordo, le faccio sapere”. Naturalmente non richiama. “E’ previsto un rimborso”? chiedo. “Ma lei svolge un servizio pubblico“. So what, risponderebbe un inglese. Non mi sembra che gli avvocati viaggino gratis.

Udienza nell’ufficio del Giudice: i testimoni non possono sentire gli altri testimoni (fra cui una ex-collega INGV e un indagato al processo maggiore, pensa!). 20 minuti ciascuno i primi due. Entro io: leggo la formula di rito, scritta su un cartoncino plastificato (con un errore di grammatica corretto a pennarello). Non so chi siano quella decina di persone sedute sui tavoli o in piedi: non so se siano presenti giornalisti o parenti delle vittime. Mi viene chiesto, semplicemente, se confermo di avere scritto, nel 2009, un articolo a nome mio e di altri colleghi INGV (uno di questi già convocato con le medesime modalità più di un anno fa), che parla di terremoti storici e pericolosità sismica nell’area aquilana (1). L’avvocato legge un brano: chiedo di vederlo. Non mi viene chiesto di spiegare l’articolo: solo di confermare di averlo scritto (confremare che cosa, è stampato….). Confermo. “Grazie può andare”. L’avvocato difensore dello Stato non si palesa e quindi non vengo controinterrogato. Qualche considerazione si impone:

  1. Si convocano dei tizi da Milano, o da Firenze, Napoli ecc., a loro spese (e quindi gratis per chi convoca), per chiedergli se conferma di avere scritto un brano di un articolo pubblicato a stampa nel 2009. L’accusa ne può convocare quanti ne vuole, non ci si può opporre. E’ normale, o logico, tutto questo? E il Giudice, è proprio tenuto a ammetterli tutti? Ci potrebbero essere altri mezzi (che ne so, teleconferenza), o altre richieste meno banali? E’ proprio necessaria questa arroganza, per l’esercizio del potere giudiziario?
  2. Potrebbero forse questi tizi dare una risposta diversa, tipo: “no, non confermo, l’hanno scritto gli altri e hanno messo il mio nome di nascosto, non me ne ero accorto in questi dieci anni, grazie di avermelo fatto notare, adesso li querelo questi sciagurati….”? No: quindi a che cosa serve l’audizione?
  3. Siamo (anzi sono, loro) ancora qui, a costruire (verosimilmente) le accuse e (speriamo di no) le sentenze ritagliando spezzoni di articoli scientifici e giustapponendoli in modo da costruire una verità di comodo? Vedremo. Vedremo cioè se hanno fatto scuola i due protagonisti del processo “Grandi Rischi” di primo grado, campioni del “taglia e incolla”, PM Picuti e Giudice Billi (quello che dopo che la sentenza di Appello che gli ha dato torto su tutta la linea e gli ha anche dato una alzata professionale mica male, ha ribadito che la sentenza la riscriverebbe uguale).

Parte 2. Come si costruisce una menzogna.
Il Messaggero dell’11 settembre riferisce l’udienza di cui sopra con molta enfasi, con il titolo “il sisma del 2009 non fu un evento eccezionale”. Con enfasi e a modo suo: sostiene infatti che “a domande esplicite” avrei confermato, come del resto la ex-collega D’Amico, come “sulla base dei dati a disposizione ecc. ecc…(si veda il testo dell’articolo del giornale).

Marcello Ianni
Si tratta ovviamente di una maldestra rielaborazione di quanto scritto nell’articolo scientifico in questione, di cui mi è solo stato chiesto di confermare la paternità (il testo è stato letto dall’avvocato). Ma non è finita qui.

Mentre in apertura compare un banner, tanto falso quanto odioso, che recita “gli allarmi mancati”, nel seguito il cronista conclude: “l’immane tragedia è perfettamente aderente a quanto ci si poteva aspettare [a dire il vero non si è parlato di tragedia ma solo di parametri sismologici….]. Una conferma che in qualche modo stona con l’approccio [sic!] e le conclusioni [quali? dove?] cui erano giunti i sette esperti della Commissione Grandi Rischi [arridaje……], i quali proprio per le rassicurazioni promanate [sic!] il 31 marzo di dieci anni fa, attraverso le dichiarazioni del De Bernardinis [rilasciate prima della riunione incriminata] indussero i residenti a restare a casa” [falso, come prova la sentenza di Appello].

Il cronista ha costruito una menzogna. Sostiene che l’articolo che mi vede fra gli autori, scritto DOPO il terremoto per spiegare il medesimo alla luce dello stato delle conoscenze, contraddice le conclusioni della riunione incriminata, che si è tenuta PRIMA del terremoto. Cerca in sostanza di far credere che, dichiarando che le caratteristiche del terremoto fossero compatibili con il quadro della sismicità, gli autori sostengano anche che il terremoto fosse di fatto prevedibile. Certo: un terremoto di quelle caratteristiche era possibile; non per nulla la zona era classificata come sismica di seconda categoria a partire dal 1915, e questo avrà pure voluto dire qualcosa. Ma che potesse avvenire il giorno dopo, una settimana, un mese, un anno o dieci anni dopo non lo sapeva nessuno e nessuno avrebbe potuto dirlo.
Forse sarebbe bene ricordare più spesso, a tutti, che essere in zona sismica significa che può verificarsi un terremoto, stasera, domattina, fra un po’ di tempo. Punto. Si deve sapere e basta (lo sanno avvocati, giudici, giornalisti che vivono o operano a L’Aquila), senza bisogno di convocare una riunione ad hoc prima o – dopo – di andare a ripescare tutti gli articoli scientifici scritta in materia, pretendendo di capirli, ritagliarne brani e tirare conclusioni alla “sismologo fai-da-te”.

Riporto qui, prendendoli a prestito dai colleghi che li hanno formulati, alcuni commenti all’articolo del Messagero che mi sembrano particolarmente calzanti:

Mentana direbbe che chi ha scritto ha lasciato il cervello in vacanza”.

“Il titolo avrebbe potuto essere: sismologi inchiodano la CGR. Era tutto previsto, sapevano ma hanno taciuto.”

“Non è vero ciò che è vero, ma è vero ciò che si decide sia vero, o comunque si finge di passare come verità”.

Ecco, l’ultimo commento – da cui è tratto il titolo del post – è tanto realistico quanto preoccupante. Il giornalista sembra al servizio della tesi dell’accusa, e non sarebbe certo il primo caso a proposito del terremoto di L’Aquila; definisce infatti la mia testimonianza (ovvero l’articolo di cui sono co-autore) come “testimonianza a favore” (dell’accusa, ovvio). Davvero si sta cercando, in un film parallelo a quello precedente, di costruire conclusioni opposte a quelle del processo penale “Grandi Rischi”?
Il fatto non sussiste, ma qualcuno ci sta provando ancora.

(1) Stucchi, C. Meletti, A. Rovida, V. D’Amico, A.A. Gomez Capera. Terremoti storici e pericolosità sismica dell’area aquilana. Progettazione Sismica, 3, 23-33 https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/

La colpa è dei modelli di pericolosità sismica? (Massimiliano Stucchi)

Premessa. In questi giorni si discutono problemi ben più gravi e urgenti. Tuttavia l’apparizione di un articolo, su l’Espresso, che approfitta della ricorrenza del terremoto di Amatrice del 2016 per gettare discredito sul modello di pericolosità sismica corrente e sulle norme dello Stato, utilizzando fake news e argomenti inconsistenti mi ha mandato in bestia.

Ce lo si poteva aspettare. Cosa meglio di una ricorrenza di un terremoto (Amatrice, 2016) e delle sue vittime per tornare a accusare terremoti e sismologia? Dopo L’Aquila c’era stato addirittura un processo (anzi, più di uno; uno – civile – ancora in corso, al quale sono stato convocato per testimoniare in settembre, senza spiegazione alcuna, dalla parte che accusa lo Stato e chiede risarcimenti).Dopo Amatrice e Norcia 2016 nulla di così grave, anche se qualche polemichetta era uscita da parte di chi pretende di leggere i dati e gli elaborati sismologici come se fosse il suo pane quotidiano. Ora però (25 agosto 2019, L’Espresso http://m.espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?fbclid=IwAR2G7stT6dZRMqJfipfldqSy7Y4e5RS1rYGmoqzxCso3k1J3d6Q2PvTyxws esce con un “j’accuse” formale: il modello in vigore (quello che supporta la tanto celebrata mappa di pericolosità sismica) “ha sottostimato i pericoli sismici ma, incredibilmente, è ancora in vigore”.

Ci avevano già provato dopo L’Aquila 2009, e avevamo dimostrato che avevano fatto male i conti (1). Ci hanno riprovato dopo l’Emilia-Romagna del 2012; anche in quel caso avevano fatto male i conti, confrontando le registrazioni su terreno di consistenza media con quelle previste su roccia (2). E lo ripropongono paro paro anche nell’articolo citato: una autentica fake news.
Nel caso del 2016 invece è successo: sì, in alcuni punti, e per alcune scosse, le accelerazioni registrate hanno superato i valori proposti dal modello di pericolosità (con il 10% di probabilità di superamento in 50 anni).

Questo significa dunque che il modello ha sottostimato? Facciamo a capirci. Prima di tutto, adottare una certa probabilità di superamento significa ammettere che i valori proposti possano essere superati, qualche volta: non rappresentano dunque il massimo possibile e sotto vediamo perché. Poi: il modello di pericolosità sismica offre svariate elaborazioni relative a diverse probabilità di superamento in diversi intervalli di tempo (complicato, lo so: ma se uno ci si mette ce la può fare). Ad esempio, alcuni valori di picco registrati nel 2016 sono di poco superiori a quelli relativi al 2% di probabilità di superamento in 50 anni, ma sono inferiori a quelli relativi all’1% di probabilità di superamento nello stesso intervallo. Dunque?

Occorre poi ricordare che il confronto andrebbe fatto (se del caso; ma ci sono buone ragioni per sostenere che non ha molto significato) su tutti i valori dello spettro di risposta e non solo sul valore di accelerazione di picco, valore che tra l’altro non viene utilizzato nella progettazione. Ovvero, può succedere che la accelerazione al suolo superi quella proposta dalla normativa in piccole porzioni dello spettro stesso, magari non interessanti per alcuni tipi di costruzione.

Il problema, comunque, risiede principalmente nella scelta dell’intervallo e della probabilità di superamento adottati dalla normativa, appunto il 10% in 50 anni – ovvero periodo di ritorno 475 anni. Questa scelta la fa lo Stato (parliamo di normativa, appunto), sulla base di una consuetudine abbastanza condivisa a livello internazionale. Le ragioni di questa scelta dovrebbero essere spiegate meglio dagli ingegneri; con le mie parole dico che questa scelta significa garantire, se la costruzione è fatta bene, che non crolli, accettando più o meno implicitamente che si possa danneggiare in modo ragionevolmente riparabile. Perché? questione di ottimizzazione del rapporto costi-benefici. Gli ingegneri che leggono potranno inserire commenti e correzioni, che saranno benvenuti.

Vanno poi aggiunte altre considerazioni. La prima è che l’eventuale superamento delle accelerazioni proposte dalla normativa non determina automaticamente il crollo della costruzione; anche in questo caso gli ingegneri potrebbero spiegare meglio di me.
Non sono a conoscenza di alcun crollo recente avvenuto solamente per tale, eventuale superamento, e mi chiedo: perché invece di accuse teoriche non viene presentato un caso, almeno uno?
Sono a conoscenza, viceversa, di crolli avvenuti per difetti di costruzione, nemmeno lievi, tali da chiedersi come funzioni la catena progetto-controllo. Sono anche a conoscenza di edifici che hanno sopportato le accelerazioni “eccedenti” senza crollare.
La seconda – repetita juvant – è che la normativa stabilisce un valore minimo delle azioni di progetto ma non vieta certo di progettare per azioni superiori, se il proprietario e il progettista lo desiderano e sono disposti a spendere di più. Ma anche su questo c’è scarsa informazione.
La terza, più importante, è che la maggior parte degli edifici crollati per causa dei terremoti era stata costruita prima dell’entrata in vigore della normativa (NTC08, entrata in vigore nel giugno 2009), quindi con riferimento ad altre azioni sismiche e soprattutto ad altra norma costruttiva. L’articolo dice che la ricostruzione di Norcia post-1997 è stata fatta sulla base della mappa probabilistica, che uscì solo nel 2004, pensa te! E per attirare l’attenzione mostra la Basilica di San Benedetto, costruita qualche tempo prima, credo…..
Ancora una volta si confrontano mele con pere e si propongono fake news.

L’articolo in questione ripropone il confronto fra metodo probabilistico e deterministico. Anche questo  confronto è mal posto. L’approccio deterministico privilegia il massimo evento (scuotimento) possibile (evidentemente con la presunzione di poterlo determinare con esattezza). E’ bene ricordare che i valori ottenuti con questo metodo – tradotti in termini ingegneristici, ossia spettri – sono del tutto confrontabili con quelli offerti dal metodo probabilistico per probabilità di superamento più basse e intervalli di tempo più elevati rispetto a quelli previsti dalla normativa in vigore.

Perché non adottare come riferimento il “massimo”, ovvero un periodo di riferimento più lungo? Ovunque nel mondo le scelte in materia le fanno gli ingegneri, che hanno scelto ovunque il probabilistico. Tocca a loro spiegare perché, soprattutto al pubblico e ai media che ne avrebbero molto bisogno (come sempre per i media l’Italia è più avanti: prevede i terremoti con i vari autodidatti, ha i metodi migliori per diminuire i danni da terremoto, ecc.; il tutto a opera di minoranze oppresse e inascoltate).
Sicuramente costruire secondo il “massimo” scuotimento atteso costerebbe di più e non è detto che i benefici varrebbero lo sforzo; ma questo è un paese in cui prima del terremoto si minimizza e si risparmia, dopo il terremoto si protesta e si sarebbe pronti a scialare (in teoria).

Alla serie di fake news e di imprecisioni contenute in questo articolo, provenienti da un gruppo molto ristretto di ricercatori (gruppo che ha vari, lontani nel tempo e poco nobili motivi di astio con il fondatore dell’INGV), dovrebbe rispondere il Governo, visto che parliamo di accuse gravi a leggi dello Stato e non a “papers” scientifici; magari tramite il Ministro delle Infrastrutture e/o il Dipartimento della Protezione Civile, che sono di fatto i gestori della materia (Casa Italia dà scarsi segni di vita. Possibilmente in modo diverso da quanto  fece il Ministro dell’Ambiente del Governo Monti nel 2012, che disse che le “mappe di rischio sono forse da rivedere” (come no, se ci sono stati dei crolli devono essere sbagliate le mappe….).
Ma in questi giorni vi sono cose più importanti.

Ricorrenze a parte, ci vuole un bel coraggio a cercare di scaricare ancora le responsabilità di crolli e morti sulle mappe di pericolosità e comunque sul terremoto, come fa l’articolo terminando con il ricordo di San Giuliano di Puglia, 2002. Vergogna!
Sarebbe veramente ora che dalla comunità ingegneristica si alzino voci forti e chiare in proposito. Le scelte in materia di protezione dai terremoti sono ingegneristiche; i modelli di pericolosità sismica non decidono proprio niente, offrono i materiali per tutte le possibili scelte.

Prima o poi uscirà il nuovo modello di pericolosità INGV, che ha avuto tutte le verifiche, battesimi e riconoscimenti scientifici possibili. C’è grande attesa. Si tratterà di capirlo, prima di tutto, e usarlo come si deve. Qualche numeretto cambierà e – temo – inizierà la solita solfa che i valori precedenti erano sbagliati, ecc. Ad esempio, chi ha calcolato con il modello precedente l’indice di sicurezza di un edificio così come previsto dalla normativa, potrà ricalcolarlo con il nuovo modello e, senza che la vulnerabilità dell’edificio sia stata modificata di una virgola, potrebbe d’incanto ritrovarsi con un valore dell’indice un po’ maggiore (o anche minore), ovvero con un edificio teoricamente un  po’ più sicuro (o anche meno).

Via, su; cerchiamo di fare i seri, guardiamo la luna e non il dito. Le mappe di pericolosità sono il dito, mentre la luna sono, in questo caso, le nostre case, con il loro deficit di sicurezza accumulato in anni di normativa non applicata, controlli mancati, usura, modifiche strutturali (e non) eseguite senza criterio, frodi, condoni, abusivismo.
La colpa dei disastri non è dei modelli di pericolosità sismica!

(1) Crowley, H. et al, 2009. Uno sguardo agli spettri delle NTC08 in relazione al terremoto de L’Aquila, https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/view

(2) Stucchi, M. et al. 2012. I terremoti del maggio 2012 e la pericolosità sismica dell’area: che cosa è stato sottostimato? https://drive.google.com/file/d/1yh3R_rg_39cyUYmja-MSTfke-fS8HbLQ/view

 

Do seismic hazard models kill? (Massimiliano Stucchi)

Introduction. The appearance of an article, on the weekly magazine L’Espresso (http://espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?ref=HEF_RULLO&preview=true), which took advantage of the 2016 Amatrice earthquake anniversary to discredit the Italian seismic hazard model and the national building code based on it, using fake news and inconsistent arguments, made me angry.
What follows is a comment written for the benefit of the international readers.
The original version in Italian which can be found here (https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/), which can easily be translated by means of the improved https://translate.google.com/.

As in many countries, since 2008 the Italian building code (NTC08 and now NTC18) makes reference to design spectra; they are taken from the results of the 2004 PSHA model (1). A new PSHA assessment is been published soon.

On the other hand, since a few years a very small group of Italian researchers proposes a so called alternative method for the evaluation of seismic hazard, based on the neo-deterministic approach. No problem, it is a current scientific discussion. Things became more complex when this group claims that their method should be taken as a basis for the building code; it becomes boorish when, like in the above mentioned article, they claim that the seismic actions proposed by the PSHA model, adopted by the building code, have been overcome in recent earthquakes, and that casualties are due to that “wrong” seismic actions, by making use of “fake news”.
Let’s see.

The article repeats, once again, the fake news that recorded PGA overcame the PGA estimated by the PSHA model, in the occasion of 2009 (L’Aquila) and 2012 (Emilia-Romagna) earthquakes. It has been proved that the above statement is not true (2) (3); simply, comparison are wrongly made between soft ground recordings and hard ground estimates!
In the case of the 2016 Amatrice and Norcia earthquakes, yes, recorded PGA did overcome PSHA estimated PGA. Does it mean that the model did underestimate?

It must first be considered that estimated PGA comes with some % probability of being exceeded in xx years (the most common figures being 10% and 50 years). Moreover, the comparison should be made (if really needed) on the whole design spectrum, not on PGA which is not used for building design; but such comparisons are not recommendable (4). Finally,  the main point is that the PSHA model is a model; it offers various elaborations related to different probabilities of exceedance in different time-intervals. For example, some peak values recorded in 2016 are slightly higher than those related to the 2% probability of exceeding in 50 years, but are lower than those related to the 1% probability of exceeding in the same interval.

So the matter comes back to the main point: do we need to design against the maximum expected shaking (and how to assess it?), or to a shaking with a lower probability of exceedance with respect to the adopted one which, by the way, is adopted in many countries of the world?

This is not a seismological – nor a SHA – problem. SHA models offer a variety of possible solutions and then someone decides. It is a political decision which, usually, is in fact taken by engineers (cost-benefits analysis); unfortunately, this often happens without or with little explanation. We know for instance that source of the “475 return period” is close to casual, but it seems to represent a “satisfactory” compromise. Would be nice if it was explained better, however, so to allow that part of the public, which is not ready to follow scandal claims, to understand by itself.

Are the detractors of the PSHA model and the building code able to provide one example, only one, of a building, designed according the NTC08 without executions mistakes, which collapsed because the design spectra values were overcome by the recorded ones? It would be a good, practical case history, instead of a theoretical clash. This question was already asked for, without getting an answer.
And, even more important: why to give the wrong idea to the public that, as soon as design spectra are exceeded, buildings collapse?

The article, and the scientists behind, quotes the reconstruction of Norcia after the 1979 earthquake and the San Benedetto Basilica (which did stood it); both have little to do with NTC08 and related design spectra. The worst, however, comes with the reference to the collapse of the school in San Giuliano di Puglia (2002), “renovated according to inadequate criteria”. Shame on you, who mix this event with your crusade against PSHA and NTC08! That school was restored in the absence – at that time – of the building code (responsibility of the Ministries which delayed the expansion of the building code to all Italy with all their power), and according to a questionable design.

Seismic hazard models do not kill; buildings do, with the help of fake news!

Scuole e sicurezza sismica (colloquio con Edoardo Cosenza)

Il problema della sicurezza sismica delle scuole è molto grande, in Italia come in altri paesi. Periodicamente si leggono sui media rapporti più o meno generali, ma sempre abbastanza negativi, sullo stato delle scuole in Italia. A volte il problema finisce davanti al giudice, nelle cui sentenze si discetta di “indice di sicurezza”, di probabilità di accadimento di terremoti e anche della loro prevedibilità.
Per cercare di fare il punto sulla questione, a beneficio dei non-ingegneri, abbiamo rivolto alcune domande a Edoardo Cosenza, professore di Tecnica delle Costruzioni nell’Università di Napoli Federico II, membro di numerosi Comitati che operano per la definizione delle normative e che è stato anche Assessore ai Lavori Pubblici della Regione Campania (https://www.docenti.unina.it/webdocenti-be/allegati/contenuti/1440218).
Da qualche tempo è molto attivo sui “social”, dove contribuisce egregiamente alla spiegazione degli aspetti ingegneristici ai non informati.
(Nota: le domande sono state formulate con la collaborazione di Carlo Fontana).

Il problema della sicurezza sismica delle scuole è molto sentito in Italia, forse anche a seguito del crollo della scuola di San Giuliano di Puglia nel quale, nel 2002, morirono 26 fra studenti e insegnanti. La situazione è davvero grave, nel suo complesso? Quali sono le ragioni?

La situazione delle scuole non è diversa da quella di tutti gli edifici pubblici o anche degli edifici privati. Risentono di classificazioni sismiche del passato molto parziali, direi che solo dopo l’inizio degli anni ’80 si è avuta una seria classificazione della pericolosità, e pertanto tutto ciò che è stato costruito prima (e quindi una enorme percentuale delle costruzioni) non è stata progettata con criteri sismici. Alcuni investimenti per aumentare la sicurezza delle scuole sono nel frattempo stati fatti, a partire soprattutto dal 2003, ed altro ancora assolutamente va fatto. Ma francamente credo che le scuole siano mediamente più sicure degli edifici privati e spesso ho assistito a chiusure di scuole con genitori che molto probabilmente hanno portato i figli a casa propria, in edifici paradossalmente meno sicuri della scuola stessa.

E’ solo un problema di classificazione delle zone sismiche o anche di normativa tecnica?

Certamente anche di normativa tecnica. Va chiarito innanzitutto che la normativa tecnica riflette sempre le conoscenze del tempo: ad esempio  le automobili degli anni ’60 erano molto meno sicure di quelle di oggi, perché non c’erano sistemi elettrici di frenatura, non c’era l’air bag, le autovetture erano molto pesanti ecc; e ciò vale per qualsiasi disciplina dell’ingegneria: si pensi agli impianti elettrici, alla sicurezza antincendio ecc. In perfetta continuità anche il comportamento sismico delle costruzioni era meno conosciuto. Gli avanzamenti più importanti, in tutto il mondo, compresa California o Giappone, sono stati fatti solo dalla fine degli anni ’70. Dunque un parte del problema, cioè che le costruzioni realizzate nelle poche zone classificate sismiche in Italia prima degli anni ‘ 80 sono state progettate con criteri “d’epoca” oggi superati, è certamente vera e connessa alla minore conoscenza del tempo. A questo si aggiunge purtroppo la scarsa propensione del Paese a introdurre novità: in realtà solo dopo il terremoto di San Giuliano di Puglia, con l’Ordinanza d Protezione Civile del 2003, scritta fra tante polemiche da un gruppo di professori di ci facevo parte anche io, si è data una scossa – è il caso di dire –  al sistema normativo. Il quadro normativo di fatto si è assestato solo nel 2009, dopo il terremoto di L’Aquila: purtroppo ci sono dovute essere delle grandi tragedie per convincere la comunità ad accettare le variazioni, dopo lunghissime discussioni. Adesso possiamo certamente dire che l’Italia ha una delle normative tecniche più avanzate del mondo. Ciò non toglie che la conoscenza tecnica evolve ed evolve sempre, non parliamo di scienze assolute ammesso che esistano, e dunque anche la normativa sismica certamente subirà ulteriori variazioni, anche significative, in futuro.

Sempre nel 2003, l’Ordinanza PCM 3274 introdusse, per la prima volta, “l’obbligo di procedere a verifica, da effettuarsi a cura dei proprietari” delle opere strategiche, con finalità di protezione civile, e di particolare rilevanza, quali scuole, ospedali, ecc. (Art. 2, comma 3)”. Il termine ultimo, inizialmente stabilito in 5 anni dall’emissione dell’ordinanza, è stato più volte prorogato fino al 2013. Erano esentate dall’obbligo di verifica “le opere progettate secondo le norme vigenti successivamente al 1984”, sempreché la classificazione sismica all’epoca della costruzione fosse coerente con quella della 3274/2003 (Art. 2, comma 5); in altre parole, se costruite secondo la normativa sismica post 1984.
Veniva dunque richiesta una verifica, ma senza obbligo d’intervento, anche se era previsto l’obbligo di programmazione degli interventi stessi. Come mai?

La previsione dei lavori, come osservato, doveva essere introdotta nei piani annuali e triennali dei lavori, che sono un obbligo di tutte le Amministrazioni Pubbliche. In altri termini era obbligatoria la programmazione dei lavori su base pluriennale da parte dei proprietari delle Scuole (per quelle pubbliche: Comuni e Provincie). L’obbligo di intervento non potette essere inserito, perché si sarebbe dovuta anche indicare la fonte finanziaria che era difficile da quantificare e soprattutto molto difficile da trovare.

È disponibile un sommario dei risultati conseguiti? E come va intesa l’eventuale inadempienza all’ “obbligo” di legge di verifica e di programmazione degli interventi?

Purtroppo non dispongo di questi dati. Ritengo che a livello centrale debbano esistere, forse al MIUR o al DPC; oppure nelle strutture di missione di Pazzo Chigi come Italia Sicura o Casa Italia. Però non ne sono a conoscenza.

Saltando alcuni passaggi (NTC2008, Circolare applicativa del Ministero delle Infrastrutture n.617 del 2009, Direttiva PCM del 2011 sulla valutazione e riduzione del rischio sismico del patrimonio culturale, ecc.), le nuove Norme Tecniche (NTC2018) hanno introdotto alcune novità, fra cui la definizione del livello di sicurezza (indice di sicurezza) come rapporto fra capacità (azione sismica massima sopportabile dalla struttura) e l’azione sismica massima utilizzabile nel progetto di una struttura nuova in quella località. Ci puoi spiegare meglio che cosa c’è dietro questa definizione, e che cosa significa “sopportabile”?

Si è introdotto un semplice indice numerico, di immediato e comprensibile significato. Per “azione sismica massima sopportabile” si intende l’azione sismica che fa pervenire alla eguaglianza fra entità dell’azione sismica la Resistenza degli elementi strutturali più sollecitati.
L’indice è dunque un numero che risulta almeno pari a 1, in quanto in tal caso è certamente sopportabile l’azione sismica prevista dalla normativa, per una costruzione progettata con le nuove norme tecniche; quindi è da considerarsi “sicura”, nell’ambito della sicurezza convenzionale che noi tecnici valutiamo con i metodi normativi. Ed invece è molto frequente che sia inferiore all’unità, salvo particolarissimi casi di sovradimensionamento, per le costruzioni esistenti. Ci tengo a sottolineare che parliamo di sicurezza convenzionale, dovrei dire più precisamente “probabilistica”, in quanto oramai è anche comunemente accettato che il rischio zero non esiste; cioè purtroppo, stante la forte aleatorietà, è sempre possibile che ci siano azioni più elevate di quelle di progetto o resistenze minori di quelle di progetto; si cerca però di assicurare valori di rischio piccoli e uniformi per tutti i cittadini. Si potrebbe anche puntare ai massimi valori delle azioni sismiche che si deducono dagli studi di pericolosità sismica nazionale, ma ciò sarebbe, a parere mio e di molti altri ricercatori, contrario al principio di assicurare uno stesso rischio in tutto il paese e porterebbe a costi delle costruzioni talvolta inutilmente elevatissimi. In pratica nessun paese al mondo sceglie, almeno attualmente, questa soluzione normativa.

Le NTC2018 stabiliscono dunque che sia accettabile che l’indice possa essere inferiore a 1. Che cosa vuol dire in pratica? Viene spontaneo pensare che, se un edificio scolastico ha un indice molto inferiore a 1, debba essere considerato poco sicuro.

Il principio è che, per una costruzione esistente, essendo visibile e disponibile, si può constatare direttamente la geometria effettiva, i carichi permanenti realmente esistenti, la quantità e la resistenza dei materiali; inoltre ha già superato la fase iniziale della vita in cui si manifesta quello che in sintesi si chiama “mortalità infantile”. Invece in una costruzione da progettare i calcoli strutturali si fanno in modo virtuale, ovviamente senza che esista la costruzione stessa. Dunque il rischio di una costruzione solo progettata è più alto: si pensi ai grandi errori progettuali o realizzativi che poi possono avere conseguenze tragiche all’inizio della vita della costruzione; o anche carichi permanenti più grandi perché si sono aumentate le dimensioni in cantiere o si sono messi elementi non strutturali, pavimenti ed altro più pesanti di quelli di progetto. Dunque ciò porta ad affermare che se la costruzione già esiste e gli interventi che si progettano non comportano stravolgimenti della concezione strutturale, a parità di rischio (ovvero di sicurezza), si possono usare coefficienti più bassi, data la minore aleatorietà conseguente. E quindi, dal punto di vista meramente numerico, pervenire a un indice minore di 1 e dell’ordine di 0,8.
Certamente poi fa parte della civiltà di una nazione, nell’ambito di un problema così sensibile e grave come le scuole che raccolgono contemporaneamente centinaia di bambini, non consentire valori di tale indice troppo basso e cioè, in modo del tutto equivalente, probabilità di collasso troppo elevate.

Essendo l’indice un rapporto tra capacità e domanda, entrambe affette da incertezze, si sono diffuse varie “letture”, fra cui le seguenti:

1) “L’indice di sicurezza è un parametro da usarsi solo in relativo (per mettere in graduatoria di priorità gli interventi) non in assoluto, non rappresentando la vulnerabilità dell’edificio”.
2) “Non trattandosi un indice ‘certo’, non può certificare alcuno stato di rischio imminente, con tutto quello che ne consegue per l’utilizzabilità della struttura”.

Consideri corrette queste letture?

L’intera teoria della sicurezza, in qualunque branca dell’ingegneria, è caratterizzata da fenomeni aleatori: i terremoti sono certamente l’esempio più evidente. Anzi qualunque azione della nostra vita lo è. I nostri indici sintetizzano metodologie convenzionali e livelli di probabilità e di rischio accettati socialmente dai paesi più evoluti, di tutte le parti del mondo. Dire che possa esistere un indice “certo” è assolutamente fuori da qualsiasi realtà scientifica, non solo ingegneristica. Le verifiche che si fanno nelle costruzioni sono il meglio che la tecnica posso fare, ma mai e in nessun caso portano a previsioni deterministiche. D’altra parte le incertezze insite in qualsiasi problema di ingegneria sono trattate in modo scientifico, con le regole del calcolo della probabilità, ed è questo il massimo che si può fare. Chiedere che si facciano calcoli o si definiscano indici “certi” equivale a dire che si può fare una previsione metereologica “certa”: del tutto impossibile concettualmente.

Forse vale la pena chiarire al pubblico che nemmeno per un edificio (di qualsiasi genere) con indice = 1 si può affermare che non subirà alcun danno in caso di terremoto, giusto?

Assolutamente vero. C’è sempre una probabilità finita che l’azione sismica sia più grande di quella scelta dalle norme tecniche e dalla classificazione sismica e che le resistenze della costruzione siano minori di quelle considerate. In altri termini il rischio zero non esiste.

Esiste un inventario degli indici di sicurezza per le scuole italiane? Che tipo di operazioni è necessario compiere per determinarlo? Che tipo di cogenza hanno le NTC2018 in questo senso?

No, a mia conoscenza non esiste. Ritengo che il MIUR gradualmente lo stia costruendo. Per costruirlo e quindi per avere l’indice di sicurezza di ogni singola scuola, si devono fare rilievi e verifiche geometriche, prove sui materiali, esami dei progetti se esistenti e infine calcoli strutturali; tutto ciò a costi. La Norma Tecnica e la relativa Circolare indicano come fare le valutazioni/calcoli ingegneristici, ma un documento normativo non può porre obblighi di spesa pubblica. E ciò sia per il basso rango di norma (è un Decreto Interministeriale, ben al di sotto di un Decreto Presidenziale o di una Legge Parlamentare), sia perché l’obbligo implica spese e quindi reperimento di fondi.

La normativa non fissa un valore minimo dell’indice al di sotto del quale è necessario dismettere l’edificio ed eventualmente adeguarlo. Perché?

Non può indicarlo, è necessariamente delegato al proprietario. La norma indica “come” valutare”; non altro, per i motivi già citati in precedenza.

L’assenza di chiarezza relativamente al punto precedente ha fatto sì che si siano determinati dei contenziosi che hanno finito per essere risolti dalla magistratura, quali il caso di Roccastrada (Grosseto) con indice = 0.985 e Serramazzoni (Modena), con indice = 0.26, che – come altre volte – ha dovuto arrampicarsi su vetri per uscire dall’impasse. Ad esempio, nel caso di Serramazzoni la Cassazione ha interpretato, in sintonia con le NTC, l’incertezza insita nella determinazione del valore dell’indice come insufficiente per un obbligo di azioni immediate (“L’immobile pubblico in questione, pur astrattamente vulnerabile in caso di terremoto, è munito di agibilità …”). Si deve sottolineare l’espressione “astrattamente vulnerabile”, e il permanere della convinzione – molto diffusa soprattutto nel post-terremoto – che “agibile” significhi senza rischio…..
Che ne pensi?

Penso che il rapporto fra pensiero legale e pensiero ingegneristico (direi scientifico più in generale) è molto lontano dal convergere. Spesso in Magistratura si intendono come deterministiche realtà che invece sono probabilistiche. 0.985 è l’indice più alto che io abbia mai sentito, tanto che potrei addirittura dubitare del calcolo. Fra l’altro arrotondato a una sola cifra decimale, dopo la virgola, diventa 1,0 ed è certamente impossibile che il tecnico che ha fatto la valutazione abbia valutazioni cosi precise da potere affermare che le altre cifre decimali siano corrette. E poi mi chiedo: i magistrati conoscono l’indice di sicurezza dell’edificio in cui hanno scritto la sentenza? E le mamme conoscono l’indice di sicurezza della casa dove poi hanno riportato i bambini? E ancora una volta. Il rischio zero non esiste. Prima che questa intervista esca, potrei essere colpito da un fulmine o da una meteorite, qualcuno può escluderlo?

A oggi, dopo San Giuliano di Puglia (2002), ma anche dopo la Casa dello Studente di L’Aquila (2009), dopo la scuola di Amatrice (2016) e dopo la constatazione che occorre – caso per caso – una sentenza di un tribunale, la sensazione degli utenti è che l’attuale impianto normativo non offra certezze.
Evidentemente resta da fare molto, sia sul piano normativo che su quello operativo. Non va peraltro dimenticato che gli utenti spesso pretendono che le scuole abbiano un indice di sicurezza superiore a quello di molti degli edifici in cui abitano gli studenti, che vi trascorrono molto più tempo che a scuola.
Che prospettive di miglioramento ci sono, secondo te?

Nessuna norma di nessun settore, elettrico, automobilistico, trasportistico (auto, treni, auto) ecc. può garantire certezze. Le mie spiegazioni sulla questione le ho date. E sulla questione della sicurezza relativa della propria abitazione, della strada o della metropolitana che si prende per andare a scuole, dei bar e locali pubblici in cui si entra magari ogni giorno, è molto rilevante e lungi dall’essere risolta. Qualcuno conosce il rischio che si assume entrando in un certo museo, chiesa, cinema, ristorante, bar, albergo, stadio: certamente no. La sicurezza deve aumentare per qualsiasi luogo utilizzato da persone, sempre però nella certezza che il rischio può diminuire ma mai azzerarsi.

 

 

La vulnerabilità dimenticata (colloquio con Gianluca Valensise)

Gianluca Valensise, del Dipartimento Terremoti, INGV, Roma, è sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).  Ha dedicato oltre 30 anni della sua carriera a esplorare i rapporti tra tettonica attiva e sismicità storica, con l’obiettivo di fondere le osservazioni geologiche con l’evidenza disponibile sui grandi terremoti del passato. Di recente, con altri colleghi ha pubblicato un lavoro che propone una sorta di graduatoria di vulnerabilità dei comuni appenninici. Gli abbiamo chiesto di illustrarcelo.

Luca, tu sei un geologo del terremoto. Ti occupi di faglie attive, di sorgenti sismogenetiche, di terremoti del passato, di pericolosità sismica. Di recente ti sei avventurato, con altri colleghi, nel tema della vulnerabilità sismica del patrimonio edilizio italiano[1],[2]. Come mai questa scelta?

Premetto che io sono un ricercatore, ma mi sento anche un cittadino che si trova nella posizione di poter – e dover – fare qualcosa di immediatamente utile per il suo Paese. Ciò detto, credo che tutto sia nato dieci anni fa, con il terremoto dell’Aquila. Che l’estrema vulnerabilità del costruito fosse una delle cause degli esiti disastrosi di alcuni terremoti in effetti mi era apparso chiaro già da prima, se non altro per aver studiato gli effetti dei più forti terremoti italiani del ‘900; da quello del 1908 nello Stretto di Messina a quello dell’Irpinia del 1980, passando per la zona del Fucino, devastata dal terremoto del 1915.

Ma la storia in effetti inizia ancora prima, con il terremoto di San Giuliano di Puglia del 2002. Quel terremoto mostrò a tutti come nella difesa – o mancata difesa – dai terremoti si possono fare scelte così disastrose da vanificare sia la cultura materiale accumulata da chi abita nelle zone sismiche, sia l’avanzamento tecnologico in campo edilizio, che non riguarda solo le strutture in cemento armato ma anche quelle in muratura portante.

Il terremoto dell’Aquila del 2009 ha mostrato quasi un completo rovesciamento della situazione “normale”: se si escludono i beni culturali, per i quali valgono altre regole, il massimo numero di crolli e vittime si è registrato in edifici costruiti nel dopoguerra, mentre quelli di epoche precedenti – inclusi i palazzi settecenteschi della città storica – hanno risposto in modo complessivamente buono (questa differente performance include anche la scelta del sito, talora disastrosa nel caso di alcuni edifici recenti).

Sul caso dei terremoti del maggio 2012 in Emilia poi c’è poco da aggiungere. Il danno è stato dominato dai crolli nell’architettura ecclesiastica, probabilmente in buona misura inevitabili, e in quella industriale, che invece hanno rappresentato un fulmine a ciel sereno per tutti. Mi preme ricordare che i capannoni crollati erano stati costruiti senza considerare minimamente la possibilità di significative azioni sismiche laterali, che hanno quindi avuto buon gioco nel causare crolli apparentemente sproporzionati alla severità del terremoto stesso. Le norme precedenti non imponevano agli edifici di quella zona di cautelarsi contro i terremoti: cionondimeno, questo resta un dramma nel dramma, se si riflette sull’enorme sproporzione tra quanto poco sarebbe costato ridurre sostanzialmente la vulnerabilità di quei capannoni (a patto però che lo si fosse fatto in sede di costruzione), e il prezzo pagato da quelle comunità in termini di vite umane e di danni all’economia locale (e nazionale).
Infine, c’è il caso dei terremoti del 2016, che con l’ormai noto dualismo tra il centro storico di Amatrice, praticamente scomparso dalla carta geografica, e quello di Norcia, che seppure tra mille sofferenze ha avviato un percorso di rinascita, ha di fatto messo in moto la nostra ricerca.

La tesi di fondo che sostenete è che – forse semplifico io – la vulnerabilità sismica degli insediamenti aumenta con la distanza temporale dall’ultimo terremoto distruttivo. In un certo senso, sostenete, dopo un terremoto distruttivo si procede a riparazioni e ricostruzioni che diminuiscono la vulnerabilità complessiva; in seguito la memoria dell’evento sfuma e la vulnerabilità aumenta. E’ così?

La tesi in estrema sintesi è quella che hai tratteggiato, ma vanno fatte due premesse. La prima riguarda i dati utilizzati: per poter contare su dati omogenei e di buona qualità abbiamo scelto di analizzare solo l’Italia peninsulare, e in particolare la catena appenninica. La seconda ha invece carattere metodologico: nel nostro lavoro infatti si incontrano il dato storico, sotto forma di storia sismica di ogni singolo comune, e il dato geologico, che nell’ambito di un territorio vasto ci consente di isolare quei comuni che si trovano direttamente al di sopra delle grandi sorgenti sismogenetiche, e nelle quali quindi prima o poi ci si aspetta di raggiungere livelli di scuotimento elevati (si veda l’immagine qui sotto, cliccare per ingrandire). Si noti che i dati storici consentirebbero in molti casi di scendere anche al di sotto della scala comunale, ma per omogeneità di rappresentazione e per potersi rapportare con i dati ISTAT abbiamo deciso di riportare tutto al singolo comune.

Sorgenti sismogeniche composite (Composite Seismogenic Sources) tratte dal database DISS (DISS Working Group, 2018: http://diss.rm.ingv.it/diss/) e i più forti terremoti (Mw 5.8 e superiore) del catalogo CFTI5Med (Catalogo dei Forti Terremoti in Italia, GUIDOBONI et alii., 2018). Ogni sorgente rappresenta la proiezione in superficie della presumibile estensione della faglia a profondità sismogenica. Le sorgenti in giallo delineano il sistema di grande faglie estensionali che corrono lungo la cresta dell’Appennino e che sono state utilizzate per questa ricerca. Ogni sorgente è circondata da un buffer di 5 Km il cui ruolo è quello di tenere conto delle incertezze insite nella sua localizzazione esatta, e quindi della sua esatta distanza rispetto ai centri abitati che la sovrastano o la circondano (da Valensise et al., 2017: si veda la Nota 1).

È a partire dai comuni così selezionati  – 716 per l’intera Italia del centro-sud, dalla Toscana alla Calabria  – che abbiamo poi stimato l’attitudine di ogni comunità a sottovalutare il livello di pericolosità locale, e quindi ad abbassare fatalmente la guardia sul tema della vulnerabilità del costruito. Sarebbe stato inutile ragionare su tutti i comuni, inclusi quelli che sorgono distanti dalle grandi sorgenti sismogenetiche, perché una cosa è un edificio fatiscente in una zona scarsamente sismica, come è quasi tutto il versante tirrenico dell’Appennino, altro è se quello stesso edificio si trova ad Amatrice. Noi volevamo elaborare un “ranking” della vulnerabilità dimenticata dai cittadini e dai loro amministratori, e abbiamo messo in campo le migliori conoscenze geologiche, geodinamiche e storiche oggi disponibili – un patrimonio quasi unico al mondo – per raggiungere questo obiettivo. Un’ultima osservazione: i dati di ingresso sono congelati al pre-2016, quindi la graduatoria non tiene conto degli ultimi terremoti dell’Appennino centrale.

In questo modo avete stilato una sorta di graduatoria di vulnerabilità sismica degli insediamenti appenninici, basata sostanzialmente sulla distanza temporale dall’ultimo evento distruttivo. Ci puoi illustrare un poco questa graduatoria?

Abbiamo ordinato le nostre 716 località(si veda l’immagine qui sotto, cliccare per ingrandire)  in funzione della distanza nel tempo dall’ultimo scuotimento di VIII grado della scala MCS (Mercalli-Cancani-Sieberg): un livello di intensità che a nostro avviso fa da spartiacque tra la semplice riparazione di edifici vetusti e la necessità di demolirli e ricostruirli ex-novo, con una presumibile drastica riduzione della vulnerabilità.

Figure 2 Mappa ranking_200

Distribuzione dei 716 capoluoghi dei comuni (rappresentativi delle intere aree comunali) selezionati con la procedura descritta nel testo (da Valensise et al., 2017). Le aree bordate in giallo rappresentano la proiezione in superficie delle grandi sorgenti sismogeniche che corrono in cima all’Appennino (si veda anche la Figura 4). Sono mostrati:

• in viola: 38 comuni per i quali la storia riporta solo notizie di danni lievi;
in rosso: 315 comuni che nella nostra graduatoria corrispondono alle aree comunali che non hanno subito terremoti distruttivi dal 1861 (Unità d’Italia);
• in nero: 363 comuni ordinati secondo la distanza nel tempo dall’ultimo terremoto distruttivo, avvenuto dopo il 1861.

Il riferimento al 1861 è puramente convenzionale. L’anno 1861 rappresenta uno spartiacque storico imprescindibile anche per i terremoti, con effetti variabili caso per caso (si pensi solo alle efficaci norme antisismiche borboniche, abrogate con l’Unità d’Italia).

Le prime 38 località sono quelle che non hanno mai vissuto uno scuotimento del livello fissato: seguono quelle in cui quel livello è stato raggiunto o superato molti secoli fa, mentre in fondo troviamo le località che hanno subito i terremoti più recenti, e quindi sono state presumibilmente ricostruite con sistemi antisismici. Le nostre elaborazioni sono facilmente accessibili a chiunque attraverso un sito dedicato, che mostra la nostra graduatoria sia in forma tabellare che in mappa, e consente di esplorare la storia sismica di ciascun comune[3]. Gli unici altri parametri che mostriamo, senza per il momento utilizzarli, sono la popolazione residente e la percentuale di edifici ante-1918, entrambi da dati ISTAT. Per illustrare le implicazioni del nostro studio farò degli esempi tratti dalla graduatoria stessa.

Un caso eclatante è quello della media Valle del Serchio, con diverse località nella parte altissima della classifica, quella dei comuni che non hanno mai sperimentato un VIII grado nella storia: procedendo da NW verso SE si incontrano Gallicano (193°), Coreglia Antelminelli (192°), Borgo a Mozzano (31°), a Bagni di Lucca (32°), tutti centri tra i 4.000 e i 6.000 abitanti circa. Si salva solo Barga (595°), l’ameno borgo montano celebrato da Giovanni Pascoli, che è poi il centro principale della valle. Si nota facilmente che la posizione in graduatoria sale – dunque peggiora – muovendosi verso SE, ovvero allontanandosi dalla sorgente del terremoto del 1920 in Garfagnana, ovvero nell’alta Valle del Serchio. Non vi è dubbio che le due porzioni della valle siano simili, ma i dati sismotettonici suggeriscono che mentre la parte settentrionale ha subito il “suo” grande terremoto meno di un secolo fa, la faglia che si trova sotto la parte meridionale è storicamente silente. Secondo il CFTI5Med, nel 1920 Barga subì un VIII grado, e il terremoto “…danneggiò il 75% degli edifici, abitati per lo più da popolazione povera, causando il crollo totale di molte case…”. Sarà sufficiente questa ricostruzione a salvare Barga dal prossimo forte terremoto della Valle del Serchio? Le cose andranno probabilmente meglio che nei comuni più a valle, anche perché, se è vero che secondo l’ISTAT il 37% del patrimonio abitativo di Barga è pre-1918, ovvero ha oltre un secolo, questa quota di edificato è verosimilmente costituita da case che hanno resistito al terremoto del 1920: o perché costruite meglio, o perché costruite dove la risposta sismica è stata meno severa della media, o per una combinazione di queste due circostanze.

Un altro esempio che vorrei portare riguarda il confine calabro-lucano, tra le provincie di Potenza e Cosenza. Si tratta di un caso simile al precedente, ma decisamente più conclamato. Siamo infatti in uno dei pochi settori della catena appenninica che non hanno mai subito un forte terremoto in epoca storica, anche se la completezza del record sismico della zona non supera qualche secolo (con Emanuela Guidoboni nel 2000 scrivemmo un piccolo contributo proprio su questo tema[4]). L’area era stata già individuata come una possibile “lacuna sismica” dal sismologo giapponese Fusakichi Omori all’indomani di uno studio da lui condotto sui grandi terremoti dell’Italia peninsulare. Nella zona in questione ricadono Mormanno (CS, 29°), Rotonda (PZ, 30°), mai colpite da un forte terremoto, ma anche Viggianello (PZ, 178°), colpita da un VIII-IX grado nel terremoto del 26 gennaio 1708 – che sempre secondo il CFTI5Med “…danneggiò molto gravemente l’abitato causando estese distruzioni e numerose vittime…”. Il 25 ottobre del 2012 questa zona è stata colpita da un terremoto con Mw 5.3, che ha testato la solidità degli edifici ma soprattutto ha messo in moto un circolo virtuoso di riduzione della vulnerabilità dell’edificato: una circostanza molto locale, legata al verificarsi di un terremoto non distruttivo ma sufficiente a innescare una solida reazione delle istituzioni, e che potrebbe rappresentare una gradita eccezione a quanto previsto dal nostro ranking. Sicuramente però la lista delle località nelle quali la “memoria sismica” è stata ben coltivata include molti altri centri, soprattutto in Italia centrale e meridionale: ma dell’efficacia di questi comportamenti virtuosi riceveremo conferma solo dai terremoti prossimi venturi.

Il caso di Norcia sembra del tutto particolare. Il celebre regolamento edilizio dello Stato Pontificio (1859) sembra aver contribuito da allora a limitare i danni, anche nel caso nel terremoto del 1979. Viceversa, per motivi imperscrutabili, Norcia venne inserita in zona sismica solo nel 1962. Nel 2016 ebbe più danni fuori le mura che all’interno. Hai un’opinione?

Norcia è al 676° posto della nostra graduatoria, principalmente in virtù del terremoto del 1979, ma in precedenza aveva già subito effetti di VIII o superiore nel 1730, 1859 e 1879. Il caso di Norcia in effetti è decisamente unico. La “fortuna” di Norcia nei confronti dei terremoti – se mi si concede il termine, forse poco appropriato se solo pensiamo a quello che sta succedendo in questi mesi in città[5]  – passa soprattutto per due terremoti-simbolo, quelli del 1859 e del 1979, entrambi con magnitudo intorno a 5.8, e per un terremoto-richiamo, quello del 1997. Mi spiego meglio. A seguito del terremoto del 1859 il prelato Arcangelo Secchi e l’architetto Luigi Poletti furono i protagonisti di un’analisi molto accurata di ciò che era successo, accompagnata da raccomandazioni sulla ricostruzione raccolte nel famoso “Regolamento edilizio” approvato tra la fine del 1859 e la primavera del 1860. Fu così che il terremoto del 1979 trovò un patrimonio edilizio mediamente più robusto di quello delle località circostanti, anche se forse si era già in parte persa la lezione impartita dal terremoto di 120 anni prima. Dopo il 1979 Norcia fu comunque ricostruita con grande impegno, sia dei residenti che delle istituzioni. Il terremoto del 1997, il cui epicentro era tutto sommato abbastanza lontano da Norcia, fu l’occasione per un “richiamo” di quanto fatto dopo il 1979, come si fa con i vaccini. I nursini quindi – e lo dico con cognizione di causa poiché lì sono nati e cresciuti dei miei cugini materni – hanno il terremoto nel DNA.

Credo che il famoso Regolamento edilizio di Secchi e Poletti abbia giocato un ruolo determinante; un esempio per tutti, quello della Torre Civica, uscita miracolosamente quasi indenne dal terremoto del 30 ottobre 2016. Norcia dimostra che il peso della storia nella cultura locale può essere tale da compensare gli eventuali ritardi nell’introduzione e nell’applicazione di norme antisismiche. A Norcia la cultura locale non ha aspettato le norme moderne ma le ha precorse, anche grazie a Secchi e Poletti. Ricordiamo peraltro che da sempre in Italia le norme incidono solo sugli edifici nuovi e su quelli ristrutturati in maniera significativa, ma non impongono nulla sull’esistente: questo a mio avviso è uno dei grandi nodi irrisolti, nonché una fonte di equivoci e di aspettative mal riposte. Se vogliamo, il caso che citi – quello di un maggior danneggiamento al di fuori della cerchia muraria di Norcia rispetto al centro storico s.s. – è una paradossale conferma proprio del ruolo della “memoria storica” nel mitigare gli effetti dei terremoti. Anche qui al posto mio dovrebbe parlare un ingegnere, ma tenterò di azzardare delle ipotesi, in parte peraltro scontate.

Intanto va detto che il valore della “memoria storica” di Norcia e dei nursini vale principalmente per la “componente storica” dell’edificato. Una affermazione che sembra tautologica, ma in effetti a che storia sismica può far riferimento un condominio costruito negli anni ’80, diversissimo dallo stile costruttivo del centro della città, ma semmai simile a quello che si vede in tante periferie urbane d’Italia? Lo stile costruttivo è anche alla base della mia seconda ipotesi, che parte dall’evidenza che un edificio in muratura portante può difendersi anche molto bene dai terremoti, a patto però che sia ben costruito/ristrutturato, secondo le più efficaci pratiche in uso nelle diverse epoche. Ricordo che quello del 30 ottobre è stato un terremoto di magnitudo 6.5 localizzato proprio sotto al centro di Norcia: le accelerazioni osservate sono state molto significative, al punto da rendere veramente straordinaria la performance degli edifici in muratura. Nei condomini sorti all’esterno della cerchia muraria, invece – ma lo ripeto, si tratta dell’opinione di un geologo – ancora una volta si è visto che nei normali edifici in cemento armato la performance della struttura portante può essere anche molto diversa da quella delle tamponature e delle strutture accessorie. Questo significa che l’edificio difficilmente crolla, a meno di marchiani errori di progettazione, ma anche che i danni non strutturali possono risultare così onerosi da rendere conveniente demolire e ricostruire: un paradosso sul quale ritengo siano intervenute efficacemente le nuove Norme Tecniche per le Costruzioni, quantomeno per il futuro.

Avete avuto modo di discutere questo studio con qualche ingegnere sismico, o avete ricevuto qualche reazione da parte di quell’ambiente? Come ritenete che i vostri risultati possano essere utilizzati, e soprattutto da chi?

Abbiamo ricevuto parole di plauso e incoraggiamento sia da vari ingegneri a cui abbiamo sottoposto la prima versione del manoscritto, sia dal pubblico al quale abbiamo presentato lo studio nei consessi più disparati. Ma ci si ferma lì, perché altre reazioni – e mi riferisco soprattutto a quelle delle istituzioni – non ce ne sono state, almeno per ora. Abbiamo anche tentato di stabilire un rapporto con i vertici della Struttura di Missione Casa Italia, quando ancora era diretta dal Prof. Azzone, ma non c’è stata alcuna reazione. Evidentemente Casa Italia non condivide con noi la necessità di fissare presto dei criteri di priorità per gli interventi di mitigazione del rischio: interventi che comunque non sta attuando, se non nei dieci cantieri-simbolo che verranno aperti in altrettante città-simbolo.
Noi riteniamo che oggi la mitigazione dei terremoti debba coniugare degli ottimi presupposti scientifici –  e in Italia riteniamo di aver sia un ricco patrimonio di dati sulla sismicità, sia un ottimo expertise per utilizzarli al meglio – con un sano realismo per quel che riguarda come e dove investire le eventuali risorse che si rendessero disponibili per il miglioramento sismico. Riteniamo anche che il Sisma Bonus potrebbe essere uno strumento utile, ma solo a patto di rivedere drasticamente i criteri di assegnazione dei benefici offerti (oltre a renderlo più “allettante”, rivedendo i meccanismi di erogazione: ma su questo lascio la parola agli esperti di cose finanziarie). In particolare va assolutamente stilata una graduatoria di priorità tra i diversi comuni e i diversi aggregati di edifici, scegliendoli in base alla loro vulnerabilità presumibile – sulla base di ipotesi come quelle da noi formulate – o reale – sulla base di rilievi puntuali, ancorché speditivi.
Per avviare armonicamente questo processo è necessaria una solida cabina di regia, che a mio avviso dovrebbe includere ricercatori, rappresentanti degli ordini professionali coinvolti, funzionari dell’ISTAT, oltre a rappresentanze istituzionali di varia provenienza (DPC, MiSE, ANCI ecc.). Per oltre due anni ho pensato e sperato che questa cabina di regia potesse coincidere con le strutture di Casa Italia, ma oggi mi è chiaro che sbagliavo.

Infine – last but not least, come si direbbe nel mondo anglosassone – è necessario varare un approccio pluriennale alla mitigazione del rischio sismico, che almeno su un tema così importante abbatta l’endemica visione “a cinque anni” (quando va bene) che da sempre caratterizza i governi del Belpaese. Ma la capacità di pianificare efficacemente il futuro non rientra tra le tradizionali virtù italiche, e dunque su questo versante temo non si andrà molto lontano.
Come ricercatore so distinguere bene ciò che ha senso da ciò che potrebbe essere scritto solo in un libro dei sogni. Tuttavia – e con questo chiudo il cerchio da te aperto con la prima domanda – mi piacerebbe dedicare i prossimi anni di attività a battermi perché ci sia un cambio di rotta su come oggi si affrontano questi temi in Italia. Lo ritengo un dovere morale della mia generazione di sismologi, figlia delle immense – e certamente evitabili – catastrofi del Friuli e dell’Irpinia, e della successiva nascita di una Protezione Civile moderna ed efficace.


[1]  https://www.sciencedirect.com/science/article/pii/S2212420917302376?via%3Dihub(solo abstract: per scaricare l’articolo è necessario un abbonamento alla rivista)

[2] http://www.cngeologi.it/wp-content/uploads/2018/08/GTA01_2018_web.pdf (liberamente scaricabile)

[3] http://storing.ingv.it/cfti/cftilab/forgotten_vulnerability/#

[4] https://www.annalsofgeophysics.eu/index.php/annals/article/view/3672. L’articolo è liberamente accessibile.

[5] http://www.ansa.it/umbria/notizie/2019/04/19/continua-protesta-comitato-norcia_584b1669-91d1-4654-9563-504bdc31f3ba.html

The forgotten vulnerability (interview with Gianluca Valensise)


Gianluca Valensise, of the Earthquake Department of INGV, Rome, is a seismologist with a geological background, an INGV research manager, and the author of numerous studies on active faults in Italy and other countries. In particular he is the “founder” of Italy’s Database of Individual Seismogenic Sources (DISS, http://diss.rm.ingv.it/diss/). He has spent over 30 years of his career exploring the relationships between active tectonics and historical seismicity, with the goal of merging geological observations with the available evidence on the largest earthquakes of the past.
Recently, with other colleagues, he published a work that proposes a sort of vulnerability ranking of Apennines municipalities. We discuss it below.

Luca, you are an earthquake geologist. You deal with active faults, seismogenic sources, past earthquakes, seismic hazard. Recently, with other colleagues, you have ventured into the theme of seismic vulnerability of the Italian building heritage. How come this choice?

First of all let me recall that I am a researcher, but also a citizen who is in a position to be able – and having to – to do something immediately useful for his own country.
That said, I believe that it all started ten years ago, following the 2009 L’Aquila earthquake. That the extreme vulnerability of the built-up area was one of the causes of the disastrous results of some earthquakes had already become clear to me from before, if only for having studied the effects of the strongest Italian earthquakes of the ‘900; from that of 1908 in the Strait of Messina to that of Irpinia in 1980, passing through the area of Fucino, devastated by the earthquake of 1915.

But the story actually begins even earlier, with the earthquake of San Giuliano di Puglia in 2002. That earthquake showed everyone that some of the choices made in the defense – or lack of defense – from earthquakes can be so disastrous as to frustrate both the material culture accumulated by those who live in the seismic zones, both the technological advancements in the construction industry: these advancements concern not only reinforced concrete structures, but also those built with load-bearing masonry.
The 2009 L’Aquila earthquake showed almost a complete reversal of the “normal” situation: excluding cultural assets, for which other rules apply, the maximum number of collapses and victims was recorded in post-WWII buildings, while those of previous eras – including the eighteenth-century buildings of the historic city – overall responded quite satisfactorily (this different performance also includes the choice of the site, sometimes disastrous in the case of some recent buildings).

There is little to add on the case of the May 2012 earthquakes in Emilia. The damage was dominated by the collapses in ecclesiastical architecture – to a large extent inevitable – and in the industrial one, which instead represented a bolt from the blue for everyone. I would like to remind you that the collapsed warehouses had been built without considering the possibility of significant lateral seismic actions, which have therefore played a major role in causing collapses that are apparently disproportionate to the severity of the earthquake itself. The previous antiseismic code did not require buildings in that area to be earthquake-proof: nevertheless, this remains a tragedy in the tragedy, if we reflect on the enormous disproportion between how little it would have costed to substantially reduce the vulnerability of those industrial premises (provided, however, that the reinforcements had been planned ahead of construction), and the price paid by those communities in terms of human lives and damage to the local (and national) economy.
Finally, there is the case of the 2016, Central Italy earthquakes, and of the dualism between the historical center of Amatrice, that practically disappeared from the map, and that of Norcia, that has entered a path of rebirth, although this path is fraught with many difficulties. This dualism has spurred our research (1, 2).

The basic thesis that you support is that – perhaps I simplify – the seismic vulnerability of settlements increases with the temporal distance from the last destructive earthquake. In a sense, you argue, after a destructive earthquake, repairs and reconstructions are carried out which reduce the overall vulnerability; then the memory of the event fades out and the vulnerability increases. Is this so?

The thesis in extreme synthesis is the one you have outlined, but I must make two premises. The first concerns the data used: in order to rely on homogeneous and good quality data, we have chosen to analyze only peninsular Italy, and in particular the Apennines chain. The second one has instead a methodological character: in our work we use jointly the historical observations, in the form of the seismic history of each single municipality, and the geological observations, which within a vast territory allow us to isolate those municipalities that are directly located above the great seismogenic sources. As such these municipalities will experience strong ground shaking, sooner or later (see the image below). It should be noted that the historical data would in many cases allow to go even below the municipal scale, but in order to grant a homogeneous representation and to be able to relate to the ISTAT data we have decided to bring everything back to the single municipality.

Figure 1 CFTI-DISS_200

Composite Seismogenic Sources taken from the DISS database (DISS Working Group, 2018: http://diss.rm.ingv.it/diss/) and the strongest earthquakes (Mw 5.8 and larger) in the CFTI5Med catalog (Catalog of Strong Earthquakes in Italy, Guidoboni et al., 2018). Each source represents the surface projection of the fault at seismogenic depth. The sources in yellow outline the system of large extensional faults running along the crest of the Apennines and have been used for this research. Each source is surrounded by a 5 km buffer whose role is to take into account the uncertainties inherent in its exact location, and therefore its exact distance from the inhabited centers that surround it or lie above it (from Valensise et al., 2017: see Note 1).

It is from the municipalities so selected (see the figure above) – 716 for the whole of central and southern Italy, from Tuscany to Calabria – that we then ranked the attitude of each community to underestimate the level of local danger, and therefore to fatally lower the guard on the issue of building vulnerability. It would have been useless to consider all municipalities, including those that lie far from the large seismogenic sources, because one thing is a dilapidated building in a scarcely seismic area, such as most of the Tyrrhenian side of the Apennines, another is if that same building is located in Amatrice. We wanted to elaborate a “ranking” of the vulnerability forgotten by citizens and their administrators, and we have put in place the best geological, geodynamic and historical knowledge available today – an almost unique heritage in the world – to achieve this goal. One last observation: the data we used are frozen at pre-2016, so our ranking does not take into account the latest earthquakes in the central Apennines.

In this way you have drawn up a sort of seismic vulnerability ranking of the Apennine settlements, based essentially on the temporal distance from the last destructive event. Can you illustrate this ranking a little?

We have ordered our 716 locations (see figure below) as a function of distance over time since the last VIII intensity shaking (Mercalli-Cancani-Sieberg or MCS scale:): a level of intensity that we believe marks a boundary between the simple repair of old buildings and the need to demolish and rebuild them from scratch, with a presumably drastic reduction in vulnerability.

Figure 2 Mappa ranking_200

Distribution of the 716 municipalities (representative of the entire municipal areas) selected with the procedure described in the text (from Valensise et al., 2017). The areas outlined in yellow represent the surface projection of the large seismogenic sources that run along the crest of the Apennines. The map shows:
– in purple: 38 municipalities for which historical sources report only minor damage;
– in red: 315 municipalities that in our ranking correspond to the municipal areas that have not suffered destructive earthquakes since 1861 (the year of unification of Italy);
– in black: 363 municipalities ordered according to the distance in time from the latest destructive earthquake, which occurred after 1861.
The reference to 1861 is purely conventional. The year 1861 represents a historical watershed that is also essential for earthquakes, with variable effects on a case-by-case basis (just think of the very effective Bourbon seismic regulations, that were abolished following the Unity of Italy).

The first 38 localities are those that have never experienced a shaking of the set level: following are those where that level was reached or exceeded many centuries ago, while in the end we find the places that have suffered for the most recent earthquakes, and therefore have been presumably reconstructed with anti-seismic systems.
Our elaborations are easily accessible to anyone through a dedicated website, which shows our ranking both in table and on map, and allows to explore the seismic history of each municipality (3). The only other parameters we show, without using them for the moment, are the resident population and the percentage of pre-1918 buildings, both from ISTAT data.

To illustrate the implications of our study I will give examples taken from the ranking itself. A striking case is that of the Mid-Serchio Valley, with several localities in the highest part of the ranking, that collects the municipalities that have never experienced a VIII degree in history: going from NW to SE we find Gallicano (193°), Coreglia Antelminelli (192 °), Borgo a Mozzano (31°), at Bagni di Lucca (32 °), all centers around 4,000 to 6,000 inhabitants, all in the province of Lucca. Only Barga , the pleasant mountain village celebrated by Giovanni Pascoli that is also the main center of the area, is presumably safe (595°).

It is easy to see that the position in the ranking goes up – thus worsening – moving towards the SE, i.e. moving away from the source of the 1920 earthquake in Garfagnana, also known as upper Serchio Valley. There is no doubt that the two portions of the valley are similar, but the seismotectonic data suggests that while the northern part suffered its “great” earthquake less than a century ago, the fault beneath the southern part is historically silent. According to the CFTI5Med catalogue, in 1920 Barga suffered a VIII degree, and the earthquake “… damaged 75% of the buildings, mostly inhabited by a poor population, causing the total collapse of many houses …”. Will this reconstruction suffice to save Barga from the next strong earthquake in the Serchio Valley? Things will probably be better than in the most downstream municipalities, also because, if it is true that according to ISTAT, 37% of Barga’s housing stock is pre-1918, i.e. more than a century old, this share of buildings is probably made up of houses that resisted the 1920 earthquake: either because they were built better, or because they were built where the seismic response was less severe than the average, or because of a combination of these two circumstances.

Another example I would like to take concerns the Calabrian-Lucanian border, between the provinces of Potenza and Cosenza in southern Italy. The case is similar to the previous one, but definitely more evident. We are in fact in one of the few portions of the Apennines chain that have never suffered a strong earthquake in historical times, even if the completeness of the seismic record of the area does not exceed a few centuries (with Emanuela Guidoboni in 2000 we wrote a small contribution precisely on this theme: see Note 4). The area had already been identified as a possible “seismic gap” by Japanese seismologist Fusakichi Omori within a study he conducted on the largest earthquakes of the Italian peninsula. In the area in question lie Mormanno (Cosenza, 29°) and Rotonda (Potenza, 30 °), never affected by a strong earthquake, but also Viggianello (Potenza, 178°), hit by a VIII-IX degree in the earthquake of January 26 1708 – which according to the CFTI5Med catalogue “… seriously damaged the village causing extensive destruction and numerous victims …”. On 25 October 2012 this area was hit by an earthquake with Mw 5.3, which tested the solidity of the buildings but above all it spurred a vast effort for the reduction of building vulnerability: a very local circumstance, linked to the occurrence of an earthquake that is not destructive but sufficient to trigger a solid reaction from the institutions, and that could be a welcome exception to what would be expected based on our ranking.

The list of locations where the “seismic memory” has been well cultivated certainly includes many other centers, especially in central and southern Italy: but the effectiveness of these virtuous behaviors will receive confirmation only from the forthcoming earthquakes.

The case of Norcia seems quite special. The famous building regulations enforced by the Papal State (1859) seem to have contributed since then to limit the damage, even in the case of the 1979 earthquake. Viceversa, for mysterious reasons Norcia was included in the seismic code only in 1962. In 2016 it suffered more damage outside the walls than inside. Do you have an opinion on this?

Norcia is ranked 676° place in our classification, mainly by virtue of the 1979 earthquake, but had previously suffered intensity VIII or larger effects in 1730, 1859 and 1879.
The case of Norcia is indeed quite unique. The “fortune” of Norcia towards earthquakes – if the term is granted to me, being perhaps inappropriate in view of what has happened in the city over the past few months (5) – is largely due to two symbolic earthquakes, those of 1859 and 1979, both with a magnitude of around 5.8, and to a sort of wake-up earthquake, that of 1997. Let me explain it better.

Following the 1859 earthquake the prelate Arcangelo Secchi and the architect Luigi Poletti prepared a very accurate analysis of what had happened, accompanied by recommendations on the reconstruction collected in the famous “Building Regulations” approved between the end of 1859 and the spring of 1860. It for this reason that the 1979 earthquake found a building patrimony that on average was substantially more hard-wearing than that of the surrounding towns, although the lesson imparted by the earthquake of 120 years before had perhaps already been partly lost. After 1979 Norcia was rebuilt with a great commitment, both by residents and institutions. The 1997earthquake, whose epicenter was quite far from Norcia, was the occasion for a “recall” of what had been done after 1979, as it is done with vaccines. The nursini – the people of Norcia – have the earthquake in their DNA: and I state this with full knowledge of the facts because some of my maternal cousins were born and raised there.

I believe that Secchi and Poletti’s famous Building Regulations did play a major role; an example for all, that of the Civic Tower, which miraculously survived the 30 October 2016 earthquake. Norcia demonstrates that the lesson taught by history to the local culture may compensate for any delays in the introduction and implementation of anti-seismic codes. In Norcia the local culture has not waited for modern codes but has anticipated them, also thanks to Secchi and Poletti. We should also remember that in Italy the codes have always only affected only new buildings and those that have been significantly restored; nothing is imposed to the owners of existing buildings. In my opinion this is one of the great unresolved issues, perhaps the greatest, as well as a source of misunderstandings and ill-fated expectations.

If we want, the case you mention – that of greater damage outside the walls of Norcia compared to the historic center s.s. – is a paradoxical confirmation of the role of “historical memory” in mitigating the effects of earthquakes. Here, too, an engineer should speak in my place, but I will try to venture hypotheses, some of them quite obvious.

First of all it must be said that the value of the “historical memory” of the nursini applies only to the “historical component” of the building stock. This statements seems redundant, but in fact what could be the value of “historical memory” for a condominium built in the 1980s, very different from the constructive style of the city center but rather similar to what you see in many urban suburbs of Italy?
The construction style is also the basis of my second hypothesis, stemming from the evidence that a load-bearing masonry building can also defend itself very well from earthquakes, provided that it is well built or renovated, according to the best practices in use in the various epochs. Recall that the 30 October shock was a Mw 6.5 earthquake located just below the center of Norcia: the accelerations observed were very significant, to the point of making the performance of masonry buildings truly extraordinary. In condominiums built outside the walls, instead – but I insist that this is the opinion of a geologist – once again we have seen that in normal reinforced concrete buildings the performance of the supporting structure can also be very different from that of of infills and of any accessory structures. This means that the building is unlikely to collapse, unless there are evident flaws in its design, but also that non-structural damage can be so burdensome as to make it convenient to demolish and rebuild: a paradox which I believe has been addressed in the new Norme Tecniche sulle Costruzioni 2018 (Technical Standards for Construction, or NTC18), at least for the future.

Have you had the chance to discuss this study with some seismic engineer, or have you received any reaction from that environment? How do you think your results can be used, and above all by whom?

We have received words of encouragement both from various engineers to whom we have submitted the first version of the manuscript, and from the public to whom we have presented the study in the most diverse occasions. But that’s all, because there have not been other reactions, at least for now – and I refer above all to those of the institutions. We also tried to establish a relationship with the Casa Italia Mission Structure, when it was still directed by Prof. Azzone, but also in this case there was no reaction. Evidently Casa Italia does not share with us the need to set priority criteria for risk mitigation interventions soon: interventions that the Structure is not implementing anyway, if not in the ten symbol-building sites that will be opened in as many symbol cities.

We believe that earthquake mitigation must combine excellent scientific assumptions – and in Italy we believe we have both a rich heritage of seismicity data, and an excellent expertise to make the best use of them – with much pragmatism as regards how and where invest any resources that may become available for seismic improvement. We also believe that the Sisma Bonus (“Seismic Bonus”) could be a useful tool, but only on condition that the criteria for assigning its benefits are drastically reviewed (and that the Sisma Bonus is made overall more “attractive”, by reviewing the delivery mechanisms: but on this I leave the floor to the experts of financial things). In particular, we maintain that a ranking of priorities must be drawn up between the various municipalities and the various aggregates of buildings, choosing them on the basis of their presumable vulnerability – on the basis of hypotheses such as those formulated by us – or real – on the basis of punctual findings, even if expeditious.

Launching this process harmoniously requires a solid control room, which I believe should include researchers, representatives of the professional associations involved, ISTAT officials, as well as institutional representatives of various origins (the Italian Civil Protection, the Ministry of Economic Development or MiSE, the National Association of Italian Municipalities etc.). For over two years I thought and hoped that this control room could coincide with the structures of Casa Italia, but today it is clear to me that I was wrong.

Finally – last but not least – it is necessary to launch a multi-year approach to the mitigation of seismic risk; an approach which at least on such an important issue breaks down the endemic “five years perspective” (when it’s good) that from always characterizes the governments of the Belpaese. But the ability to effectively plan the future is not one of the traditional virtues of the Italians, and therefore I fear we will not go very far on this side.

As a researcher I can clearly distinguish what makes sense from what could only be written in a book of dreams. However – and with this I close the circle you opened with the first question – I would like to dedicate the next few years to promote a change of course on how these issues are coped with in Italy today. I consider it a moral duty of my generation of seismologists; a generation stemming from the immense – and certainly avoidable – catastrophes of Friuli and Irpinia, and from the subsequent birth of a modern and effective Civil Protection.

(1) https://www.sciencedirect.com/science/article/pii/S2212420917302376?via%3Dihub

(2) http://www.cngeologi.it/2018/08/27/geologia-tecnica-ambientale-7/

(3) http://storing.ingv.it/cfti/cftilab/forgotten_vulnerability/#

(4) https://www.annalsofgeophysics.eu/index.php/annals/article/view/3672

(5) http://www.ansa.it/umbria/notizie/2019/04/19/continua-protesta-comitato-norcia_584b1669-91d1-4654-9563-504bdc31f3ba.html

La scala macrosismica EM-98 è stata pubblicata in italiano: intervista a Andrea Tertulliani, Raffaele Azzaro e Giacomo Buffarini

La traduzione italiana della scala macrosismica europea (EMS-98), compilata da gruppo di lavoro della ESC (European Seismological Commission) nel decennio 1988-1998, esce a notevole distanza (21 anni) dalla pubblicazione della versione inglese, dopo che quest’ultima è stata utilizzata sul campo e sperimentata in occasioni di numerosi terremoti italiani, dalla sequenza di Colfiorito del 1997 (nell’occasione venne usata la versione 1992 della scala stessa) fino agli eventi del 2016-2017. Vale la pena ricordare le maggiori innovazioni introdotte dalla versione 1992, consolidate nella versione 1998: i) la definizione operativa di intensità macrosismica; ii) l’introduzione della nozione di vulnerabilità sismica come superamento delle tradizionali tipologie costruttive; iii) la compilazione di una guida all’utilizzo della scala stessa. Ne parliamo oggi con i curatori della versione italiana.

La traduzione italiana della scala macrosismica europea (EMS-98), compilata da gruppo di lavoro della ESC (European Seismological Commission) nel decennio 1988-1998, esce a notevole distanza (21 anni) dalla pubblicazione della versione inglese, dopo che quest’ultima è stata utilizzata sul campo e sperimentata in occasioni di numerosi terremoti italiani, dalla sequenza di Colfiorito del 1997 (nell’occasione venne usata la versione 1992 della scala stessa) fino agli eventi del 2016-2017. Vale la pena ricordare le maggiori innovazioni introdotte dalla versione 1992, consolidate nella versione 1998: i) la definizione operativa di intensità macrosismica; ii) l’introduzione della nozione di vulnerabilità sismica come superamento delle tradizionali tipologie costruttive; iii) la compilazione di una guida all’utilizzo della scala stessa. Ne parliamo oggi con i curatori della versione italiana.

Andrea Tertulliani (INGV). Lavoro come sismologo all’INGV (prima ING) da oltre 30 anni e mi sono quasi sempre occupato di effetti dei terremoti, sia di quelli attuali che di quelli storici. In questo periodo ho svolto i rilievi macrosismici di quasi tutti i terremoti significativi avvenuti in Italia per studiare le caratteristiche dei loro effetti. Attualmente sono coordinatore di QUEST, un gruppo di colleghi esperti in rilievo macrosismico che si attiva per ogni evento. Una curiosità: sono particolarmente interessato agli effetti rotazionali che i terremoti inducono sugli oggetti e i manufatti.

Raffaele Azzaro (INGV). Sono Primo Ricercatore, geologo. Ho iniziato a lavorare nel campo della macrosismica partecipando ai rilievi dei maggiori terremoti italiani, dal 1996 in poi, con una ovvia “preferenza” per quelli in Sicilia e sull’Etna in particolare; parallelamente mi sono occupato anche di analisi di sismologia storica. Successivamente ho ampliato il campo di ricerca agli aspetti di sismotettonica, geologia del terremoto e pericolosità sismica.

Giacomo Buffarini (ENEA). Sono Primo Ricercatore, Ingegnere Strutturista. Lavoro in un gruppo che si è occupato di “Sisma” sin dagli anni 80 del secolo scorso, sia dal punto di vista della pericolosità (in origine per i siting delle centrali nucleari), sia dal punto di vista della vulnerabilità. Monitoraggio dinamico, valutazioni di vulnerabilità sismica, isolamento sismico sono alcune delle attività in cui sono coinvolto, sempre fianco a fianco con colleghi geologi, sismologi e quindi con il privilegio di avere un approccio al problema “Terremoto” da diversi punti di vista.

La traduzione italiana della EMS-98 esce oggi per iniziativa di INGV e ENEA (http://quest.ingv.it/). Come mai questa iniziativa?

AT. L’idea di tradurre le linee guida della EMS-98 è piuttosto vecchia, e se non ricordo male fu proprio tua. Tralasciando il percorso accidentato che ci ha portato sin qui, direi che sono stati gli ultimi terremoti avvenuti in Italia, per il rilievo dei quali abbiamo usato sistematicamente questa scala, la molla principale. Siamo uno dei paesi dove la scala è più usata e abbiamo ritenuto fosse una utile iniziativa per venire incontro anche ai tecnici che non conoscono l’inglese. Inoltre è molto utile, in generale, tradurre la terminologia tecnica all’uso italiano. Infine era nostra intenzione rimarcare che la scala macrosismica è diventato uno strumento ampiamente condiviso tra sismologi e ingegneri.

Una scala macrosismica consiste essenzialmente in un numero limitato di descrizioni di effetti (word pictures in inglese) che vengono confrontate con quanto si riscontra sul campo (rilievo macrosismico), o quanto si deduce dalle informazioni storiche. Il grado di intensità – ovvero il livello degli effetti – del terremoto in un dato luogo viene assegnato con riferimento alla descrizione che più si avvicina alla situazione reale. La scala EM-98 è stata molto usata per eseguire rilievi macrosismici a seguito di terremoti. Ci potete riassumere il suo utilizzo in Italia?

RA. Sin dal momento della sua prima uscita, nel 1993 (la prima versione, poi modificata nel 1998 appunto), c’è stato un grande interesse da parte della nostra piccola comunità macrosismica. Molti di noi lavoravano con la scala MSK, altri con la MCS – e gli aspetti innovativi introdotti dalla EM-98 rendevano “più facile” operare sul campo. Le grandi sequenze sismiche italiane hanno rappresentato il banco di prova per eccellenza per imparare ad usare la scala: la prima timida applicazione, prototipale, in Umbria-Marche nel 1997; l’uso massivo, anche a scala urbana, per il terremoto de L’Aquila nel 2009; con gli eventi poi del 2012 in Emilia Romagna e poi quelli del 2016-17 in centro Italia, direi che tutti gli operatori hanno acquisito una notevole dimestichezza, passando nel contempo per molti terremoti meno distruttivi.
Comunque, ogni sequenza ci ha insegnato qualcosa, e fatto capire concretamente pregi e limiti della scala. In figura la mappa delle località alle quali, dopo la scossa del 24 agosto 2016, è stato assegnato un grado di intensità secondo la EMS98.

Senza titolo

Una delle novità più importanti della EMS-98 è stata la differenziazione dei tipi di costruzioni in classi di vulnerabilità. Ci potete commentare questa tabella alla luce della esperienza italiana?

Schermata 2019-05-26 alle 11.42.42

GB. Il patrimonio edilizio italiano è caratterizzato da una grande prevalenza di edilizia storica, quindi in muratura per la quale l’EMS-98 ha permesso di distinguere, sostanzialmente, in due classi: “A” e “B”, dove la “B” raccoglie la gran parte degli edifici mentre nella “A” vengono facilmente relegati i casi patologici. Rari sono i casi di sconfinamento in “C” e rarissimi in “D” (muratura armata). Questo perché per la muratura le normative tecniche, fino agli anni 80 del secolo scorso, fornivano essenzialmente regole di buona esecuzione e nessun calcolo vero e proprio; addirittura solo dal 2003 sono state introdotte le verifiche sismiche. Anche nelle recenti NTC 2018 per “costruzioni semplici”, che rispettano certe regole e limiti, gran parte dei calcoli vengono o semplificati o, addirittura, non richiesti.

Più complessa è la situazione del Cemento Armato; l’espansione urbanistica post bellica, avvenuta in maniera rapida e incontrollata, il fenomeno dell’abusivismo e una certa propensione tutta italiana di vedere la struttura come qualcosa di secondario rispetto agli aspetti estetici, ha portato ad un risultato in cui è più complesso collocare il singolo edificio nella corretta classe. Se poi aggiungiamo gli scempi spesso subiti, sempre dalle strutture, per l’inserimento o il rifacimento di impianti o per ristrutturazioni architettoniche, l’evoluzione della classificazione sismica, della normativa sismica, risulta molto complicato l’utilizzo della “tavola di vulnerabilità”, soprattutto nel rapido rilievo che si effettua per la valutazione macrosismica.

Quali sono i maggiori pregi della EMS-98 utilizzata sul campo e quali le maggiori difficoltà incontrate nella sua applicazione?

AT. Senza entrare troppo nel dettaglio si può dire che il vantaggio maggiore della EMS-98 è proprio la possibilità di poter classificare l’edificato in diverse classi di vulnerabilità, relative a edifici che rispondono diversamente all’azione sismica. Possiamo quindi osservare nel dettaglio come edifici diversi reagiscono al terremoto. Le scale precedenti consideravano complessivamente il danno a tutto l’edificato, conducendo a volte a valutazioni fuorvianti specie dove gli edifici sono molto diversi tra di loro. Inoltre questa caratteristica spinge l’operatore a raccogliere dati con maggiore cura che in passato, con evidente beneficio per le successive analisi e una maggiore robustezza del risultato. Di contro, e veniamo alle difficoltà, questo presuppone una preparazione più scrupolosa da parte del rilevatore e anche un maggior dispendio di tempo in campagna.

La EMS-98 e le sue componenti sembrano avere avuto un discreto successo presso gli ingegneri, ma per finalità diverse da quelle strettamente macrosismiche (addirittura viene utilizzata nel decreto “Sismabonus”). Ci potete commentare questo punto? Significa che gli aspetti ingegneristici della scala sono descritti in modo opportuno?

GB. Ritengo che gli aspetti ingegneristici siano affrontati nella maniera corretta, stante la finalità che la scala si prefigge. Per scopi di pianificazione a grande scala, per studi di scenario a fronte di eventi sismici, una classificazione come quella macrosismica non solo è utile, ma è anche l’unica realizzabile in maniera diffusa. Inoltre l’assegnazione della classe di vulnerabilità macrosismica è anche utile come primo approccio al problema della sicurezza del singolo fabbricato a due condizioni: che venga eseguita da un esperto in materia e che gli venga dato il suo reale valore, ossia non considerarla una verifica di sicurezza per la quale è indispensabile procedere secondo i dettami rigorosi della scienza e della tecnica delle costruzioni e rispettando la normativa sismica.

In Italia si continua a usare la cosiddetta scala MCS (di cui – per inciso – non si riesce a trovare una versione “ufficiale”), soprattutto per i terremoti storici, i database macrosismici e i cataloghi sismici, ma anche per i terremoti recenti. Ci potete commentare questo aspetto? C’è molta differenza fra le stime nelle due scale?

RA. In effetti, la gran parte dei dati macrosismici contenuti nei cataloghi e banche-dati, sono espressi secondo l’intensità MCS; fortunatamente la situazione sta cambiando molto dal 2009 in poi, e il numero di dati di intensità valutati secondo la EM-98 è aumentato significativamente. Questo decennio di “sovrapposizione”, tra applicazioni sul campo e studi storici, ci ha fatto capire le principali differenza nelle stime: con la EM-98 la soglia del danno è fissata al V grado, mentre con la MCS si va formalmente al VI grado, anche se in molti studi in caso di danni lievi e occasionali si preferiva assegnare il V-VI. Per i gradi intermedi in genere c’è una buona corrispondenza tra le due scale, mentre per quelli più alti (diciamo dal IX grado in su) in alcuni casi la differenza può essere più marcata, con valori della MCS tendenzialmente più alti.

I media e il pubblico fanno ancora un sacco di confusione fra magnitudo e intensità. Cosa potete suggerire?

GB. Posso riportare quanto mi disse un mio amico aquilano (e quindi già tristemente esperto di terremoti!!) dopo la scossa del 30 Ottobre 2016 in cui le primissime stime davano, addirittura, una magnitudo oltre 7 “….è vero, l’intensità era 7 ma per non dare i contributi l’hanno abbassata a 6!!!”. In tempi di fake news, almeno la stampa e i media in generale dovrebbero limitare l’invasione di campo in ambito tecnico-scientifico e gli esperti cercare si di farsi intendere semplificando la comunicazione, mantenendo però il necessario minimo rigore per non creare fraintendimenti.

RA. La confusione fra magnitudo e intensità rimane l’errore più mortificante in cui ci imbattiamo come operatori del settore. A proposito dell’aneddoto accennato sopra, al mio interlocutore spiego sempre che il valore della magnitudo strumentale è bene che venga rivisto via via che arrivano ulteriori dati dalle stazioni della rete sismica, ma quello che interessa soprattutto ai fini applicativi è avere stime affidabili della intensità macrosismica.

AT: Sulla confusione tra magnitudo e intensità mi sembra che non ci sia altro da dire, se non che è dovuto ad una diffusa ignoranza scientifica di base, purtroppo cronica nel nostro paese. E su questo INGV sta cercando di mettere “una pezza” sia con progetti educativi verso le scuole, sia con attività divulgative sui propri canali social che riscuotono notevole successo.

Un elenco di studi macrosismici eseguiti negli ultimi 20 anni è rintracciabile allo stesso indirizzo http://quest.ingv.it/
Utile può essere anche una lettura sulla storia delle scale macrosismiche scaricabile qui: http://editoria.rm.ingv.it/quaderni/2019/quaderno150/

 

 

Quel 31 marzo di dieci anni fa, a L’Aquila (Massimiliano Stucchi)

Il giorno 31 marzo 2009 si svolse a L’Aquila la riunione di esperti convocata dal Capo della Protezione Civile, G. Bertolaso, le cui conseguenze sono state oggetto di innumerevoli discussioni, articoli, volumi, e di un noto processo. Non è mia intenzione riprendere qui quegli argomenti, che peraltro vedono ancora una fioritura di interventi, come sempre non del tutto aggiornati.
Voglio soltanto ricordare come si arrivò a quella riunione. Continua a leggere

L’Aquila, 31 March 2009: ten years ago (Massimiliano Stucchi)

Translated by google translate, reviewed

On March 31, 2009, an earthquake expert meeting convened by the Head of Civil Protection, G. Bertolaso, took place in L’Aquila; the consequences of it were the subject of countless discussions, articles, volumes, and a famous trial.
It is not my intention to take up those arguments, which still see a flourishing of interventions, as always not completely updated.
I just want to remember how it came to that meeting.

Continua a leggere

Zamberletti e la gestione del post-terremoto del Friuli (1976-1977)

Di recente è scomparso Giuseppe Zamberletti, considerato con buona ragione il padre della Protezione Civile in Italia. Vogliamo ricordarlo qui pubblicando un estratto da un suo articolo, pubblicato in inglese su un numero speciale del Bollettino di Geofisica Teorica e Applicata (Pdf).

È interessante leggere questo bilancio dell’intervento dello Stato relativo ai terremoti del 1976 in Friuli, scritto dal principale protagonista. In particolare, colpisce la descrizione della situazione alla data finale dell’intervento diretto dello Stato, meno di un anno dopo il primo terremoto: il confronto con gli eventi recenti è impietoso.

 

Friuli 1976-1977: la gestione dell’emergenza in relazione ai terremoti di maggio e di settembre (di Giuseppe Zamberletti)

Un pensiero per Enzo Boschi – One thought for Enzo Boschi

Enzo Boschi ci ha lasciati. Non leggeremo più i suoi tweet su argomenti disparati, i suoi articoli e le sue invettive sulle pagine de “Il Foglietto”, o da qualche altra parte.
Questo blog, terremotiegrandirischi.com, era nato per lui, per Giulio Selvaggi, per Gian Michele Calvi e per gli altri colleghi, ingiustamente accusati di omicidio colposo nell’ambito del famoso “processo di L’Aquila”. Con questo blog e i contributi ivi contenuti si è cercato di analizzare la vicenda, di contribuire a combattere e rimuovere le innumerevoli inesattezze e forzature che venivano propinate al pubblico da parte dei media, da parte della Pubblica Accusa e del Giudice di primo grado.
Non so quanto il blog sia riuscito in questo intento ma so che Enzo Boschi l’aveva apprezzato e vi aveva contribuito.
Dopo la sentenza di secondo grado e quella, finale, della Cassazione, che avevano stabilito che “il fatto non sussiste” per sei dei sette inquisiti, i terremoti del 2016 in Italia Centrale stimolarono l’idea di continuare e contribuire alla analisi critica degli avvenimenti e delle problematiche legate alla riduzione del rischio sismico.
Enzo Boschi ne fu contento e incoraggiò l’iniziativa.
Non mancarono, nei mesi seguenti, contrasti anche importanti sulle valutazioni e sulle opinioni, di cui il blog mantiene traccia: ma i contrasti si ricomposero sempre, in nome della amicizia che ci ha legati dal 1974 – quando per la prima volta lo conobbi alla Università di Ancona – e delle battaglie ideali che ci hanno accomunato. E dell’affetto consolidatosi in questi lunghi anni.
Forse oggi questo blog ha esaurito il suo compito. Ma proprio per questo sarebbe bello che chi – lettore o meno del blog – avendo il desiderio di lasciare un  ricordo di Enzo Boschi, una firma, un commento, lo facesse qui sopra, inserendolo nei “commenti”. Non fa nulla se è  già pubblicato altrove: forse sarà utile conservarli tutti insieme. Sarà mia cura dare la maggior visibilità possibile ai contributi.

Enzo Boschi has left us. We will no longer read his tweets on disparate subjects, his articles and  invectives on the pages of “Il Foglietto”, or somewhere else.
This blog, terremotiegrandirischi.com, was born for him, Giulio Selvaggi, Gian Michele Calvi and other colleagues, unjustly accused of manslaughter in the context of the famous “L’Aquila trial”. With this blog and the contributions contained therein we tried to analyze the story, to help fight and remove the countless inaccuracies stretches and fakes that were propagated to the public by the media, by the Prosecutor and the Judge of First Instance. I do not know how much the blog has succeeded in this intent but I know that Enzo Boschi had appreciated and contributed to it.
After that the second degree trial and the final one of the Supreme Court, which sentenced that “the fact does not exist” for six of the seven defenders, the earthquakes of 2016 in Central Italy stimulated the idea of keeping the blog alive, contributing to the critical analysis of events and problems related to the reduction of seismic risk. Enzo Boschi was pleased. In the following months we had also important contrasts on the evaluations and opinions, of which the blog keeps track: but the contrasts were always recomposed, in the name of the friendship that has linked us since 1974 – when for the first time I met him at the University of Ancona – and of the ideal battles that have united us. And of the affection consolidated in these long years.
Perhaps today this blog has exhausted its task. But just for this reason it would be nice that who – reader or not the blog – wish to leave a memory of Enzo Boschi, a signature, a comment, do it inserting it into the “comments” above. No problem if they have been published  somewhere else: here it will nice to have them all together.

 

L’educazione al rischio sismico: un bilancio parziale (colloquio con Romano Camassi)

Earthquake risk education: a partial statement (interview with Romano Camassi).


Romano Camassi è un ricercatore dell’INGV (Sezione di Bologna). ‘Sismologo’, di formazione eccentrica (una laurea in Pedagogia, una tesi in storia moderna), impegnato da oltre tre decenni in ricerche storiche su terremoti. Coautore dei principali cataloghi di terremoti italiani. Da oltre 15 anni dedica una parte del suo lavoro a progetti di educazione al rischio sismico.

Dopo ogni terremoto distruttivo, in Italia come altrove, viene richiamata la necessità di migliorare l’educazione al terremoto ovvero al rischio sismico, o addirittura di introdurla a vari livelli. E’ vero che, sia pure non in modo generalizzato, vi sono state e vi sono diverse iniziative in questo ambito. Ci puoi dare una idea, e magari rinviare a qualche pubblicazione che le riassuma? Continua a leggere

Earthquake risk education: a partial statement for Italy (interview with Romano Camassi)

Translated by Google Translate, revised

Romano Camassi is a researcher at INGV (Department of Bologna). ‘Seismologist’ of eccentric training (a degree in Pedagogy, a thesis in modern history), engaged for more than three decades in historical research on earthquakes. Co-author of the main catalogues of Italian earthquakes. For over 15 years he has dedicated a part of his work to seismic risk education projects.

After every destructive earthquake, in Italy as elsewhere, the need to improve the earthquake education the seismic risk education, or even to introduce it at various levels, is recalled. It is true that, albeit not generally, there have been and there are several initiatives in this area. Can you give us an idea, and maybe refer to some publication that summarizes them?
Continua a leggere

Tutti sulla stessa faglia: un’esperienza di riduzione del rischio sismico a Sulmona (colloquio con Carlo Fontana)

Carlo Fontana è un ingegnere meccanico che vive nei pressi di Sulmona, e quindi nei pressi di una delle faglie appenniniche più pericolose: quella del Morrone. Lavora nel settore industriale e fino al 2009 non ha considerato il rischio sismico come rilevante nella sua vita. Con lui abbiamo discusso della sua esperienza di riduzione della vulnerabilità sismica della sua casa e di impegno pubblico sul tema della prevenzione nel suo territorio.

Ci racconti come era – dal punto di vista sismico – l’edificio in cui vivevi ?

L’edificio in questione è la casa paterna di mia moglie, che abbiamo deciso di ristrutturare dopo il matrimonio per renderla bifamiliare. Era composto da un nucleo originario in muratura calcarea tipica della zona, primi anni del 900, a cui è stato affiancato un raddoppio negli anni  ‘60 con muratura in blocchi di cemento semipieni. Solai in profili metallici e tavelle, scala in muratura e tetto in legno. E’ stata danneggiata e resa parzialmente inagibile dai terremoti del 7 e 11 maggio 1984. Nel 2008 era ancora in attesa del contributo per un intervento di riparazione progettato a ridosso del sisma.

Fig01

Qual è stata la molla che è scattata per indurti a rivedere il progetto relativo alla tua abitazione? Continua a leggere

Sisma Safe: come scegliere di “essere più antisismico” (colloquio con Giacomo Buffarini)

Quando un edificio può essere definito sicuro in caso di terremoto? E’ sufficiente che sia stato progettato e realizzato secondo le norme sismiche? E quali norme, visto che sono cambiate e migliorate nel corso degli anni?
Queste ed altre problematiche vengono affrontate dalla iniziativa “Sisma Safe”, un’associazione senza scopo di lucro che, attraverso un’attività informativa, vuol dare una risposta al bisogno di sicurezza individuando degli esempi positivi che siano in grado di trascinare il mercato edilizio. Ne parliamo con Giacomo Buffarini, ingegnere, ricercatore presso l’ENEA, ente che collabora a questa iniziativa.

Come è nata l’iniziativa “Sisma Safe” e quali sono gli obiettivi che persegue?

Sisma Safe nasce dalla sensibilità di alcune professioniste (ingegneri e architetti) che hanno compreso come ogni sforzo in ambito edilizio di miglioramento delle performance energetiche, del comfort abitativo, o ogni altro investimento risultano vani se non è garantita la sicurezza strutturale e che risulta, quindi, necessario limitare la vulnerabilità sismica di un edificio. L’obbiettivo è fare in modo che l’edificio, a seguito di un evento sismico della portata di quello previsto dalla normativa, non solo consenta la salvaguardia della vita (ossia non crolli), ma che possa continuare ad essere usato; più semplicemente subisca un danneggiamento nullo o estremamente limitato. Continua a leggere

Al lupo, al lupo? Più cautela con gli allarmi sismici (Massimiliano Stucchi)

Premessa. In questo post si commentano – tra le altre cose – modelli scientifici e la loro possibile applicazione a fini di Protezione Civile. La trattazione è necessariamente semplificata: eventuali approfondimenti sono allo studio.

1. La previsione deterministica dei terremoti è da sempre invocata dall’umanità come possibile riparo da sciagure sismiche, in particolare per quello che riguarda la possibilità di restarne vittime. Per la ricerca scientifica, invece, si tratta di un obiettivo lontano e forse irraggiungibile, che presuppone conoscenze teoriche e osservazioni sperimentali sulle dinamiche di accumulo e rilascio dell’energia, oggi non disponibili. Il tema è ampio e complesso e non può essere certo trattato in profondità in queste pagine. Continua a leggere

Crying wolf? take care with earthquake alarms…..(Massimiliano Stucchi)


translated by Google Translate, revised

Introduction. In this post we comment – among other things – scientific models and their possible application for civil protection purposes. The discussion is necessarily simplified: a more detailed post is under consideration.

1. The deterministic earthquake prediction has always been invoked by humanity as a possible shelter from seismic disasters, in particular for what concerns the possibility of remaining victims. For science, on the other hand, it is a distant and perhaps unattainable goal, which requires theoretical knowledge and experimental observations on the dynamics of energy accumulation and release, which are not available today. The theme is broad and complex and cannot be treated at depth in these pages. Continua a leggere

Note d’agosto, con un altro processo a L’Aquila (Massimiliano Stucchi)

Da almeno un paio anni agosto ci somministra morti e danni: Amatrice nel 2016, Ischia nel 2017, quest’anno le autostrade, la piena del Pollino e una sequenza sismica (Molise) che fin qui ha prodotto solo danni lievi.
E altre notizie che vale la pena di commentare.

Sul ponte Morandi di Genova si è detto di tutto e di più. C’è poco da aggiungere, se non la riflessione che ponti di quel tipo, e anche di altro tipo, sono vulnerabili sia all’usura che a possibili impatti esterni (aerei, droni, attentati, ecc.). Questi ponti vengono progettati per resistere a un determinato evento esterno che non è mai il massimo possibile, anche perché in questi casi tale massimo non è conosciuto. Quindi, come tante cose, conservano un livello di rischio. Da sapersi.

Continua a leggere

August notes, with another trial at L’Aquila
 (Massimiliano Stucchi)

translated by Google, revised

Since at least a couple years  August gives us death and damage: Amatrice in 2016, Ischia in 2017, this year the highways, the Pollino flood and a seismic sequence (Molise) that so far has produced only minor damage. And other news that is worth commenting on.

On the Morandi bridge in Genoa everything and even more was said. There is little to add, if not the reflection that bridges of that type, and also of another type, are vulnerable both to wear and possible external impacts (airplanes, drones, attacks, etc.). These bridges are designed to withstand a given external event that is never the maximum possible, also because in these cases this maximum is not known. So, like many things, they keep a level of risk. To be know. Continua a leggere

Verso il nuovo modello di pericolosità sismica per l’Italia (colloquio con Carlo Meletti)

English version at

https://terremotiegrandirischi.com/2018/07/03/towards-the-new-seismic-hazard-model-of-italy-interview-with-carlo-meletti/

Nel 2004 un piccolo gruppo di ricerca, coordinato da INGV, rilasciò la Mappa di Pericolosità Sismica del territorio italiano (MPS04), compilata secondo quanto prescritto dalla Ordinanza n. 3274 del Presidente del Consigli dei Ministri (PCM) del 2003. La mappa doveva servire come riferimento per le Regioni, cui spetta il compito di aggiornare la classificazione sismica dei rispettivi territori. La mappa fui poi resa “ufficiale” dalla Ordinanza n. 3519 del Presidente del Consiglio dei Ministri (28 aprile 2006) e dalla conseguente pubblicazione nella Gazzetta Ufficiale (n. 108 del 11 maggio 2006).
Nel seguito, utilizzando lo stesso impianto concettuale, alla mappa furono aggiunti altri elaborati che andarono a costituire il primo modello di pericolosità sismica per l’Italia. In particolare per la prima volta furono rilasciate stime per diversi periodi di ritorno e per svariate accelerazioni spettrali. Questo modello divenne poi la base per la normativa sismica contenuta nelle Norme Tecniche 2008 (NTC08), divenute operative nel 2008 ed è stato adottato anche dalle Norme Tecniche 2018.
Caratteristiche e vicende legate al successo di MPS04 sono descritte, tra l’altro, in due post di questo blog: 

https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/

https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/

Come avviene in molti paesi sismici, da qualche anno un gruppo di ricerca sta compilando un nuovo modello di pericolosità, che utilizzi dati e tecniche aggiornate.
Massimiliano Stucchi ne discute con Carlo Meletti il quale, dopo aver contribuito in modo importante a MPS04, coordina la nuova iniziativa attraverso il Centro di Pericolosità Sismica dell’INGV.

MPS04, pur compilata abbastanza “di fretta” per soddisfare le esigenze dello Stato, ha avuto un notevole successo, sia in campo tecnico-amministrativo sia – dopo qualche anno – a livello di pubblico. Che cosa spinge alla compilazione di un nuovo modello?

C’è la consapevolezza che dopo oltre 10 anni siamo in grado di descrivere meglio la pericolosità sismica in Italia. Un modello di pericolosità è la sintesi di conoscenze, dati e approcci disponibili al momento della sua compilazione. Nel frattempo abbiamo accumulato tantissimi dati nuovi o aggiornati (non solo un importante revisione del catalogo storico dei terremoti, ma anche del database delle faglie e sorgenti sismogenetiche, nonché tutte le registrazioni accelerometriche dei terremoti forti italiani degli ultimi 10 anni).
Abbiamo pertanto ritenuto di dover verificare quanto cambia la definizione della pericolosità. E’ una prassi normale nei paesi più evoluti (ogni 6 anni negli Stati Uniti, ogni 5 in Canada, ogni 10 in Nuova Zelanda). Noi siamo partiti da un’esigenza di tipo scientifico, ma anche il Dipartimento della Protezione Civile ha sostenuto questa iniziativa per verificare il possibile impatto sulla normativa sismica (classificazione dei comuni e norme per le costruzioni).

Ci puoi riassumere brevemente le fasi di questa nuova iniziativa e anticipare, se possibile, la data di rilascio nel nuovo modello? Continua a leggere

Towards the new seismic hazard model of Italy (interview with Carlo Meletti)


In 2004 a small research group, coordinated by INGV, released the Map of Seismic hazard of the Italian territory (MPS04), compiled as required by the Ordinance n. 3274 of the President of the Council of Ministers (2003). The map was to serve as a reference for the Regions, whose task is to update the seismic classification of the respective territories. The map was then made “official” by the Ordinance n. 3519 of the President of the Council of Ministers (28 April 2006) and subsequently published on  the Official Gazette (No. 108 of 11 May 2006).
In the following, other elaborations were added to the map using the same conceptual structure. It  represents the first modern seismic hazard model for Italy. For the first time estimates for different return periods and for various spectral accelerations were released. This model has been then used as the basis for the building code contained in the 2008 Technical Regulations (NTC08), which became operational in 2008 and was also adopted by the 2018 Technical Regulations.
Features and events related to the success of MPS04 are described, among other things, in two posts of this blog:

Che cos’è la mappa di pericolosità sismica? Prima parte (di Massimiliano Stucchi)

La mappa di pericolosità sismica (parte seconda); usi, abusi, fraintendimenti (di Massimiliano Stucchi)

As usual in many seismic countries, since a few years a research group is compiling a new hazard model, which uses updated data and techniques.
Massimiliano Stucchi discusses about it with Carlo Meletti who, after its important contribution to MPS04, coordinates the new initiative through the INGV Seismic Hazard Center.

MPS04,  even if compiled  “in a hurry” in order to meet the State requirements, had a considerable success, both in the technical-administrative field and – after a few years – at the public level. What drives a new model to be built?

Continua a leggere

Come ridurre una volta per tutte il rischio sismico in Italia (Patrizia Feletig e Enzo Boschi)

In un articolo sul Corriere della Sera lunedì 19 marzo, Milena Gabanelli scrive di copertura assicurativa contro i terremoti ipotizzando un intervento dello Stato come avviene in alcuni paesi esteri, quale alternativa finanziariamente più sostenibile rispetto al risarcimento finanziato con varie “tasse sulla disgrazia”.
Giusto, anche perché i costi per la ricostruzione inseguono una parabola incontrollabile considerato l’aumento della concentrazione di ricchezza per metro quadro. Ma soprattutto con la diffusione di un sistema di copertura assicurativa, gli edifici verrebbero per forza sottoposti a collaudi strutturali. Come dovrebbe essere per attuare la famosa “carta d’identità del fabbricato” rimasta lettera morta. Mentre negli altri paesi europei un fabbricato senza una validazione strutturale non ottiene l’allacciamento di luce, acqua, ecc. in Italia, ci si limita alla verifica formale della sola certificazione energetica del fabbricato in occasione di vendita o locazione!

Una polizza potrebbe allora diventare un incentivo alla prevenzione con la responsabilizzazione delle istituzioni come testimonia la copertura da rischio contro catastrofi naturali francese a partecipazione mista stato-mercato in vigore dal 1982 e incresciosamente non citato nell’articolo! Per non discriminare tra aree ad alto rischio e quelle poco esposte, il premio è fisso, varia invece la franchigia a secondo se il comune dove risiede il fabbricato ha adottato provvedimenti come dei lavori di contenimento di corsi d’acqua o adeguamenti alle norme antisismiche, per contenere la propria esposizione ad alluvioni, terremoti, eruzioni vulcaniche.
Considerando gli otto terremoti più forti che hanno colpito la Penisola negli ultimi 42 anni, non si può non convenire che una polizza contro il sisma sia una misura più che necessaria. Deplorevole che se ne discuta da un quarto di secolo (il primo disegno di legge risale al 1993) e sebbene a volte la proposta sia anche riuscita a spuntare in qualche Finanziaria, è stata velocemente stralciata come fosse l’ennesima gabella impossibile da fare ingoiare al popolo dei proprietari di case.

Ma proprio la politica è doppiamente colpevole.
Primo per il suo irresponsabile fatalismo a ritenere di poter continuare ribaltare sull’iniziativa del singolo la messa in sicurezza delle abitazioni recentemente “incentivata” con la detraibilità fiscale. Il sisma bonus è un lodevole strumento fortemente voluto da Ermete Realacci ma la cui efficacia si scontra con il cronico vizio dei lavori edili in nero.
Secondo, se il 70% del patrimonio immobiliare di un territorio sismico come l’Italia, risulta inadeguato a scosse di medie magnitudo, è anche grazie alla sconsideratezza con la quale gli amministratori locali spesso, non hanno vietato l’edificabilità in aree a rischio. Casamicciola è solo l’ultimo dei tanti casi. Lo stesso vale quando nelle nuove costruzioni o negli interventi di riqualificazione, non hanno fatto rispettare le leggi sulla prevenzione sismica.
Il sindaco di Amatrice è indagato proprio per il crollo di una palazzina che nel 2009 venne evacuata a seguito delle scosse dell’Aquila e, in seguito degli interventi di ripristino, dichiarata dal comune agibile salvo franare la notte del 24 agosto 2016 causando la morte dei suoi abitanti.

Decisamente scellerata poi è la piaga dei condoni, la cui madre di tutte le regolarizzazioni dell’abusivismo è la legge 47 del 1985 del governo Berlusconi. Una sanatoria per la quale grande fu la protesta affinché almeno i territori dichiarati sismici fossero esclusi da questa delittuosa fittizia idoneità assegnata per default all’edificazione precaria, fuori norma, illecita. Sì delittuoso, perché la natura è matrigna ma le vittime dei terremoti sono attribuibili all’abusivismo, alle irregolarità, alla sciatteria, che hanno molti corresponsabili. In un tragico intreccio dove i colpevoli magari finiscono anche per essere loro stessi vittime delle loro azioni o omissioni. Ma questa non è giustizia.

Masonry buildings to the test of Italian earthquakes (interview with Guido Magenes)

…..This comparison with medicine fits very well, there are really many similarities between the work of the technician who has to understand what to do with an existing building and that of the doctor who tries to make a diagnosis and to find a correct therapy for a patient…..


versione italiana qui: Gli edifici in muratura alla prova dei terremoti italiani (colloquio con Guido Magenes)


Guido Magenes is Professor of Structural Engineering at the University of Pavia and IUSS Pavia. He is also the coordinator of the Masonry Structures division of the EUCENTRE Foundation. His area of ​​greatest competence is the seismic behavior of masonry buildings and for this reason he has also participated and still participates in numerous Italian and European technical-regulatory committees.
We discussed with him the behavior of masonry buildings in Italy, with particular reference to what happened during the last earthquakes.

1. The earthquakes of 2016 have determined a sequence of shaking that has put a strain on the buildings of the affected area, especially those in masonry. The effects seen in the field are very different: next to the buildings already heavily damaged by the earthquake of August 24th, there are others that have seen their condition worsen after the shock in October, and others that seem not to have suffered serious damage in all the sequence. Do you have an explanation for this?

 The masonry buildings stock in our country has very variable characteristics and qualities, depending on the era of construction, the materials and construction criteria that were used, the type and architectural form (ordinary buildings or churches, palaces, towers, etc … ), any maintenance and reinforcement or tampering and weakening processes that may have occurred over time. Certainly there are recurrent types of problems, but the diversity of the behavior of masonry buildings, apart from the severity of the shaking (or the different ground motion in the various sites), is  essentially due to this great variability.
Therefore, in the specific case of the seismic sequence of central Italy, which involved a very large area and a considerable variety of buildings, we observed what you say: from the recently built building, of a few storeys, in great part or fully compliant with the modern design and construction criteria, which did not show significant damage, to historic buildings with large spans and heights, such as churches, which tend to be more vulnerable and have therefore suffered great damage and collapse because of their dimensions, geometric ratios and their structural organization. In many if not most cases, also the poor quality of the materials has further worsened the situation.

2. In all the municipalities affected, seismic regulations were in force, with various years of enforcement (the extremes are represented by Amatrice and Accumoli, 1927, and Arquata del Tronto, 1984). The distribution of the damage does not seem to be influenced by these differences; is there a reason?Schermata 2018-02-05 alle 20.44.50Not all regulations are equally effective: a 1927 standard is obviously very different, under many points of view, from a rule of the 1980s or the years 2000s and, as I mentioned above, the buildings built in compliance with the latest rules behaved generally well (constructed with artificial blocks and mortars of good strength, or even stone buildings demolished and rebuilt with good quality mortars). Therefore, I would not say that the distribution of damage is not at all influenced by the regulatory context. It depends on what was written in the norm and how many buildings were built or repaired or reinforced after the introduction of the norm (in the affected centers a significant percentage of the buildings had been built before the seismic regulations that you mentioned).

The rules and design criteria are not necessarily born perfect and they have to adjust, to evolve based on the experience of earthquakes. For example, it is only fifteen or twenty years that we began to recognize that certain types of interventions proposed and widely applied after the earthquakes of Friuli and Basilicata can be harmful or plainly ineffective (think of the infamous reinforced concrete ring beams “in breccia” inserted at intermediate floors in an existing building in stone masonry: in Umbria-Marche ’97 we have begun to see its shortcomings).
In the areas in which the presence of a regulation or a seismic classification seems to have had no effect, it must also be taken into account that the on-site control of the quality of construction and execution, in particular for masonry buildings, were inexistent or ineffective at least until the more recent regulations. The use of a very bad mortar is a recurrent element in many of the old masonry buildings collapsed or damaged in the last seismic sequence. In centers like Accumoli and Amatrice it seems that even where interventions had been carried out on buildings, replacing old floors, for example, or inserting some ties, the problem of poor quality of the masonry had been greatly overlooked, ultimately making the interventions ineffective. We can add that a large part of those areas suffered a considerable depopulation since the early 1900s, with inevitable consequences on the maintenance of buildings, which has led to an increase in widespread vulnerability.

Then there are some particular cases in which historical norms and more recent norms seem to have had a positive effect. Take Norcia’s example: without going into the details of the measurements of the characteristics of the ground motion, it is a fact that Norcia in the last sequence suffered strong shaking, comparable to those of Amatrice and Accumoli but with a much lower damage to buildings. In the history of Norcia there were two very significant events that may have affected  the response of the buildings in the 2016 sequence, one before and one following the 1962 regulations. In 1859 a strong earthquake caused numerous collapses and victims in some areas of the historical center, and following this the Papal State issued a quite effective regulation that gave a series of provisions for repairs and reconstructions: on geometry, in particular on the maximum height of the buildings (two floors), on the construction details, on the quality of materials. Then, in 1979 there was another earthquake in Valnerina, after which other parts of the historic center were damaged, followed by a series of systematic reinforcement measures on many buildings. In many of these buildings the reinforcement of the vertical walls (even with the controversial technique of the reinforced plaster) has remedied one of the main elements of vulnerability, i.e. the weakness/poor quality of the masonry walls. If for a moment we leave aside the elements that can go against the use of reinforced plaster (such as the durability of the intervention), and we see it simply as a technique that has remedied a factor of great vulnerability, we can say that for Norcia there has been a positive combined effect of pre-modern and more recent regional regulations, stemming from the direct experience of seismic events.

3. Let’s  talk about seismic regulations and in particular of their engineering aspects. We hear that they have changed a lot over time, and that perhaps the non-recent ones were not entirely effective. Is it true, and if so why?

As for the engineering component of the regulation, what we now know about the structural and seismic behavior of buildings, in masonry and other structural systems, is the result of a continuous evolution through the experience of earthquakes in Italy and in other parts of the world. In Italy the engineering study of masonry buildings has resumed life, after decades of almost total abandonment, after the 1976 earthquake in Friuli. The first norms/codes that give indications on how to “calculate” a masonry building in Italy date back to the early 80s (to “calculate” I mean “quantitatively assess the level of safety”). Although “calculation” is not the only component of the design, this fact gives the idea of ​​how only the very recent rules have a technical-scientific basis aligned with current knowledge. I would like to say that the absence of calculation in a project does not necessarily imply that the building is unsafe: in the past we followed geometric and constructive rules of an empirical type, based on the experience and intuition of the mechanical behavior, although not explicated in detailed calculations. Even today, for the design of a simple and regular masonry building, it is possible to follow codified geometrical and constructive rules that avoid detailed or complex calculations, but still achieve an adequate level of safety.
The experience of the earthquakes of Irpinia, Umbria-Marche, until the most recent in central Italy, have been a continuous test and a source of knowledge. For example, as mentioned in my answer to the previous question, the Umbria-Marche 1997 earthquake, besides highlighting the great vulnerability of churches and of certain historical structures, has been an important test for strengthening criteria and techniques on masonry buildings that were proposed and developed following the Italian earthquakes of the late ’70s, showing how some techniques are not very effective or can even be harmful if applied indiscriminately and without awareness

To conclude my answer with my opinion on current technical standards, I think that as regards the design of new buildings we are really at a very advanced state of progress, which effectively attains the levels of safety that today are considered adequate. I think there are more uncertainties on the assessment and strengthening of existing buildings, even if it is not so much a regulatory problem but rather of scientific knowledge and of the correct identification of strategies and techniques for the intervention. It is certainly easier to design and build a seismic-resistant building from scratch, than to assess and intervene on an existing building.

4. How much – and how – does the construction and detailing of a building affect its seismic safety, beyond the design?

The question gives me the opportunity to dwell a little more on what is meant by “design”, which is something different from the mere “calculation”. The design includes all aspects of overall conception, choice and organization of the structure, choice of materials and construction techniques (with the awareness of how they can and should be executed in situ), performance verification calculations in terms of safety against collapse and of satisfactory behavior in normal operation, prescriptions on construction details. In modern seismic design it is also necessary to take into account, when relevant, the seismic response of the non-structural parts of the construction. There must also be a check that what is prescribed in the design is actually implemented during construction.

The calculation is therefore only a component of the design. It is interesting to note that most of the existing masonry buildings were not calculated, at least as we understand structural calculations now. The first Italian national technical standard on masonry constructions with a sufficiently detailed description of the calculations for the structural verification dates back to 1987. Technical standards with indications for the seismic calculation, were issued after the earthquake of Friuli 1976 and in subsequent times. Before those norms, a technical literature and manuals existed, with reference to the principles of mechanics, as well as a building tradition. I would like to clarify that here I am talking about regulations/norms that tell how to calculate the resistance of a masonry building, subject to seismic or non-seismic actions. Just to give an example, the Royal Decree of 1909 (post earthquake of Messina), a historical milestone as regards seismic regulations, gives criteria to define the seismic action, gives constructive and geometric rules but does not tell how to calculate the resistance (the capacity, according to the modern technical language) of a masonry building.

The constructive tradition based on the respect of the “rule of art” always had in mind the importance of construction details, of the quality of the materials, of how the building is built, and this has allowed and allows well-constructed buildings (but not “calculated”, i.e. non-engineered) to withstand even very violent seismic shocks. In modern buildings, the compliance during construction site of the execution rules, the control of the quality of the materials, is equally important, although this holds for masonry as for the other types of construction. The sensitivity of the structure to constructional defects is a function of the level of robustness of the structural system. A masonry box-like construction, strongly hyperstatic (i.e. where the number of resistant elements is higher than the minimum necessary to ensure equilibrium under the applied loads) could in principle be less sensitive to construction defects than an isostatic prefabricated structure (i.e. where the number of resistant elements is just equal to the minimum necessary to ensure equilibrium under the applied loads, so that the failure of a single element is sufficient to generate a collapse). Obviously we are talking about local defects and not generalized over the whole construction. If all materials are poor quality throughout the construction, then it is a great problem, but not necessarily a masonry building is more sensitive to such problem than, say, a reinforced concrete frame, in which also defects in the reinforcement detailing are possible (for instance in beam-column joints or in lap splices or in anchorage of rebars and so forth).

5. Many surveyors in post-earthquake reconnaissance activities have found traces of interventions that have allegedly weakened the structures. Do you agree?

In post-earthquake surveys, carried out quickly in emergency conditions, it is not always possible to clearly understand the history of the building and what changes have been made, in what time and modalities, but sometimes it is clear that some modifications to the construction have been detrimental to safety. Often these are interventions that were made with total unawareness of the effects on structural safety and purely for the purpose of use and redistribution of space. In other cases, more rare, there are also interventions made with “structural” purposes, perhaps even with the idea of ​​achieving an increase in safety, but which in reality were harmful or ineffective. A classic example, often discussed in the literature also on the basis of the Italian post-earthquake recognitions from Umbria-Marche 1997 onwards, is the insertion of new, rigid and heavy structural elements (such as the replacement of a wooden floor with a reinforced concrete floor) in a building with very weak masonry (for example masonry made of irregular stones with poor mortar), without the masonry being properly consolidated. There was a period, following the earthquakes of Friuli and Irpinia, where much emphasis was given to the fact that rigid diaphragms (i.e. the floors and roofs) increase the hyperstaticity, hence the robustness of the construction and the so-called “box behaviour”, by which engineers tried to replicate in existing structures something that is relatively simple to implement, and whose effects are well controllable, in new constructions, but which in an existing construction has great problems of practical implementation (particularly in the connection between new elements and existing elements) and of potentially negative structural effects (increase of stresses in an already weak masonry). It is important to note that the effectiveness of the interventions is tested by earthquakes that take place in later times, and in some areas of central Italy it has been possible to draw indications of this kind. In the earthquake of Umbria-Marche in 1997 it was possible to observe various problematic situations in buildings where the existing floors had been replaced by heavier and more rigid slabs.

Allow me, however, to add a further comment. From the scientific point of view, the fact that an intervention is “harmful” or weakens the structure compared to the non-intervention is verifiable experimentally only if there is a confirmation of what would happen to the building without intervening and what would happen following the intervention . This type of comparison in the vast majority of practical cases  is not possible, except for very fortunate cases of almost identical buildings built on the same ground where one was reinforced and the other not, or that were reinforced with different methods. Or through laboratory experiments, comparing specimens tested on a “shaking table” (earthquake simulator). So, in general I am always rather skeptical of interpretations given on the basis of purely visual rapid surveys, without the necessary in-depth study of the details and without a quantitative analysis carried out in a competent and thorough manner.
I can say (and I know that many colleagues have a similar opinion) that in many cases seen in central Italy the collapse of the construction would have taken place regardless of the type of floor, light or heavy, rigid or flexible, by virtue of the bad quality of the masonry, which appeared to be the main problem.

6. How did the repetition of the strong shocks play in the aggravation of the damage (where it occurred)? Is it something that is implicitly foreseen, and taken care of, by the seismic norms? On the other hand, how do you explain the numerous cases of almost total absence of damage?

The repeated shaking aggravates the damage, the more the damage caused by the previous shock is serious. It seems a rather obvious statement, but essentially it is what happens. For example, if a first shock on a masonry building generates only a few cracks, not very wide and of a certain type (for example horizontal cracks, which close after the shock due to selfweight), the building has not lost much of its resistance; so if it is subjected to repeated shaking, less intense than the first shock, it is possible that the damage does not get too much worse, and if it is subjected to a shaking stronger than the first shock it will have a resistance equal to or slightly less than it would have if the first shock had not been there. On the other hand, if a shock leads to the development of diagonal cracks (so-called “shear cracks”) or vertical cracks with spalling, the damaged part has lost a significant portion of its ability to resist and subsequent repeated shaking can lead to progressive degradation and collapse, even if the subsequent shocks suffered by the building, individually, are perhaps less strong than the first one. This is something visible and reproducible also in the laboratory.

That said, there are types of constructions and structural elements that are more or less sensitive to the repetition of the seismic action. When seismic engineers speak of “ductility” of the structure or of a mechanism, they also refer to the ability of a structure to resist repeated loading cycles well beyond the threshold of the first crack or the first visible damage, without reaching collapse. A well-designed modern reinforced concrete construction is a structure of this type, for example. Unreinforced masonry, on the other hand, is more susceptible to damage induced by the repetition of loading cycles beyond cracking. As a consequence, existing masonry buildings, once damaged by a first shock, are more vulnerable to subsequent shocks. On the other hand, if the first shock does not cause significant damage, the safety of the building remains, in most cases, more or less unchanged and this accounts for the fact that numerous masonry constructions have also resisted repeated shocks. Unfortunately, sometimes the damage may not be clearly visible. Damage in masonry originates in the form of micro-cracks (not visible to the naked eye) which then develop into macro-cracks. If in a laboratory test a sample of masonry is pushed to a condition very close to the onset of the macro-cracks but the load is removed just before they develop, it may happen that in a subsequent loading phase the macro-cracks develop at a load level lower than that achieved in the first phase. It may therefore happen that a building that has resisted a violent shock without apparent damage is visibly damaged by a subsequent shock less violent than the first.

You ask me if the behavior of the structure under repeated shocks is implicitly considered in the seismic norms: the answer is yes, at least for certain aspects. For example, the respect of certain construction details in reinforced concrete and the application of certain rules in the sizing of the sections and of the reinforcement have this purpose: to make the structure less susceptible to damage under repeated actions. Moreover, less ductile structures, such as those in unreinforced masonry, are designed with higher seismic “loads” than the more ductile structures, also to compensate their greater susceptibility to degradation due to repeated action. However, there are some aspects of the problem of resistance and accumulation of damage under repeated shaking that remain to be explored and are still cutting-edge research topics. In particular, if it is true that theoretical models are becoming available to assess how the risk (i.e. the probability of collapse or damage) evolves in a building or a group of buildings as time passes and seismic shocks occur, these models must still be refined to give results that are quantitatively reliable.

7. It seems to me that the variety of masonry buildings, at least in Italy, is really large: so large that knowing them requires an approach similar to that of medicine, where each case has its own peculiarities. Therefore, there is perhaps no universal therapy, every case requires a specific care: is it correct? And if so, given that the building and construction techniques and quality of different areas of the Apennines (and others) are similar to those of the areas affected in 2016, should a similar destruction be expected to repeat again?

This comparison with medicine fits very well, there are really many similarities between the work of the technician who has to understand what to do with an existing building and that of the doctor who tries to make a diagnosis and to find a correct therapy for a patient. From the technical point of view there is no universal therapy and no (good) doctor would be able to apply a therapeutic protocol without the anamnesis, the objective examination, any necessary instrumental or laboratory tests and the formulation of a diagnosis (which tells us what is the patient’s disease / health status, and then defines what he needs, the therapy). The good technician follows a similar path to arrive at the evaluation of safety and possible hypotheses of intervention (or not intervention). Of course it is possible and necessary, as is the case for medicine and public health, to define strategies and policies for prioritization and allocation of resources to ensure that the overall seismic risk in our country decreases. Certainly, where the old buildings have not been subject to maintenance, or just to aesthetic and functional maintenance without structural reinforcement, we can expect destructions similar to those seen in 2016 on the occasion of future earthquakes of comparable magnitude. This applies to both public and private buildings.

Where instead we have intervened or will intervene in a conscious way, paying attention to the problem of seismic safety, the level of damage to be expected is  lower, as the experience of the past earthquakes teaches us.
Allow me to conclude this interview with some non-purely technical engineering comments. The possibility of reducing the seismic risk in Italy depends on many factors, ranging from how politics govern the problem of natural hazards, to how technicians, individually and collectively, interact and communicate with politics, to how the presence of risk is communicated to the population, to how, as a consequence,  the citizen makes his choices when he buys or takes decisions to maintain a property. In my opinion it is necessary to progressively evolve into a system in which the citizen recognizes that it is in his own interest to pursue a higher seismic safety, initially spending a little more, because he will have a return in the future not only in terms of safety but also of economic benefit, for example in the market value of his property. The “Sismabonus” initiative is certainly a first step in this direction, but other steps will have to be taken. The goal, certainly not easy to achieve, should be that the safety level of a building has a clear and recognized economic market value, and I think this would work for both the small owner and for real estate investors. I know that some are scared by this perspective, but personally I think that, at least for what concerns privately owned real estate and facilities, there are no other ways to achieve, within a few decades, a substantial and widespread reduction of seismic risk in Italy.

 

Gli edifici in muratura alla prova dei terremoti italiani (colloquio con Guido Magenes)

…….”Questo paragone con la medicina calza benissimo; ci sono veramente tante analogie tra il lavoro del tecnico che deve capire cosa fare di un edificio esistente e quello del medico che cerca di fare una diagnosi e di individuare una terapia corretta su un paziente”…..


English version here: Masonry buildings to the test of Italian earthquakes (interview with Guido Magenes)


Guido Magenes è professore di Tecnica delle Costruzioni all’Università di Pavia e allo IUSS Pavia. E’ inoltre coordinatore della sezione murature della Fondazione EUCENTRE. La sua area di maggior competenza è il comportamento sismico delle costruzioni in muratura e per questo ha anche partecipato e tuttora partecipa a numerosi comitati tecnico-normativi italiani e europei. 
Abbiamo discusso con lui del comportamento degli edifici in muratura in Italia, con particolare riferimento a quanto avvenuto in occasione degli ultimi terremoti.

1. I terremoti del 2016 hanno determinato una sequenza di scuotimenti che ha messo a dura prova gli edifici della zona colpita, in particolare quelli in muratura. Gli effetti visti sul campo sono molto diversi fra loro: accanto agli edifici già pesantemente danneggiati dal terremoto del 24 agosto ve ne sono altri che hanno visto aggravare le loro condizioni dalle scosse di ottobre, e altri che sembrano non aver subito danni gravi in tutta la sequenza. Hai una spiegazione per questo?

Il patrimonio di edifici in muratura esistenti sul nostro territorio ha caratteristiche e qualità molto variabili, in funzione dell’epoca di costruzione, dei materiali e dei criteri costruttivi utilizzati, della tipologia e forma architettonica (edifici ordinari o chiese, palazzi, torri, eccetera…), degli eventuali interventi di manutenzione e rinforzo o manomissione e indebolimento succedutesi nel tempo. Certamente esistono tipologie problematiche ricorrenti, ma la diversità del comportamento degli edifici in muratura, al netto della severità dello scuotimento (ovvero del diverso moto del terreno nei vari siti), è dovuta appunto a questa grande variabilità.
Nel caso specifico della sequenza sismica dell’Italia centrale, che ha interessato un’area molto vasta e quindi una notevole varietà di edifici, si è quindi osservato quello che dici tu: dall’edificio di costruzione recente, di pochi piani, in buona parte o in tutto conforme ai criteri moderni di progettazione e di costruzione, che non ha presentato danni di rilievo, agli edifici storici con grandi luci ed altezze, come ad esempio le chiese, che tendono ad essere più vulnerabili e hanno quindi subito danni significativi e crolli a causa delle loro dimensioni, dei rapporti geometrici e della loro organizzazione strutturale. In molti casi anche la scarsa qualità dei materiali ha ulteriormente aggravato la situazione.

2. In tutti i Comuni colpiti vigeva la normativa sismica, con diversi anni di decorrenza (gli estremi sono rappresentati da Amatrice e Accumoli, 1927, e Arquata del Tronto, 1984).

Schermata 2018-02-05 alle 20.44.50da https://terremotiegrandirischi.com/wp-content/uploads/2018/02/considerazioni-su-flagello-del-terremoto-e-riduzione-del-rischio-sismico.pdf

La distribuzione del danno non sembra essere influenzata da queste diversità; c’è una ragione?

Non tutte le normative sono ugualmente efficaci: una norma del 1927 è ovviamente molto diversa, sotto tanti punti di vista, da una norma degli anni ’80 o degli anni 2000 e, come ho accennato sopra, gli edifici costruiti nel rispetto delle norme più recenti si sono comportati generalmente bene (edifici costruiti con blocchi artificiali e malte di buona resistenza, oppure anche edifici in pietra demoliti e ricostruiti con malte di buona qualità).
Non direi quindi che la distribuzione del danno non sia del tutto influenzata dal contesto normativo. Dipende da cosa c’era scritto nella norma e da quanti edifici sono stati costruiti o riparati o rinforzati dopo l’introduzione della norma (nei centri colpiti una percentuale notevole degli edifici era stata costruita prima delle normative sismiche che hai ricordato). Le norme e i criteri progettuali non nascono necessariamente perfetti e aggiustano il tiro sulla base dell’esperienza dei terremoti. Ad esempio, certamente è solo da quindici-venti anni che si è incominciato a riconoscere che certi tipi di interventi proposti e largamente applicati dopo i sismi del Friuli e della Basilicata sono dannosi o non funzionano (si pensi ai famigerati ”cordoli in cemento armato in breccia” inseriti in un edificio esistente in muratura di pietrame: è da Umbria-Marche ’97 che si è incominciato a capirne l’inefficacia).
Nei centri in cui la presenza di una normativa o di una classificazione sismica sembra non aver sortito alcun effetto bisogna tener conto anche del fatto che i controlli sulla qualità della costruzione degli edifici, in particolare in muratura, erano inesistenti o inefficaci almeno fino alle legislazioni più recenti. L’uso di una malta scadentissima è un elemento ricorrente in molte delle vecchie costruzioni in muratura crollate o danneggiate nell’ultima sequenza sismica. In centri come Accumoli e Amatrice sembra che anche dove sono stati fatti interventi sugli edifici, sostituendo ad esempio i vecchi solai, o inserendo qualche catena, non ci fosse consapevolezza o si sia molto sottovalutato il problema della scarsa qualità muraria, rendendo in definitiva inefficaci gli interventi fatti. Aggiungiamo poi che gran parte di quelle aree hanno subito dagli inizi del 1900 ad oggi un notevole spopolamento, con inevitabili conseguenze sulla manutenzione delle costruzioni, che ha portato ad un incremento di vulnerabilità piuttosto diffuso.

Ci sono poi alcuni casi particolari in cui norme storiche e norme più recenti sembrerebbero aver avuto un effetto positivo. Prendiamo l’esempio di Norcia: senza entrare nel dettaglio delle misurazioni delle caratteristiche del moto, è un dato di fatto che Norcia nell’ultima sequenza abbia subito forti scuotimenti, paragonabili a quelli di Amatrice e Accumoli ma con un danno agli edifici molto inferiore. Nella storia di Norcia ci sono stati due eventi molto significativi che hanno avuto un effetto notevole sulla risposta degli edifici in quest’ultima sequenza, uno antecedente ed uno seguente alla norma del 1962. Nel 1859 un forte terremoto causò numerosi crolli e vittime in alcune zone del centro storico, e a seguito di ciò lo Stato Pontificio emanò un regolamento molto efficace che dava una serie di disposizioni sulle riparazioni e le ricostruzioni: sulla geometria, in particolare sull’altezza massima degli edifici (due piani), sui dettagli costruttivi, sulla qualità dei materiali. Poi nel 1979 c’è stato un altro terremoto in Valnerina, a seguito del quale si sono danneggiate altre parti del centro storico, a cui hanno fatto seguito una serie di interventi sistematici di rinforzo, su molti edifici. In molti di questi edifici il rinforzo delle murature verticali (pur con la tecnica controversa dell’intonaco armato) ha rimediato ad uno dei principali elementi di vulnerabilità, cioè la scarsa qualità muraria. Se per un attimo lasciamo da parte gli elementi che possono andare a sfavore dell’uso dell’intonaco armato (in primis la durabilità dell’intervento), e lo vediamo semplicemente come una tecnica che ha rimediato ad un fattore di grande vulnerabilità, possiamo dire che per Norcia c’è quindi stato un effetto positivo di normative regionali pre-moderne e più recenti scaturite dall’esperienza diretta di eventi sismici.

3. Parliamo di normativa sismica e in particolare dei suoi aspetti ingegneristici. Si sente dire che è variata molto nel tempo, e che forse quella non recente non era del tutto efficace. E’ vero, e se sì perché?

Per quanto riguarda la componente ingegneristica della norma, quello che sappiamo ora del comportamento strutturale e sismico delle costruzioni, in muratura ma non solo, è il frutto di una continua evoluzione attraverso l’esperienza dei terremoti italiani e in altre parti del mondo. Da noi in Italia lo studio ingegneristico delle costruzioni in muratura ha ripreso vita, dopo decenni di quasi totale abbandono, dopo il terremoto del Friuli. Le prime norme in cui si danno indicazioni su come “calcolare” un edificio in muratura in Italia risalgono ai primi anni ’80 (per “calcolare” intendo “valutare quantitativamente il livello di sicurezza”). Per quanto il “calcolo” non sia l’unica componente della progettazione, questo fatto dà l’idea di come siano solo le norme molto recenti ad avere una base tecnico-scientifica allineata con le conoscenze attuali. Ci tengo a dire che l’assenza del calcolo in un progetto non implica necessariamente che l’edificio non sia sicuro: nel passato si seguivano regole geometriche e costruttive di tipo empirico, basate sull’esperienza e sull’intuizione del comportamento meccanico, ancorché non esplicitata in calcoli. Ancor oggi per la progettazione di un edificio in muratura semplice e regolare è possibile seguire regole geometriche e costruttive codificate che consentono di evitare calcoli dettagliati o complessi, raggiungendo comunque un livello adeguato di sicurezza.
Le esperienze dei sismi dell’Irpinia, dell’Umbria-Marche, via via fino ai più recenti dell’Italia centrale, sono stati un continuo banco di prova e una fonte di conoscenza. Ad esempio, come accennato nella risposta alla domanda precedente, il terremoto Umbria-Marche 1997, oltre a sottolineare come sempre la grande vulnerabilità delle chiese e di certe strutture storiche, è stato un notevole banco di prova per criteri e tecniche di intervento sugli edifici in muratura proposti e sviluppati a seguito dei terremoti italiani di fine anni ’70, mettendo in evidenza come alcune tecniche non risultano essere molto efficaci o possono essere addirittura controproducenti se applicate in modo indiscriminato e inconsapevole.

Per concludere questa mia risposta con una mia opinione sulle attuali norme tecniche, credo che per quel che riguarda la progettazione delle nuove costruzioni siamo veramente ad un livello molto avanzato e che consegue i livelli di sicurezza che oggi si ritengono adeguati  Credo che ci siano più incertezze in merito alla valutazione e al rinforzo degli edifici esistenti, anche se non è tanto un problema normativo ma proprio di conoscenze scientifiche e di corretta individuazione di strategie e tecniche per l’intervento. E’ certamente più facile concepire e costruire ex novo un edificio sismo-resistente, che valutare e intervenire su un edificio esistente.

4. Quanto – e come – gioca nella sicurezza sismica di un edificio in muratura la sua realizzazione, al di là del progetto?

La domanda mi dà l’occasione di soffermarmi ancora un momento su cosa si intende per “progetto”, che è qualcosa di diverso dal mero “calcolo”. Il progetto comprende tutti gli aspetti di ideazione, concezione, scelta e organizzazione della struttura, scelta di materiali e tecniche costruttive con la consapevolezza di come potranno e dovranno essere realizzati in opera, calcoli di verifica delle prestazioni in termini di sicurezza e di comportamento in esercizio, prescrizioni sui dettagli costruttivi. Nella progettazione sismica moderna è inoltre necessario tener conto, quando rilevante, della risposta sismica delle parti non strutturali della costruzione. Deve inoltre esserci il controllo che quanto prescritto nel progetto sia realizzato in fase di costruzione. Il calcolo è quindi solo una componente del progetto. E’ interessante quindi notare come gran parte degli edifici esistenti in muratura non è stato calcolato, perlomeno come intendiamo il calcolo strutturale ora. La prima norma tecnica nazionale sulle costruzioni in muratura con una descrizione sufficientemente dettagliata dei calcoli per la verifica strutturale risale al 1987. Norme tecniche con indicazioni per il calcolo sismico, sono state emanate dopo il sisma del Friuli 1976 e via a seguire. Prima di quelle norme esisteva sostanzialmente una letteratura e una manualistica tecnica, con riferimento ai principi della meccanica, nonché una tradizione costruttiva. Vorrei chiarire che sto parlando di norme che dicano come calcolare la resistenza di un edificio in muratura, soggetto ad azioni sismiche o non sismiche. Tanto per fare un esempio, il Regio Decreto del 1909 (post terremoto di Messina), grande esempio storico di normativa sismica, dà criteri per definire l’azione sismica, dà regole costruttive e geometriche ma non dice come si calcola la resistenza (quella che oggi si chiamerebbe la capacità) di un edificio in muratura.

La tradizione costruttiva basata sul rispetto della “regola dell’arte” ha sempre avuto ben presente l’importanza del dettaglio costruttivo, della qualità dei materiali, di come l’edificio viene costruito, e questo ha consentito e consente ad edifici ben costruiti ma non “calcolati” di resistere egregiamente a scosse sismiche anche molto violente. Nella costruzione moderna il rispetto in cantiere delle regole esecutive, del controllo della qualità dei materiali, è altrettanto importante, anche se lo è per la muratura come per le altre tipologie. La sensibilità della struttura a difetti costruttivi è funzione del livello di robustezza della concezione strutturale. Una costruzione scatolare in muratura, fortemente iperstatica (cioè in cui il numero di elementi resistenti è superiore al minimo necessario per garantire l’equilibrio dei carichi) potrebbe in principio essere meno sensibile al problema di una struttura prefabbricata isostatica (cioè in cui il numero di elementi resistenti è pari al minimo necessario per garantire l’equilibrio dei carichi, per cui è sufficiente che un solo elemento vada in crisi per avere il collasso). Ovviamente stiamo parlando di eventuali difetti locali e non generalizzati su tutta la costruzione. Se tutti i materiali sono scadenti in tutta la costruzione è un grosso guaio, ed è comunque difficile dire se sta peggio un edificio in muratura o uno a telaio in cemento armato, in cui magari aggiungiamo difetti nei dettagli d’armatura nei nodi o negli ancoraggi….

5. Molti operatori che sono intervenuti sul campo, hanno riscontrato tracce di interventi che avrebbero indebolito le strutture. Ti risulta?

Nei rilievi post-terremoto svolti in modo rapido in condizioni di emergenza, non sempre si riesce a capire con chiarezza la storia dell’edificio e quali modifiche siano state apportate, in che tempi e modalità, ma a volte è evidente che alcune modifiche apportate al fabbricato siano state di detrimento alla sicurezza.  Sovente si tratta di interventi fatti con totale inconsapevolezza degli effetti sulla sicurezza e con finalità legate puramente alla destinazione d’uso, all’utilizzo e alla ridistribuzione degli spazi. In altri casi, più rari, si tratta di situazioni di interventi fatti anche con finalità “strutturali” magari anche con l’idea di conseguire un incremento di sicurezza, ma che in realtà sono dannosi o inefficaci. Un classico esempio, spesso discusso in letteratura anche sulla base dei rilievi post-sisma italiani da Umbria-Marche 1997 in poi, è l’inserimento di elementi strutturali nuovi, rigidi e pesanti (come ad esempio la sostituzione di un solaio in legno con un solaio in cemento armato) in un edificio con muratura molto debole (ad esempio muratura in pietrame irregolare con malta scadente), senza che la muratura venga consolidata in modo adeguato. C’è stato un periodo, successivo ai terremoti del Friuli e dell’Irpinia, in cui si sosteneva molto il fatto che i diaframmi (ovvero i solai e i tetti) rigidi aumentano l’iperstaticità, ovvero la robustezza della costruzione e il cosiddetto “comportamento a scatola”, per cui si cercava di riprodurre in strutture esistenti qualcosa che è relativamente semplice realizzare e i cui effetti sono ben controllabili nelle nuove costruzioni,  ma che in una costruzione esistente ha problemi realizzativi (nel collegamento tra elementi nuovi e elementi esistenti) e strutturali  (possibile aumento delle sollecitazioni nella muratura). E’ importante notare che l’efficacia degli interventi viene messa alla prova da terremoti che hanno luogo successivamente, e in alcune zone dell’Italia centrale è stato ed è possibile ora trarre indicazioni di questo tipo. Nel terremoto dell’Umbria-Marche del 1997 è stato possibile osservare diverse situazioni problematiche in edifici in cui erano stati sostituiti i solai esistenti con solai più pesanti e rigidi.

Permettimi però di aggiungere un ulteriore commento. Dal punto di vista scientifico, il fatto che un intervento sia “dannoso” ovvero indebolisca la struttura rispetto al non-intervento è verificabile sperimentalmente solo se c’è il riscontro di cosa succederebbe all’edificio senza intervenire e cosa succederebbe a seguito dell’intervento. Questo tipo di confronto nella stragrande maggioranza dei casi non c’è o non è possibile farlo, a meno di casi fortunatissimi di edifici quasi identici costruiti sullo stesso suolo in cui uno è stato rinforzato e l’altro no, oppure sono stati rinforzati con metodi diversi. Oppure, come ad alcuni ricercatori capita di fare, quando si confrontano prove sperimentali su tavola vibrante. Quindi in generale io sono sempre piuttosto scettico di fronte a interpretazioni date sulla base di rilievi puramente visivi, senza il necessario approfondimento dei dettagli e senza una analisi quantitativa svolta in modo competente.
Mi sento di poter dire (e so che molti colleghi hanno la stessa opinione) che in moltissime situazioni viste in centro Italia il crollo della costruzione sarebbe avvenuto e avverrebbe a prescindere dal tipo di solaio, leggero o pesante, rigido o flessibile, in virtù della pessima qualità della muratura, che mi sembra sia stato il problema principale.

6. Come ha giocato nell’aggravamento del danno (laddove si è verificato) il ripetersi degli scuotimenti forti? Si tratta di qualcosa che è implicitamente previsto, e contrastato, dalle norme sismiche? Viceversa, come spieghi i numerosi casi di assenza quasi totale di danno?

Lo scuotimento ripetuto aggrava tanto più il danno quanto più il danno generato dalla scossa precedente è grave. Sembra un’affermazione un po’ banale, però nella sostanza è quello che succede. Per esempio, se in un edificio in muratura una prima scossa genera solo poche fessure non molto ampie e di un certo tipo (ad esempio fessure orizzontali nei muri, che si richiudono dopo la scossa per effetto del peso proprio), l’edificio non ha perso molta della sua capacità resistente; quindi se verrà assoggettato a scuotimenti ripetuti, meno intensi della prima scossa, è possibile che il danno non si aggravi eccessivamente, e se verrà assoggettato ad uno scuotimento più forte della prima scossa avrà una resistenza uguale o di poco inferiore a quella che avrebbe se la prima scossa non ci fosse stata. Se invece una scossa porta a sviluppare fessure diagonali (le cosiddette fessure “per taglio”) o fessure verticali con distacchi, la parte lesionata ha perso una quota significativa della sua capacità di resistere e lo scuotimento ripetuto successivo può portare al degrado progressivo e al crollo anche se le scosse successive subite dall’edificio, singolarmente sono magari meno forti della prima. E’ qualcosa di visibile e riproducibile anche in laboratorio.

Detto questo, ci sono tipologie di costruzioni e di elementi strutturali che sono più o meno sensibili al ripetersi dell’azione sismica. Quando gli ingegneri sismici parlano di “duttilità” della struttura o di un meccanismo si riferiscono anche a questo, cioè alla capacità di una struttura di resistere a ripetuti cicli di sollecitazione ben oltre la soglia della prima fessurazione o del primo danno visibile, senza arrivare al crollo. Una costruzione moderna ben progettata in cemento armato è una struttura di questo tipo, ad esempio. La muratura non armata, invece è più suscettibile al danno indotto dalla ripetizione di cicli di sollecitazione post-fessurazione. Come conseguenza, gli edifici esistenti in muratura una volta danneggiati da una prima scossa sono più vulnerabili a scosse successive. Se invece la prima scossa non genera danni di rilievo la sicurezza della costruzione si mantiene, nella maggior parte dei casi, più o meno inalterata e questo rende conto del fatto che anche numerose costruzioni in muratura hanno resistito alle scosse ripetute. Purtroppo a volte il danno può non essere chiaramente visibile. Il danno nella muratura si origina sotto forma di micro-fessure (non visibili ad occhio nudo) che si sviluppano poi in macro-fessure. Se in una prova di laboratorio si spinge un campione di muratura ad una condizione molto prossima all’innesco delle macro-fessure ma si rimuove il carico prima del loro sviluppo, può succedere che in una fase di carico successiva la macro-fessura si formi ad un livello di carico inferiore a quello raggiunto nella prima fase. Può quindi succedere che un edificio che ha resistito ad una scossa violenta senza danni apparenti si lesioni visibilmente per una scossa successiva meno violenta della prima.

Mi chiedi se il comportamento della struttura a scosse ripetute sia implicitamente considerato nelle norme sismiche: la risposta è affermativa, almeno per alcuni aspetti. Ad esempio, il rispetto di certi dettagli costruttivi nel cemento armato e l’applicazione di certe regole nel dimensionamento delle sezioni e dell’armatura hanno proprio anche questo scopo, di rendere la struttura meno suscettibile al danno sotto azioni ripetute. Inoltre strutture meno duttili, come quelle in muratura non armata, vengono progettate con azioni sismiche di progetto più elevate anche per “compensare” la loro maggiore suscettibilità al degrado dovuto all’azione ripetuta. Ci sono però alcuni aspetti del problema della resistenza e dell’accumulo del danno sotto scosse ripetute che restano ancora da esplorare e costituiscono un argomento di ricerca ancora abbastanza “di frontiera”. In particolare, se è vero che incominciano ad essere disponibili dei modelli concettuali per valutare come cambia il rischio (ovvero la probabilità di collasso o di danneggiamento) di un edificio o di un insieme di edifici al trascorrere del tempo e al susseguirsi delle scosse sismiche, questi modelli vanno ancora notevolmente affinati per dare risultati che siano quantitativamente affidabili.

7. Mi sembra di capire che la varietà delle casistiche degli edifici in muratura, almeno in Italia, sia veramente elevata: tanto elevata che conoscerle richiede un approccio simile a quello della medicina dove ogni caso rappresenta quasi un fatto singolo. Forse non esiste quindi una terapia universale ogni caso richiede una cura particolare: è corretto? E se sì, visto che le condizioni edilizie di diverse zone dell’Appennino (e non solo) sono simili a quella delle zone colpite nel 2016, ci si devono attendere distruzioni analoghe?

Questo paragone con la medicina calza benissimo, ci sono veramente tante analogie tra il lavoro del tecnico che deve capire cosa fare di un edificio esistente e quello del medico che cerca di fare una diagnosi e di individuare una terapia corretta su un paziente. Dal punto di vista tecnico non esiste una terapia universale e a nessun (bravo) medico verrebbe in mente di applicare un protocollo terapeutico senza l’anamnesi, l’esame obiettivo, eventuali esami strumentali o di laboratorio e la formulazione di una diagnosi (che ci dice quale è la malattia /stato di salute del paziente, e quindi ci definisce di cosa ha bisogno). Il bravo tecnico segue un percorso analogo per pervenire alla valutazione della sicurezza e alle possibili ipotesi di intervento (o non intervento). Certo è possibile e doveroso, come avviene a livello sanitario, definire delle strategie e delle politiche di prioritizzazione e allocazione di risorse per far sì che complessivamente il rischio sismico nel nostro paese diminuisca. E’ certo che là dove l’edilizia vecchia non è stata soggetta a manutenzione, o a sola manutenzione estetica e funzionale senza rinforzo strutturale ci si possono attendere distruzioni analoghe a quelle viste nel 2016 in occasione di eventuali futuri sismi di magnitudo comparabile. Questo vale sia per l’edilizia pubblica che privata. Là dove invece si è intervenuti o si interverrà in modo consapevole ponendo attenzione al problema della sicurezza sismica, l’esperienza degli ultimi terremoti ci insegna che il livello di danno da attendersi sarà più contenuto.

Permettimi di concludere questa intervista con qualche commento di tenore non prettamente tecnico-ingegneristico. La possibilità di ridurre il rischio sismico in Italia dipende da tanti fattori, che vanno dal modo con cui la politica affronta il problema dei rischi naturali, al modo con cui i tecnici, singolarmente e collettivamente, interagiscono e comunicano con la politica, al modo con cui si comunica la presenza del rischio alla popolazione, al conseguente modo con cui il cittadino compie le sue scelte quando acquista o deve decidere di manutenere un immobile. Secondo me è necessario arrivare progressivamente ad un sistema in cui il cittadino riconosca che è nel suo interesse perseguire una maggiore sicurezza sismica, spendendo inizialmente un po’ di più perché ne avrà un ritorno in futuro non solo in termini di sicurezza ma anche di beneficio economico, ad esempio di valore del proprio immobile. L’iniziativa del Sismabonus è sicuramente un primo passo in questa direzione, ma dovranno essere fatti altri passi. L’obiettivo, certamente non facile da raggiungere, dovrebbe essere che il livello di sicurezza di una costruzione abbia un chiaro corrispettivo in termini di valore economico, e credo che questo funzionerebbe sia per il piccolo proprietario che per gli investitori immobiliari. So che questo spaventa alcuni, ma personalmente credo che, almeno per quel che riguarda il patrimonio immobiliare di proprietà privata, non ci siano altre soluzioni per arrivare nel giro di qualche decennio ad una concreta e diffusa riduzione del rischio sismico in Italia.

 

 

 

 

 

Belice 1968: 50 anni dopo – Belice 1968, 50 years after (Massimiliano Stucchi)

Si ringraziano Renato Fuchs, Maurizio Ferrini e Andrea Moroni

English version below

Il terremoto – o meglio la sequenza sismica – del Belice (i parametri sismologici si possono trovare in https://emidius.mi.ingv.it/CPTI15-DBMI15/ arrivò nel gennaio del 1968, quando il “Sessantotto” non era ancora cominciato. Non si era “abituati” ai terremoti come lo siamo ai giorni nostri: sei anni prima c’era stato quello del Sannio-Irpinia e per avere un altro M6 bisognava risalire al 1930, anche se, nel frattempo, non erano mancati terremoti capaci di produrre danni.
I terremoti del Belice annunziarono in un certo senso il decennio sismico degli anni 70: 1971 Tuscania, 1972 Ancona, 1976 Friuli, 1978 Golfo di Patti, 1979 Norcia e Cascia, 1980 Irpinia e Basilicata. E il dopo-terremoto divenne simbolo di spopolamento, emigrazione, rapine di fondi pubblici, follie urbanistiche e quant’altro.

All’epoca studiavo fisica, con interessi prevalenti rivolti alla fisica cosmica. In occasione di un soggiorno a Palermo nel 1969 raccolsi le descrizioni di amici e parenti che avevano vissuto il periodo sismico. Scoprii Segesta e partecipai alla mattanza a Favignana ma non andai nel Belice. Visitai per la prima volta il Belice nel 1977, in autostop, in coda alla mia prima scuola di Geofisica di Erice, dopo aver partecipato alle celebrazioni del trentennale della strage di Portella della Ginestra. Si stava costruendo: diverse località – secondo tradizione – venivano ricostruite altrove, e le rovine di Gibellina non erano ancora state sigillate dal Cretto di Burri. 

Ci ritornai altre volte con la benemerita Scuola di Geofisica diretta da Enzo Boschi, sempre diretto alla mia preferita – e ancora viva – Poggioreale ormai “antica”.

Continua a leggere

“Ricostruire…dove, come?” Un opuscolo del 1981 – “Reconstructing … where, how?” A 1981 booklet (Massimiliano Stucchi)

Schermata 2017-11-24 alle 17.54.55english version below

Come già ricordato, il terremoto del 1980 trovò la comunità scientifica (sismologi, geologi, ingegneri, vulcanologi) impegnata nel Progetto Finalizzato Geodinamica (PFG) del CNR che stava volgendo al termine (avviato nel 1976 il PFG aveva incontrato i terremoti del Friuli, 1976; Patti, 1978; Norcia, 1979).

Lo sforzo fu enorme. Oltre alle osservazioni strumentali coordinate dall’Osservatorio Vesuviano, che consentirono in seguito una delle prime ricostruzioni “moderne” della sorgente sismica, furono svolte indagini macrosismiche e geologiche. Continua a leggere

Achille e la tartaruga, ovvero la riduzione di vulnerabilità e rischio sismico in Italia (colloquio con Gian Michele Calvi)

Come dopo ogni terremoto distruttivo in Italia, anche dopo la sequenza sismica del 2016-2017 si sono risvegliati i dibattiti sul rischio sismico, sulla messa in sicurezza degli edifici, i relativi costi, ecc.
Ne discutiamo con Gian Michele Calvi, professore allo IUSS di Pavia e Adjunct Professor alla North Carolina State University. Calvi è stato il fondatore della Fondazione Eucentre e della ROSE School a Pavia; è attualmente uno dei Direttori della International Association of Earthquake Engineering. Ha coordinato, fra le altre cose, il Gruppo di Lavoro che ha redatto il testo dell’Ordinanza PCM 3274 del 2003, che ha innovato il sistema della normativa sismica in Italia. È stato presidente e componente della Commissione Grandi Rischi, sezione rischio sismico. È stato imputato, e successivamente assolto “perché il fatto non sussiste”, nel cosiddetto “Processo Grandi Rischi”.

Ha sempre lavorato ad innovare la progettazione sismica, concentrandosi inizialmente sulle strutture in muratura e sui ponti, l’isolamento e la progettazione basata sugli spostamenti negli ultimi vent’anni. Ha pubblicato un gran numero di articoli sull’argomento e ricevuto vari riconoscimenti internazionali.

C’è qualcosa di nuovo all’orizzonte, secondo te?

Sai bene quanto me che si tratta di risvegli a carattere cronico, che si ripetono in modo analogo da più di un secolo. Nel caso specifico mi pare che ci siano ancora più chiacchiere e meno fatti. Incluso la fantomatica “Casa Italia” di cui confesso di non capire nulla, obiettivi strategia tattica risultati.
Gli unici momenti in cui ho percepito fatti veri, in modo diretto o attraverso lo studio della cronaca sono stati:

  • l’incredibile sviluppo scientifico e tecnico che ha seguito il terremoto di Messina del 1908;
  • la strategia di ricostruzione dopo il Friuli, in cui si è privilegiato il settore produttivo rispetto al residenziale;
  • la rivoluzione di norme e mappa di pericolosità dopo il terremoto di San Giuliano di Puglia del 2002;
  • la costruzione di 186 edifici isolati in poco più di sei mesi dopo il terremoto di L’Aquila.

So bene che gli ultimi due casi possono apparire come auto citazioni, ma ciò non toglie nulla ai fatti. Quello che ora mi piacerebbe vedere è un cambiamento della politica di intervento dopo un evento, con la creazione di incentivi che favoriscano l’azione dei privati ed il progressivo passaggio dallo Stato al sistema assicurativo della copertura delle perdite.
Spero, senza ottimismo. Continua a leggere

Achilles and the Turtle, or the reduction of vulnerability and seismic risk in Italy (interview with Gian Michele Calvi

(translated from the Italian by Google Translate, reviewed)

As after every destructive earthquake in Italy, the sequence of 2016-2017 has awakened the debates on seismic risk, on the safety of buildings, the relative costs, etc.
We discuss this with Gian Michele Calvi, who is professor at the IUSS of Pavia and Adjunct professor at North Carolina State University. He was the founder of the Eucentre Foundation and the ROSE School in Pavia; he is currently one of the directors of the International Association of Earthquake Engineering.
He coordinated, among other initiatives, the working group that drew up the text of the Ordinance PCM 3274 of 2003, which innovated the system of the seismic building code in Italy. He was president and member of the Commission of Major Risks, seismic risk section. He was accused, and subsequently acquitted “because the fact does not exist”, in the so-called “Great risks” or L’Aquila trial.
He has always worked to innovate the seismic design, concentrating mainly on masonry structures and bridges, isolation and design based on displacements over the last twenty years. He has published a large number of articles on the subject and received various international recognitions.

Is there something new on the horizon, according to you?

You know as well as me that there are chronic awakenings, which are repeated in a similar way since more than a century. In the specific case it seems to me that there is even more talking and less facts. Including the fancy “Casa Italia”, of which I confess I do not understand anything: tactics, strategy, goals.
The only moments in which I perceived real facts, directly or through the study of the history were:

  • the incredible scientific and technical development that followed the Messina earthquake of 1908;·
  • the rebuilding strategy after Friuli, where the production sector was more privileged than the residential one;
  • the revolution of codes and seismichazard maps the earthquake of San Giuliano of Puglia in 2002;
  • the construction of 186 isolated buildings in just over six months after the earthquake in L’Aquila.I know that the last two cases may appear as self-quotes, but that does not detract from the facts.
    What I would like to see now is a change in the policy of intervention after an event, creating incentives for private action and progressive transition from the state to the loss coverage insurance system.
    Hope, without optimism.

Continua a leggere

Che cosa vuol dire “antisismico”? What does “anti-seismic” mean? (Colloquio con Rui Pinho)

English version below

Il termine “antisismico” è entrato da qualche tempo a far parte del linguaggio corrente dei media: si legge ad esempio che “il 70% degli edifici italiani non è antisismico”; “9 scuole su 10 non sono antisismiche” (si veda ad esempio un recente articolo pubblicato dall’Espresso che fornisce la possibilità di interrogare il database delle scuole italiane, gestito dal MIUR, ottenendo la risposta al quesito se la singola scuola sia o meno antisismica – ne discutiamo più avanti). Il termine, tuttavia, assume differenti significati a seconda di chi lo usa: l’immaginario collettivo lo percepisce, più o meno, come una sorta di sistema binario che si risolve per l’appunto in un sì o un no (antisismico uguale “a prova di terremoto”): l’ingegnere lo intende in un modo un po’ diverso, e preferisce parlare ad esempio di “quanto antisismico”.
Ne discutiamo con Rui Pinho, ingegnere sismico, professore associato all’Università di Pavia, per cinque anni segretario generale dell’iniziativa internazionale GEM (Global Earthquake Model) e che svolge ora l’incarico di Direttore Scientifico della Fondazione Eucentre di Pavia. Continua a leggere

Sopra i nostri piedi – Above our feet (Massimiliano Stucchi)

(english version below)

Questo titolo prende manifestamente spunto da quello del volume di Alessandro Amato: “Sotto i nostri piedi”, arrivato alla seconda ristampa (con integrazione sulla sequenza sismica del 2016 in Centro Italia) e in distribuzione nelle edicole con “Le Scienze”, dopo che l’autore è stato finalista del Premio Letterario Galileo 2017.

Il volume di Amato tratta di sismologia, previsione dei terremoti, aspetti scientifici, culturali e politici. I sismologi si occupano di descrivere, nel miglior modo possibile, come si generano i terremoti e come le onde sismiche si propagano nella Terra; il tutto, appunto, sotto i nostri piedi. Alcuni sismologi si occupano, in una specie di terra di confine dove operano anche alcuni ingegneri, di descrivere come le onde sismiche interagiscono con la superficie del terreno e con gli edifici: quindi, di fornire la descrizione del moto del suolo nelle modalità più adatte all’ingegneria sismica. Questa terra di confine si chiama in inglese “engineering seismology”, le cui possibili traduzioni italiane suonano tutte male. Una Sezione dell’INGV, quella di Milano, si occupa in prevalenza di questi aspetti ed era denominata “Sismologia Applicata”; tempo fa aveva ricercato una collaborazione stretta, istituzionale, con la Fondazione Eucentre di Pavia, alla cui costituzione INGV aveva peraltro contribuito come socio fondatore, sia pure con poco merito e ancor meno investimento. Continua a leggere

Ricordo di Nanni Bignami – Remembering Nanni Bignami (Giacomo Cavallo)

Il 25 maggio scorso la comunità scientifica italiana è stata privata di una delle sue maggiori e, possiamo dire, più simpatiche figure.  Giovanni – “Nanni” per gli amici, ed erano moltissimi –  Bignami  è improvvisamente mancato in un Hotel di Madrid, dove si trovava per un Congresso Scientifico.  Dopo lo shock iniziale, alla sua scomparsa hanno fatto seguito i necrologi, le commemorazioni, i ricordi, che continuano tuttora.   Il ricordo che ne fu fatto davanti ad una numerosa assemblea al Museo della Scienza di Milano è disponibile in rete http://gallery.media.inaf.it/main.php/v/video/conferenze/20170601-saluto-nanni.mp4.html.
Uno degli scritti più accorati e sinceri è comparso come Obituary su  Nature Astronomy del  24 luglio 2017 , a firma del Prof. Pietro Ubertini, e contiene forse la più completa raccolta delle realizzazioni di  Nanni Bignami, uomo di straordinaria energia ed attività (http://rdcu.be/uroi). Continua a leggere

Ischia, Torre Annunziata, perception of risk and magnitude (M. Stucchi)

This is a quick translation from the Italian version, with the help of Google. Sorry for the imperfect English. Thanks to Ina Cecic for her prompt review.

Italy was beginning to remember the anniversary of Amatrice’s earthquake (August 24, 2016) in different ways, of course, when the Ischia earthquake dramatically reopened the problem of so-called prevention, of which so much has been said and spoken about.
On the morning of the 21st, the day of the earthquake, Minister Del Rio had spoken at the Rimini (Comunione and Liberazione) meeting. Del Rio is a Minister of a couple of governments I do not like, but among the many is a person I trust. After (unfortunately) reproposing a “pearl” that must have remained in his pocket since the earthquakes of 2012 (“the area was not known as seismic“, ignoring the work done by the Emilia and Romagna Region to delay as much as possible the affiliation to a seismic zone of much of its territory), he recalled, illustrated and defended the so-called “sismabonus” and the initiatives of “Casa Italia”, also reminding that the solution of the problems is not for tomorrow. Stimulated by some interlocutors, he also pushed further on, talking about the necessity of the “building dossier” and of demolitions, where necessary. Ohibò! Continua a leggere

Ischia, Torre Annunziata, percezione del rischio e magnitudo (Massimiliano Stucchi + 8 commenti)

L’Italia si stava avviando a ricordare l’anniversario del terremoto di Amatrice (24 agosto 2016) con modalità diverse, ovviamente, quando il terremoto di Ischia ha riaperto drammaticamente il problema della cosiddetta prevenzione, di cui tanto si è parlato e si parla. La mattina del 21, giorno del terremoto, il Ministro Del Rio aveva parlato al meeting di Rimini. Del Rio è ministro di un paio di governi che non mi piacciono, ma fra i tanti è una persona che stimo. Dopo aver (purtroppo) riproposto una “perla” che deve essergli rimasta in tasca dai tempi dei terremoti del 2012 (“la zona non era conosciuta come sismica”, ignorando il lavorio fatto dalla Regione Emilia e Romagna per ritardare il più possibile l’inserimento in zona sismica della gran parte del suo territorio), ha ricordato, illustrato e difeso il “sismabonus” e le iniziative di “Casa Italia”, ricordando anche che la soluzione dei problemi non è per domani. Stimolato da qualche interlocutore si è anche spinto più in là, parlando della necessità del fascicolo di fabbricato e di eventuali demolizioni, ove necessario. Ohibò! Continua a leggere

Earthquakes and Great Risks: a blog 2014-2015 (M. Stucchi)

English material

“Earthquakes and Great Risks” è stato, a partire dall’ottobre 2014, il cugino di lingua inglese di questo blog. E’ nato soprattutto per fornire al lettore internazionale la versione “corretta” dei fatti legati al processo “Grandi Rischi”, a fronte di una diffusione impressionante di informazioni e interpretazioni che possiamo definire inesatte – nel migliore dei casi.
Il blog ha contenuto una ventina di post, parte dei quali – a cura di G. Cavallo e di M. Stucchi – dedicati a fare chiarezza su quanto sopra, e parte a fornire una cronaca, quasi in diretta, del processo d’Appello.
E’ stato letto da qualche migliaia di lettori provenienti da 98 nazioni (vedi  mappa).

Schermata 2017-08-02 alle 15.44.13

Rileggendolo oggi, a parte le imprecisioni e gli inevitabili errori di lingua, si ha l’impressione che abbia fornito una analisi attenta e circostanziata – forse più che in questo stesso blog – dei principali “pitfalls” riguardanti il processo sulla base dei quali sono stati costruiti numerosi articoli internazionali, anche su riviste “peer reviewed”, scritti anche da illustri colleghi. Questo sforzo è stato riconosciuto da diversi lettori.

Per non perdere questi contenuti il blog, che verrà chiuso a breve, è stato  salvato nella sezione “English material”.

La vicenda processuale alla prova del romanzo. Luci e ombre del volume “La causalità psichica nei reati colposi” di Marco Billi (Cecilia Valbonesi)

Cecilia Valbonesi è Dottore di ricerca in Diritto penale presso l’Università degli Studi di Firenze e Avvocato del Foro di Firenze. Per motivi scientifici ha seguito e commentato il cosiddetto  processo Grandi Rischi. In ultimo si veda “Terremoti colposi e terremoto della colpa: riflessioni a margine  della sentenza “Grandi Rischi”, in Rivista Italiana di Diritto e Procedura Penale, 2016, n. 3, p. 1498.
Le abbiamo chiesto un commento al volume – uscito lo scorso marzo – del Giudice di primo grado del processo stesso, Marco Billi.

Di recente, il copioso panorama letterario sulla vicenda giudiziaria relativa alle responsabilità della c.d. Commissione Grandi Rischi si è arricchito di un nuovo volume dal titolo “La causalità psichica nei reati colposi”.
L’ambizioso progetto reca la firma del Giudice estensore della prima sentenza di merito (Tribunale di L’Aquila, 22/10/2012, n. 380) che, accogliendo pienamente le prospettazioni accusatorie, ha condannato per omicidio colposo plurimo e lesioni colpose i sette scienziati i quali, a suo giudizio, “componevano la Commissione Grandi Rischi” della Protezione civile nella riunione del 31 marzo 2009. The L’Aquila Seven  furono ritenuti responsabili di quella scorretta valutazione e informazione sul rischio sismico che avrebbe cagionato la morte ed il ferimento di 29 cittadini (13 secondo la Corte d’Appello e la Corte di Cassazione)  rimasti schiacciati sotto le macerie delle proprie case. Continua a leggere

Dopo i terremoti: alloggi provvisori e ricostruzione consapevole (di Renato Fuchs)

Da varie settimane si assiste a un crescendo di proteste per i ritardi con cui vengono portati avanti i piani di ricostruzione dei paesi colpiti dai terremoti del 2016, il cui numero si è esteso a seguito degli eventi del gennaio 2017. Di recente, lo stesso Commissario Straordinario Vasco Errani ha sostenuto che poco è stato fatto.
E’ bene precisare, tuttavia, che si tratta di ritardi riferiti alla fase di assistenza post-terremoto, e non di ricostruzione vera e propria, della quale non si conoscono ancora i piani definitivi.
Abbiamo posto alcune domande a Renato Fuchs, di Eucentre, che ha svolto un importante ruolo organizzativo nell’ambito del “Progetto CASE” (L’Aquila, 2009) ed è ora responsabile del sistema informativo di supporto alla gestione delle necessità di assistenza alla popolazione a seguito delle recenti emergenze in Centro Italia, realizzato in collaborazione con il Dipartimento della Protezione Civile (DPC).

Con quali strumenti è stata gestita la fase di prima assistenza, per assicurare ai terremotati un alloggio provvisorio dopo il periodo trascorso nelle tendopoli?
Ai cittadini colpiti dagli ultimi terremoti sono state offerte le seguenti forme di assistenza:
– Container collettivi: sono soluzioni “ponte” tra le tende e le altre sistemazioni, consistenti in edifici prefabbricati di grandi dimensioni, in ciascuno dei quali vengono ospitate 20-30 persone;
– CAS (Contributo di Autonoma Sistemazione): un contributo economico mensile alla famiglia che intenda alloggiare a proprie spese. L’importo dipende dal numero di componenti il nucleo famigliare e dalla presenza nello stesso di anziani, disabili o portatori di handicap. Tale importo, inizialmente fissato in 200 euro a persona al mese, è stato aumentato a partire dal 15 novembre 2016 a 300 euro a persona;
– Alloggio in strutture ricettive: è stata stipulata una convenzione con le associazioni di categoria, in base alla quale per ogni giornata di presenza di un cittadino presso una struttura ricettiva, viene riconosciuto alla stessa un importo di 40, 35 o 25 euro in funzione del trattamento ricevuto (rispettivamente pensione completa, mezza pensione o camera e colazione);
– SAE (Soluzioni Abitative di Emergenza): sono edifici prefabbricati, realizzati dalle ditte che si sono aggiudicate nel 2014 una gara CONSIP, di diverse metrature in funzione della numerosità del nucleo familiare, generalmente “a schiera”. Le tempistiche per la loro disponibilità dipendono anche dall’individuazione delle aree e dalla realizzazione dei necessari lavori di fondazione e di urbanizzazione;
– MAPRE (Moduli Abitativi Provvisori Rurali Emergenziali): si tratta di edifici prefabbricati singoli, installati in prossimità di stalle o fattorie, destinati ad ospitare gli allevatori/agricoltori che abbiano la necessità di rimanere vicini ai propri luoghi di lavoro. Continua a leggere

Terremoti e faglie nell’Appennino centrale, tra prevedibilità e sorprese (Gianluca Valensise)

Gianluca Valensise, sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).
Qualche settimana fa ha rilasciato una intervista sul potenziale sismico della faglia del Gorzano, interessata dai terremoti del 18 gennaio 2017, i cui contenuti non coincidevano esattamente con il comunicato del Dipartimento della Protezione Civile (DPC), che riassumeva il parere della Commissione Grandi Rischi (CGR).
La materia è complessa e le valutazioni sul potenziale sismogenetico di una faglia, prima e dopo un evento sismico importante, sono particolarmente difficili. Abbiamo chiesto a Gianluca di offrirci il suo punto di vista, per aumentare la nostra capacità di comprensione, senza per questo volerlo porre in contrapposizione ad altri pareri, in particolare a quelli “ufficiali”.

Gli eventi del 18 gennaio 2017 non possono essere analizzati a prescindere dalla sequenza di eventi iniziata il 24 agosto 2016. Qual’è la tua opinione su questa sequenza, lunga e dolorosa?

La mia opinione, che dettaglierò meglio nella risposta alla domanda seguente, è che le sequenze lunghe e articolate siano una caratteristica connaturata con l’essenza stessa dell’Appennino. Le rocce che formano la crosta terrestre al di sotto dell’Appennino sono sempre sotto tensione, più o meno “cariche” e più o meno vicine al punto di non ritorno, ovvero al terremoto. Ma il terremoto può accadere “in un’unica soluzione”, come avvenne ad esempio in Irpinia nel 1980, quando una devastante scossa di magnitudo prossima a 7.0 fu seguita da un corteo di repliche trascurabile rispetto a quello che abbiamo visto negli ultimi sei mesi, o può avvenire per scosse successive di dimensioni grossolanamente confrontabili, come è successo con i tre terremoti di Amatrice (24 agosto, M 6.0), Visso (26 ottobre, M 5.9), e Norcia (30 ottobre, M 6.5: si veda l’immagine allegata); i quali, tra l’altro, hanno rilasciato una energia complessiva che è ancora inferiore a quella rilasciata dal solo terremoto del 1980.

Valensise_sequenza 2016-2017

Distribuzione delle scosse principali (magnitudo 5.4 e superiori) della sequenza del 2016-2017. L’immagine è stata tratta dal sito INGVTerremoti ed è aggiornata al 23 gennaio scorso: risultano quindi in piena evidenza le quattro forti scosse del 18 gennaio e le successive repliche (https://ingvterremoti.wordpress.com/2017/01/23/sequenza-in-italia-centrale-aggiornamento-del-23-gennaio-ore-1100/).

Continua a leggere

Terremoti e grandirischi: ci risiamo? (di Massimiliano Stucchi)

Una doverosa premessa: di seguito commento quanto letto su “social” e stampa, fonti che – come è noto – devono essere prese con il beneficio di inventario.

Il 18 gennaio 2017 alcuni terremoti di media magnitudo hanno interessato la zona a sud di Amatrice, già in parte colpita dalla sequenza sismica iniziata il 24 ottobre 2016, nella quale si trova il bacino d’acqua di Campotosto. Ai terremoti è seguita la valanga che ha sepolto l’hotel Rigopiano.
Il 20 gennaio si è riunita la Commissione Grandi Rischi, organo consultivo del Dipartimento della Protezione Civile (DPC) che – secondo le procedure in uso dopo la ridefinizione dei suoi compiti seguita alla vicenda aquilana del 2009 – ha rilasciato le proprie valutazioni mediante un verbale destinato a DPC. Continua a leggere

Terremoti, esposizione e assicurazioni (di Patrizia Feletig e Enzo Boschi)

Di tutti paesi dell’Europa l’Italia è il paese più esposto alle catastrofi. Terremoti, alluvioni, frane, maremoti, avversità atmosferiche eccezionali di ogni sorta, colpiscono regolarmente il Belpaese che deve mettere in conto dai 3-3,5 miliardi annui  di danni materiali. In media, perché se succede “the Big One”, ovvero l’evento con ricorrenza ogni 200 anni allora le perdite economiche causate da calamità schizzano molto in alto.

Per esempio, incrociando la storia sismica nazionale con gli strumenti parametrici di sofisticati modelli si ricavano proiezioni da brivido. Secondo una simulazione della società svizzera di riassicurazione Swiss Re, un terremoto di magnitudo 6.2 (come quello di Amatrice) nell’area di Parma potrebbe causare perdite per 53 miliardi di euro. A titolo di confronto, considerate che gli 8 rilevanti terremoti (escluso quello dell’ultima settimana) avvenuti negli ultimi 40 anni sulla Penisola hanno totalizzato danni per 60 miliardi di euro circa.
Per completare queste fosche statistiche bisogna sapere che, dal 1970 ad oggi, 7 dei 10 terremoti  più costosi d’Europa si sono verificati in Italia paese doppiamente esposto sia per la vulnerabilità del suo patrimonio artistico che per le costruzioni edificate in assenza o in barba alla normativa antisisimica. Aspetto che dovrebbe far riflettere sulla concessione  del governo di assicurare il risarcimento a tutti, comunque e nonostante le responsabilità precise di taluni, pubblico o privato che siano.

L’indesiderabile primato italiano di esposizione alle catastrofi naturali si accompagna di un’aggravante: risarcire costerà sempre di più. Si accresce il valore concentrato su ogni metro quadro. E’ un trend in accelerazione confermano nel settore assicurativo. Del resto basta paragonare i macchinari di una filanda con quelli di una fabbrica 4.0 di oggi; ma più semplicemente, basta il confronto tra la concentrazione edilizia ai tempi dei nostri nonni e quella di adesso o, ancora, tra gli elettrodomestici contenuti nella casa dei genitori e le apparecchiature elettroniche mediamente possedute oggi.
E’ evidente che con questo aumento vertiginoso dell’esposizione, indennizzare con il solo intervento dello Stato non può reggere alla lunga. Non sono solo le casse pubbliche a non farcela ma finisce per azzopparsi l’intero sistema paese con ripercussioni sulle valutazioni delle società di rating. Si calcola che un evento catastrofale con ritorno, ossia che avviene statisticamente ogni 250 anni può arrivare a produrre una retrocessione di quasi un punto.

C’è poi una prospettiva macro che va tenuta in considerazione. “Le misure di prevenzione e gli interventi strutturali antisismici sono fondamentali e imprescindibili ma neppure così il rischio può essere completamente annullato, in particolare quello di natura economico-finanziaria. Una grande calamità catastrofale, inoltre, sconvolge il sistema economico produttivo del Paese, mette a dura prova la sua resilienza, impatta sul PIL. Magari salviamo la vita ma perdiamo casa e lavoro: di qui l’importanza di una gestione del rischio ex-ante combinando prevenzione anti-sismica e copertura finanziaria-assicurativa” spiega Marco Coletta a capo di una compagnia di riassicurazione con 150 anni di attività alle spalle, sottolineando il deficit di protezione assicurativa in Italia.
Le PMI (Piccole e Medie Imprese) sono largamente sottoassicurate contro catastrofi naturali e poco più di 1% degli immobili residenziali è coperto. La penetrazione assicurativa del ramo danni non-auto misurata in volume dei premi danni non auto in rapporto al PIL in Italia è pari a 0,9%, in Francia a 2,4%, in Germania a 2,5% e mediamente sopra 2% in tutti gli altri paesi europei dove il meccanismo di mutualità permette di correggere l’incidenza economica del premio sul portatore di rischio più alto. Pagando tutti, pagheremmo molto meno.
“Con una penetrazione superiore a 90% si avrebbero premi medi di 100 euro l’anno. Ma c’è un problema culturale” riconoscono alcuni assicuratori che non nascondono la difficoltà di far accettare un concetto di obbligatorietà a consumatori già guardinghi con l’obbligo del RC auto e professionali e auspica una campagna di sensibilizzazione promossa dal governo. Singolare la modesta attenzione del legislatore alla funzione sociale della copertura assicurativa contro inondazioni e terremoti in un paese come l’Italia. Non godono di nessun incentivo fiscale: non sono deducibili nella dichiarazione dei redditi (come invece avviene per le polizze vita) e l’Iva è alta ( 22,25%). Gli schemi di copertura potrebbero prevedere una cooperazione tra pubblico e privato. Lo Stato potrebbe assumere il ruolo di riassicuratore in ultima istanza, dove per esempio le compagnie private coprono fino a concorrenza di un importo alto, oltre a quella soglia (caso meno probabile) interverrebbe lo Stato che potrebbe, per esempio, coprirsi con operazioni di cartolarizzazione di immobili pubblici.

Se il terremoto dell’Irpinia dove i primi soccorritori ad arrivare sul posto furono operai specializzati inviati dal sindacato, ha portato alla nascita della Protezione Civile, possiamo sperare che questi ultimi sismi in Centro Italia, portino a soluzioni efficienti e finanziariamente sostenibili di risarcimento dei danni economici da calamità naturali?

Continua a leggere

La ricostruzione, ovvero: il grande condono? (Massimiliano Stucchi)

Premessa. In questo post si parlerà dei costi della ricostruzione del terremoto.  Si parlerà soprattutto di come i benefici vengano erogati: a favore di chi, a carico di chi. Senza che la solidarietà umana per chi ha perso la casa venga meno, e senza negare la necessità dei soccorsi e dei primi aiuti, ci si interrogherà sulla logica che presiede, tradizionalmente, alla ricostruzione post-sismica. E si cercherà di capire perché, a differenza di altri casi, in questo non si accertino eventuali responsabilità specifiche, ovvero perché tali responsabilità non costituiscano elemento discriminatorio per l’accesso ai benefici. E perchè non venga incentivato il ricorso alla assicurazione, argomento in parte affrontato in questo blog dal post di P. Feletig e Enzo Boschi (https://terremotiegrandirischi.com/2016/10/12/i-danni-dei-terremoti-chi-paga-di-p-feletig-e-e-boschi/).

Il Decreto per la ricostruzione. Il Presidente del Consiglio ha chiesto alla UE qualche decimo di maggiore “flessibilità” del deficit per la ricostruzione degli edifici danneggiati dal terremoto di Amatrice e dintorni. Si dovrebbe essere contenti se questa richiesta verrà accolta: un po’ come quando si dovrebbe essere contenti perché la Borsa è in positivo (l’andamento della Borsa occupa ormai uno spazio di poco inferiore a quello occupato dal meteo), come se fosse un segnale positivo per tutti – e così non è. Nel caso della flessibilità, qualche decimo in più significa un debito pubblico ancora maggiore. Continua a leggere

I danni dei terremoti: chi paga? (Patrizia Feletig e Enzo Boschi)

Patrizia Feletig (laureata in economia, esegue analisi accurate della politica energetica, delle ricadute economiche delle moderne tecnologie  e dei grandi temi della moderna società come i disastri naturali e non. Scrive su importanti giornali nazionali e internazionali come free lance); e
Enzo Boschi (geofisico, già professore ordinario all’Università di Bologna, a lungo Presidente dell’INGV. Non ha bisogno di ulteriori presentazioni);

intervengono a proposito dei costi delle catastrofi, che tradizionalmente in Italia si riversano sullo Stato e quindi su tutti noi, in modo quasi automatico. Il recente Decreto per la ricostruzione porta questi temi ancora più in evidenza.

Una percentuale molto consistente del nostro grande debito pubblico è ascrivibile ai disastri naturali, sopratutto terremoti ed alluvioni, che frequentemente colpiscono il nostro fragile territorio (nella tabella sono riassunti i costi dei terremoti).

schermata-2016-10-12-a-17-28-19

Questo ci mette in una situazione di inferiorità economica rispetto ad altri Paesi geologicamente stabili.
Può forse sembrare paradossale ma i terremoti che nell’ultima decina di anni hanno funestato l’Italia sono da considerare moderati. Potrebbero verificarsi situazioni molto più devastanti che potrebbero mettere letteralmente in ginocchio l’economia del Paese.
È assolutamente necessario correre ai ripari: un passaggio assolutamente necessario è il ricorso intelligente alle Assicurazioni in modo da ottenere contemporaneamente il coinvolgimento informato dei cittadini e i contributi dello Stato, evitando gli enormi e assurdi sprechi degli ultimi cinquant’anni.

D’accordo: ma che cosa proponete allora?

Il ragionamento che qui proponiamo è stimolato dalle scene di disperazione e di distruzione che, ancora una volta, abbiamo dovuto vedere il 24 agosto e che tutti si augurano, ancora una volta, di non vedere più. E’ arrivato il decreto sulla ricostruzione delle zone colpite, che contiene l’impegno di risarcire tutti i proprietari di case danneggiati anche quelli di seconde case.
I danni si aggirano sui 4 miliardi di euro ma si tratta di una prima stima da aggiornare dopo la valutazione definitiva che arriverà a metà novembre assieme alla richiesta all’UE di un dossier per l’attivazione del fondo emergenze.
Benvenuto, il decreto, ma non risolutivo della questione: come risarcire i danni? questione che si ripropone puntualmente all’indomani di una calamità naturale.
Qual è il modo meno impegnativo per le casse pubbliche di coprire i sinistri da emergenze ambientali? Non sono bazzecole; secondo lo studio di Cineas le sole alluvioni comportano costi annui pari allo 0,2% del PIL.

Continua a leggere

La mappa di pericolosità sismica (parte seconda); usi, abusi, fraintendimenti (di Massimiliano Stucchi)

Nella prima parte abbiamo analizzato la mappa MPS04 dal punto di vista scientifico: che cosa descrive, che cosa non descrive, come è stata compilata, ecc.
Le reazioni di chi ha commentato su Twitter sono interessanti: la maggior parte ha confermato però l’aspetto “iconico” che la mappa riveste oggi. Ci torneremo.
In questa seconda parte parliamo delle sue applicazioni: la materia non è semplice e neppure troppo semplificabile; ci ho provato e mi scuso se non ci sono riuscito del tutto.

6) A chi spetta il compito di aggiornare l’elenco dei comuni inseriti in zona sismica?
Fino al 1999 spettava allo Stato il potere/compito di dichiarare “sismico” un dato Comune, associandolo a una zona sismica, o categoria: prima, seconda, e terza solo dal 1981. La zona sismica determinava il livello di severità delle azioni sismiche da considerare in sede di progetto: tre livelli in tutto, quindi. Segnaliamo comunque una caratteristica tutta italiana, e cioè il fatto che alcuni Comuni, dopo essere stati inseriti in zona sismica a seguito di alcuni terremoti, hanno chiesto e ottenuto di esserne esclusi dopo pochi anni “in quanto non erano più venuti terremoti”. Continua a leggere

Il fatto che non sussiste non è stato commesso (di Giacomo Cavallo)

Con l’assoluzione del Dott. Bertolaso, anche in attesa delle motovazioni, spero che finalmente si possa dire conclusa la vicenda “processuale” della riunione di esperti che ha preceduto il Terremoto dell’Aquila – a meno che i colpevolisti non si ostinino a buttare via tempo e denaro per creare processi che non hanno ragion d’essere, con il compito di giudicare reati inesistenti, dimenticando le sentenze della Corte di Cassazione e soprattutto d’Appello, ma anche parte della sentenza di primo grado. Continua a leggere

Che cos’è la mappa di pericolosità sismica? Prima parte (di Massimiliano Stucchi)

Premessa
Fino al 2009, la mappa di pericolosità (MPS04) se la sono filata in pochi.

mps04

Era stata compilata fra il 2003 e il 2004, in meno di un anno – ovvero in un tempo brevissimo per questo tipo di elaborati – e senza finanziamenti ad hoc da un gruppetto di ricercatori coordinati da INGV, su richiesta della Commissione Grandi Rischi (CGR) per adempiere a quanto previsto dalla Ordinanza Presidenza del Consiglio dei Ministri (PCM) 3274/2003. Tuttavia era stata: Continua a leggere

La prevenzione sismica come problema di risk governance (di Andrea Cerase)

A un mese esatto dal sisma di Amatrice, oltre al drammatico bilancio in termini di vite umane (al momento della pubblicazione il conteggio è fermo a 297 vittime accertate) c’è l’evidenza degli errori, anche involontari, emersi sin dalle prime analisi sui crolli, dell’inadeguatezza delle tipologie costruttive e, insieme, l’indignazione (legittima) per il denaro pubblico speso in interventi di adeguamento in seguito rivelatisi inefficaci e persino controproducenti. Le notizie sulle inchieste giudiziarie hanno avuto un peso rilevante, ma certamente non hanno monopolizzato la discussione com’è invece accaduto per il sisma dell’Aquila e, in misura minore, per quello dell’Emilia. Continua a leggere

Spigolature (AA.VV.)

In questo periodo, come spesso accade dopo un terremoto, vengono resi disponibili su web un certo numero di interventi interessanti che riguardano vari aspetti.
Senza pretesa di esaustività, di seguito proponiamo alcuni link, con brevi introduzioni.

Dov’era, com’era. Quando il terremoto distrugge tutto, anche il senso critico
(di Elena Granata e Fiore de Lettera)

In questo saggio viene coraggiosamente affrontato il problema della richiesta popolare che si genera subito dopo un terremoto di ricostruire subito “dov’era, com’era”. Si afferma tra l’altro:

Dopo ogni evento catastrofico, il Paese – nei suoi politici e nei suoi mezzi di informazione – tende rapidamente a convergere intorno ad una posizione semplice e rassicurante. Non c’è tempo per il pensiero e per il dubbio. Più un fatto è complesso e difficile da risolvere e più sono immediate e semplici le ricette proposte”. Continua a leggere

L’importanza dei controlli e del ruolo dello Stato nella riduzione del rischio sismico (Alessandro Venieri)

E’ vero: sono pienamente d’accordo con l’articolo di Massimiliano Stucchi “le colpe degli altri”, non bisogna sempre piangersi addosso e delegare agli altri, allo Stato in genere, compiti a cui lo Stato stesso non riesce poi ad assolvere. Sicuramente è soprattutto un problema di carattere culturale, quindi di lunga e difficile risoluzione, ma il problema rimane, i terremoti ci saranno e alcuni saranno ancora più forti di quello dell’Aquila, dell’Emilia e di Amatrice, perciò un cambiamento dovremo pur farlo pensando ai nostri figli e alle future generazioni. Continua a leggere

Le colpe degli altri. Considerazioni dopo il terremoto di Amatrice (Massimiliano Stucchi)

Questa volta nessuna “mancata previsione”, come per il caso del terremoto di L’Aquila del 2009. Il terremoto non è stato preceduto da una sequenza di scosse di minore energia, come nel caso del terremoto di L’Aquila del 2009. Non vi è stato quindi, questa volta, il consueto dibattito sulla prevedibilità a breve termine dell’evento. Va ricordato che tale dibattito, nel caso del terremoto del 2009, aveva portato, in conseguenza della riunione degli esperti nel capoluogo abruzzese una settimana prima dell’evento, alla successiva incriminazione e condanna degli esperti stessi in primo grado, condanna poi annullata in sede di Appello e di Cassazione. Questo blog aveva seguito attivamente quella vicenda. Continua a leggere

Terremoti e grandi rischi: si continua (Massimiliano Stucchi)

Stavamo aspettando la fine del processo a Bertolaso per concludere l’attività di questo blog. Poi è sopravvenuto il terremoto “di Amatrice” del 24 agosto: nessuna critica per mancate previsioni o rassicurazioni, questa volta (per ora), ma la consueta alluvione di bufale, presunzioni, valutazioni “fai da te”, disinformazione.
Quindi è venuto spontaneo decidere di mantenere in vita il blog, aggiornandone la “missione”: informare, discutere, commentare gli aspetti sismologici, ingegneristici e legali del terremoto, le ipotesi per la ricostruzione, le possibili strategie per ridurre il rischio sismico.

Il blog mantiene il suo titolo iniziale in quanto sembra comunque pertinente. Invitiamo a proporre interventi (brevi), che potranno essere presentate anche come interviste, sulle tematiche riassunte più sopra. Buona lettura.

Una lettura della sentenza della Cassazione (Giacomo Cavallo)

Come già in occasione delle Motivazioni delle precedenti sentenze, Giacomo Cavallo ha formulato una lettura critica anche della Motivazione della sentenza della Corte di Cassazione, che vi proponiamo nel seguito.

Abbreviazioni:
CdA: Corte di Appello
CdC: Corte di Cassazione
CGR: Commissione Grandi Rischi

In data 24 marzo 2016 sono state depositate le motivazioni della Sentenza di Cassazione del cosiddetto “Processo Grandi Rischi” (1). Se è futile per un non giurista una discussione su una sentenza che non potrà più essere cambiata, non è invece futile leggere le motivazioni che, in un linguaggio anche più specialistico di quello della CdA, in qualche modo parrebbero gettare luce sulla domanda più volte avanzata, soprattutto da coloro che erano rimasti scontenti della sentenza della CdA, cioè perché ci siano volute dieci ore di discussione in CdC per giungere ad un risultato apparentemente scontato e ad una sentenza il cui testo fu detto “ricalcare” quello della sentenza di Appello. Continua a leggere

Che cosa resta del processo “Grandi Rischi”? (Massimiliano Stucchi)

Dopo la sentenza della Cassazione, questa domanda se la pongono in molti, in privato e in pubblico. Molti si chiedono come sia stato possibile che si siano spesi quasi quattro anni di – costose – attività giudiziarie; di ferite profonde agli imputati; di aspettative frustrate da parte dei parenti delle vittime e di quanti sono scesi in campo al loro fianco; di discussioni infinite su aspetti pseudoscientifici; di prese di posizione dettate da infinita sicurezza e presunzione.
Ci vorrà del tempo per meditare, con sufficiente distacco, sulla vicenda “Grandi Rischi”: su come sia stato possibile farla nascere, portarla avanti, crederci davvero. Sicuramente sarà utile leggere anche le Motivazioni della Cassazione. Tuttavia, da oggi è già possibile tentare di mettere insieme qualche considerazione, con una premessa: esprimere le proprie idee sul processo non significa mancare di rispetto alle vittime e ai loro parenti. Gli imputati e tutti quelli che operano nella ricerca scientifica e nella protezione civile hanno sempre rispettato le vittime, di questo terremoto come di tutti gli altri in occasione dei quali si sono trovato a operare. Continua a leggere

Iniziata l’udienza in Corte di Cassazione (M. Stucchi)

english at http://eagris2014.com/

Il Giudice Dovere ha effettuato un lungo ma molto circostanziato riassunto degli argomenti principali della sentenza di primo grado, della sentenza di secondo grado e dei ricorsi presentati alla Cassazione da De Bernardinis, dalla Presidenza del Consiglio per il Dipartimento della Protezione Civile, dalla Procura dell’Aquila e dalle parti civili.
In particolare, i temi principali toccati dalla Procura dell’Aquila hanno riguardato il fatto che la riunione del 31 marzo 2009 debba essere considerata una riunione della CGR, il fatto che gli imputati abbiano effettuato un esame generico della situazione eludendo le aspettative della popolazione e che abbiano fatto circolare senza smentirla la tesi dello scarico di energia. Continua a leggere

Ancora sul rischio sismico – parte seconda (Massimiliano Stucchi)

Questo post fa seguito alla parte prima, con lo stesso titolo, che inizia così:

“La condanna in primo grado dei sette imputati al processo dell’Aquila ha determinato, nell’opinione pubblica come in molti intellettuali, alcune convinzioni che l’assoluzione di sei di essi in secondo grado non ha contribuito, almeno per il momento, a modificare, e che hanno implicazioni importanti per il futuro della riduzione del rischio sismico.
Si tratta in particolare delle tesi che:

  1. gli imputati fossero stati condannati per non aver valutato “correttamente” il rischio sismico;
  2. gli eventi di cui al processo dell’Aquila siano stati determinati da una errata comunicazione del rischio.”

 Le conclusioni della prima parte erano che:

  1. il rischio sismico in una larga porzione di Italia è – oggi – alto;
  2. non aumenta in modo significativo a causa di sequenze sismiche non distruttive, quale era quella dell’aquilano al 31 marzo 2009;
  3. l’emergenza sismica non è iniziata con la sequenza del 2009. Era già iniziata (da sempre), ed è permanente, anche se la maggior parte degli italiani non se ne vuole convincere;
  4. quest’ultimo è il vero problema, e dovrebbe essere il cuore della comunicazione del rischio.

In questa seconda parte si discute la tesi b).

—————————–

E veniamo alla comunicazione del rischio.
Una premessa. Il rischio sismico nell’aquilano era indiscutibilmente elevato ben prima dell’inizio della sequenza sismica, a causa dell’alta pericolosità sismica e dell’alta vulnerabilità; tuttavia pochi ne parlavano, non vi si dedicavano volumi, articoli, blog, interviste. Zero comunicazione del rischio a fronte di alto rischio? Nessuno andava in cattedra perché ne aveva parlato. Giaceva nei cassetti – poco diffuso – qualche report di convegni promossi dalle Amministrazioni locali a scopo essenzialmente catartico, come spesso avviene. Solo qualcuno portava avanti con fatica interventi di educazione nelle scuole. Continua a leggere

Ancora sul rischio sismico – parte prima (Massimiliano Stucchi)

La condanna in primo grado dei sette imputati al processo dell’Aquila ha determinato, nell’opinione pubblica come in molti intellettuali, alcune convinzioni che l’assoluzione di sei di essi in secondo grado non ha contribuito, almeno per il momento, a modificare, e che hanno implicazioni importanti per il futuro della riduzione del rischio sismico.
Si tratta in particolare delle tesi secondo cui:

  1. gli imputati sono stati condannati per non aver valutato “correttamente” il rischio sismico;
  2. gli eventi di cui al processo dell’Aquila sono stati determinati da una errata comunicazione del rischio.

Questi due aspetti sono strettamente interconnessi, anche perché hanno a che vedere entrambi con il concetto di rischio; questo concetto, come è noto, assume connotati variegati e spesso determinati dall’immaginario di chi ne tratta. A riprova del desiderio di fissarne i contorni in modo sempre più personale si può osservare l’apparizione, in volumi recenti e meno recenti, del concetto di “nuova rischiosità del rischio” (nella società dell’irresponsabilità), così come il titolo “oltre il rischio sismico”. Continua a leggere

Commento a ciò che è noto del ricorso in Cassazione del PG R. Como (Giacomo Cavallo)

Sigle:
MST: Motivazione della Sentenza del Tribunale (di Primo Grado);
MSC: Motivazione della Sentenza della Corte di Appello.

Il ricorso del PG Romolo Como non è pubblico in toto, e quindi se ne può commentare solo quel che se ne sa dai media. Esso consta di venti pagine, quindi piuttosto scarno, e quello che se ne può sapere sembra essere contenuto in due testi:

1) il tema generale, che fu subito riportato su vari giornali appena dopo la presentazione del ricorso;
2) un riassunto, con squarci del testo, presentato dal giornale “Il Messaggero – Edizione Abruzzo” del 17 marzo 2015.

Anzitutto, occorre premettere che non è chiaro dalla stampa contro cosa ricorra il PG, cioè se contro l’intera sentenza di Corte d’Appello, o soltanto contro la parte che assolve i sei imputati (quindi escludendo la porzione di sentenza che riguarda De Bernardinis), inclusa la revocazione delle pene accessorie, come richiesto al PG stesso in sede processuale Continua a leggere

Verso la Cassazione (Massimiliano Stucchi)

L’udienza del processo “Grandi Rischi” è stata fissata per il 19 novembre p.v.

Agli occhi dei più, il ricorso del Procuratore Generale di L’Aquila, Romolo Como, presentato il 13 marzo 2015, si presenta abbastanza debole, riproponendo in larga parte concetti e argomenti già sconfitti dalla sentenza di appello (Il ricorso verrà analizzato in un prossimo post). Il succo della richiesta del PG è di annullare la parte di sentenza di appello che assolve gli imputati Barberi, Boschi, Selvaggi, Calvi, Eva e Dolce, che nella vicenda avrebbero avuto – secondo lui – lo stesso ruolo di De Bernardinis (e quindi meriterebbero la stessa condanna, sembrerebbe lecito ipotizzare). Il fatto è che per annullare quella parte di sentenza occorrerebbe dimostrare inconsistente tutta la analisi che la sostiene, cosa che al PG – nelle 20 pagine di ricorso – non riesce proprio. Un avvocato di parte civile sostiene che sia comunque già positivo il fatto che il ricorso sia stato ammesso. Continua a leggere

Qualche considerazione sulla sentenza di Appello (Giacomo Cavallo)

Giacomo Cavallo

Giacomo Cavallo, ricercatore astrofisico, si è appassionato alla vicenda del processo “Grandi Rischi” e ha eseguito nel 2014 una analisi molto rigorosa e approfondita della sentenza di primo grado, pubblicata sia su questo blog http://terremotiegrandirischi.com/wp-content/uploads/2014/03/saggio_cavallo.pdf che su quello dell’INGV http://ingvterremoti.wordpress.com/2014/03/20/unanalisi-della-sentenza-del-processo-a-laquila-di-giacomo-cavallo/
Gli abbiamo chiesto un commento alla sentenza d’appello.

MSC:Motivazioni Sentenza Corte
MST: Motivazioni Sentenza Tribunale

 a) Un po’ di storia
La mia analisi risale a circa un anno e mezzo fa ed eventualmente comparve su Internet nel marzo del 2014. Da allora, visto che il mio lavoro, per quanto dilettantesco, era stato abbastanza ben ricevuto e che nessuno – che io sappia – ne aveva mai confutato un solo punto, pur non riparmiandomi qualche calunnia e qualche insulto, io ho continuato a studiare il caso, trovando vari – non molti – possibili nuovi argomenti. Ora è comparsa una sentenza di Appello con cui mi sento in piena sintonia. Ovviamente l’analisi della Corte è professionale, più completa ed infinitamente più autorevole, ed io non presumo tanto da paragonare il mio modesto lavoro con essa. Tuttavia mi resta la soddisfazione di notare che l’obiettivo, cioè la confutazione parola per parola della sentenza di primo grado, è necessariamente lo stesso che mi ero proposto anch’io, l’architettura della confutazione che ne deriva è quindi assai simile, si parva licet componere magnis, e le conclusioni sono quasi inevitabilmente le stesse, perché dopo tutto c’è una sola verità. Continua a leggere

Depositate le motivazioni della Sentenza d’Appello

Le motivazioni della Sentenza di Appello sono disponibili, in quattro parti, su https://processoaquila.wordpress.com/

Sono state depositate a L’Aquila le motivazioni della Sentenza d’Appello. Dell’intero documento ne è stato rilasciato solo un frammento di una dozzina di pagine (p. 165 – 176), che contiene comunque gli argomenti principali.
Si legge nel frammento che “la Corte ritiene che la pur imponente istruttoria dibattimentale non abbia consentito di raggiungere un sicuro convincimento in ordine alla stessa sussistenza (sic!) del fatto contestato ai sei accusato prosciolti dall’accusa“. Il documento procede poi sostenendo che la riunione del 31 Marzo 2009 non “risponda a nessuno dei criteri legali che valgono a identificarla come riunione della Commissione Nazionale Grandi Rischi”, che va pertanto ricondotta al paradigma delle ricognizioni, verifiche e indagini che il Capo del DPC può disporre . Dimostra poi come l’oggetto della riunione non possa essere desunto che dalla lettera di convocazione (“attenta disamina degli aspetti…relativi alla sequenza in atto”), in contraddizione con quanto sostenuto nella imputazione. Continua a leggere

Mancava solo Vauro….(Massimiliano Stucchi)

Alla protesta per la assoluzione, in secondo grado, di sei dei sette condannati in primo grado al “processo Grandi Rischi”, sono seguiti spunti e avvii di riflessione; e anche ragionamenti un po’ meno decisi, rispetto alla sentenza di primo grado, da parte di intellettuali e critici. La riflessione non è stata certo aiutata dalla contemporaneità di altri casi giudiziari (Cucchi, eternit e altri) assai diversi, rispetto ai quali molti non hanno saputo resistere alla tentazione di fare di tutta l’erba un fascio, contro la “malagiustizia”; e anche dalla contemporaneità di altri disastri, più o meno prevedibili.
Si ha anche la sensazione che vi sia una sorta di “magnetizzazione” nascosta, che cerca di orientare le opinioni secondo schieramenti politici, peraltro non propriamente attuali. I colpevolisti più accesi sembrano richiamarsi al PD, forse in contrapposizione – tanto ovvia quanto inutile – all’ex potente Bertolaso, che Berlusconi voleva nominare ministro, e ai suoi scienziati che qualcuno voleva “asserviti”. Continua a leggere

Finale, con lezioni e rapsodia (Massimiliano Stucchi)

Finale. Dunque il processo di Appello si è concluso, con la sentenza che conosciamo. Prima di tutto questa sentenza restituisce agli imputati la dignità di persone che hanno svolto il proprio compito, dopo aver dedicato decine di anni a valutare il rischio e a cercare di convincere stato, regioni, comuni e cittadini della possibilità e dell’importanza di farlo. Per il resto aspettiamo con interesse la motivazione e, come abbiamo sempre detto, rispettiamo il dolore per le vittime; questo rispetto ci ha sempre stimolato a chiederci, ben prima dell’Aquila, se avevamo fatto abbastanza per ridurre il rischio sismico. Rispettiamo anche le opinioni antagoniste: le sentenze di discutono, l’abbiamo sempre sostenuto e lo sosteniamo anche adesso. Invitiamo solo i colpevolisti a fare lo sforzo di collocare al loro posto i tasselli, che in generale vengono proposti e vivisezionati con logica da “moviola”; il loro posto nel tempo, cioè prima che l’accadimento del terremoto abbia favorito tutte le semplificazioni che sono state proposte. Continua a leggere

La sentenza d’appello (M. Stucchi)

La corte d’appello ha assolto Boschi, Barberi, Calvi, Eva, Selvaggi, Dolce perchè il fatto non sussiste (!). Cade così il castello del giudizio di primo grado che si basava, tra le altre cose, sulla cooperazione colposa degli imputati.
La corte ha poi condannato De Bernardinis a due anni, in relazione alla morte di circa la metà delle vittime rispetto alla sentenza di primo grado. La pena è stata sospesa.

http://video.gelocal.it/ilcentro/locale/grandi-rischi-la-lettura-della-sentenza-d-appello-assolti-sei-dei-sette-imputati/35993/36278?ref=HREC1-4

I legali di parte civile ricorreranno probabilmente in Cassazione. La sentenza è stata accolta dalle proteste di una parte del pubblico; in alcune interviste si sono fatti paragoni azzardati con altre sentenze di questi giorni.

Un grazie a tutti quelli che hanno collaborato fin qui a questo blog e che lo hanno visitato, e un grande abbraccio agli imputati.

L’ultima udienza (M. Stucchi)

La presidente fa l’appello rituale.

G. Selvaggi legge un testo. Ricorda l’inizio della sua carriera, e di aver studiato tutte le sequenze italiane degli ultimi 30 anni. Questo ha contribuito a conoscere meglio le sequenze e la genesi dei terremoti. La mappa di pericolosità è la sintesi di tutte le conoscenze, utile alla prevenzione. E’ norma dello Stato dal 2006, pubblicata dalla Gazzetta Ufficiale. Ne descrive le caratteristiche semplici ed efficaci: il 31 marzo abbiamo detto che L’Aquila era viola, questo rifarei. Ricorda le vittime.

Continua a leggere

Verso la sentenza d’appello (M. Stucchi)

Dopo la replica del Procuratore Generale, che ha dichiarato di averla fatta anche per consentire alle parti civili di replicare anch’esse, e dopo quelle delle difese, manca ormai solo la replica di Coppi, difensore di Selvaggi, il 10 novembre mattina. Poi la Camera di Consiglio, “complessa” come l’ha definita la Presidente della Corte, e la Sentenza.
Nelle ultime settimane vi è stato un discreto fermento attorno al Processo di Appello.

Continua a leggere

La quinta udienza dell’Appello (M. Stucchi)

Si apre l’udienza con il consueto appello di imputati e avvocati. L’avv. Stefàno legge una lettera dell’avv. Biondi, che non può essere presente.
Parla ora l’avv. Musco, difensore di Calvi. La sentenza di primo grado ha fatto il giro del mondo, ed è molto rilevante anche per l’Italia. Tutti quelli che hanno analizzato criticamente la sentenza hanno espresso posizioni fortemente critiche sulla concatenazione logica degli argomenti della sentenza. Elenca alcuni esempi interni all’ambiente del diritto, fra cui Galluzzo, Valbonesi, Pagliaro. Cita la definizione “legale” del danno, analizzata da Pagliaro. Il coro dei giuristi che criticano è quasi unanime. Cita anche M. Tozzi (da La Stampa). Continua a leggere

“Mi sarei inventato tutto”. Ehm, mi sa di sì….(M. Stucchi + 8 commenti)

Nelle ultime settimane la grancassa dei colpevolisti ha ripreso a tuonare, forse per cercare di ricordare ai giudici del processo di appello l’infelice frase dell’allora Procuratore Rossini “Speriamo di arrivare ad un risultato conforme a quello che la gente si aspetta”. Non poteva certo mancare il (neo) prof. A. Ciccozzi,

http://www.ilfattoquotidiano.it/2014/10/27/sentenza-grandi-rischi-sacralita-della-scienza-o-impunita-istituzionale/1174531/

che già aveva risposto in modo quanto meno aggressivo a G. Cavallo su Lettera 43, perchè gli aveva ricordato alcuni momenti del processo evidentemente non graditi. E infatti eccolo che risponde alle obiezioni dei difensori con il consueto stile, associandosi d’ufficio Pubblici Ministeri e addirittura “i miei concittadini”. Continua a leggere

La quarta udienza dell’Appello (M. Stucchi)

Dopo la ricognizione dei presenti, parla l’avv. Petrelli, difensore di Barberi. Parte dalla teoria delle rappresentazioni sociali, definita frutto malato del processo. Cita la deposizione di Ciccozzi. La teoria è paradigmatica del processo; nel processo, a partire dal capo di imputazione,  i fatti sono stati sostituiti dalle loro rappresentazioni. Primo esempio l’ “allargamento” della Commissione Grandi Rischi”: confusione fra due organi distinti, gli esperti e il DPC De Bernardinis come esperto avrebbe fornite informazioni carenti a se stesso, come DPC. Gli esperti non “si riunirono” ma vennero convocati, esiste un documento di convocazione. Le finalità di comunicazione sono di pertinenza dell’Organo cui gli esperti forniscono consulenza.

Continua a leggere

La seconda e la terza udienza dell’Appello (M. Stucchi)

Venerdì 17 ottobre si è tenuta la seconda udienza dell’Appello, che ha visto le arringhe degli avvocati di parte civile. Per un riassunto si può vedere

http://ilcentro.gelocal.it/laquila/cronaca/2014/10/17/news/grandi-rischi-al-via-la-seconda-udienza-d-appello-1.10133774

Si deve notare l’affermazione “Dovevano dirci quello che sarebbe successo e non lo hanno detto. Non dovevano prevedere il terremoto, ma valutare il rischio” dell’avvocato A. Valentini. Questa frase è ben più diretta di quelle scritte  dal Giudice Billi che, nella Motivazione della Sentenza, ripete come un mantra:

“Il parametro di riferimento dell’analisi che doveva essere compiuta il 31.3.09 non era individuabile in un determinato evento futuro, non consisteva in un evento naturalistico da prevedere deterministicamente, ma era rappresentato dalla valutazione del rischio”

Continua a leggere

Rassicurazione? al contrario…..(Massimiliano Stucchi)

Il 4 giugno 2010, all’indomani della chiusura delle indagini preliminari, il Sindaco Cialente rilasciò a La Stampa l’intervista allegata,  oggi forse “vintage” ma molto eloquente e purtroppo dimenticata

Fai clic per accedere a 04062010_cialente_lastampa.pdf

nella quale espresse chiaramente il messaggio principale che riportò dalla riunione degli esperti della Commissione Grandi Rischi del 31 marzo 2009: Boschi disse  “sapete che siete un area a rischio, prima o poi un forte sisma arriverà” (la Motivazione della Sentenza non ne fa cenno. PG, Giudice e la maggior parte dei commentatori usano solo le evidenze a supporto della tesi della “rassicurazione”).
Altro che “rassicurazione” da parte degli scienziati, dunque: quella, caso mai, venne da altre fonti.

 

La prima udienza dell’Appello (M. Stucchi)

An English summary is available at http://eagris2014.com/

Venerdì 10 ottobre 2014 si è svolta la prima udienza del processo di appello, a L’Aquila. I giudici sono tre: la presidente è Fabrizia Ida Francabandera.
Dopo la conta dei presenti (fra gli imputati risultano assenti Calvi ed Eva) la presidente ha annunciato l’intenzione di procedere celermente, convocando udienze settimanali di venerdì e sabato, anche a causa di problemi di disponibilità dell’aula, per concludere “con una lunga camera di consiglio”, il 31 ottobre.

In avvio un avvocato di parte civile ha proposto di acquisire agli atti il video della trasmissione “Presa Diretta” del 21 gennaio 2013 che ha ritrasmesso, tra altre cose, anche un brevissimo spezzone – sottotitolato – della conferenza stampa resa dopo la riunione del 31 marzo 2009. Ricordo che agli atti del processo di primo grado c’era solo il video, senza audio. I difensori tutti hanno eccepito, evidenziando l’improprietà di considerare solo uno spezzone di audio e la provenienza incerta. La corte si è riunita per una rapida decisione, che ha portato alla acquisizione agli atti del DVD in questione. Continua a leggere

In questi due anni…. (Massimiliano Stucchi)

Dunque, a breve comincerà il processo d’appello.
La Sentenza del 22 ottobre 2012 aveva lasciato incredula una parte dell’opinione pubblica, ed aveva trovato diversi consensi in un’altra parte, che ha compreso anche autorevoli commentatori. Ad esempio il 28 ottobre, sul Corriere, D. Maraini si lanciò in una violenta intemerata a favore della sentenza, che le valse una precisa replica da parte di G.D. Caiazza, presidente del Comitato Radicale per la Giustizia “Piero Calamandrei” (Radicali Italiani) su Radio Radicale (2 novembre 2012): “Cara Maraini, leggi almeno l’imputazione”.
Vale infatti la pena di sottolineare che la maggior parte dei commentatori della prima ora, di entrambi i fronti, aveva una conoscenza minima della sostanza dell’accusa e dei temi dibattuti al processo (certo, uno non può certo seguire tutto, deve affidarsi ai media; e quindi…). Il confronto fra colpevolisti e innocentisti si reggeva ancora su parole d’ordine imprecise, quali “processo alla scienza”, “mancato allarme”, “non aver previsto il terremoto”, “aver rassicurato”, ecc. Continua a leggere

Era facile prevederlo…..(Massimiliano Stucchi)

Era facile prevedere che qualche giornalista disinvolto si sarebbe impadronito della notizia (che poi notizia non è) del presunto avvio della sperimentazione del metodo denominato OEF (Operational Earthquake Forecast, ovvero previsione operativa dei terremoti) per collegarla al processo Grandi Rischi. E’ successo con un articolo di G. Sturloni Continua a leggere

Il “nesso causale” nel cosiddetto processo alla Commissione Grandi Rischi (Alessandra Stefàno)

Alessandra Stefàno è avvocato penalista e fa parte del collegio di difesa degli imputati al Processo “Grandi Rischi”. Ha scritto un articolo dal titolo “Il cosiddetto processo alla Commissione Grandi Rischi” – Il nesso causale”

http://terremotiegrandirischi.com/wp-content/uploads/2014/06/a-stefacc80no-venezia.pdf

che riprende un suo intervento a un Convegno organizzato dall’Ordine degli Avvocati di Venezia sul nesso causale, svoltosi il 20 settembre 2013.
L’articolo,
pubblicato dalla rivista “Dialoghi del diritto, dell’avvocatura, della giurisdizione” (http://www.dialoghi.eu/home.html), è ricco di spunti per una rilettura del processo e della sentenza, che vanno al di là degli schemi abituali.
Abbiamo quindi ritenuto utile proporlo alla attenzione dei lettori; per facilitarne la fruizione abbiamo rivolto qualche domanda all’autrice. Continua a leggere

Quando comincia l’emergenza sismica? (Massimiliano Stucchi)

Uno dei tanti messaggi devianti che l’esito e la sentenza del processo “Grandi Rischi“ ha diffuso a piene mani è che la riunione incriminata della Commissione, tenutasi il 31 marzo 2009, fosse stata convocata in una fase di “emergenza sismica”, legata in qualche modo al perdurare dello sciame da alcune settimane.
Naturalmente questa immagine si è formata concretamente solo dopo il terremoto del 6 aprile, quando per molti – con il senno di poi – è stato facile fare due più due: Continua a leggere

“Science” e l’insostenibile pesantezza dell’attendere (Enzo Boschi)

Nel settembre 2013 la prestigiosa rivista “Science” ha pubblicato una lettera di Enzo Boschi dal titolo “L’Aquila’s Aftershocks Shake Scientists”, che ha destato molto interesse e anche un po’ fastidio (su questo aspetto si veda una nota alla fine del post). Data l’attualità degli argomenti abbiamo rivolto qualche domanda all’autore:

Nel settembre scorso “Science” ha pubblicato una tua lettera, nella quale presenti le tue opinioni sulla vicenda e sul processo. Alla pubblicazione ha fatto seguito un ampio dibattito sul blog Le Scienze di Marco Cattaneo, che di quella lettera ha pubblicato la traduzione italiana

http://cattaneo-lescienze.blogautore.espresso.repubblica.it/2013/07/25/le-riflessioni-di-boschi-sul-processo-dellaquila/

Che opinione hai avuto di quel dibattito? Continua a leggere

Il “rassicurazionismo” e la responsabilità dello scienziato: profili giuridico/cognitivi nel processo “Grandi Rischi” (Cataldo Intrieri)

 Cataldo Intrieri è un avvocato penalista in Roma, autore di diversi articoli e di una monografia (L’Euristica Scientifica. Buona e cattiva scienza nel processo penale, Aracne 2012) sul tema del rapporto tra scienza e diritto penale.
Il volume che pubblica gli atti del Convegno 2013 dell’ISICS di Siracusa, dedicato a “indagare il ruolo, il metodo e i punti critici dell’“operazione decisoria”, contiene anche un suo intervento dal titolo “Logica dei numeri e principio di precauzione nell’operazione decisoria. Nuovi paradigmi dopo la sentenza SSUU FRANZESE”, che dedica la parte centrale all’analisi della sentenza “Grandi Rischi”.

 https://www.academia.edu/3891454/La_sentenza_sul_Terremoto_dellAquila_ed_il_principio_di_precauzione_nel_diritto_penale_Convegno_ISISC_2013

L’intervento, scritto per un ambito specialistico, ha incuriosito anche l’ambiente scientifico. Per poter fruire meglio dei contenuti abbiamo chiesto all’autore di illustrarci alcuni punti. Continua a leggere

Diversi modi di “ritagliare” un Verbale… (Giacomo Cavallo)

Circa cinque anni fa, il 31 marzo 2009, si tenne a L’Aquila l’infelice riunione della (molto allargata e non legalmente valida) Commissione Grandi Rischi, la cui vicenda venne utilizzata, a seguito del terremoto del 6 aprile e in modo disinvolto, dal PM Picuti per portare sul banco degli imputati sette dei partecipanti e dal Giudice Billi per emettere a loro carico una condanna ancora più pesante della richiesta stessa del PM.
Giacomo Cavallo
ha scritto di recente un saggio, disponibile su questo sito e su quello dello INGV

http://terremotiegrandirischi.com/wp-content/uploads/2014/03/saggio_cavallo.pdf

http://ingvterremoti.wordpress.com/2014/03/20/unanalisi-della-sentenza-del-processo-a-laquila-di-giacomo-cavallo/

dedicato a una lettura fortemente critica della motivazione della sentenza. Questo saggio è stato commentato da A. Massarenti (Sole 24ore)

Fai clic per accedere a 2014033001723504362.PDF

e ha trovato udienza anche in campo non scientifico.
Nel corso della sua analisi, punto VII, quinto capoverso, a riguardo delle sette frasi scelte dal Giudice dal verbale della riunione del 31 marzo 2009 per incriminare gli imputati, Cavallo scrive:
Continua a leggere

Una lettura critica della sentenza del processo “Grandi Rischi” (Giacomo Cavallo)

Giacomo Cavallo è un ricercatore astrofisico, oggi in pensione, che si è interessato alla vicenda “Grandi Rischi” e ha dedicato molto tempo all’analisi del testo della sentenza. Ha poi deciso di scrivere un saggio sulla sentenza stessa, che evidenzia le incongruenze ivi contenute. L’analisi viene presenta qui

http://processoaquila.files.wordpress.com/2014/03/saggio_cavallo.pdf
http://terremotiegrandirischi.com/wp-content/uploads/2014/03/saggio_cavallo.pdf

su due colonne (a sinistra la sentenza, a destra i commenti), per facilitarne la lettura.
“Tegris2013” gli ha posto alcune domande:

 1. Tu sei stato un ricercatore astrofisico. Che cosa ti ha spinto a interessarti di questo caso e a dedicare molto tempo all’approfondimento della sentenza?

Non appena fu promulgata la sentenza dell’Aquila, nell’ottobre 2012, essa mi parve subito eccessivamente severa, e attesi con interesse la pubblicazione della Motivazione (18 gennaio 2013). La mole del documento, anche per la mia inesperienza al riguardo, mi stupì. Continua a leggere

Il segnale, il rumore e l’approssimazione (arte e scienza della sciatteria) (Massimiliano Stucchi)

Domenica 19 gennaio 2014 A. Massarenti ha segnalato su Sole 24ore il corposo libro (664 pagine) di Nate Silver “Il segnale e il rumore; arte e scienza della previsione” (originale inglese del 2012), che comprende un capitolo sulla previsione dei terremoti – prendendo spunto dal terremoto aquilano del 2009 – e anche un paragrafo sul processo Grandi Rischi.

Secondo Massarenti Nate Silver, “statistico e scrittore”, 36 anni, è famoso per “aver azzeccato, grazie a un algoritmo da lui inventato, serie impressionanti di previsioni riguardo al baseball, il poker e la politica, annunciando con grande anticipo la rielezione di Obama, dopo che nel 2008 aveva previsto correttamente l’esito dell’elezione presidenziale in 49 stati su 50…”. Secondo Time, è uno dei cento uomini più influenti del mondo.
L’ho comprato subito. Continua a leggere

Qui futura cognoscere profitetur, mentitur………. (Bruno Zolesi)

Il 18 gennaio 2013 – casualmente lo stesso giorno del rilascio del testo della sentenza “Grandi Rischi” – si tenne a Milano un workshop dal titolo “Tracce di sismologia fra passato e futuro”, che ospitò, tra le altre cose, una tavola rotonda dal titolo “Ricercatori e responsabilità civili e penali”. Riportiamo qui oggi un riassunto dell’intervento di Bruno Zolesi, dirigente di ricerca dell’INGV, che analizza la problematica della tavola rotonda in relazione alla meteorologia.

Anche gli antichi Romani sapevano, con pratica semplicità, che chi ritiene di avere vantaggi dicendo di conoscere il futuro mente anche se dice la verità.
Diversamente che in sismologia nella meteorologia, e più recentemente nella meteorologia spaziale meglio nota con il termine anglosassone di space weather, la previsione dei fenomeni geofisici, ben distinta tra prediction, forecasting e nowcasting, è un ovvio risultato degli studi di queste discipline. Continua a leggere

10 domande a una sentenza (Massimiliano Stucchi)

scritto con la collaborazione di alcuni lettori

Circa un anno fa, il 18 gennaio 2013, veniva rilasciato il testo della sentenza del processo “Grandi Rischi”, pronunciata a L’Aquila il 22 ottobre 2012.
Il testo era atteso con molta curiosità, per conoscere le motivazioni di una condanna che, tra le altre cose, aveva visto aumentare la pena rispetto alle richieste del PM e – non ultimo – determinare una somma molto elevata di risarcimento ai parenti delle vittime.
La lettura del testo si rivelò impegnativa, sia per la consistenza (946 pagine), sia per l’organizzazione del medesimo. Lungi da fugare i dubbi e le perplessità della parte che non riteneva giusta la condanna, la lettura non fece che aumentarli. Continua a leggere

Enzo Boschi a “Repubblica” su Marco Paolini

Subito dopo l’uscita su “Repubblica” dell’articolo di Marco Paolini che proponeva un parallelo fra il processo “Vajont” e quello all “Grandi Rischi” (entrambi tenutisi a L’Aquila), Enzo Boschi scrisse una sua replica al giornale che, ovviamente, non la pubblicò……

 

https://t.co/5wvvDTi1uD

Terremoto dell’Aquila e responsabilità penale. Nesso causale ed addebito di colpa nella sentenza ‘Grandi Rischi’ (A. Galluccio)

Una interessante saggio di A. Galluccio, pubblicato su “Diritto Penale Contemporaneo”, analizza in termini molto critici  alcuni aspetti cruciali del rinvio a giudizio e dalla sentenza ‘Grandi Rischi’:

http://www.penalecontemporaneo.it/area/1-/-/32-/2659-terremoto_dell_aquila_e_responsabilit___penale__nesso_causale_ed_addebito_di_colpa_nella_sentenza__grandi_rischi/

Il sommario: Continua a leggere

23 novembre 1980: quando la “Grandi Rischi” non c’era ancora (Massimiliano Stucchi)

 

Il 23 novembre 1980 l’Italia Meridionale viene colpita dal terremoto più disastroso e mortifero dal 1915, terremoto di Avezzano. Le dimensioni del disastro vengono comprese solo nei giorni seguenti. I soccorsi si muovono con molto ritardo. Il presidente Pertini visita quasi subito le zone colpite e pronuncia un memorabile discorso alla TV: Continua a leggere

Un commento alla sentenza da parte di due esperti di diritto (Marina Zalin e Luciano Butti)

Marina Zalin (B&P Avvocati, Dottore di ricerca in diritto penale italiano e comparato, Università di Torino) e Luciano Butti (B&P Avvocati, Professore a contratto di diritto internazionale dell’ambiente, Università di Padova) hanno pubblicato, subito dopo la pubblicazione delle motivazioni, un primo commento alla sentenza.

E’ possibile leggerlo su “Diritto 24” (supplemento al Sole24Ore) e su “Avvocato.it“.

L’Aquila, molto più di un’esperienza di vita, una vera sconfitta per la razionalità e la giustizia (Claudio Moroni)

Claudio Moroni

Dei sette condannati non avevo mai avuto il piacere di conoscerne solo tre, se non come figure quasi “mitologiche” sulla scorta dei loro articoli e convegni, degli altri conoscevo nei dettagli l’elevatissima competenza e le qualità umane. Il PM, senza dubbio per deriderli, ha detto che erano i migliori sette uomini di cui disponeva la nostra povera Italia. Continua a leggere

Franco Barberi e la lezione del terremoto del 1980 (Carlo Meletti)

Recuperare la memoria è un esercizio molto utile, in generale nella vita di tutti i giorni, ma in particolare nel settore della prevenzione dai terremoti, non fosse altro perché sappiamo che dove sono avvenuti già in passato i terremoti potranno verificarsi ancora.Facendo una ricerca con un motore di ricerca su alcune parole chiave relative alla difesa dai terremoti, mi è stato proposto il link ad un documento che conoscevo molto bene, ma che era rimasto in un angolo sperduto della memoria e ho così approfittato della combinazione per rileggerlo. Continua a leggere

Il rischio, l’educazione, la solitudine: lettera a M. Paolini (Ingrid Hunstad)

Caro Marco Paolini,
ci sono alcuni personaggi, nel panorama italiano, che nel triste degrado culturale in cui si trova l’Italia da molti anni, hanno tenuto alto il morale per la loro lucidità, il loro coraggio nell’affrontare temi difficili, la loro fantasia e bravura. Lei era fra questi.  Oggi mi è difficile conservare questo pensiero.  Quando ho letto le sue pesanti accuse contro di noi, ho fatto fatica a credere che si trattasse dello stesso Marco Paolini a cui avevo scritto il 25  gennaio 2011.  Se è vero che ha studiato a fondo le vicende e i fatti legati alla tragedia del Vajont, è altrettanto vero che lo stesso approfondimento non lo ha dedicato alle vicende legate alla tragedia del terremoto di L’Aquila. Continua a leggere