Come (e quando) nacque l’INGV… (di Massimiliano Stucchi)

Premessa. A dispetto del fatto che in questi giorni si voglia celebrare il ventesimo anniversario della nascita dell’INGV, l’INGV nacque invece il 10 gennaio 2001. Nel 1999 uscì il Decreto Legislativo 381/1999, che stabilì il percorso e le modalità di costituzione dell’INGV. Fino al 10 gennaio 2001 l’INGV non esisteva; esistevano al suo posto gli istituti che vi sarebbero confluiti, con i loro presidenti, direttori e organi di governo. Come ha commentato un ex-collega, celebrare la nascita dell’INGV nell’anniversario del suo decreto istitutivo, che aveva fissato anche l’itinerario per la nascita vera e propria, è un po’ come “anticipare la celebrazione del compleanno al giorno del concepimento” (cit.). Ma comunque.
Pensavo quindi di avere un po’ di tempo per preparare un ricordo circostanziato, magari assieme a Tullio Pepe e altri; questo anticipo mi costringe a essere un po’ approssimativo, e mi scuso con chi ha vissuto le esperienze che descrivo se non troverà la narrazione perfettamente corrispondente a come si svolsero i fatti. Comunque mi è piaciuto scriverlo: commenti benvenuti e…rimedierò nel 2021.

Correva l’anno 1999 e, come ci ha ricordato un altro ex-collega, a Erice (Trapani), alto luogo della ricerca scientifica, si tenne in luglio una sessione un po’ particolare della “School of Geophysics”, diretta da Enzo Boschi. Si riunirono infatti, in prevalenza, ricercatori italiani afferenti agli istituti di ricerca del settore geofisico, sismologico e vulcanologico (ING, CNR, Osservatorio Vesuviano, Osservatorio Geofisico Sperimentale di Trieste), oltre a docenti universitari di varie discipline afferenti alla geofisica. Era presente anche qualche docente di ambito geologico.
Se il Decreto Legislativo 381/1999 fu l’atto del concepimento dell’INGV, la scuola di Erice ne fu la fase dei flirt, o anche qualcosa di più. Il programma vide presentazioni ad ampio spettro su ricerche in corso e problematiche aperte, pacificamente suddivise fra ricercatori di tutti gli enti senza esasperata competizione ma, anzi, in un clima di collaborazione; una novità assoluta. Fino a poco prima infatti, e per molti anni, gli istituti in questione confliggevano apertamente sia sul piano scientifico che su quello operativo, anche e soprattutto per cercare di accaparrarsi i limitati fondi pubblici disponibili.

Dal 1975 al 1981 Il Progetto Finalizzato Geodinamica (PFG) del CNR, grazie alla larghezza di vedute di Paolo Gasparini (Napoli), che ne fu il primo direttore, e di un board direttivo di alto livello, aveva fatto collaborare fattivamente sismologi e ingegneri, vulcanologi e geologi in un periodo scosso – è il caso di dirlo – da diversi terremoti importanti italiani (Friuli, 1976, Golfo di Patti, 1978; Norcia, 1979; Irpinia-Basilicata, 1980), oltre che da notevoli terremoti all’estero. ING partecipò in maniera marginale, sia a causa della miopia della dirigenza di allora, sia in virtù del fatto che l’ente era addirittura a rischio di essere commissariato, cosa che poi avvenne nel 1981.
Dall’esperienza del PFG nacque il Gruppo Nazionale per la Vulcanologia (GNV) e il Gruppo Nazionale per la Difesa dai Terremoti (GNDT: va sottolineata la finalità applicativa espressa dal titolo). Per certi versi dal PFG nacque anche la Commissione Grandi Rischi (CGR) nel 1982, su modello dell’analoga commissione francese voluta da Haroun Tazieff; Enzo Boschi venne nominato Commissario Straordinario (e in seguito direttore) dell’ING; successivamente, venne istituito il Sottosegretariato alla Protezione Civile. GNV e GNDT passarono di fatto sotto la sponsorizzazione del Dipartimento della Protezione Civile, sviluppatosi per la spinta di Giuseppe Zamberletti (il PFG viceversa emanava dal MIUR, o come allora si chiamava), accentuando il carattere applicativo delle ricerche svolte dai due gruppi. Il GNDT nel seguito subì diversi rivolgimenti istituzionali.
ING non partecipò a GNV e GNDT se non in misura minima, per una scelta di indirizzo e di ripartizione dei fondi fatta ad alto livello: e questo, al di là dei buoni rapporti individuali fra i vari ricercatori, contribuì ad alimentare la conflittualità di cui sopra.

I terremoti di Colfiorito del 1997 (avvenuti con Franco Barberi Sottosegretario alla Protezione Civile) determinarono, oltre un imponente salto di qualità nelle indagini scientifiche e nell’intervento post-terremoto, anche una maggiore attenzione da parte pubblica al problema del sottodimensionamento delle risorse e del personale dedicati allo studio di vulcani e terremoti. Oltre a qualche intervento “tampone” di situazioni pregresse (ricercatori precari), Enzo Boschi e Franco Barberi, con l’aiuto della valente direzione generale ING, cominciarono a studiare la possibilità di un riordino generale del settore (se ne era già iniziato a parlare anche qualche tempo prima, molto più sommessamente; alla fine del PFG accompagnai Franco Barberi a un incontro in materia, nello studio di Enzo Boschi all’Università di Bologna). Boschi ricordava spesso che altri settori, magari meno strategici per la vita del paese rispetto al nostro, quali ad esempio la fisica delle particelle nucleari, avevano acquisito maggior potere contrattuale, e quindi risorse, proprio perché si presentavano uniti (dopo aver magari lavato i panni sporchi in famiglia….) e parlavano con una voce sola.

Fu così che in quella scuola di Erice, dopo un paio di giornate di presentazioni scientifiche, Enzo Boschi aprì una sessione speciale con alcune parole che allora risultarono oscure ai più. Si ebbe comunque la percezione del fatto che qualcosa di grosso stava succedendo e che si stava partecipando a una riunione di cui in futuro si sarebbe potuto dire “c’ero anch’io”. Boschi diede la parola a Paolo Gasparini che illustrò in dettaglio il progetto. Seguirono discussioni in loco e poi “a casa”; qualche litigio, diverse perplessità: ad esempio, per i “non-ING” riguardo al fatto di entrare – modello Germania est/DDR – in una sorta di ING allargato; per gli “ING”, riguardo al timore di doversi accollare qualche peso morto…..
Il 29 settembre di quell’anno uscì il Decreto Legislativo 381/1999, che stabilì il perimetro del riordino, e l’itinerario di costruzione dell’INGV. Venne soppresso l’ING, che confluì nell’INGV, e vi confluirono gli altri Istituti scelti: Osservatorio Vesuviano e i tre Istituti CNR: Istituto Internazionale di Vulcanologia, Catania, Istituto di Ricerca sul Rischio Sismico, Milano e Istituto per la Geochimica dei Fluidi, Palermo. Confluirono anche GNV, GNDT e Sistema “Poseidon”. L’Osservatorio Geofisico Sperimentale di Trieste restò fuori in toto (modello “il Friuli farà da sé”…..), compresa la sezione sismologica e la rete sismologica del Friuli. Venne previsto un Comitato per la redazione dei Regolamenti che lavorò per circa un anno, attraverso numerosi incontri interni, consultazioni, ecc. Se posso portare un ricordo personale, dirò che in quella non facile sequenza di incontri vidi un Boschi al suo più alto livello di sempre, propositivo e determinato.

Il 10 gennaio 2001, con i Regolamenti approvati dall’allora MIUR, il neonato Consiglio di Amministrazione si riunì per la prima volta con il Comitato, nominò i direttori delle Sezioni previste dal Regolamento (Milano, Napoli, Catania, Palermo e tre a Roma (più l’Amministrazione Centrale: novità rispetto a ING) e dichiarò nato l’INGV. L’incarico di direzione delle sezioni fu affidato, come da Regolamento, a ricercatori INGV. L’indomani i nuovi direttori iniziarono a costruire concretamente le sezioni INGV. Le sezioni di Pisa e Bologna furono costituite qualche anno dopo; nel seguito furono costituite anche numerose sedi distaccate.

Il Decreto istitutivo aveva lasciato ai singoli ricercatori la facoltà di optare – a livello individuale e entro alcune settimane – per rimanere nei ruoli del CNR, in forza di alcune differenze di trattamento economico-giuridico che il Regolamento del Personale non aveva saputo (o forse voluto) unificare. Questa opzione fu utilizzata da alcuni ricercatori CNR, e in particolare da una consistente parte del personale di ruolo dell’ex Istituto di Ricerca sul Rischio Sismico (IRRS-CNR, Milano), che rimase nel CNR e afferì in seguito ad altri istituti. Ciò avvenne in parte per motivi di divergenze scientifica, in parte per ragioni di mancata sintonia con il futuro INGV e la relativa dirigenza, a dispetto di una pubblica “supplica” rivolta loro da Enzo Boschi in occasione di una visita di ricognizione a Milano.

Il Decreto aveva previsto anche la possibilità che INGV costituisse sezioni presso le Facoltà Universitarie che ne avessero avanzato proposta, secondo il modello dell’Istituto Nazionale di Fisica Nucleare (INFN). Alla chiusura dei termini pervennero una ventina di richieste. Alcune non furono accolte in quanto provenienti da Facoltà ubicate in città dove era già presente una sezione INGV, oppure dove una sede INGV era in preparazione, ma in questi casi al mancato accoglimento fece seguito l’invito a istituire collaborazioni sul piano locale. Altre non vennero accolte in quanto si trattava di fatto di richieste di mero finanziamento e non di condivisione di risorse, oltre che di obiettivi, impossibili da accettare in relazione alla scarsezza delle risorse disponibili.
La collaborazione con il mondo universitario – e con altri soggetti quali ad esempio alcune Regioni, la Fondazione Eucentre (Pavia), di cui INGV fu co-fondatore, e altre istituzioni –  si realizzò comunque attraverso progetti di ricerca, convenzioni, consorzi, dottorati, ecc. In aggiunta, si rafforzò attraverso il GNV e il GNDT, sostituiti in seguito dai Progetti INGV-DPC, nei quali INGV si fece carico di gestire anche i contratti di ricerca con il mondo esterno. Terminò, viceversa, una lunga fase nella quale il mondo universitario aveva sostanzialmente spadroneggiato, relegando spesso i ricercatori ING, CNR etc. al ruolo prevalente di raccoglitori di dati. Anche questa fu una intuizione di Enzo Boschi il quale, pur essendo lui stesso universitario, puntò molto sui ricercatori INGV che ne ricambiarono ampiamente la fiducia accordata loro.

Che si celebri la ricorrenza del Decreto o quella della nascita vera dell’INGV, colpisce vedere che molti dei protagonisti principali della transizione e dell’avvio dell’INGV – forse tutti – in servizio o in pensione, non sono invitati alle celebrazioni, anche se molti di essi sono tuttora dirigenti apicali impegnati in attività cruciali per la vita dell’ente. Di altri protagonisti, primo fra tutti l’infaticabile Direttore Generale Cesidio Lippa, scomparso nel 2007, viene trascurata anche la memoria. Lo stesso avviene per il promotore principale e primo presidente dell’INGV, Enzo Boschi che, viceversa, resta ben vivo nel ricordo di chi ha avuto il privilegio di accompagnarlo in questa avventura.

Ringrazio Tullio Pepe per la revisione e le precisazioni; Roberto Basili per lo spunto sui compleanni e Marco Olivieri per il ricordo di Erice 1999.

 

How (and when) INGV was born (by Massimiliano Stucchi

translated from https://terremotiegrandirischi.com/2019/09/26/come-e-quando-nacque-lingv-di-massimiliano-stucchi/ by googletranslate, revised

Premise. In spite of the fact that these days the twentieth anniversary of the birth of INGV is going to be celebrated, INGV was actually born on January 10th 2001. In 1999, Legislative Decree 381/1999 was published, which established the path and methods of establishing the INGV. Until January 10, 2001, INGV did not exist; in its place there existed the institutes that would have merged there later, with their presidents, directors and governing boards.
As one former colleague commented, celebrating the birth of INGV on the anniversary of his institutional decree, is a bit like “anticipating the birthday celebration to the day of conception ”(cit.). Anyhow.
I therefore thought I had some time to prepare a detailed account, perhaps with Tullio Pepe and others; this advance forces me to be a bit approximate, and I apologize to those who have lived through the experiences I describe if they will not find my narrative perfectly corresponding to how the events took place. However I liked writing it: comments are welcome and … I’ll fix it in 2021.

The year was 1999 and, as another ex-colleague reminded us, in Erice (Trapani), a high place of scientific research, a special course was held in July in the frame the “School of Geophysics”, directed by Enzo Boschi . In fact, mainly Italian researchers from research institutes in the geophysical, seismological and volcanological sector (ING, CNR, Vesuvian Observatory, Trieste Geophysical Observatory) met, as well as university professors from various disciplines related to geophysics. Some geological professors were also present.
If the Legislative Decree 381/1999 was the act of conception of the INGV, the Erice’s school was the phase of flirting, or even something more. The program saw broad-spectrum presentations on ongoing research and open problems, peacefully divided between researchers from all the bodies without exaggerated competition but, indeed, in a climate of collaboration; an absolute novelty for Italy. Until recently, in fact, and for many years, the institutions in question were openly conflicting both scientifically and operationally, also and above all to try to grab the limited public funds available.

From 1975 to 1981 the CNR’s Geodynamic Finalized Project (PFG), thanks to the open views of Paolo Gasparini (Naples), who was its first director, and of a high-level board of directors, had made seismologists and engineers, volcanologists and geologists actively collaborate in a “shaken” period – it must be said – from several important Italian earthquakes (Friuli, 1976, Gulf of Patti, 1978; Norcia, 1979; Irpinia-Basilicata, 1980), as well as from considerable earthquakes abroad. ING participated in a marginal way, only, both because of the short-sightedness of the leadership of that time, and by virtue of the fact that the institution was even at risk of being ruled by a commissioner, which then happened in 1981.
From the experience of the PFG the National Group for Volcanology (GNV) and the National Group for the Defense of Earthquakes (GNDT: the applicative purpose expressed by the title should be underlined) were born. In some respects the Great Risks Commission (CGR) was also born from PFG in 1982, based on the model of the French commission commissioned by Haroun Tazieff; Enzo Boschi was appointed Extraordinary Commissioner (and later director) of ING; subsequently, the State Secretary for Civil Protection was established. GNV and GNDT actually passed under the sponsorship of the Civil Protection Department, developed by Giuseppe Zamberletti (the PFG on the other hand emanated from Ministry of Research), emphasizing the applicative character of the research carried out by the two groups. The GNDT subsequently underwent various institutional changes.
ING did not participate in GNV and GNDT but to a minimum extent, for a high-level choice of address and allocation of funds: and this, beyond the good individual relations between the various researchers, contributed to fuel the above mentioned conflict.

The 1997 Colfiorito earthquakes (occurred when Franco Barberi was State Secretary for Civil Protection) determined, in addition to an impressive qualitative leap in scientific investigations and post-earthquake intervention, also a greater public attention to the problem of under-sizing resources and staff dedicated to the study of volcanoes and earthquakes. In addition to some interventions dedicated to ongoing situations (young researchers contracts), Enzo Boschi and Franco Barberi, with the help of the capable ING general director, began to study the possibility of a general reorganization of the sector (talks had begun time before, more quietly, at the end of the PFG I accompanied Franco Barberi to a meeting on the subject, in Enzo Boschi’s office at the University of Bologna). Boschi often remembered that other scientific sectors, perhaps less strategic for the life of the country than ours, such as the physics of nuclear particles, had acquired greater power, and therefore resources, precisely because they presented themselves united (after perhaps having washed their clothes dirty inside the family ….) and spoke with one voice, only.

Thus it was that in that school of Erice, after a couple of days of scientific presentations, Enzo Boschi opened a special session with some words that were then obscure to most. However, there was a perception that something big was happening and that we were attending a meeting of which we could say in the future “I was there too”. Boschi then gave the floor to Paolo Gasparini who illustrated the project in detail. Discussions took place on the spot and then “at home”; some quarrels, several perplexities: for example, for the “non-ING” regarding the fact of entering – model Germany East / DDR – in a sort of enlarged ING; for the “ING”, about the fear of having to bear some dead weight …
On September 29 of that year, the Legislative Decree 381/1999 was published, which established the perimeter of the reorganization, and the itinerary for the construction of the INGV. The ING, which merged into the INGV, was suppressed and the other selected Institutes also merged: Vesuvian Observatory and the three CNR Institutes: International Institute of Volcanology, Catania, Seismic Risk Research Institute, Milan and Institute of Geochemistry, Palermo, GNV, GNDT and “Poseidon System” (a sort of spin-off dedicated to Etna monitoring). The Experimental Geophysical Observatory of Trieste remained outside in its entirety (the “Friuli will do itself” model … ..), including the seismological section and the seismological network of Friuli. A Committee was drafted for the drafting of the Regulations which worked for about a year, through numerous internal meetings, consultations, etc. If I can bring a personal memory, I will say that in that difficult sequence of meetings I saw Boschi at its highest level ever, purposeful and determined.

On 10 January 2001, with the Regulations approved by the Ministry of Research, the Committee in question met for the last time, appointed the Directors of the Sections provided for in the Regulations (Milan, Naples, Catania, Palermo and three in Rome (plus Central Administration: new with respect to ING) and declared the INGV to be born. The position of director of the sections was entrusted, as per the Regulations, to INGV researchers. The next day the new directors began to concretely build the INGV sections. Pisa and Bologna were established a few years later, and a numerous branch offices were also established later.

The institutional Decree had left to  individual researchers the faculty to opt – at individual level and within a few weeks – to remain in the CNR, by virtue of some differences in the economic-juridical treatment that the Staff Regulation did not (or perhaps did not want) ) to unify. This option was used by some CNR researchers, and in particular by a substantial part of the permanent staff of the former Seismic Risk Research Institute (IRRS-CNR, Milan), which remained in the CNR and later joined other institutes. This was partly due to reasons of scientific disagreement, partly for reasons of lack of harmony with the future INGV and its leadership, despite a public “plea” addressed to them by Enzo Boschi during a reconnaissance visit to Milan.

The Decree also envisaged the possibility that INGV would establish sections at the University Faculties that would propose them, according to the model of the National Institute of Nuclear Physics (INFN). At the close of the terms, about twenty requests arrived. Some were not accepted because they came from faculties located in cities where an INGV section was already present, or in preparation. In these cases, the non-acceptance was followed by an invitation to establish collaborations at the local level. Others were not accepted as they were in fact requests for mere funding and not for sharing resources as well as objectives; those requests were impossible to accept in relation to the scarcity of available resources.
The collaboration with the universities – and with other subjects such as for example some Regions, the Eucentre Foundation (Pavia) and other institutions – was consolidated in any case through research projects, conventions, consortia, research doctorates, etc. In addition, it was strengthened through the GNV and the GNDT, later replaced by the INGV-DPC projects, in which INGV took charge of also managing the research contracts with the outside world.
On the other hand, a long phase in which the university world had substantially dominated, often relegating ING, CNR etc. researchers to the prevailing role of data collectors, came to an end. This was also an intuition of Enzo Boschi who, although he was a university professor himself, trusted a lot on the INGV researchers, who later repaid that trust with great amplitude.

Whether we celebrate the recurrence of the Decree or that of a real birth of INGV, it is striking to see that many of the main protagonists of the transition and the start of INGV – perhaps most of them – still on duty or retired, are not invited to the celebrations, even though many of them they are still top executives engaged in crucial activities for the life of the institution. Of other protagonists, first of all the tireless General Director Cesidio Lippa, who died in 2007, even the memory is not acknowledged. The same is true for the main promoter and first president of the ING, Enzo Boschi, who, on the other hand, remains alive in the memory of those who had the privilege of accompanying him on this adventure.

 

“Non è vero ciò che è vero, ma è vero ciò che si decide sia vero” (Claudio Moroni, cit.). Di Massimiliano Stucchi

Parte 1: passaggio a L’Aquila, per un altro processo.
Il giorno 9 settembre 2019 sono stato convocato, in qualità di testimone, da un avvocato difensore di alcuni cittadini che hanno avviato, credo nel lontano 2010, una causa civile contro la Presidenza del Consiglio dei Ministri (PCM) per risarcimenti – pare multimilionari – ai parenti di alcune  vittime del terremoto del 6 aprile 2009, di nuovo in relazione alla riunione di esperti del 31 marzo 2009. Il colpevole sarebbe la PCM, in quanto le attività degli esperti vennero svolte a favore del Dipartimento della Protezione Civile, che dipende dalla PCM. L’accusa, sempre la solita: avere rassicurato le vittime, inducendole a non uscire di casa prima del terremoto distruttivo.
Si tratta in sostanza di un processo parallelo a quello più famoso, penale, cosiddetto “Grandi Rischi”, nel quale sei dei sette accusati vennero prima condannati e poi assolti in Appello e in Cassazione “perché il fatto non sussiste”. Ma evidentemente quelle conclusioni non hanno fatto giurisprudenza e nel nostro ordinamento giudiziario sembra sia lecito istruire un nuovo processo, sia pure civile, sullo stesso argomento.
E – fatto poco spiegabile almeno per me – tirarlo in lungo per quasi dieci anni; con parte dei relativi costi (tribunale, giudici, cancellieri, ecc.) a carico di tutti noi.

Nella lettera di convocazione nessuna spiegazione, solo la minaccia di multa in caso di no show. Un amico avvocato mi dice che, avendo già mancato la prima convocazione (ero all’estero), se non mi presento ora la prossima volta mi vengono a prendere i carabinieri.
Chiamo l’avvocato che mi ha convocato, dopo avergli già scritto senza ottenere risposta. Riesco a parlare dopo varie chiamate e mi viene spiegato che “deve essere per un articolo che ha scritto”. “Quale?” “Non mi ricordo, le faccio sapere”. Naturalmente non richiama. “E’ previsto un rimborso”? chiedo. “Ma lei svolge un servizio pubblico“. So what, risponderebbe un inglese. Non mi sembra che gli avvocati viaggino gratis.

Udienza nell’ufficio del Giudice: i testimoni non possono sentire gli altri testimoni (fra cui una ex-collega INGV e un indagato al processo maggiore, pensa!). 20 minuti ciascuno i primi due. Entro io: leggo la formula di rito, scritta su un cartoncino plastificato (con un errore di grammatica corretto a pennarello). Non so chi siano quella decina di persone sedute sui tavoli o in piedi: non so se siano presenti giornalisti o parenti delle vittime. Mi viene chiesto, semplicemente, se confermo di avere scritto, nel 2009, un articolo a nome mio e di altri colleghi INGV (uno di questi già convocato con le medesime modalità più di un anno fa), che parla di terremoti storici e pericolosità sismica nell’area aquilana (1). L’avvocato legge un brano: chiedo di vederlo. Non mi viene chiesto di spiegare l’articolo: solo di confermare di averlo scritto (confremare che cosa, è stampato….). Confermo. “Grazie può andare”. L’avvocato difensore dello Stato non si palesa e quindi non vengo controinterrogato. Qualche considerazione si impone:

  1. Si convocano dei tizi da Milano, o da Firenze, Napoli ecc., a loro spese (e quindi gratis per chi convoca), per chiedergli se conferma di avere scritto un brano di un articolo pubblicato a stampa nel 2009. L’accusa ne può convocare quanti ne vuole, non ci si può opporre. E’ normale, o logico, tutto questo? E il Giudice, è proprio tenuto a ammetterli tutti? Ci potrebbero essere altri mezzi (che ne so, teleconferenza), o altre richieste meno banali? E’ proprio necessaria questa arroganza, per l’esercizio del potere giudiziario?
  2. Potrebbero forse questi tizi dare una risposta diversa, tipo: “no, non confermo, l’hanno scritto gli altri e hanno messo il mio nome di nascosto, non me ne ero accorto in questi dieci anni, grazie di avermelo fatto notare, adesso li querelo questi sciagurati….”? No: quindi a che cosa serve l’audizione?
  3. Siamo (anzi sono, loro) ancora qui, a costruire (verosimilmente) le accuse e (speriamo di no) le sentenze ritagliando spezzoni di articoli scientifici e giustapponendoli in modo da costruire una verità di comodo? Vedremo. Vedremo cioè se hanno fatto scuola i due protagonisti del processo “Grandi Rischi” di primo grado, campioni del “taglia e incolla”, PM Picuti e Giudice Billi (quello che dopo che la sentenza di Appello che gli ha dato torto su tutta la linea e gli ha anche dato una alzata professionale mica male, ha ribadito che la sentenza la riscriverebbe uguale).

Parte 2. Come si costruisce una menzogna.
Il Messaggero dell’11 settembre riferisce l’udienza di cui sopra con molta enfasi, con il titolo “il sisma del 2009 non fu un evento eccezionale”. Con enfasi e a modo suo: sostiene infatti che “a domande esplicite” avrei confermato, come del resto la ex-collega D’Amico, come “sulla base dei dati a disposizione ecc. ecc…(si veda il testo dell’articolo del giornale).

Marcello Ianni
Si tratta ovviamente di una maldestra rielaborazione di quanto scritto nell’articolo scientifico in questione, di cui mi è solo stato chiesto di confermare la paternità (il testo è stato letto dall’avvocato). Ma non è finita qui.

Mentre in apertura compare un banner, tanto falso quanto odioso, che recita “gli allarmi mancati”, nel seguito il cronista conclude: “l’immane tragedia è perfettamente aderente a quanto ci si poteva aspettare [a dire il vero non si è parlato di tragedia ma solo di parametri sismologici….]. Una conferma che in qualche modo stona con l’approccio [sic!] e le conclusioni [quali? dove?] cui erano giunti i sette esperti della Commissione Grandi Rischi [arridaje……], i quali proprio per le rassicurazioni promanate [sic!] il 31 marzo di dieci anni fa, attraverso le dichiarazioni del De Bernardinis [rilasciate prima della riunione incriminata] indussero i residenti a restare a casa” [falso, come prova la sentenza di Appello].

Il cronista ha costruito una menzogna. Sostiene che l’articolo che mi vede fra gli autori, scritto DOPO il terremoto per spiegare il medesimo alla luce dello stato delle conoscenze, contraddice le conclusioni della riunione incriminata, che si è tenuta PRIMA del terremoto. Cerca in sostanza di far credere che, dichiarando che le caratteristiche del terremoto fossero compatibili con il quadro della sismicità, gli autori sostengano anche che il terremoto fosse di fatto prevedibile. Certo: un terremoto di quelle caratteristiche era possibile; non per nulla la zona era classificata come sismica di seconda categoria a partire dal 1915, e questo avrà pure voluto dire qualcosa. Ma che potesse avvenire il giorno dopo, una settimana, un mese, un anno o dieci anni dopo non lo sapeva nessuno e nessuno avrebbe potuto dirlo.
Forse sarebbe bene ricordare più spesso, a tutti, che essere in zona sismica significa che può verificarsi un terremoto, stasera, domattina, fra un po’ di tempo. Punto. Si deve sapere e basta (lo sanno avvocati, giudici, giornalisti che vivono o operano a L’Aquila), senza bisogno di convocare una riunione ad hoc prima o – dopo – di andare a ripescare tutti gli articoli scientifici scritta in materia, pretendendo di capirli, ritagliarne brani e tirare conclusioni alla “sismologo fai-da-te”.

Riporto qui, prendendoli a prestito dai colleghi che li hanno formulati, alcuni commenti all’articolo del Messagero che mi sembrano particolarmente calzanti:

Mentana direbbe che chi ha scritto ha lasciato il cervello in vacanza”.

“Il titolo avrebbe potuto essere: sismologi inchiodano la CGR. Era tutto previsto, sapevano ma hanno taciuto.”

“Non è vero ciò che è vero, ma è vero ciò che si decide sia vero, o comunque si finge di passare come verità”.

Ecco, l’ultimo commento – da cui è tratto il titolo del post – è tanto realistico quanto preoccupante. Il giornalista sembra al servizio della tesi dell’accusa, e non sarebbe certo il primo caso a proposito del terremoto di L’Aquila; definisce infatti la mia testimonianza (ovvero l’articolo di cui sono co-autore) come “testimonianza a favore” (dell’accusa, ovvio). Davvero si sta cercando, in un film parallelo a quello precedente, di costruire conclusioni opposte a quelle del processo penale “Grandi Rischi”?
Il fatto non sussiste, ma qualcuno ci sta provando ancora.

(1) Stucchi, C. Meletti, A. Rovida, V. D’Amico, A.A. Gomez Capera. Terremoti storici e pericolosità sismica dell’area aquilana. Progettazione Sismica, 3, 23-33 https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/

 

La colpa è dei modelli di pericolosità sismica? (di Massimiliano Stucchi)

Premessa. In questi giorni si discutono problemi ben più gravi e urgenti. Tuttavia l’apparizione di un articolo, su l’Espresso, che approfitta della ricorrenza del terremoto di Amatrice del 2016 per gettare discredito sul modello di pericolosità sismica corrente e sulle norme dello Stato, utilizzando fake news e argomenti inconsistenti mi ha mandato in bestia.

Ce lo si poteva aspettare. Cosa meglio di una ricorrenza di un terremoto (Amatrice, 2016) e delle sue vittime per tornare a accusare terremoti e sismologia? Dopo L’Aquila c’era stato addirittura un processo (anzi, più di uno; uno – civile – ancora in corso, al quale sono stato convocato per testimoniare in settembre, senza spiegazione alcuna, dalla parte che accusa lo Stato e chiede risarcimenti).
Dopo Amatrice e Norcia 2016 nulla di così grave, anche se qualche polemichetta era uscita da parte di chi pretende di leggere i dati e gli elaborati sismologici come se fosse il suo pane quotidiano. Ora però (25 agosto 2019, L’Espresso http://m.espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?fbclid=IwAR2G7stT6dZRMqJfipfldqSy7Y4e5RS1rYGmoqzxCso3k1J3d6Q2PvTyxws esce con un “j’accuse” formale: il modello in vigore (quello che supporta la tanto celebrata mappa di pericolosità sismica) “ha sottostimato i pericoli sismici ma, incredibilmente, è ancora in vigore”.

Ci avevano già provato dopo L’Aquila 2009, e avevamo dimostrato che avevano fatto male i conti (1). Ci hanno riprovato dopo l’Emilia-Romagna del 2012; anche in quel caso avevano fatto male i conti, confrontando le registrazioni su terreno di consistenza media con quelle previste su roccia (2). E lo ripropongono paro paro anche nell’articolo citato: una autentica fake news.
Nel caso del 2016 invece è successo: sì, in alcuni punti, e per alcune scosse, le accelerazioni registrate hanno superato i valori proposti dal modello di pericolosità (con il 10% di probabilità di superamento in 50 anni).

Questo significa dunque che il modello ha sottostimato? Facciamo a capirci. Prima di tutto, adottare una certa probabilità di superamento significa ammettere che i valori proposti possano essere superati, qualche volta: non rappresentano dunque il massimo possibile e sotto vediamo perché. Poi: il modello di pericolosità sismica offre svariate elaborazioni relative a diverse probabilità di superamento in diversi intervalli di tempo (complicato, lo so: ma se uno ci si mette ce la può fare). Ad esempio, alcuni valori di picco registrati nel 2016 sono di poco superiori a quelli relativi al 2% di probabilità di superamento in 50 anni, ma sono inferiori a quelli relativi all’1% di probabilità di superamento nello stesso intervallo. Dunque?

Occorre poi ricordare che il confronto andrebbe fatto (se del caso; ma ci sono buone ragioni per sostenere che non ha molto significato) su tutti i valori dello spettro di risposta e non solo sul valore di accelerazione di picco, valore che tra l’altro non viene utilizzato nella progettazione. Ovvero, può succedere che la accelerazione al suolo superi quella proposta dalla normativa in piccole porzioni dello spettro stesso, magari non interessanti per alcuni tipi di costruzione.

Il problema, comunque, risiede principalmente nella scelta dell’intervallo e della probabilità di superamento adottati dalla normativa, appunto il 10% in 50 anni – ovvero periodo di ritorno 475 anni. Questa scelta la fa lo Stato (parliamo di normativa, appunto), sulla base di una consuetudine abbastanza condivisa a livello internazionale. Le ragioni di questa scelta dovrebbero essere spiegate meglio dagli ingegneri; con le mie parole dico che questa scelta significa garantire, se la costruzione è fatta bene, che non crolli, accettando più o meno implicitamente che si possa danneggiare in modo ragionevolmente riparabile. Perché? questione di ottimizzazione del rapporto costi-benefici. Gli ingegneri che leggono potranno inserire commenti e correzioni, che saranno benvenuti.

Vanno poi aggiunte altre considerazioni. La prima è che l’eventuale superamento delle accelerazioni proposte dalla normativa non determina automaticamente il crollo della costruzione; anche in questo caso gli ingegneri potrebbero spiegare meglio di me.
Non sono a conoscenza di alcun crollo recente avvenuto solamente per tale, eventuale superamento, e mi chiedo: perché invece di accuse teoriche non viene presentato un caso, almeno uno?
Sono a conoscenza, viceversa, di crolli avvenuti per difetti di costruzione, nemmeno lievi, tali da chiedersi come funzioni la catena progetto-controllo. Sono anche a conoscenza di edifici che hanno sopportato le accelerazioni “eccedenti” senza crollare.
La seconda – repetita juvant – è che la normativa stabilisce un valore minimo delle azioni di progetto ma non vieta certo di progettare per azioni superiori, se il proprietario e il progettista lo desiderano e sono disposti a spendere di più. Ma anche su questo c’è scarsa informazione.
La terza, più importante, è che la maggior parte degli edifici crollati per causa dei terremoti era stata costruita prima dell’entrata in vigore della normativa (NTC08, entrata in vigore nel giugno 2009), quindi con riferimento ad altre azioni sismiche e soprattutto ad altra norma costruttiva. L’articolo dice che la ricostruzione di Norcia post-1997 è stata fatta sulla base della mappa probabilistica, che uscì solo nel 2004, pensa te! E per attirare l’attenzione mostra la Basilica di San Benedetto, costruita qualche tempo prima, credo…..
Ancora una volta si confrontano mele con pere e si propongono fake news.

L’articolo in questione ripropone il confronto fra metodo probabilistico e deterministico. Anche questo  confronto è mal posto. L’approccio deterministico privilegia il massimo evento (scuotimento) possibile (evidentemente con la presunzione di poterlo determinare con esattezza). E’ bene ricordare che i valori ottenuti con questo metodo – tradotti in termini ingegneristici, ossia spettri – sono del tutto confrontabili con quelli offerti dal metodo probabilistico per probabilità di superamento più basse e intervalli di tempo più elevati rispetto a quelli previsti dalla normativa in vigore.

Perché non adottare come riferimento il “massimo”, ovvero un periodo di riferimento più lungo? Ovunque nel mondo le scelte in materia le fanno gli ingegneri, che hanno scelto ovunque il probabilistico. Tocca a loro spiegare perché, soprattutto al pubblico e ai media che ne avrebbero molto bisogno (come sempre per i media l’Italia è più avanti: prevede i terremoti con i vari autodidatti, ha i metodi migliori per diminuire i danni da terremoto, ecc.; il tutto a opera di minoranze oppresse e inascoltate).
Sicuramente costruire secondo il “massimo” scuotimento atteso costerebbe di più e non è detto che i benefici varrebbero lo sforzo; ma questo è un paese in cui prima del terremoto si minimizza e si risparmia, dopo il terremoto si protesta e si sarebbe pronti a scialare (in teoria).

Alla serie di fake news e di imprecisioni contenute in questo articolo, provenienti da un gruppo molto ristretto di ricercatori (gruppo che ha vari, lontani nel tempo e poco nobili motivi di astio con il fondatore dell’INGV), dovrebbe rispondere il Governo, visto che parliamo di accuse gravi a leggi dello Stato e non a “papers” scientifici; magari tramite il Ministro delle Infrastrutture e/o il Dipartimento della Protezione Civile, che sono di fatto i gestori della materia (Casa Italia dà scarsi segni di vita. Possibilmente in modo diverso da quanto  fece il Ministro dell’Ambiente del Governo Monti nel 2012, che disse che le “mappe di rischio sono forse da rivedere” (come no, se ci sono stati dei crolli devono essere sbagliate le mappe….).
Ma in questi giorni vi sono cose più importanti.

Ricorrenze a parte, ci vuole un bel coraggio a cercare di scaricare ancora le responsabilità di crolli e morti sulle mappe di pericolosità e comunque sul terremoto, come fa l’articolo terminando con il ricordo di San Giuliano di Puglia, 2002. Vergogna!
Sarebbe veramente ora che dalla comunità ingegneristica si alzino voci forti e chiare in proposito. Le scelte in materia di protezione dai terremoti sono ingegneristiche; i modelli di pericolosità sismica non decidono proprio niente, offrono i materiali per tutte le possibili scelte.

Prima o poi uscirà il nuovo modello di pericolosità INGV, che ha avuto tutte le verifiche, battesimi e riconoscimenti scientifici possibili. C’è grande attesa. Si tratterà di capirlo, prima di tutto, e usarlo come si deve. Qualche numeretto cambierà e – temo – inizierà la solita solfa che i valori precedenti erano sbagliati, ecc. Ad esempio, chi ha calcolato con il modello precedente l’indice di sicurezza di un edificio così come previsto dalla normativa, potrà ricalcolarlo con il nuovo modello e, senza che la vulnerabilità dell’edificio sia stata modificata di una virgola, potrebbe d’incanto ritrovarsi con un valore dell’indice un po’ maggiore (o anche minore), ovvero con un edificio teoricamente un  po’ più sicuro (o anche meno).

Via, su; cerchiamo di fare i seri, guardiamo la luna e non il dito. Le mappe di pericolosità sono il dito, mentre la luna sono, in questo caso, le nostre case, con il loro deficit di sicurezza accumulato in anni di normativa non applicata, controlli mancati, usura, modifiche strutturali (e non) eseguite senza criterio, frodi, condoni, abusivismo.
La colpa dei disastri non è dei modelli di pericolosità sismica!

 

(1) Crowley, H. et al, 2009. Uno sguardo agli spettri delle NTC08 in relazione al terremoto de L’Aquila, https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/view

(2) Stucchi, M. et al. 2012. I terremoti del maggio 2012 e la pericolosità sismica dell’area: che cosa è stato sottostimato? https://drive.google.com/file/d/1yh3R_rg_39cyUYmja-MSTfke-fS8HbLQ/view

 

Do seismic hazard models kill? (by Massimiliano Stucchi)

Introduction. The appearance of an article, on the weekly magazine L’Espresso (http://espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?ref=HEF_RULLO&preview=true), which took advantage of the 2016 Amatrice earthquake anniversary to discredit the Italian seismic hazard model and the national building code, based on it, using fake news and inconsistent arguments made me angry.
What follows is a comment written for the benefit of the international readers.
The original version in Italian which can be found here (https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/), which can easily be translated by means of the improved https://translate.google.com/.

As in many countries, since 2008 the Italian building code (NTC08 and now NTC18) makes reference to design spectra; they are taken from the results of the 2004 PSHA model (1). A new PSHA assessment is been published soon.

On the other hand, since a few years a very small group of Italian researchers proposes a so called alternative method for the evaluation of seismic hazard, based on the neo-deterministic approach. No problem, it is a current scientific discussion. Things became more complex when this group claims that their method should be taken as a basis for the building code; it becomes boorish when, like in the above mentioned article, they claim that the seismic actions proposed by the PSHA model, adopted by the building code, have been overcome in recent earthquakes, and that casualties are due to that “wrong” seismic actions, by making use of “fake news”.
Let’s see.

The article repeats, once again, the fake news that recorded PGA overcame the PGA estimated by the PSHA model, in the occasion of 2009 (L’Aquila) and 2012 (Emilia-Romagna) earthquakes. It has been proved that the above statement is not true (2) (3); simply, comparison are wrongly made between soft ground recordings and hard ground estimates!
In the case of the 2016 Amatrice and Norcia earthquakes, yes, recorded PGA did overcome PSHA estimated PGA. Does it mean that the model did underestimate?

It must first be considered that estimated PGA comes with some % probability of being exceeded in xx years (the most common figures being 10% and 50 years). Moreover, the comparison should be made (if really needed) on the whole design spectrum, not on PGA which is not used for building design; but such comparisons are not recommendable (4). Finally,  the main point is that the PSHA model is a model; it offers various elaborations related to different probabilities of exceedance in different time-intervals. For example, some peak values recorded in 2016 are slightly higher than those related to the 2% probability of exceeding in 50 years, but are lower than those related to the 1% probability of exceeding in the same interval.

So the matter comes back to the main point: do we need to design against the maximum expected shaking (and how to assess it?), or to a shaking with a lower probability of exceedance with respect to the adopted one which, by the way, is adopted in many countries of the world?

This is not a seismological – nor a SHA – problem. SHA models offer a variety of possible solutions and then someone decides. It is a political decision which, usually, is in fact taken by engineers (cost-benefits analysis); unfortunately, this often happens without or with little explanation. We know for instance that source of the “475 return period” is close to casual, but it seems to represent a “satisfactory” compromise. Would be nice if it was explained better, however, so to allow that part of the public, which is not ready to follow scandal claims, to understand by itself.

Are the detractors of the PSHA model and the building code able to provide one example, only one, of a building, designed according the NTC08 without executions mistakes, which collapsed because the design spectra values were overcome by the recorded ones? It would be a good, practical case history, instead of a theoretical clash. This question was already asked for, without getting an answer.
And, even more important: why to give the wrong idea to the public that, as soon as design spectra are exceeded, buildings collapse?

The article, and the scientists behind, quotes the reconstruction of Norcia after the 1979 earthquake and the San Benedetto Basilica (which did stood it); both have little to do with NTC08 and related design spectra. The worst, however, comes with the reference to the collapse of the school in San Giuliano di Puglia (2002), “renovated according to inadequate criteria”. Shame on you, who mix this event with your crusade against PSHA and NTC08! That school was restored in the absence – at that time – of the building code (responsibility of the Ministries which delayed the expansion of the building code to all Italy with all their power), and according to a questionable design.

Seismic hazard models do not kill; buildings do, with the help of fake news!

Scuole e sicurezza sismica: colloquio con Edoardo Cosenza

Il problema della sicurezza sismica delle scuole è molto grande, in Italia come in altri paesi. Periodicamente si leggono sui media rapporti più o meno generali, ma sempre abbastanza negativi, sullo stato delle scuole in Italia. A volte il problema finisce davanti al giudice, nelle cui sentenze si discetta di “indice di sicurezza”, di probabilità di accadimento di terremoti e anche della loro prevedibilità.
Per cercare di fare il punto sulla questione, a beneficio dei non-ingegneri, abbiamo rivolto alcune domande a Edoardo Cosenza, professore di Tecnica delle Costruzioni nell’Università di Napoli Federico II, membro di numerosi Comitati che operano per la definizione delle normative e che è stato anche Assessore ai Lavori Pubblici della Regione Campania (https://www.docenti.unina.it/webdocenti-be/allegati/contenuti/1440218).
Da qualche tempo è molto attivo sui “social”, dove contribuisce egregiamente alla spiegazione degli aspetti ingegneristici ai non informati.
(Nota: le domande sono state formulate con la collaborazione di Carlo Fontana).

Il problema della sicurezza sismica delle scuole è molto sentito in Italia, forse anche a seguito del crollo della scuola di San Giuliano di Puglia nel quale, nel 2002, morirono 26 fra studenti e insegnanti. La situazione è davvero grave, nel suo complesso? Quali sono le ragioni?

La situazione delle scuole non è diversa da quella di tutti gli edifici pubblici o anche degli edifici privati. Risentono di classificazioni sismiche del passato molto parziali, direi che solo dopo l’inizio degli anni ’80 si è avuta una seria classificazione della pericolosità, e pertanto tutto ciò che è stato costruito prima (e quindi una enorme percentuale delle costruzioni) non è stata progettata con criteri sismici. Alcuni investimenti per aumentare la sicurezza delle scuole sono nel frattempo stati fatti, a partire soprattutto dal 2003, ed altro ancora assolutamente va fatto. Ma francamente credo che le scuole siano mediamente più sicure degli edifici privati e spesso ho assistito a chiusure di scuole con genitori che molto probabilmente hanno portato i figli a casa propria, in edifici paradossalmente meno sicuri della scuola stessa.

E’ solo un problema di classificazione delle zone sismiche o anche di normativa tecnica?

Certamente anche di normativa tecnica. Va chiarito innanzitutto che la normativa tecnica riflette sempre le conoscenze del tempo: ad esempio  le automobili degli anni ’60 erano molto meno sicure di quelle di oggi, perché non c’erano sistemi elettrici di frenatura, non c’era l’air bag, le autovetture erano molto pesanti ecc; e ciò vale per qualsiasi disciplina dell’ingegneria: si pensi agli impianti elettrici, alla sicurezza antincendio ecc. In perfetta continuità anche il comportamento sismico delle costruzioni era meno conosciuto. Gli avanzamenti più importanti, in tutto il mondo, compresa California o Giappone, sono stati fatti solo dalla fine degli anni ’70. Dunque un parte del problema, cioè che le costruzioni realizzate nelle poche zone classificate sismiche in Italia prima degli anni ‘ 80 sono state progettate con criteri “d’epoca” oggi superati, è certamente vera e connessa alla minore conoscenza del tempo. A questo si aggiunge purtroppo la scarsa propensione del Paese a introdurre novità: in realtà solo dopo il terremoto di San Giuliano di Puglia, con l’Ordinanza d Protezione Civile del 2003, scritta fra tante polemiche da un gruppo di professori di ci facevo parte anche io, si è data una scossa – è il caso di dire –  al sistema normativo. Il quadro normativo di fatto si è assestato solo nel 2009, dopo il terremoto di L’Aquila: purtroppo ci sono dovute essere delle grandi tragedie per convincere la comunità ad accettare le variazioni, dopo lunghissime discussioni. Adesso possiamo certamente dire che l’Italia ha una delle normative tecniche più avanzate del mondo. Ciò non toglie che la conoscenza tecnica evolve ed evolve sempre, non parliamo di scienze assolute ammesso che esistano, e dunque anche la normativa sismica certamente subirà ulteriori variazioni, anche significative, in futuro.

Sempre nel 2003, l’Ordinanza PCM 3274 introdusse, per la prima volta, “l’obbligo di procedere a verifica, da effettuarsi a cura dei proprietari” delle opere strategiche, con finalità di protezione civile, e di particolare rilevanza, quali scuole, ospedali, ecc. (Art. 2, comma 3)”. Il termine ultimo, inizialmente stabilito in 5 anni dall’emissione dell’ordinanza, è stato più volte prorogato fino al 2013. Erano esentate dall’obbligo di verifica “le opere progettate secondo le norme vigenti successivamente al 1984”, sempreché la classificazione sismica all’epoca della costruzione fosse coerente con quella della 3274/2003 (Art. 2, comma 5); in altre parole, se costruite secondo la normativa sismica post 1984.
Veniva dunque richiesta una verifica, ma senza obbligo d’intervento, anche se era previsto l’obbligo di programmazione degli interventi stessi. Come mai?

La previsione dei lavori, come osservato, doveva essere introdotta nei piani annuali e triennali dei lavori, che sono un obbligo di tutte le Amministrazioni Pubbliche. In altri termini era obbligatoria la programmazione dei lavori su base pluriennale da parte dei proprietari delle Scuole (per quelle pubbliche: Comuni e Provincie). L’obbligo di intervento non potette essere inserito, perché si sarebbe dovuta anche indicare la fonte finanziaria che era difficile da quantificare e soprattutto molto difficile da trovare.

È disponibile un sommario dei risultati conseguiti? E come va intesa l’eventuale inadempienza all’ “obbligo” di legge di verifica e di programmazione degli interventi?

Purtroppo non dispongo di questi dati. Ritengo che a livello centrale debbano esistere, forse al MIUR o al DPC; oppure nelle strutture di missione di Pazzo Chigi come Italia Sicura o Casa Italia. Però non ne sono a conoscenza.

Saltando alcuni passaggi (NTC2008, Circolare applicativa del Ministero delle Infrastrutture n.617 del 2009, Direttiva PCM del 2011 sulla valutazione e riduzione del rischio sismico del patrimonio culturale, ecc.), le nuove Norme Tecniche (NTC2018) hanno introdotto alcune novità, fra cui la definizione del livello di sicurezza (indice di sicurezza) come rapporto fra capacità (azione sismica massima sopportabile dalla struttura) e l’azione sismica massima utilizzabile nel progetto di una struttura nuova in quella località. Ci puoi spiegare meglio che cosa c’è dietro questa definizione, e che cosa significa “sopportabile”?

Si è introdotto un semplice indice numerico, di immediato e comprensibile significato. Per “azione sismica massima sopportabile” si intende l’azione sismica che fa pervenire alla eguaglianza fra entità dell’azione sismica la Resistenza degli elementi strutturali più sollecitati.
L’indice è dunque un numero che risulta almeno pari a 1, in quanto in tal caso è certamente sopportabile l’azione sismica prevista dalla normativa, per una costruzione progettata con le nuove norme tecniche; quindi è da considerarsi “sicura”, nell’ambito della sicurezza convenzionale che noi tecnici valutiamo con i metodi normativi. Ed invece è molto frequente che sia inferiore all’unità, salvo particolarissimi casi di sovradimensionamento, per le costruzioni esistenti. Ci tengo a sottolineare che parliamo di sicurezza convenzionale, dovrei dire più precisamente “probabilistica”, in quanto oramai è anche comunemente accettato che il rischio zero non esiste; cioè purtroppo, stante la forte aleatorietà, è sempre possibile che ci siano azioni più elevate di quelle di progetto o resistenze minori di quelle di progetto; si cerca però di assicurare valori di rischio piccoli e uniformi per tutti i cittadini. Si potrebbe anche puntare ai massimi valori delle azioni sismiche che si deducono dagli studi di pericolosità sismica nazionale, ma ciò sarebbe, a parere mio e di molti altri ricercatori, contrario al principio di assicurare uno stesso rischio in tutto il paese e porterebbe a costi delle costruzioni talvolta inutilmente elevatissimi. In pratica nessun paese al mondo sceglie, almeno attualmente, questa soluzione normativa.

Le NTC2018 stabiliscono dunque che sia accettabile che l’indice possa essere inferiore a 1. Che cosa vuol dire in pratica? Viene spontaneo pensare che, se un edificio scolastico ha un indice molto inferiore a 1, debba essere considerato poco sicuro.

Il principio è che, per una costruzione esistente, essendo visibile e disponibile, si può constatare direttamente la geometria effettiva, i carichi permanenti realmente esistenti, la quantità e la resistenza dei materiali; inoltre ha già superato la fase iniziale della vita in cui si manifesta quello che in sintesi si chiama “mortalità infantile”. Invece in una costruzione da progettare i calcoli strutturali si fanno in modo virtuale, ovviamente senza che esista la costruzione stessa. Dunque il rischio di una costruzione solo progettata è più alto: si pensi ai grandi errori progettuali o realizzativi che poi possono avere conseguenze tragiche all’inizio della vita della costruzione; o anche carichi permanenti più grandi perché si sono aumentate le dimensioni in cantiere o si sono messi elementi non strutturali, pavimenti ed altro più pesanti di quelli di progetto. Dunque ciò porta ad affermare che se la costruzione già esiste e gli interventi che si progettano non comportano stravolgimenti della concezione strutturale, a parità di rischio (ovvero di sicurezza), si possono usare coefficienti più bassi, data la minore aleatorietà conseguente. E quindi, dal punto di vista meramente numerico, pervenire a un indice minore di 1 e dell’ordine di 0,8.
Certamente poi fa parte della civiltà di una nazione, nell’ambito di un problema così sensibile e grave come le scuole che raccolgono contemporaneamente centinaia di bambini, non consentire valori di tale indice troppo basso e cioè, in modo del tutto equivalente, probabilità di collasso troppo elevate.

Essendo l’indice un rapporto tra capacità e domanda, entrambe affette da incertezze, si sono diffuse varie “letture”, fra cui le seguenti:

1) “L’indice di sicurezza è un parametro da usarsi solo in relativo (per mettere in graduatoria di priorità gli interventi) non in assoluto, non rappresentando la vulnerabilità dell’edificio”.
2) “Non trattandosi un indice ‘certo’, non può certificare alcuno stato di rischio imminente, con tutto quello che ne consegue per l’utilizzabilità della struttura”.

Consideri corrette queste letture?

L’intera teoria della sicurezza, in qualunque branca dell’ingegneria, è caratterizzata da fenomeni aleatori: i terremoti sono certamente l’esempio più evidente. Anzi qualunque azione della nostra vita lo è. I nostri indici sintetizzano metodologie convenzionali e livelli di probabilità e di rischio accettati socialmente dai paesi più evoluti, di tutte le parti del mondo. Dire che possa esistere un indice “certo” è assolutamente fuori da qualsiasi realtà scientifica, non solo ingegneristica. Le verifiche che si fanno nelle costruzioni sono il meglio che la tecnica posso fare, ma mai e in nessun caso portano a previsioni deterministiche. D’altra parte le incertezze insite in qualsiasi problema di ingegneria sono trattate in modo scientifico, con le regole del calcolo della probabilità, ed è questo il massimo che si può fare. Chiedere che si facciano calcoli o si definiscano indici “certi” equivale a dire che si può fare una previsione metereologica “certa”: del tutto impossibile concettualmente.

Forse vale la pena chiarire al pubblico che nemmeno per un edificio (di qualsiasi genere) con indice = 1 si può affermare che non subirà alcun danno in caso di terremoto, giusto?

Assolutamente vero. C’è sempre una probabilità finita che l’azione sismica sia più grande di quella scelta dalle norme tecniche e dalla classificazione sismica e che le resistenze della costruzione siano minori di quelle considerate. In altri termini il rischio zero non esiste.

Esiste un inventario degli indici di sicurezza per le scuole italiane? Che tipo di operazioni è necessario compiere per determinarlo? Che tipo di cogenza hanno le NTC2018 in questo senso?

No, a mia conoscenza non esiste. Ritengo che il MIUR gradualmente lo stia costruendo. Per costruirlo e quindi per avere l’indice di sicurezza di ogni singola scuola, si devono fare rilievi e verifiche geometriche, prove sui materiali, esami dei progetti se esistenti e infine calcoli strutturali; tutto ciò a costi. La Norma Tecnica e la relativa Circolare indicano come fare le valutazioni/calcoli ingegneristici, ma un documento normativo non può porre obblighi di spesa pubblica. E ciò sia per il basso rango di norma (è un Decreto Interministeriale, ben al di sotto di un Decreto Presidenziale o di una Legge Parlamentare), sia perché l’obbligo implica spese e quindi reperimento di fondi.

La normativa non fissa un valore minimo dell’indice al di sotto del quale è necessario dismettere l’edificio ed eventualmente adeguarlo. Perché?

Non può indicarlo, è necessariamente delegato al proprietario. La norma indica “come” valutare”; non altro, per i motivi già citati in precedenza.

L’assenza di chiarezza relativamente al punto precedente ha fatto sì che si siano determinati dei contenziosi che hanno finito per essere risolti dalla magistratura, quali il caso di Roccastrada (Grosseto) con indice = 0.985 e Serramazzoni (Modena), con indice = 0.26, che – come altre volte – ha dovuto arrampicarsi su vetri per uscire dall’impasse. Ad esempio, nel caso di Serramazzoni la Cassazione ha interpretato, in sintonia con le NTC, l’incertezza insita nella determinazione del valore dell’indice come insufficiente per un obbligo di azioni immediate (“L’immobile pubblico in questione, pur astrattamente vulnerabile in caso di terremoto, è munito di agibilità …”). Si deve sottolineare l’espressione “astrattamente vulnerabile”, e il permanere della convinzione – molto diffusa soprattutto nel post-terremoto – che “agibile” significhi senza rischio…..
Che ne pensi?

Penso che il rapporto fra pensiero legale e pensiero ingegneristico (direi scientifico più in generale) è molto lontano dal convergere. Spesso in Magistratura si intendono come deterministiche realtà che invece sono probabilistiche. 0.985 è l’indice più alto che io abbia mai sentito, tanto che potrei addirittura dubitare del calcolo. Fra l’altro arrotondato a una sola cifra decimale, dopo la virgola, diventa 1,0 ed è certamente impossibile che il tecnico che ha fatto la valutazione abbia valutazioni cosi precise da potere affermare che le altre cifre decimali siano corrette. E poi mi chiedo: i magistrati conoscono l’indice di sicurezza dell’edificio in cui hanno scritto la sentenza? E le mamme conoscono l’indice di sicurezza della casa dove poi hanno riportato i bambini? E ancora una volta. Il rischio zero non esiste. Prima che questa intervista esca, potrei essere colpito da un fulmine o da una meteorite, qualcuno può escluderlo?

A oggi, dopo San Giuliano di Puglia (2002), ma anche dopo la Casa dello Studente di L’Aquila (2009), dopo la scuola di Amatrice (2016) e dopo la constatazione che occorre – caso per caso – una sentenza di un tribunale, la sensazione degli utenti è che l’attuale impianto normativo non offra certezze.
Evidentemente resta da fare molto, sia sul piano normativo che su quello operativo. Non va peraltro dimenticato che gli utenti spesso pretendono che le scuole abbiano un indice di sicurezza superiore a quello di molti degli edifici in cui abitano gli studenti, che vi trascorrono molto più tempo che a scuola.
Che prospettive di miglioramento ci sono, secondo te?

Nessuna norma di nessun settore, elettrico, automobilistico, trasportistico (auto, treni, auto) ecc. può garantire certezze. Le mie spiegazioni sulla questione le ho date. E sulla questione della sicurezza relativa della propria abitazione, della strada o della metropolitana che si prende per andare a scuole, dei bar e locali pubblici in cui si entra magari ogni giorno, è molto rilevante e lungi dall’essere risolta. Qualcuno conosce il rischio che si assume entrando in un certo museo, chiesa, cinema, ristorante, bar, albergo, stadio: certamente no. La sicurezza deve aumentare per qualsiasi luogo utilizzato da persone, sempre però nella certezza che il rischio può diminuire ma mai azzerarsi.

 

 

 

La vulnerabilità dimenticata (colloquio con Gianluca Valensise)

Gianluca Valensise, del Dipartimento Terremoti, INGV, Roma, è sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).  Ha dedicato oltre 30 anni della sua carriera a esplorare i rapporti tra tettonica attiva e sismicità storica, con l’obiettivo di fondere le osservazioni geologiche con l’evidenza disponibile sui grandi terremoti del passato. Di recente, con altri colleghi ha pubblicato un lavoro che propone una sorta di graduatoria di vulnerabilità dei comuni appenninici. Gli abbiamo chiesto di illustrarcelo.

Luca, tu sei un geologo del terremoto. Ti occupi di faglie attive, di sorgenti sismogenetiche, di terremoti del passato, di pericolosità sismica. Di recente ti sei avventurato, con altri colleghi, nel tema della vulnerabilità sismica del patrimonio edilizio italiano[1],[2]. Come mai questa scelta?

Premetto che io sono un ricercatore, ma mi sento anche un cittadino che si trova nella posizione di poter – e dover – fare qualcosa di immediatamente utile per il suo Paese. Ciò detto, credo che tutto sia nato dieci anni fa, con il terremoto dell’Aquila. Che l’estrema vulnerabilità del costruito fosse una delle cause degli esiti disastrosi di alcuni terremoti in effetti mi era apparso chiaro già da prima, se non altro per aver studiato gli effetti dei più forti terremoti italiani del ‘900; da quello del 1908 nello Stretto di Messina a quello dell’Irpinia del 1980, passando per la zona del Fucino, devastata dal terremoto del 1915.

Ma la storia in effetti inizia ancora prima, con il terremoto di San Giuliano di Puglia del 2002. Quel terremoto mostrò a tutti come nella difesa – o mancata difesa – dai terremoti si possono fare scelte così disastrose da vanificare sia la cultura materiale accumulata da chi abita nelle zone sismiche, sia l’avanzamento tecnologico in campo edilizio, che non riguarda solo le strutture in cemento armato ma anche quelle in muratura portante.

Il terremoto dell’Aquila del 2009 ha mostrato quasi un completo rovesciamento della situazione “normale”: se si escludono i beni culturali, per i quali valgono altre regole, il massimo numero di crolli e vittime si è registrato in edifici costruiti nel dopoguerra, mentre quelli di epoche precedenti – inclusi i palazzi settecenteschi della città storica – hanno risposto in modo complessivamente buono (questa differente performance include anche la scelta del sito, talora disastrosa nel caso di alcuni edifici recenti).

Sul caso dei terremoti del maggio 2012 in Emilia poi c’è poco da aggiungere. Il danno è stato dominato dai crolli nell’architettura ecclesiastica, probabilmente in buona misura inevitabili, e in quella industriale, che invece hanno rappresentato un fulmine a ciel sereno per tutti. Mi preme ricordare che i capannoni crollati erano stati costruiti senza considerare minimamente la possibilità di significative azioni sismiche laterali, che hanno quindi avuto buon gioco nel causare crolli apparentemente sproporzionati alla severità del terremoto stesso. Le norme precedenti non imponevano agli edifici di quella zona di cautelarsi contro i terremoti: cionondimeno, questo resta un dramma nel dramma, se si riflette sull’enorme sproporzione tra quanto poco sarebbe costato ridurre sostanzialmente la vulnerabilità di quei capannoni (a patto però che lo si fosse fatto in sede di costruzione), e il prezzo pagato da quelle comunità in termini di vite umane e di danni all’economia locale (e nazionale).
Infine, c’è il caso dei terremoti del 2016, che con l’ormai noto dualismo tra il centro storico di Amatrice, praticamente scomparso dalla carta geografica, e quello di Norcia, che seppure tra mille sofferenze ha avviato un percorso di rinascita, ha di fatto messo in moto la nostra ricerca.

La tesi di fondo che sostenete è che – forse semplifico io – la vulnerabilità sismica degli insediamenti aumenta con la distanza temporale dall’ultimo terremoto distruttivo. In un certo senso, sostenete, dopo un terremoto distruttivo si procede a riparazioni e ricostruzioni che diminuiscono la vulnerabilità complessiva; in seguito la memoria dell’evento sfuma e la vulnerabilità aumenta. E’ così?

La tesi in estrema sintesi è quella che hai tratteggiato, ma vanno fatte due premesse. La prima riguarda i dati utilizzati: per poter contare su dati omogenei e di buona qualità abbiamo scelto di analizzare solo l’Italia peninsulare, e in particolare la catena appenninica. La seconda ha invece carattere metodologico: nel nostro lavoro infatti si incontrano il dato storico, sotto forma di storia sismica di ogni singolo comune, e il dato geologico, che nell’ambito di un territorio vasto ci consente di isolare quei comuni che si trovano direttamente al di sopra delle grandi sorgenti sismogenetiche, e nelle quali quindi prima o poi ci si aspetta di raggiungere livelli di scuotimento elevati (si veda l’immagine qui sotto, cliccare per ingrandire). Si noti che i dati storici consentirebbero in molti casi di scendere anche al di sotto della scala comunale, ma per omogeneità di rappresentazione e per potersi rapportare con i dati ISTAT abbiamo deciso di riportare tutto al singolo comune.

Sorgenti sismogeniche composite (Composite Seismogenic Sources) tratte dal database DISS (DISS Working Group, 2018: http://diss.rm.ingv.it/diss/) e i più forti terremoti (Mw 5.8 e superiore) del catalogo CFTI5Med (Catalogo dei Forti Terremoti in Italia, GUIDOBONI et alii., 2018). Ogni sorgente rappresenta la proiezione in superficie della presumibile estensione della faglia a profondità sismogenica. Le sorgenti in giallo delineano il sistema di grande faglie estensionali che corrono lungo la cresta dell’Appennino e che sono state utilizzate per questa ricerca. Ogni sorgente è circondata da un buffer di 5 Km il cui ruolo è quello di tenere conto delle incertezze insite nella sua localizzazione esatta, e quindi della sua esatta distanza rispetto ai centri abitati che la sovrastano o la circondano (da Valensise et al., 2017: si veda la Nota 1).

È a partire dai comuni così selezionati  – 716 per l’intera Italia del centro-sud, dalla Toscana alla Calabria  – che abbiamo poi stimato l’attitudine di ogni comunità a sottovalutare il livello di pericolosità locale, e quindi ad abbassare fatalmente la guardia sul tema della vulnerabilità del costruito. Sarebbe stato inutile ragionare su tutti i comuni, inclusi quelli che sorgono distanti dalle grandi sorgenti sismogenetiche, perché una cosa è un edificio fatiscente in una zona scarsamente sismica, come è quasi tutto il versante tirrenico dell’Appennino, altro è se quello stesso edificio si trova ad Amatrice. Noi volevamo elaborare un “ranking” della vulnerabilità dimenticata dai cittadini e dai loro amministratori, e abbiamo messo in campo le migliori conoscenze geologiche, geodinamiche e storiche oggi disponibili – un patrimonio quasi unico al mondo – per raggiungere questo obiettivo. Un’ultima osservazione: i dati di ingresso sono congelati al pre-2016, quindi la graduatoria non tiene conto degli ultimi terremoti dell’Appennino centrale.

In questo modo avete stilato una sorta di graduatoria di vulnerabilità sismica degli insediamenti appenninici, basata sostanzialmente sulla distanza temporale dall’ultimo evento distruttivo. Ci puoi illustrare un poco questa graduatoria?

Abbiamo ordinato le nostre 716 località(si veda l’immagine qui sotto, cliccare per ingrandire)  in funzione della distanza nel tempo dall’ultimo scuotimento di VIII grado della scala MCS (Mercalli-Cancani-Sieberg): un livello di intensità che a nostro avviso fa da spartiacque tra la semplice riparazione di edifici vetusti e la necessità di demolirli e ricostruirli ex-novo, con una presumibile drastica riduzione della vulnerabilità.

Distribuzione dei 716 capoluoghi dei comuni (rappresentativi delle intere aree comunali) selezionati con la procedura descritta nel testo (da Valensise et al., 2017). Le aree bordate in giallo rappresentano la proiezione in superficie delle grandi sorgenti sismogeniche che corrono in cima all’Appennino (si veda anche la Figura 4). Sono mostrati:

• in viola: 38 comuni per i quali la storia riporta solo notizie di danni lievi;
in rosso: 315 comuni che nella nostra graduatoria corrispondono alle aree comunali che non hanno subito terremoti distruttivi dal 1861 (Unità d’Italia);
• in nero: 363 comuni ordinati secondo la distanza nel tempo dall’ultimo terremoto distruttivo, avvenuto dopo il 1861.

Il riferimento al 1861 è puramente convenzionale. L’anno 1861 rappresenta uno spartiacque storico imprescindibile anche per i terremoti, con effetti variabili caso per caso (si pensi solo alle efficaci norme antisismiche borboniche, abrogate con l’Unità d’Italia).

Le prime 38 località sono quelle che non hanno mai vissuto uno scuotimento del livello fissato: seguono quelle in cui quel livello è stato raggiunto o superato molti secoli fa, mentre in fondo troviamo le località che hanno subito i terremoti più recenti, e quindi sono state presumibilmente ricostruite con sistemi antisismici. Le nostre elaborazioni sono facilmente accessibili a chiunque attraverso un sito dedicato, che mostra la nostra graduatoria sia in forma tabellare che in mappa, e consente di esplorare la storia sismica di ciascun comune[3]. Gli unici altri parametri che mostriamo, senza per il momento utilizzarli, sono la popolazione residente e la percentuale di edifici ante-1918, entrambi da dati ISTAT. Per illustrare le implicazioni del nostro studio farò degli esempi tratti dalla graduatoria stessa.

Un caso eclatante è quello della media Valle del Serchio, con diverse località nella parte altissima della classifica, quella dei comuni che non hanno mai sperimentato un VIII grado nella storia: procedendo da NW verso SE si incontrano Gallicano (193°), Coreglia Antelminelli (192°), Borgo a Mozzano (31°), a Bagni di Lucca (32°), tutti centri tra i 4.000 e i 6.000 abitanti circa. Si salva solo Barga (595°), l’ameno borgo montano celebrato da Giovanni Pascoli, che è poi il centro principale della valle. Si nota facilmente che la posizione in graduatoria sale – dunque peggiora – muovendosi verso SE, ovvero allontanandosi dalla sorgente del terremoto del 1920 in Garfagnana, ovvero nell’alta Valle del Serchio. Non vi è dubbio che le due porzioni della valle siano simili, ma i dati sismotettonici suggeriscono che mentre la parte settentrionale ha subito il “suo” grande terremoto meno di un secolo fa, la faglia che si trova sotto la parte meridionale è storicamente silente. Secondo il CFTI5Med, nel 1920 Barga subì un VIII grado, e il terremoto “…danneggiò il 75% degli edifici, abitati per lo più da popolazione povera, causando il crollo totale di molte case…”. Sarà sufficiente questa ricostruzione a salvare Barga dal prossimo forte terremoto della Valle del Serchio? Le cose andranno probabilmente meglio che nei comuni più a valle, anche perché, se è vero che secondo l’ISTAT il 37% del patrimonio abitativo di Barga è pre-1918, ovvero ha oltre un secolo, questa quota di edificato è verosimilmente costituita da case che hanno resistito al terremoto del 1920: o perché costruite meglio, o perché costruite dove la risposta sismica è stata meno severa della media, o per una combinazione di queste due circostanze.

Un altro esempio che vorrei portare riguarda il confine calabro-lucano, tra le provincie di Potenza e Cosenza. Si tratta di un caso simile al precedente, ma decisamente più conclamato. Siamo infatti in uno dei pochi settori della catena appenninica che non hanno mai subito un forte terremoto in epoca storica, anche se la completezza del record sismico della zona non supera qualche secolo (con Emanuela Guidoboni nel 2000 scrivemmo un piccolo contributo proprio su questo tema[4]). L’area era stata già individuata come una possibile “lacuna sismica” dal sismologo giapponese Fusakichi Omori all’indomani di uno studio da lui condotto sui grandi terremoti dell’Italia peninsulare. Nella zona in questione ricadono Mormanno (CS, 29°), Rotonda (PZ, 30°), mai colpite da un forte terremoto, ma anche Viggianello (PZ, 178°), colpita da un VIII-IX grado nel terremoto del 26 gennaio 1708 – che sempre secondo il CFTI5Med “…danneggiò molto gravemente l’abitato causando estese distruzioni e numerose vittime…”. Il 25 ottobre del 2012 questa zona è stata colpita da un terremoto con Mw 5.3, che ha testato la solidità degli edifici ma soprattutto ha messo in moto un circolo virtuoso di riduzione della vulnerabilità dell’edificato: una circostanza molto locale, legata al verificarsi di un terremoto non distruttivo ma sufficiente a innescare una solida reazione delle istituzioni, e che potrebbe rappresentare una gradita eccezione a quanto previsto dal nostro ranking. Sicuramente però la lista delle località nelle quali la “memoria sismica” è stata ben coltivata include molti altri centri, soprattutto in Italia centrale e meridionale: ma dell’efficacia di questi comportamenti virtuosi riceveremo conferma solo dai terremoti prossimi venturi.

Il caso di Norcia sembra del tutto particolare. Il celebre regolamento edilizio dello Stato Pontificio (1859) sembra aver contribuito da allora a limitare i danni, anche nel caso nel terremoto del 1979. Viceversa, per motivi imperscrutabili, Norcia venne inserita in zona sismica solo nel 1962. Nel 2016 ebbe più danni fuori le mura che all’interno. Hai un’opinione?

Norcia è al 676° posto della nostra graduatoria, principalmente in virtù del terremoto del 1979, ma in precedenza aveva già subito effetti di VIII o superiore nel 1730, 1859 e 1879. Il caso di Norcia in effetti è decisamente unico. La “fortuna” di Norcia nei confronti dei terremoti – se mi si concede il termine, forse poco appropriato se solo pensiamo a quello che sta succedendo in questi mesi in città[5]  – passa soprattutto per due terremoti-simbolo, quelli del 1859 e del 1979, entrambi con magnitudo intorno a 5.8, e per un terremoto-richiamo, quello del 1997. Mi spiego meglio. A seguito del terremoto del 1859 il prelato Arcangelo Secchi e l’architetto Luigi Poletti furono i protagonisti di un’analisi molto accurata di ciò che era successo, accompagnata da raccomandazioni sulla ricostruzione raccolte nel famoso “Regolamento edilizio” approvato tra la fine del 1859 e la primavera del 1860. Fu così che il terremoto del 1979 trovò un patrimonio edilizio mediamente più robusto di quello delle località circostanti, anche se forse si era già in parte persa la lezione impartita dal terremoto di 120 anni prima. Dopo il 1979 Norcia fu comunque ricostruita con grande impegno, sia dei residenti che delle istituzioni. Il terremoto del 1997, il cui epicentro era tutto sommato abbastanza lontano da Norcia, fu l’occasione per un “richiamo” di quanto fatto dopo il 1979, come si fa con i vaccini. I nursini quindi – e lo dico con cognizione di causa poiché lì sono nati e cresciuti dei miei cugini materni – hanno il terremoto nel DNA.

Credo che il famoso Regolamento edilizio di Secchi e Poletti abbia giocato un ruolo determinante; un esempio per tutti, quello della Torre Civica, uscita miracolosamente quasi indenne dal terremoto del 30 ottobre 2016. Norcia dimostra che il peso della storia nella cultura locale può essere tale da compensare gli eventuali ritardi nell’introduzione e nell’applicazione di norme antisismiche. A Norcia la cultura locale non ha aspettato le norme moderne ma le ha precorse, anche grazie a Secchi e Poletti. Ricordiamo peraltro che da sempre in Italia le norme incidono solo sugli edifici nuovi e su quelli ristrutturati in maniera significativa, ma non impongono nulla sull’esistente: questo a mio avviso è uno dei grandi nodi irrisolti, nonché una fonte di equivoci e di aspettative mal riposte. Se vogliamo, il caso che citi – quello di un maggior danneggiamento al di fuori della cerchia muraria di Norcia rispetto al centro storico s.s. – è una paradossale conferma proprio del ruolo della “memoria storica” nel mitigare gli effetti dei terremoti. Anche qui al posto mio dovrebbe parlare un ingegnere, ma tenterò di azzardare delle ipotesi, in parte peraltro scontate.

Intanto va detto che il valore della “memoria storica” di Norcia e dei nursini vale principalmente per la “componente storica” dell’edificato. Una affermazione che sembra tautologica, ma in effetti a che storia sismica può far riferimento un condominio costruito negli anni ’80, diversissimo dallo stile costruttivo del centro della città, ma semmai simile a quello che si vede in tante periferie urbane d’Italia? Lo stile costruttivo è anche alla base della mia seconda ipotesi, che parte dall’evidenza che un edificio in muratura portante può difendersi anche molto bene dai terremoti, a patto però che sia ben costruito/ristrutturato, secondo le più efficaci pratiche in uso nelle diverse epoche. Ricordo che quello del 30 ottobre è stato un terremoto di magnitudo 6.5 localizzato proprio sotto al centro di Norcia: le accelerazioni osservate sono state molto significative, al punto da rendere veramente straordinaria la performance degli edifici in muratura. Nei condomini sorti all’esterno della cerchia muraria, invece – ma lo ripeto, si tratta dell’opinione di un geologo – ancora una volta si è visto che nei normali edifici in cemento armato la performance della struttura portante può essere anche molto diversa da quella delle tamponature e delle strutture accessorie. Questo significa che l’edificio difficilmente crolla, a meno di marchiani errori di progettazione, ma anche che i danni non strutturali possono risultare così onerosi da rendere conveniente demolire e ricostruire: un paradosso sul quale ritengo siano intervenute efficacemente le nuove Norme Tecniche per le Costruzioni, quantomeno per il futuro.

Avete avuto modo di discutere questo studio con qualche ingegnere sismico, o avete ricevuto qualche reazione da parte di quell’ambiente? Come ritenete che i vostri risultati possano essere utilizzati, e soprattutto da chi?

Abbiamo ricevuto parole di plauso e incoraggiamento sia da vari ingegneri a cui abbiamo sottoposto la prima versione del manoscritto, sia dal pubblico al quale abbiamo presentato lo studio nei consessi più disparati. Ma ci si ferma lì, perché altre reazioni – e mi riferisco soprattutto a quelle delle istituzioni – non ce ne sono state, almeno per ora. Abbiamo anche tentato di stabilire un rapporto con i vertici della Struttura di Missione Casa Italia, quando ancora era diretta dal Prof. Azzone, ma non c’è stata alcuna reazione. Evidentemente Casa Italia non condivide con noi la necessità di fissare presto dei criteri di priorità per gli interventi di mitigazione del rischio: interventi che comunque non sta attuando, se non nei dieci cantieri-simbolo che verranno aperti in altrettante città-simbolo.
Noi riteniamo che oggi la mitigazione dei terremoti debba coniugare degli ottimi presupposti scientifici –  e in Italia riteniamo di aver sia un ricco patrimonio di dati sulla sismicità, sia un ottimo expertise per utilizzarli al meglio – con un sano realismo per quel che riguarda come e dove investire le eventuali risorse che si rendessero disponibili per il miglioramento sismico. Riteniamo anche che il Sisma Bonus potrebbe essere uno strumento utile, ma solo a patto di rivedere drasticamente i criteri di assegnazione dei benefici offerti (oltre a renderlo più “allettante”, rivedendo i meccanismi di erogazione: ma su questo lascio la parola agli esperti di cose finanziarie). In particolare va assolutamente stilata una graduatoria di priorità tra i diversi comuni e i diversi aggregati di edifici, scegliendoli in base alla loro vulnerabilità presumibile – sulla base di ipotesi come quelle da noi formulate – o reale – sulla base di rilievi puntuali, ancorché speditivi.
Per avviare armonicamente questo processo è necessaria una solida cabina di regia, che a mio avviso dovrebbe includere ricercatori, rappresentanti degli ordini professionali coinvolti, funzionari dell’ISTAT, oltre a rappresentanze istituzionali di varia provenienza (DPC, MiSE, ANCI ecc.). Per oltre due anni ho pensato e sperato che questa cabina di regia potesse coincidere con le strutture di Casa Italia, ma oggi mi è chiaro che sbagliavo.

Infine – last but not least, come si direbbe nel mondo anglosassone – è necessario varare un approccio pluriennale alla mitigazione del rischio sismico, che almeno su un tema così importante abbatta l’endemica visione “a cinque anni” (quando va bene) che da sempre caratterizza i governi del Belpaese. Ma la capacità di pianificare efficacemente il futuro non rientra tra le tradizionali virtù italiche, e dunque su questo versante temo non si andrà molto lontano.
Come ricercatore so distinguere bene ciò che ha senso da ciò che potrebbe essere scritto solo in un libro dei sogni. Tuttavia – e con questo chiudo il cerchio da te aperto con la prima domanda – mi piacerebbe dedicare i prossimi anni di attività a battermi perché ci sia un cambio di rotta su come oggi si affrontano questi temi in Italia. Lo ritengo un dovere morale della mia generazione di sismologi, figlia delle immense – e certamente evitabili – catastrofi del Friuli e dell’Irpinia, e della successiva nascita di una Protezione Civile moderna ed efficace.


[1]  https://www.sciencedirect.com/science/article/pii/S2212420917302376?via%3Dihub(solo abstract: per scaricare l’articolo è necessario un abbonamento alla rivista)

[2] http://www.cngeologi.it/wp-content/uploads/2018/08/GTA01_2018_web.pdf (liberamente scaricabile)

[3] http://storing.ingv.it/cfti/cftilab/forgotten_vulnerability/#

[4] https://www.annalsofgeophysics.eu/index.php/annals/article/view/3672. L’articolo è liberamente accessibile.

[5] http://www.ansa.it/umbria/notizie/2019/04/19/continua-protesta-comitato-norcia_584b1669-91d1-4654-9563-504bdc31f3ba.html

The forgotten vulnerability (interview with Gianluca Valensise)


Gianluca Valensise, of the Earthquake Department of INGV, Rome, is a seismologist with a geological background, an INGV research manager, and the author of numerous studies on active faults in Italy and other countries. In particular he is the “founder” of Italy’s Database of Individual Seismogenic Sources (DISS, http://diss.rm.ingv.it/diss/). He has spent over 30 years of his career exploring the relationships between active tectonics and historical seismicity, with the goal of merging geological observations with the available evidence on the largest earthquakes of the past.
Recently, with other colleagues, he published a work that proposes a sort of vulnerability ranking of Apennines municipalities. We discuss it below.

Luca, you are an earthquake geologist. You deal with active faults, seismogenic sources, past earthquakes, seismic hazard. Recently, with other colleagues, you have ventured into the theme of seismic vulnerability of the Italian building heritage. How come this choice?

First of all let me recall that I am a researcher, but also a citizen who is in a position to be able – and having to – to do something immediately useful for his own country.
That said, I believe that it all started ten years ago, following the 2009 L’Aquila earthquake. That the extreme vulnerability of the built-up area was one of the causes of the disastrous results of some earthquakes had already become clear to me from before, if only for having studied the effects of the strongest Italian earthquakes of the ‘900; from that of 1908 in the Strait of Messina to that of Irpinia in 1980, passing through the area of Fucino, devastated by the earthquake of 1915.

But the story actually begins even earlier, with the earthquake of San Giuliano di Puglia in 2002. That earthquake showed everyone that some of the choices made in the defense – or lack of defense – from earthquakes can be so disastrous as to frustrate both the material culture accumulated by those who live in the seismic zones, both the technological advancements in the construction industry: these advancements concern not only reinforced concrete structures, but also those built with load-bearing masonry.
The 2009 L’Aquila earthquake showed almost a complete reversal of the “normal” situation: excluding cultural assets, for which other rules apply, the maximum number of collapses and victims was recorded in post-WWII buildings, while those of previous eras – including the eighteenth-century buildings of the historic city – overall responded quite satisfactorily (this different performance also includes the choice of the site, sometimes disastrous in the case of some recent buildings).

There is little to add on the case of the May 2012 earthquakes in Emilia. The damage was dominated by the collapses in ecclesiastical architecture – to a large extent inevitable – and in the industrial one, which instead represented a bolt from the blue for everyone. I would like to remind you that the collapsed warehouses had been built without considering the possibility of significant lateral seismic actions, which have therefore played a major role in causing collapses that are apparently disproportionate to the severity of the earthquake itself. The previous antiseismic code did not require buildings in that area to be earthquake-proof: nevertheless, this remains a tragedy in the tragedy, if we reflect on the enormous disproportion between how little it would have costed to substantially reduce the vulnerability of those industrial premises (provided, however, that the reinforcements had been planned ahead of construction), and the price paid by those communities in terms of human lives and damage to the local (and national) economy.
Finally, there is the case of the 2016, Central Italy earthquakes, and of the dualism between the historical center of Amatrice, that practically disappeared from the map, and that of Norcia, that has entered a path of rebirth, although this path is fraught with many difficulties. This dualism has spurred our research (1, 2).

The basic thesis that you support is that – perhaps I simplify – the seismic vulnerability of settlements increases with the temporal distance from the last destructive earthquake. In a sense, you argue, after a destructive earthquake, repairs and reconstructions are carried out which reduce the overall vulnerability; then the memory of the event fades out and the vulnerability increases. Is this so?

The thesis in extreme synthesis is the one you have outlined, but I must make two premises. The first concerns the data used: in order to rely on homogeneous and good quality data, we have chosen to analyze only peninsular Italy, and in particular the Apennines chain. The second one has instead a methodological character: in our work we use jointly the historical observations, in the form of the seismic history of each single municipality, and the geological observations, which within a vast territory allow us to isolate those municipalities that are directly located above the great seismogenic sources. As such these municipalities will experience strong ground shaking, sooner or later (see the image below). It should be noted that the historical data would in many cases allow to go even below the municipal scale, but in order to grant a homogeneous representation and to be able to relate to the ISTAT data we have decided to bring everything back to the single municipality.

Figure 1 CFTI-DISS_200

Composite Seismogenic Sources taken from the DISS database (DISS Working Group, 2018: http://diss.rm.ingv.it/diss/) and the strongest earthquakes (Mw 5.8 and larger) in the CFTI5Med catalog (Catalog of Strong Earthquakes in Italy, Guidoboni et al., 2018). Each source represents the surface projection of the fault at seismogenic depth. The sources in yellow outline the system of large extensional faults running along the crest of the Apennines and have been used for this research. Each source is surrounded by a 5 km buffer whose role is to take into account the uncertainties inherent in its exact location, and therefore its exact distance from the inhabited centers that surround it or lie above it (from Valensise et al., 2017: see Note 1).

It is from the municipalities so selected (see the figure above) – 716 for the whole of central and southern Italy, from Tuscany to Calabria – that we then ranked the attitude of each community to underestimate the level of local danger, and therefore to fatally lower the guard on the issue of building vulnerability. It would have been useless to consider all municipalities, including those that lie far from the large seismogenic sources, because one thing is a dilapidated building in a scarcely seismic area, such as most of the Tyrrhenian side of the Apennines, another is if that same building is located in Amatrice. We wanted to elaborate a “ranking” of the vulnerability forgotten by citizens and their administrators, and we have put in place the best geological, geodynamic and historical knowledge available today – an almost unique heritage in the world – to achieve this goal. One last observation: the data we used are frozen at pre-2016, so our ranking does not take into account the latest earthquakes in the central Apennines.

In this way you have drawn up a sort of seismic vulnerability ranking of the Apennine settlements, based essentially on the temporal distance from the last destructive event. Can you illustrate this ranking a little?

We have ordered our 716 locations (see figure below) as a function of distance over time since the last VIII intensity shaking (Mercalli-Cancani-Sieberg or MCS scale:): a level of intensity that we believe marks a boundary between the simple repair of old buildings and the need to demolish and rebuild them from scratch, with a presumably drastic reduction in vulnerability.

Figure 2 Mappa ranking_200

Distribution of the 716 municipalities (representative of the entire municipal areas) selected with the procedure described in the text (from Valensise et al., 2017). The areas outlined in yellow represent the surface projection of the large seismogenic sources that run along the crest of the Apennines. The map shows:
– in purple: 38 municipalities for which historical sources report only minor damage;
– in red: 315 municipalities that in our ranking correspond to the municipal areas that have not suffered destructive earthquakes since 1861 (the year of unification of Italy);
– in black: 363 municipalities ordered according to the distance in time from the latest destructive earthquake, which occurred after 1861.
The reference to 1861 is purely conventional. The year 1861 represents a historical watershed that is also essential for earthquakes, with variable effects on a case-by-case basis (just think of the very effective Bourbon seismic regulations, that were abolished following the Unity of Italy).

The first 38 localities are those that have never experienced a shaking of the set level: following are those where that level was reached or exceeded many centuries ago, while in the end we find the places that have suffered for the most recent earthquakes, and therefore have been presumably reconstructed with anti-seismic systems.
Our elaborations are easily accessible to anyone through a dedicated website, which shows our ranking both in table and on map, and allows to explore the seismic history of each municipality (3). The only other parameters we show, without using them for the moment, are the resident population and the percentage of pre-1918 buildings, both from ISTAT data.

To illustrate the implications of our study I will give examples taken from the ranking itself. A striking case is that of the Mid-Serchio Valley, with several localities in the highest part of the ranking, that collects the municipalities that have never experienced a VIII degree in history: going from NW to SE we find Gallicano (193°), Coreglia Antelminelli (192 °), Borgo a Mozzano (31°), at Bagni di Lucca (32 °), all centers around 4,000 to 6,000 inhabitants, all in the province of Lucca. Only Barga , the pleasant mountain village celebrated by Giovanni Pascoli that is also the main center of the area, is presumably safe (595°).

It is easy to see that the position in the ranking goes up – thus worsening – moving towards the SE, i.e. moving away from the source of the 1920 earthquake in Garfagnana, also known as upper Serchio Valley. There is no doubt that the two portions of the valley are similar, but the seismotectonic data suggests that while the northern part suffered its “great” earthquake less than a century ago, the fault beneath the southern part is historically silent. According to the CFTI5Med catalogue, in 1920 Barga suffered a VIII degree, and the earthquake “… damaged 75% of the buildings, mostly inhabited by a poor population, causing the total collapse of many houses …”. Will this reconstruction suffice to save Barga from the next strong earthquake in the Serchio Valley? Things will probably be better than in the most downstream municipalities, also because, if it is true that according to ISTAT, 37% of Barga’s housing stock is pre-1918, i.e. more than a century old, this share of buildings is probably made up of houses that resisted the 1920 earthquake: either because they were built better, or because they were built where the seismic response was less severe than the average, or because of a combination of these two circumstances.

Another example I would like to take concerns the Calabrian-Lucanian border, between the provinces of Potenza and Cosenza in southern Italy. The case is similar to the previous one, but definitely more evident. We are in fact in one of the few portions of the Apennines chain that have never suffered a strong earthquake in historical times, even if the completeness of the seismic record of the area does not exceed a few centuries (with Emanuela Guidoboni in 2000 we wrote a small contribution precisely on this theme: see Note 4). The area had already been identified as a possible “seismic gap” by Japanese seismologist Fusakichi Omori within a study he conducted on the largest earthquakes of the Italian peninsula. In the area in question lie Mormanno (Cosenza, 29°) and Rotonda (Potenza, 30 °), never affected by a strong earthquake, but also Viggianello (Potenza, 178°), hit by a VIII-IX degree in the earthquake of January 26 1708 – which according to the CFTI5Med catalogue “… seriously damaged the village causing extensive destruction and numerous victims …”. On 25 October 2012 this area was hit by an earthquake with Mw 5.3, which tested the solidity of the buildings but above all it spurred a vast effort for the reduction of building vulnerability: a very local circumstance, linked to the occurrence of an earthquake that is not destructive but sufficient to trigger a solid reaction from the institutions, and that could be a welcome exception to what would be expected based on our ranking.

The list of locations where the “seismic memory” has been well cultivated certainly includes many other centers, especially in central and southern Italy: but the effectiveness of these virtuous behaviors will receive confirmation only from the forthcoming earthquakes.

The case of Norcia seems quite special. The famous building regulations enforced by the Papal State (1859) seem to have contributed since then to limit the damage, even in the case of the 1979 earthquake. Viceversa, for mysterious reasons Norcia was included in the seismic code only in 1962. In 2016 it suffered more damage outside the walls than inside. Do you have an opinion on this?

Norcia is ranked 676° place in our classification, mainly by virtue of the 1979 earthquake, but had previously suffered intensity VIII or larger effects in 1730, 1859 and 1879.
The case of Norcia is indeed quite unique. The “fortune” of Norcia towards earthquakes – if the term is granted to me, being perhaps inappropriate in view of what has happened in the city over the past few months (5) – is largely due to two symbolic earthquakes, those of 1859 and 1979, both with a magnitude of around 5.8, and to a sort of wake-up earthquake, that of 1997. Let me explain it better.

Following the 1859 earthquake the prelate Arcangelo Secchi and the architect Luigi Poletti prepared a very accurate analysis of what had happened, accompanied by recommendations on the reconstruction collected in the famous “Building Regulations” approved between the end of 1859 and the spring of 1860. It for this reason that the 1979 earthquake found a building patrimony that on average was substantially more hard-wearing than that of the surrounding towns, although the lesson imparted by the earthquake of 120 years before had perhaps already been partly lost. After 1979 Norcia was rebuilt with a great commitment, both by residents and institutions. The 1997earthquake, whose epicenter was quite far from Norcia, was the occasion for a “recall” of what had been done after 1979, as it is done with vaccines. The nursini – the people of Norcia – have the earthquake in their DNA: and I state this with full knowledge of the facts because some of my maternal cousins were born and raised there.

I believe that Secchi and Poletti’s famous Building Regulations did play a major role; an example for all, that of the Civic Tower, which miraculously survived the 30 October 2016 earthquake. Norcia demonstrates that the lesson taught by history to the local culture may compensate for any delays in the introduction and implementation of anti-seismic codes. In Norcia the local culture has not waited for modern codes but has anticipated them, also thanks to Secchi and Poletti. We should also remember that in Italy the codes have always only affected only new buildings and those that have been significantly restored; nothing is imposed to the owners of existing buildings. In my opinion this is one of the great unresolved issues, perhaps the greatest, as well as a source of misunderstandings and ill-fated expectations.

If we want, the case you mention – that of greater damage outside the walls of Norcia compared to the historic center s.s. – is a paradoxical confirmation of the role of “historical memory” in mitigating the effects of earthquakes. Here, too, an engineer should speak in my place, but I will try to venture hypotheses, some of them quite obvious.

First of all it must be said that the value of the “historical memory” of the nursini applies only to the “historical component” of the building stock. This statements seems redundant, but in fact what could be the value of “historical memory” for a condominium built in the 1980s, very different from the constructive style of the city center but rather similar to what you see in many urban suburbs of Italy?
The construction style is also the basis of my second hypothesis, stemming from the evidence that a load-bearing masonry building can also defend itself very well from earthquakes, provided that it is well built or renovated, according to the best practices in use in the various epochs. Recall that the 30 October shock was a Mw 6.5 earthquake located just below the center of Norcia: the accelerations observed were very significant, to the point of making the performance of masonry buildings truly extraordinary. In condominiums built outside the walls, instead – but I insist that this is the opinion of a geologist – once again we have seen that in normal reinforced concrete buildings the performance of the supporting structure can also be very different from that of of infills and of any accessory structures. This means that the building is unlikely to collapse, unless there are evident flaws in its design, but also that non-structural damage can be so burdensome as to make it convenient to demolish and rebuild: a paradox which I believe has been addressed in the new Norme Tecniche sulle Costruzioni 2018 (Technical Standards for Construction, or NTC18), at least for the future.

Have you had the chance to discuss this study with some seismic engineer, or have you received any reaction from that environment? How do you think your results can be used, and above all by whom?

We have received words of encouragement both from various engineers to whom we have submitted the first version of the manuscript, and from the public to whom we have presented the study in the most diverse occasions. But that’s all, because there have not been other reactions, at least for now – and I refer above all to those of the institutions. We also tried to establish a relationship with the Casa Italia Mission Structure, when it was still directed by Prof. Azzone, but also in this case there was no reaction. Evidently Casa Italia does not share with us the need to set priority criteria for risk mitigation interventions soon: interventions that the Structure is not implementing anyway, if not in the ten symbol-building sites that will be opened in as many symbol cities.

We believe that earthquake mitigation must combine excellent scientific assumptions – and in Italy we believe we have both a rich heritage of seismicity data, and an excellent expertise to make the best use of them – with much pragmatism as regards how and where invest any resources that may become available for seismic improvement. We also believe that the Sisma Bonus (“Seismic Bonus”) could be a useful tool, but only on condition that the criteria for assigning its benefits are drastically reviewed (and that the Sisma Bonus is made overall more “attractive”, by reviewing the delivery mechanisms: but on this I leave the floor to the experts of financial things). In particular, we maintain that a ranking of priorities must be drawn up between the various municipalities and the various aggregates of buildings, choosing them on the basis of their presumable vulnerability – on the basis of hypotheses such as those formulated by us – or real – on the basis of punctual findings, even if expeditious.

Launching this process harmoniously requires a solid control room, which I believe should include researchers, representatives of the professional associations involved, ISTAT officials, as well as institutional representatives of various origins (the Italian Civil Protection, the Ministry of Economic Development or MiSE, the National Association of Italian Municipalities etc.). For over two years I thought and hoped that this control room could coincide with the structures of Casa Italia, but today it is clear to me that I was wrong.

Finally – last but not least – it is necessary to launch a multi-year approach to the mitigation of seismic risk; an approach which at least on such an important issue breaks down the endemic “five years perspective” (when it’s good) that from always characterizes the governments of the Belpaese. But the ability to effectively plan the future is not one of the traditional virtues of the Italians, and therefore I fear we will not go very far on this side.

As a researcher I can clearly distinguish what makes sense from what could only be written in a book of dreams. However – and with this I close the circle you opened with the first question – I would like to dedicate the next few years to promote a change of course on how these issues are coped with in Italy today. I consider it a moral duty of my generation of seismologists; a generation stemming from the immense – and certainly avoidable – catastrophes of Friuli and Irpinia, and from the subsequent birth of a modern and effective Civil Protection.

(1) https://www.sciencedirect.com/science/article/pii/S2212420917302376?via%3Dihub

(2) http://www.cngeologi.it/2018/08/27/geologia-tecnica-ambientale-7/

(3) http://storing.ingv.it/cfti/cftilab/forgotten_vulnerability/#

(4) https://www.annalsofgeophysics.eu/index.php/annals/article/view/3672

(5) http://www.ansa.it/umbria/notizie/2019/04/19/continua-protesta-comitato-norcia_584b1669-91d1-4654-9563-504bdc31f3ba.html

La scala macrosismica EM-98 è stata pubblicata in italiano: intervista a Andrea Tertulliani, Raffaele Azzaro e Giacomo Buffarini

La traduzione italiana della scala macrosismica europea (EMS-98), compilata da gruppo di lavoro della ESC (European Seismological Commission) nel decennio 1988-1998, esce a notevole distanza (21 anni) dalla pubblicazione della versione inglese, dopo che quest’ultima è stata utilizzata sul campo e sperimentata in occasioni di numerosi terremoti italiani, dalla sequenza di Colfiorito del 1997 (nell’occasione venne usata la versione 1992 della scala stessa) fino agli eventi del 2016-2017. Vale la pena ricordare le maggiori innovazioni introdotte dalla versione 1992, consolidate nella versione 1998: i) la definizione operativa di intensità macrosismica; ii) l’introduzione della nozione di vulnerabilità sismica come superamento delle tradizionali tipologie costruttive; iii) la compilazione di una guida all’utilizzo della scala stessa. Ne parliamo oggi con i curatori della versione italiana.

Schermata 2019-05-26 alle 11.40.32

Andrea Tertulliani (INGV). Lavoro come sismologo all’INGV (prima ING) da oltre 30 anni e mi sono quasi sempre occupato di effetti dei terremoti, sia di quelli attuali che di quelli storici. In questo periodo ho svolto i rilievi macrosismici di quasi tutti i terremoti significativi avvenuti in Italia per studiare le caratteristiche dei loro effetti. Attualmente sono coordinatore di QUEST, un gruppo di colleghi esperti in rilievo macrosismico che si attiva per ogni evento. Una curiosità: sono particolarmente interessato agli effetti rotazionali che i terremoti inducono sugli oggetti e i manufatti.

Raffaele Azzaro (INGV). Sono Primo Ricercatore, geologo. Ho iniziato a lavorare nel campo della macrosismica partecipando ai rilievi dei maggiori terremoti italiani, dal 1996 in poi, con una ovvia “preferenza” per quelli in Sicilia e sull’Etna in particolare; parallelamente mi sono occupato anche di analisi di sismologia storica. Successivamente ho ampliato il campo di ricerca agli aspetti di sismotettonica, geologia del terremoto e pericolosità sismica.

Giacomo Buffarini (ENEA). Sono Primo Ricercatore, Ingegnere Strutturista. Lavoro in un gruppo che si è occupato di “Sisma” sin dagli anni 80 del secolo scorso, sia dal punto di vista della pericolosità (in origine per i siting delle centrali nucleari), sia dal punto di vista della vulnerabilità. Monitoraggio dinamico, valutazioni di vulnerabilità sismica, isolamento sismico sono alcune delle attività in cui sono coinvolto, sempre fianco a fianco con colleghi geologi, sismologi e quindi con il privilegio di avere un approccio al problema “Terremoto” da diversi punti di vista.

La traduzione italiana della EMS-98 esce oggi per iniziativa di INGV e ENEA (http://quest.ingv.it/). Come mai questa iniziativa?

AT. L’idea di tradurre le linee guida della EMS-98 è piuttosto vecchia, e se non ricordo male fu proprio tua. Tralasciando il percorso accidentato che ci ha portato sin qui, direi che sono stati gli ultimi terremoti avvenuti in Italia, per il rilievo dei quali abbiamo usato sistematicamente questa scala, la molla principale. Siamo uno dei paesi dove la scala è più usata e abbiamo ritenuto fosse una utile iniziativa per venire incontro anche ai tecnici che non conoscono l’inglese. Inoltre è molto utile, in generale, tradurre la terminologia tecnica all’uso italiano. Infine era nostra intenzione rimarcare che la scala macrosismica è diventato uno strumento ampiamente condiviso tra sismologi e ingegneri.

Una scala macrosismica consiste essenzialmente in un numero limitato di descrizioni di effetti (word pictures in inglese) che vengono confrontate con quanto si riscontra sul campo (rilievo macrosismico), o quanto si deduce dalle informazioni storiche. Il grado di intensità – ovvero il livello degli effetti – del terremoto in un dato luogo viene assegnato con riferimento alla descrizione che più si avvicina alla situazione reale. La scala EM-98 è stata molto usata per eseguire rilievi macrosismici a seguito di terremoti. Ci potete riassumere il suo utilizzo in Italia?

RA. Sin dal momento della sua prima uscita, nel 1993 (la prima versione, poi modificata nel 1998 appunto), c’è stato un grande interesse da parte della nostra piccola comunità macrosismica. Molti di noi lavoravano con la scala MSK, altri con la MCS – e gli aspetti innovativi introdotti dalla EM-98 rendevano “più facile” operare sul campo. Le grandi sequenze sismiche italiane hanno rappresentato il banco di prova per eccellenza per imparare ad usare la scala: la prima timida applicazione, prototipale, in Umbria-Marche nel 1997; l’uso massivo, anche a scala urbana, per il terremoto de L’Aquila nel 2009; con gli eventi poi del 2012 in Emilia Romagna e poi quelli del 2016-17 in centro Italia, direi che tutti gli operatori hanno acquisito una notevole dimestichezza, passando nel contempo per molti terremoti meno distruttivi.
Comunque, ogni sequenza ci ha insegnato qualcosa, e fatto capire concretamente pregi e limiti della scala. In figura la mappa delle località alle quali, dopo la scossa del 24 agosto 2016, è stato assegnato un grado di intensità secondo la EMS98.

Senza titolo

Una delle novità più importanti della EMS-98 è stata la differenziazione dei tipi di costruzioni in classi di vulnerabilità. Ci potete commentare questa tabella alla luce della esperienza italiana?

Schermata 2019-05-26 alle 11.42.42

GB. Il patrimonio edilizio italiano è caratterizzato da una grande prevalenza di edilizia storica, quindi in muratura per la quale l’EMS-98 ha permesso di distinguere, sostanzialmente, in due classi: “A” e “B”, dove la “B” raccoglie la gran parte degli edifici mentre nella “A” vengono facilmente relegati i casi patologici. Rari sono i casi di sconfinamento in “C” e rarissimi in “D” (muratura armata). Questo perché per la muratura le normative tecniche, fino agli anni 80 del secolo scorso, fornivano essenzialmente regole di buona esecuzione e nessun calcolo vero e proprio; addirittura solo dal 2003 sono state introdotte le verifiche sismiche. Anche nelle recenti NTC 2018 per “costruzioni semplici”, che rispettano certe regole e limiti, gran parte dei calcoli vengono o semplificati o, addirittura, non richiesti.

Più complessa è la situazione del Cemento Armato; l’espansione urbanistica post bellica, avvenuta in maniera rapida e incontrollata, il fenomeno dell’abusivismo e una certa propensione tutta italiana di vedere la struttura come qualcosa di secondario rispetto agli aspetti estetici, ha portato ad un risultato in cui è più complesso collocare il singolo edificio nella corretta classe. Se poi aggiungiamo gli scempi spesso subiti, sempre dalle strutture, per l’inserimento o il rifacimento di impianti o per ristrutturazioni architettoniche, l’evoluzione della classificazione sismica, della normativa sismica, risulta molto complicato l’utilizzo della “tavola di vulnerabilità”, soprattutto nel rapido rilievo che si effettua per la valutazione macrosismica.

Quali sono i maggiori pregi della EMS-98 utilizzata sul campo e quali le maggiori difficoltà incontrate nella sua applicazione?

AT. Senza entrare troppo nel dettaglio si può dire che il vantaggio maggiore della EMS-98 è proprio la possibilità di poter classificare l’edificato in diverse classi di vulnerabilità, relative a edifici che rispondono diversamente all’azione sismica. Possiamo quindi osservare nel dettaglio come edifici diversi reagiscono al terremoto. Le scale precedenti consideravano complessivamente il danno a tutto l’edificato, conducendo a volte a valutazioni fuorvianti specie dove gli edifici sono molto diversi tra di loro. Inoltre questa caratteristica spinge l’operatore a raccogliere dati con maggiore cura che in passato, con evidente beneficio per le successive analisi e una maggiore robustezza del risultato. Di contro, e veniamo alle difficoltà, questo presuppone una preparazione più scrupolosa da parte del rilevatore e anche un maggior dispendio di tempo in campagna.

La EMS-98 e le sue componenti sembrano avere avuto un discreto successo presso gli ingegneri, ma per finalità diverse da quelle strettamente macrosismiche (addirittura viene utilizzata nel decreto “Sismabonus”). Ci potete commentare questo punto? Significa che gli aspetti ingegneristici della scala sono descritti in modo opportuno?

GB. Ritengo che gli aspetti ingegneristici siano affrontati nella maniera corretta, stante la finalità che la scala si prefigge. Per scopi di pianificazione a grande scala, per studi di scenario a fronte di eventi sismici, una classificazione come quella macrosismica non solo è utile, ma è anche l’unica realizzabile in maniera diffusa. Inoltre l’assegnazione della classe di vulnerabilità macrosismica è anche utile come primo approccio al problema della sicurezza del singolo fabbricato a due condizioni: che venga eseguita da un esperto in materia e che gli venga dato il suo reale valore, ossia non considerarla una verifica di sicurezza per la quale è indispensabile procedere secondo i dettami rigorosi della scienza e della tecnica delle costruzioni e rispettando la normativa sismica.

In Italia si continua a usare la cosiddetta scala MCS (di cui – per inciso – non si riesce a trovare una versione “ufficiale”), soprattutto per i terremoti storici, i database macrosismici e i cataloghi sismici, ma anche per i terremoti recenti. Ci potete commentare questo aspetto? C’è molta differenza fra le stime nelle due scale?

RA. In effetti, la gran parte dei dati macrosismici contenuti nei cataloghi e banche-dati, sono espressi secondo l’intensità MCS; fortunatamente la situazione sta cambiando molto dal 2009 in poi, e il numero di dati di intensità valutati secondo la EM-98 è aumentato significativamente. Questo decennio di “sovrapposizione”, tra applicazioni sul campo e studi storici, ci ha fatto capire le principali differenza nelle stime: con la EM-98 la soglia del danno è fissata al V grado, mentre con la MCS si va formalmente al VI grado, anche se in molti studi in caso di danni lievi e occasionali si preferiva assegnare il V-VI. Per i gradi intermedi in genere c’è una buona corrispondenza tra le due scale, mentre per quelli più alti (diciamo dal IX grado in su) in alcuni casi la differenza può essere più marcata, con valori della MCS tendenzialmente più alti.

I media e il pubblico fanno ancora un sacco di confusione fra magnitudo e intensità. Cosa potete suggerire?

GB. Posso riportare quanto mi disse un mio amico aquilano (e quindi già tristemente esperto di terremoti!!) dopo la scossa del 30 Ottobre 2016 in cui le primissime stime davano, addirittura, una magnitudo oltre 7 “….è vero, l’intensità era 7 ma per non dare i contributi l’hanno abbassata a 6!!!”. In tempi di fake news, almeno la stampa e i media in generale dovrebbero limitare l’invasione di campo in ambito tecnico-scientifico e gli esperti cercare si di farsi intendere semplificando la comunicazione, mantenendo però il necessario minimo rigore per non creare fraintendimenti.

RA. La confusione fra magnitudo e intensità rimane l’errore più mortificante in cui ci imbattiamo come operatori del settore. A proposito dell’aneddoto accennato sopra, al mio interlocutore spiego sempre che il valore della magnitudo strumentale è bene che venga rivisto via via che arrivano ulteriori dati dalle stazioni della rete sismica, ma quello che interessa soprattutto ai fini applicativi è avere stime affidabili della intensità macrosismica.

AT: Sulla confusione tra magnitudo e intensità mi sembra che non ci sia altro da dire, se non che è dovuto ad una diffusa ignoranza scientifica di base, purtroppo cronica nel nostro paese. E su questo INGV sta cercando di mettere “una pezza” sia con progetti educativi verso le scuole, sia con attività divulgative sui propri canali social che riscuotono notevole successo.

Un elenco di studi macrosismici eseguiti negli ultimi 20 anni è rintracciabile allo stesso indirizzo http://quest.ingv.it/
Utile può essere anche una lettura sulla storia delle scale macrosismiche scaricabile qui: http://editoria.rm.ingv.it/quaderni/2019/quaderno150/

 

 

 

Quel 31 marzo di dieci anni fa, a L’Aquila (di Massimiliano Stucchi)

Il giorno 31 marzo 2009 si svolse a L’Aquila la riunione di esperti convocata dal Capo della Protezione Civile, G. Bertolaso, le cui conseguenze sono state oggetto di innumerevoli discussioni, articoli, volumi, e di un noto processo. Non è mia intenzione riprendere qui quegli argomenti, che peraltro vedono ancora una fioritura di interventi, come sempre non del tutto aggiornati.
Voglio soltanto ricordare come si arrivò a quella riunione. Continua a leggere