Al lupo, al lupo? Più cautela con gli allarmi sismici (di Massimiliano Stucchi)

Premessa. In questo post si commentano – tra le altre cose – modelli scientifici e la loro possibile applicazione a fini di Protezione Civile. La trattazione è necessariamente semplificata: eventuali approfondimenti sono allo studio.

1. La previsione deterministica dei terremoti è da sempre invocata dall’umanità come possibile riparo da sciagure sismiche, in particolare per quello che riguarda la possibilità di restarne vittime. Per la ricerca scientifica, invece, si tratta di un obiettivo lontano e forse irraggiungibile, che presuppone conoscenze teoriche e osservazioni sperimentali sulle dinamiche di accumulo e rilascio dell’energia, oggi non disponibili. Il tema è ampio e complesso e non può essere certo trattato in profondità in queste pagine.

2. Mentre a volte il pubblico si lamenta la mancanza di “allarmi sismici” da parte della comunità scientifica, ogni tanto succede che ne vengano rilasciati alcuni, anche in Italia. Nel 2009 le celebri “previsioni” di G. Giuliani, e in particolare quella riguardante la possibilità di un forte terremoto nella zona di Sulmona, rischiarono di mettere in crisi le amministrazioni locali e regionali e contribuirono a innescare la spirale di panico che, assieme alle smentite prive di fondamento della Regione Abruzzo, determinarono la successiva convocazione della riunione di esperti a L’Aquila e i fatti che ne seguirono. Nel 2012 il Presidente del Consiglio in persona, in occasione della sequenza emiliana del 2012, segnalò la possibilità di un forte evento sismico generabile dal cosiddetto “terzo segmento” sulla base di informazioni fornite dalla Commissione Grandi Rischi (CGR). Di recente infine il Capo Dipartimento della Protezione Civile (DPC), da poco confermato nel suo incarico dal Governo, ha sostenuto in pubblico, in relazione all’evento del Molise del 16 agosto scorso di Mw 5.1 e alla sequenza sismica in corso, che “gli esperti non possono escludere l’occorrenza di un evento di Mw anche maggiore”, anche in questo caso a valle di una riunione della CGR che si è tenuta il 17 agosto.

3. Il retroterra scientifico relativo al caso del Molise 2018 si basa – verosimilmente – su un modello statistico, implementato da una decina di anni da alcuni ricercatori INGV sulla scia di altri studi simili, che fornisce la probabilità di occorrenza di un terremoto in una determinata area. Anche se la comunità scientifica internazionale è prevalentemente scettica e comunque molto cauta riguardo al metodo (la discussione è intensa e la letteratura consistente), DPC ha accolto con favore il modello, anche a seguito del documento conclusivo della famosa commissione internazionale (Commissione Internazionale sulla Previsione dei Terremoti per la Protezione Civile – ICEF) http://www.protezionecivile.gov.it/resources/cms/documents/ICEF_Final_Report_IT_prefazione_e_riassunto_DLC.pdf)
insediata dallo stesso DPC dopo il terremoto dell’Aquila del 6 maggio 2009.
Il modello, di cui DPC finanzia sperimentazione e sviluppo, è ora chiamato “Operational Earthquake Forecast”, ovvero strumento “operativo” per determinare la probabilità di occorrenza di un evento di data Magnitudo o, più recentemente, di un dato effetto (intensità) in una specifica area in un dato intervallo di tempo.

4. Il capo della suddetta commissione – T. Jordan (USA) – sostenne addirittura, in un articolo scientifico, che fu la mancata disponibilità di un affidabile OEF che determinò quello che a suo dire fu l’insuccesso della riunione di esperti del 31 marzo 2009 a L’Aquila, che poi costituì l‘oggetto del celebre processo. Peraltro nel corso di quel processo uno degli autori del metodo, interrogato come testimone su richiesta del PM, mostrò i risultati del metodo nelle settimane prima del terremoto, chiamandole stime di pericolosità e alimentando in questo modo una certa confusione con le classiche stime di pericolosità sismica che vengono effettuate e utilizzate per la normativa sismica delle costruzioni.

5. Il metodo implementato in Italia è di natura puramente statistica e non si basa su modelli di base fisici e geologici. Fornisce aumenti di probabilità di occorrenza di un terremoto o di una scossa che effettivamente arrivano a superare di circa 100 o anche 1000 volte la probabilità standard di un evento quale deducibile dalla mappa di pericolosità sismica ma che restano nell’ambito di poche unità percentuali, o frazioni, nel periodo di riferimento, di solito fissato pari a una settimana. Si deve peraltro sottolineare che il riferimento alle stime di pericolosità sismica non è corretto, in quanto queste ultime hanno una natura diversa essendo prodotte e utilizzate per un altro scopo. Ne ha discusso E. Boschi:
https://ilfoglietto.it/l-angolo-di-boschi/3378-vi-presento-il-mister-oef-che-prevede-i-terremoti
https://ilfoglietto.it/l-angolo-di-boschi/3224-i-terremoti-non-si-prevedono-ma-ci-sono-gli-algoritmi

6. Con aumenti di probabilità di qualche unità su 100, OEF non sembra dunque di uno strumento molto sensibile, oggi e in Italia, rispetto alle finalità “operational” che si ripromette. Siamo ben lontani dai valori di probabilità di tipo meteo, tanto cari al pubblico dei media, i quali, con tutti i loro limiti, possono avere un carattere realmente operativo in quanto forniscono probabilità di occorrenza che a volte superano il 50% e si avvicinano all’80%, 90%.

7. Va anche aggiunto che la comunità scientifica accetta con maggior favore l’impiego di metodi statistici per la determinazione della probabilità di occorrenza di importanti repliche di un terremoto forte nell’ambito di una sequenza sismica (OAF = operational aftershock forecast), che non per determinare la probabilità di un evento sismico indipendente (OEF). Ad esempio, nelle risultanze della riunione di marzo 2018 del SESAC (Scientific Earthquake Studies Advisory Committee degli Stati Uniti, incaricato di dare un parere sul programma di ricerca sui terremoti dell’USGS (United States Geological Survey, il più grande ente US e del mondo nel settore), si legge che SESAC raccomanda lo sviluppo di OAF, mentre assegna priorità molto più bassa a quello di OEF.

8. Tornando alla frase del capo DPC sul recente terremoto del Molise, l’affermazione suscita perplessità per i seguenti motivi:

  • la possibilità di un terremoto forte in quella zona è un dato di fatto anche in assenza di sequenza sismica; sottolinearla solo in relazione soltanto alla sequenza, come fa intendere il comunicato, è sbagliato. Inoltre, tale possibilità esiste anche per la maggior parte delle zone di Italia: tale possibilità va ricordata anche in assenza di sequenze (si veda la discussione in https://terremotiegrandirischi.com/2014/05/20/quando-comincia-lemergenza-sismica-m-stucchi/;
  • non sono stati forniti: i) il valore del terremoto atteso, o almeno la soglia minima di magnitudo; ii) il valore dell’eventuale aumento di probabilità; iii) la durata dell’allerta;
  • non si è a conoscenza di quali indicazioni operative siano state diramate da DPC a seguito di tale comunicazione. E’ noto peraltro che i cittadini tendono a restare fuori casa dopo un terremoto sensibile sia perché di solito si verificano altre scosse di cui sono testimoni diretti, indipendentemente da OEF, sia perché l’edificio in cui risiedono può essersi indebolito a causa della scossa stessa.

9. In conclusione, mentre la ricerca scientifica su questi aspetti va sicuramente incoraggiata, sarebbe auspicabile in primo luogo che vengano considerati anche modelli alternativi a quello in uso (è di poche settimane fa un articolo di “Nature” che descrive un metodo basato sull’uso delle reti neurali). Inoltre, e soprattutto, sembra auspicabile una maggiore cautela per quanto riguardo l’aspetto “operational”, in particolare per quel che riguarda la gestione pubblica dei risultati.
E’ chiaro infatti che, mentre DPC può gestire – al suo interno – le informazioni di questo tipo con la consapevolezza dei limiti dello strumento, altrettanto non si può dire per quanto riguarda la relativa comunicazione a pubblico e media, che non dispongono di nessuna consapevolezza operativa sul da farsi. Siamo ben lontani insomma dal modello “a semaforo” (verde, giallo, rosso) tanto caro a media e non solo, sviluppato per altri tipi di fenomeni a evoluzione più lenta (es. alluvioni, eruzioni vulcaniche).
In questa situazione, infine, qualora dopo alcuni allarmi non dovesse verificarsi nessun evento disastroso, il pubblico potrebbe attribuire scarsa credibilità a metodo e comunicati, con le immaginabili conseguenze (modello “al lupo al lupo”).

Crying wolf? take care with earthquake alarms…..(by Massimiliano Stucchi)


translated by Google Translate, revised

Introduction. In this post we comment – among other things – scientific models and their possible application for civil protection purposes. The discussion is necessarily simplified: a more detailed post is under consideration.

1. The deterministic earthquake prediction has always been invoked by humanity as a possible shelter from seismic disasters, in particular for what concerns the possibility of remaining victims. For science, on the other hand, it is a distant and perhaps unattainable goal, which requires theoretical knowledge and experimental observations on the dynamics of energy accumulation and release, which are not available today. The theme is broad and complex and cannot be treated at depth in these pages.

2. While people sometimes complain the lack of “earthquake alarms” from the scientists, sometimes it happens that alarms are released, even in Italy. In 2009 one of the famous “predictions” of G. Giuliani, in particular that concerning the possibility of a strong earthquake in the area of Sulmona, was about to put in crisis the local and regional administrations and contributed to trigger the spiral of panic that, together with the denials without foundation of the Abruzzo Region, determined the subsequent call of the meeting of experts in L’Aquila and the events that followed.
In 2012, the Italian Prime Minister in person, on the occasion of the 2012 Emilia-Romagna sequence, announced the possibility of a strong earthquake that could be generated by the so-called “third segment”, based on information provided by the CGR (Great Risks Commission).

Recently, the Head of the Department of Civil Protection (DPC), whose appointment has just been confirmed by the Government”, has supported in public, in relation to the Molise event of 16 August 2005 of Mw 5.1 and the seismic sequence in progress, that “experts cannot exclude the occurrence of an event of Mw even greater”, also in this case after a meeting of the CGR which was held on 17 August.

3. The scientific background of the Molise 2018 case is based – presumably – on a statistical model, implemented by some INGV researchers for ten years on the basis of other similar studies, which provides the probability of an earthquake occurring in a given area. Although the international scientific community is predominantly skeptical and however very cautious about the method (the discussion and the literature is consistent), DPC has welcomed the model, also as a result of the final document of the famous international commission (International Commission on Forecast of the Civil Protection Earthquakes – ICEF) http://www.protezionecivile.gov.it/resources/cms/documents/ICEF_Final_Report_IT_prefazione_e_riassunto_DLC.pdf)
established by the same DPC after the earthquake in L’Aquila on 6 May 2009.
The model, which DPC supports experimentation and development, is now called “Operational Earthquake Forecast”, or “operational” instrument to determine the probability of occurrence of a given magnitude event or, more recently, of a given effect (intensity) in a specific area in a given time-interval.

4. It is worth to remember that the head of the aforementioned commission – T. Jordan (US) – even claimed, in a scientific article, that it was the lack of availability of a reliable OEF who determined what he said was the failure of the experts meeting on March 31 2009 in L’Aquila, which then constituted the object of the famous L’Aquila trial of scientists and public servants. Moreover, during that trial, one of the authors of the method, questioned as a witness at the request of the PM, showed the results of the method in the weeks before the earthquake, calling it hazard estimates and thus fueling a certain confusion with the classic seismic hazard estimates which are carried out and used for the seismic construction regulations.

5. The method implemented in Italy is of a purely statistical nature, not based on physical and/or geological basic models. It provides increases in the probability of occurrence of an earthquake or a shaking that sometimes may exceed about 100 or even 1000 times the standard probability of an event as deducible from the seismic hazard map, but which remain within a few percentage units, or fractions, in the reference period, usually set at one week. Moreover, it must be emphasized that the reference to the estimates of seismic hazard is not correct, since the latter are of a different nature in that they are produced and used for another purpose. E. Boschi has discussed the method in
https://ilfoglietto.it/l-angolo-di-boschi/3378-vi-presento-il-mister-oef-che-prevede-i-terremoti
and
https://ilfoglietto.it/l-angolo-di-boschi/3224-i-terremoti-non-si-prevedono-ma-ci-sono-gli-algoritmi
6. Providing probabilities increments of some units of 100, OEF does not appear today, in Italy, a very sensitive instrument with respect to the “operational” aims that it promises. We are far from the weather-like probability values, so dear to the media audience, which, with all their limitations, can have a truly operational character as they provide probability of occurrence that sometimes exceeds 50% and are closer to the 80%, 90%.

7. It should  be added that the scientific community accepts more favorably the use of statistical methods for determining the probability of occurrence of important aftershocks of a strong earthquake in the context of a seismic sequence (OAF = operational aftershock forecast), rather than to determine the probability of an independent seismic event (OEF). For example, the results of the March 2018 SESAC meeting (Scientific Earthquake Studies Advisory Committee of the United States, in charge of giving an opinion on the USGS earthquake research program (United States Geological Survey, the largest US and world institution in the field), say that SESAC recommends the development of OAF, while assigning much lower priority to that of OEF.

8. Back to the sentence of the Head of DPC on the recent earthquake of Molise, his statement raises concerns for the following reasons:

a) the possibility of a strong earthquake in that area is a fact even in the absence of seismic sequence; to stress it only in relation to the sequence, as the statement suggests, is wrong. Moreover, such possibility also exists for most areas of Italy and it must be recalled also in the absence of earthquake sequences (see discussion in https://terremotiegrandirischi.com/2014/05/20/quando-comincia-lemergenza-seismica-m-stucchi/
b) the sentence did not provide: i) the value of the expected earthquake, or at least the lower magnitude threshold; ii) the value of the expected probability increase; iii) the duration of the alert;
c) it is not known what operational indications have been issued by DPC following this sentence. It is also known that citizens tend to stay outdoor after a moderate-to-major earthquake, either because they usually experience other shocks of which they are direct witnesses, independently of OEF, and because the building they live in may have weakened due to the shock itself.

9. In conclusion, while scientific research on these aspects should certainly be encouraged, it would be desirable first of all to consider alternative models to the one in use (see for instance a recent “Nature” article describing a method based on the use of neural networks). Moreover, and above all, greater caution with regard to the “operational” aspect might be desirable, in particular as regards the public management of results. It is clear, in fact, that while DPC can manage – on its own – information of this type, knowing of the limits of the instrument, the same cannot be said regarding the relevant communication to the public and the media, who have no awareness operative on what to do. In short, we are far from the “traffic light” model (green, yellow, red) so dear to the media and not only, developed for other types of slower phenomena (e.g. floods, volcanic eruptions). In this situation, finally, if after some alarms no disastrous event does not occur, the public could attribute little credibility to the method and the releases, with the imaginable consequences (“crying wolf” model).

 

Note d’agosto, con un altro processo a L’Aquila ( di Massimiliano Stucchi)

Da almeno un paio anni agosto ci somministra morti e danni: Amatrice nel 2016, Ischia nel 2017, quest’anno le autostrade, la piena del Pollino e una sequenza sismica (Molise) che fin qui ha prodotto solo danni lievi.
E altre notizie che vale la pena di commentare.

Sul ponte Morandi di Genova si è detto di tutto e di più. C’è poco da aggiungere, se non la riflessione che ponti di quel tipo, e anche di altro tipo, sono vulnerabili sia all’usura che a possibili impatti esterni (aerei, droni, attentati, ecc.). Questi ponti vengono progettati per resistere a un determinato evento esterno che non è mai il massimo possibile, anche perché in questi casi tale massimo non è conosciuto. Quindi, come tante cose, conservano un livello di rischio. Da sapersi.

L’incidente di Bologna è stato dimenticato in fretta, forse a causa del successivo crollo del ponte Morandi. Facendo un paragone un po’ ardito, l’incidente di Bologna – al netto degli effetti derivati, quali l’esplosione e il crollo del viadotto – è paragonabile all’incidenza di un terremoto di media energia (probabilità media, danni medi), mentre quello di Genova si avvicina al massimo terremoto possibile (probabilità molto bassa, danni elevati).

Per questo incidente non vi sono state grosse polemiche in merito a responsabilità e prevenzione: il conducente del camion è morto, qualche assicurazione pagherà; i disagi per tutti gli automobilisti sono rimasti. Tuttavia la dinamica, come ben illustrata dalle immagini, segnala che il mantenimento della distanza di sicurezza e il rispetto dei limiti di velocità, in particolare da parte degli autotreni, è una utopia, come ben sa chi percorre di frequente le nostre autostrade. Ci si può domandare a che cosa servano i tutor, ma soprattutto perché i divieti non vengano fatti rispettare con forza (ritiro di patenti, ecc.). Purtroppo la risposta è nota.

Anche sulle morti del Pollino è stato detto molto. Osservo che il problema più importante, per chi non partecipa alle operazioni di soccorso, è di trovare delle responsabilità piuttosto che fare dei passi avanti per evitare che tali incidenti si ripetano. Addirittura il PM di Castrovillari ha aperto una inchiesta per “omicidio colposo…., inondazione, ….ecc.” Inondazione? Dunque si cerca un responsabile della piena improvvisa, nemmeno di un eventuale mancato allarme? Si cercherà anche un responsabile di un terremoto?
E, per favore, non chiamiamola “onda anomala”! Il termine già è poco corretto in caso di tsunami, figuriamoci in caso di una piena improvvisa….

In Molise è in corso una sequenza sismica in una zona con sismicità storica minima, ma pur sempre a pericolosità sismica media (terremoti di energia media poco frequenti; di energia elevata rari, ma non impossibili).
L’aggiornamento della sequenza è fornito da INGV

https://ingvterremoti.wordpress.com/2018/08/20/aggiornamento-sequenza-sismica-in-provincia-di-campobasso-20-agosto-2018-ore-1500-2/

Come sempre, in questi casi, la sequenza si potrebbe esaurire, oppure si potrebbero verificare eventi di magnitudo più elevata (nel 2002, nella non lontana zona di S. Giuliano di Puglia, si verificarono due eventi di magnitudo attorno a 6 nel giro di 24 ore, e senza sequenza precedente). Voglio sperare che le autorità locali non diramino comunicati tranquillizzanti, come avvenne ad esempio nel 2009 a opera dell’Assessore alla Protezione Civile della Regione Abruzzo, che innescò in tal modo la successiva convocazione della riunione di esperti a L’Aquila e quel che ne seguì.

A proposito di L’Aquila, è di oggi la notizia della condanna di due Ministeri di Vigilanza (infrastrutture e Interno) al risarcimento danni per due vittime del terremoto del 2009

“non aver diligentemente adempiuto ai compiti di vigilanza e controllo di rispettiva competenza in materia edilizia, consentendo la realizzazione di una costruzione difforme dalle prescrizioni normative vigenti all’epoca, incapace di resistere all’azione di un sisma non avente carattere anomalo o eccezionale”.

Non dispongo ancora del testo completo e quindi leggo solo chi ne scrive. Ad esempio

https://www.ingenio-web.it/20942-terremoto-di-laquila-del-2009-due-ministeri-dellepoca-condannati-al-risarcimento-danni-per-due-vittime?utm_term=22665+-+https%3A%2F%2Fwww.ingenio-web.it%2F20942-terremoto-di-laquila-del-2009-due-ministeri-dellepoca-condannati-al-risarcimento-danni-per-due-vittime&utm_campaign=La+Gazzetta+di+INGENIO&utm_medium=email&utm_source=MagNews&utm_content=2356+-+1308+%282018-08-23%29

A parte le riflessioni sul valore del risarcimento (360.000 euro a Ministero) e sui consueti zoppicamenti delle sentenze (che cos’è un sisma anomalo o eccezionale, visto che viene richiamata l’afferenza della città alla seconda categoria sismica all’epoca della costruzione, 1961?), la sentenza apre interessanti interrogativi (non so – mea culpa – se sia la prima in materia).

La sentenza entra nel merito delle tipologie costruttive dell’epoca e delle relative carenze, e afferma che i responsabili del crollo sarebbero quanti hanno esercitato la funzione di controllo (mancato, in questo caso, o carente) sulle costruzioni. Non le persone ma le istituzioni ultime. Non, ad esempio, progettisti e costruttori, e nemmeno i proprietari, tutti soggetti che firmano comunque il procedimento edilizio, sia pure con competenze diverse. E tutto questo, peraltro, proprio a L’Aquila, dove nel famoso processo agli scienziati sono stati ricercati altri colpevoli.

Ora, a parte qualche distorsione, la sentenza va nella direzione di accertare delle responsabilità in ordine a crolli che hanno determinato morti, cosa che in genere fa insorgere la gran parte degli ingegneri. Non sono un fanatico delle manette, ma credo che l’istituzione di un principio di responsabilità, legato a violazioni o carenze progettuali, per quanto attiene i danni subiti dagli edifici, e non solo le vittime, dovrebbe trovare posto nella gestione consapevole del territorio. Responsabilità da accertare e da scontare in modi da determinare, ma non da ignorare o addirittura cancellare: perché mai lo Stato, ovvero tutti noi, dovrebbe sistematicamente farsi carico della ricostruzione di immobili abusivi, ad esempio, ovvero che non rispettano le norme (il che è molto simile). Che norme sono, se chi non le rispetta è uguale a chi le rispetta?

Vale la pena ricordare che, in controtendenza rispetto a quanto sopra, nello scorso giugno il Parlamento ha approvato un emendamento-sanatoria 5stelle, approvato da tutti (!) i partiti con l’eccezione di Forza Italia che l’ha valutato insufficiente (!), che di fatto “condona” gli abusi edilizi compiuti prima del terremoto sugli edifici di cui il privato chiede la ricostruzione, abusi che altrimenti non avrebbero consentito l’accesso al contributo per la ricostruzione. Che magari questi “abusi” abbiano potuto avere un ruolo nel danneggiamento o nel crollo dell’edificio sembra non sfiorare il Parlamento, che viceversa si premurato di stabilire che la sanatoria per le aree colpite dai terremoti recenti è subordinata alla “verifica di compatibilità con le norme in materia di tutela dal rischio idrogeologico”. Mah. A Genova si cercano responsabilità precise, individuali, e si revocano concessioni, cosa che può essere corretta: per i terremoti bisognerebbe accertare responsabilità collettive, quasi di massa, e quindi si cancella.

Mi sa tanto che “anche quest’anno la prevenzione la facciamo l’anno prossimo….”

PS. Leggo ora, grazie alla segnalzione di un collega su TW, che la Protezione Civile informa che ci potrebbe essere una scossa anche più forte di quelle precedenti. Addirittura che gli esperti dicono che la probablilità di tale scossa è aumentata

http://www.ansa.it/molise/notizie/2018/08/23/borrelli-molise-anche-scosse-piu-forti_a12dd3dd-f56d-4d18-8738-d7cd796410c6.html

Piacerebbe sapere se tali esperti vanno indivuati nella Commissione Grandi Rischi, nelle posizione ufficiali di Istituti di riferimento del DPC o in quant’altro, e di quanto sarebbe aumentata tale probabilità. Ricordo che anche a L’Aquila DPC affermò che “gli esperti dicono”; quella volta avrebbero sostenuto il contrario.

 

 

August notes, with another trial at L’Aquila
 (by Massimiliano Stucchi)

translated by Google, revised

Since at least a couple years  August gives us death and damage: Amatrice in 2016, Ischia in 2017, this year the highways, the Pollino flood and a seismic sequence (Molise) that so far has produced only minor damage. And other news that is worth commenting on.

On the Morandi bridge in Genoa everything and even more was said. There is little to add, if not the reflection that bridges of that type, and also of another type, are vulnerable both to wear and possible external impacts (airplanes, drones, attacks, etc.). These bridges are designed to withstand a given external event that is never the maximum possible, also because in these cases this maximum is not known. So, like many things, they keep a level of risk. To be know.

The Bologna accident was quickly forgotten, perhaps due to the collapse of the Morandi bridge. Making a comparison a bit ‘daring, the accident in Bologna – without considering the derived effects, such as the explosion and the collapse of the viaduct – is comparable to the incidence of an earthquake of average energy (average probability, average damage), while that of Genoa is approaching the maximum earthquake possible (very low probability, high damage).
For this incident there have been no major controversies about responsibility and prevention: the truck driver is dead, some insurance will pay; the inconvenience for all travellers remained. However, the dynamic, as well illustrated by the images, indicates that maintaining the safety distance and respecting the speed limits, especially by lorries, is a utopia, as it is well known by those who frequently travel our motorways. One can ask what the tutors are for, but above all why the prohibitions are not strictly enforced (withdrawal of licenses, etc.). Unfortunately, the answer is known.

A lot has been said about the deaths of the Pollino flood, too. I note that the most important problem for those who do not take part in the rescue operations is to find responsibilities rather than take steps forward to prevent such incidents from happening again. Even the Prosecutor of Castrovillari has opened an investigation for “manslaughter …, flooding, … etc.” Flooding? So he is looking for the responsible of a flash flood, not even a possible missing alarm? Will you also look for an earthquake responsible?
And, please, do not call it “abnormal wave”! The term is already incorrect in case of tsunami, let forget if in case of a flash flood ….

In Molise a seismic sequence is going on in an area with minimal historical seismicity, but still at average seismic hazard (low frequent earthquakes of moderate energy; rare high energy ones, although not impossible). The update of the sequence is provided by INGV

https://ingvterremoti.wordpress.com/2018/08/20/aggiornamento-sequenza-sismica-in-provincia-di-campobasso-20-agosto-2018-ore-1500-2/

As always, in these cases, the sequence could be now exhausting, or events of higher magnitude could occur (in 2002, in the not far area of S. Giuliano di Puglia, two events of magnitude around 6 occurred within 24 hours). I want to hope that the local authorities do not release reassuring statements, as happened for example in 2009 by the Responsible for Civil Protection of the Abruzzo Region, thus triggering the subsequent convocation of the meeting of experts in L’Aquila and what followed.

With respect to L’Aquila, today comes the news of the condemnation of two Supervisory Ministries (Infrastructure and Interior) for damages for two victims of the 2009 earthquake for

“not having diligently fulfilled the duties of supervision and control of their respective competence in the building sector, allowing a construction not in tune with the regulatory provisions in force at the time, unable to resist the action of an earthquake not having an anomalous or exceptional nature“.

I do not have the complete text yet and therefore I only read who writes it. Eg

https://www.ingenio-web.it/20942-terremoto-di-laquila-del-2009-due-ministeri-dellepoca-condannati-al-risarcimento-danni-per-due-vittime?utm_term=22665+-+ https% 3A% 2F% 2Fwww.ingenio-web.it% 2F20942 earthquake-eagle-of-the-2009-two-ministries-dellepoca-sentenced-to-damage-compensation-for-two-victims & utm_campaign = + the Journal + of + INGENIO & utm_medium = email & utm_source = MagNews & utm_content = 2356 +-+ 1308 + 29% 282018-08-23%

Apart from the reflections on the value of compensation (360,000 euros for the Ministry) and the usual limps of the sentences (what is an anomalous or exceptional quake, given that the city was classsified in the second seismic category at the time of construction, 1961?), the sentence opens interesting questions (I do not know – mea culpa – if it is the first one on the subject).
The sentence goes into details of the construction types of the time and the related shortcomings, and affirms that those responsible for the collapse would be those who exercised the control function (lacking, in this case, or lacking) on the buildings. Not the people but the last institutions. Not, for example, designers and builders, and not even the owners, all subjects that still sign the building process, albeit with different skills. And this, right at L’Aquila, where in the famous scientists trial other responsible were sought.

Now, apart from some distortions, the sentence goes in the direction of ascertaining responsibility for collapses that have resulted in deaths, which usually generates the majority of engineers to react. I am not a fanatic of handcuffs, but I believe that the establishment of a principle of responsibility, linked to violations or design deficiencies, as regards the damage suffered by buildings and not only the victims, should find place in the conscious management of the territory. Responsibility to be ascertained and discounted in ways to be determined, but not to be ignored or even canceled: why should the State, that is all of us, systematically be responsible for the reconstruction of abusive properties, for example, or not respecting the rules (which is very similar). What rules are they, if those who do not respect them are the same as those who respect them?

It is worth mentioning that, in contrast to the above, on last June the Italian Parliament approved a 5-star amendment-amnesty, approved by all (!) the parties with the exception of Forza Italia, which assessed it as insufficient (!), which in fact “condones” the building abuses that took place before the earthquake on buildings for which the private citizen are asking for reconstruction, abuses that otherwise would not have allowed access to the reconstruction contribution. That perhaps these “abuses” could have played a role in the damage or collapse of the building does not seem to touch the Parliament, which on the other hand took care to establish that the amnesty for areas affected by recent earthquakes is subject to “verification of compatibility with the rules on protection against hydrogeological risk “. So. In Genoa, individual and precise responsibilities are sought: for earthquakes we should ascertain collective, mass responsibility, and therefore they are cancelled.

I am afraid that “also this year we will do the prevention next year ….”

Verso il nuovo modello di pericolosità sismica per l’Italia (colloquio con Carlo Meletti)

English version at

https://terremotiegrandirischi.com/2018/07/03/towards-the-new-seismic-hazard-model-of-italy-interview-with-carlo-meletti/

Nel 2004 un piccolo gruppo di ricerca, coordinato da INGV, rilasciò la Mappa di Pericolosità Sismica del territorio italiano (MPS04), compilata secondo quanto prescritto dalla Ordinanza n. 3274 del Presidente del Consigli dei Ministri (PCM) del 2003. La mappa doveva servire come riferimento per le Regioni, cui spetta il compito di aggiornare la classificazione sismica dei rispettivi territori. La mappa fui poi resa “ufficiale” dalla Ordinanza n. 3519 del Presidente del Consiglio dei Ministri (28 aprile 2006) e dalla conseguente pubblicazione nella Gazzetta Ufficiale (n. 108 del 11 maggio 2006).
Nel seguito, utilizzando lo stesso impianto concettuale, alla mappa furono aggiunti altri elaborati che andarono a costituire il primo modello di pericolosità sismica per l’Italia. In particolare per la prima volta furono rilasciate stime per diversi periodi di ritorno e per svariate accelerazioni spettrali. Questo modello divenne poi la base per la normativa sismica contenuta nelle Norme Tecniche 2008 (NTC08), divenute operative nel 2008 ed è stato adottato anche dalle Norme Tecniche 2018.
Caratteristiche e vicende legate al successo di MPS04 sono descritte, tra l’altro, in due post di questo blog: 

https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/

https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/

Come avviene in molti paesi sismici, da qualche anno un gruppo di ricerca sta compilando un nuovo modello di pericolosità, che utilizzi dati e tecniche aggiornate.
Massimiliano Stucchi ne discute con Carlo Meletti il quale, dopo aver contribuito in modo importante a MPS04, coordina la nuova iniziativa attraverso il Centro di Pericolosità Sismica dell’INGV.

MPS04, pur compilata abbastanza “di fretta” per soddisfare le esigenze dello Stato, ha avuto un notevole successo, sia in campo tecnico-amministrativo sia – dopo qualche anno – a livello di pubblico. Che cosa spinge alla compilazione di un nuovo modello?

C’è la consapevolezza che dopo oltre 10 anni siamo in grado di descrivere meglio la pericolosità sismica in Italia. Un modello di pericolosità è la sintesi di conoscenze, dati e approcci disponibili al momento della sua compilazione. Nel frattempo abbiamo accumulato tantissimi dati nuovi o aggiornati (non solo un importante revisione del catalogo storico dei terremoti, ma anche del database delle faglie e sorgenti sismogenetiche, nonché tutte le registrazioni accelerometriche dei terremoti forti italiani degli ultimi 10 anni).
Abbiamo pertanto ritenuto di dover verificare quanto cambia la definizione della pericolosità. E’ una prassi normale nei paesi più evoluti (ogni 6 anni negli Stati Uniti, ogni 5 in Canada, ogni 10 in Nuova Zelanda). Noi siamo partiti da un’esigenza di tipo scientifico, ma anche il Dipartimento della Protezione Civile ha sostenuto questa iniziativa per verificare il possibile impatto sulla normativa sismica (classificazione dei comuni e norme per le costruzioni).

Ci puoi riassumere brevemente le fasi di questa nuova iniziativa e anticipare, se possibile, la data di rilascio nel nuovo modello?

Abbiamo iniziato a metà 2015 e intendevamo chiudere in 2 anni. Però il nostro intento era molto ambizioso e, per esempio, abbiamo coinvolto una comunità scientifica molto ampia (stimiamo in circa 150 il numero di ricercatori che, a vario titolo, hanno partecipato). Anche il numero di attività che abbiamo previsto era molto ampio, in quanto volevamo essere sicuri di non trascurare alcun aspetto fondamentale per la stima della pericolosità. Ovviamente l’intenzione era quella di confermare l’Italia allo stesso livello dei paesi più all’avanguardia a livello mondiale. Questo ha comportato un allungamento dei tempi rispetto alla previsione iniziale; lo stesso Dipartimento della Protezione Civile ha ritenuto più importante privilegiare la qualità del modello rispetto al tempo necessario per ottenerlo, visto che comunque intanto il modello MPS04 è considerato ancora affidabile.
In parte ha contribuito all’allungamento dei tempi la continua interazione con la Commissione Grandi Rischi, che ha valutato in corso d’opera i primi risultati, suggerito modifiche, chiesto via via nuove verifiche. Ora pensiamo di essere davvero vicini alla conclusione e di poter chiudere entro la fine del 2018.

Ci puoi anticipare, sia pure senza entrare in dettaglio, se vi saranno delle novità importanti nella distribuzione della pericolosità sismica?

In generale c’è la tendenza ad avere valori di accelerazione più elevati rispetto alle stime del passato. Questo è un fenomeno che si osserva a scala mondiale e dipende dal fatto che l’aumento e la densità delle stazioni sismiche ha fatto sì che, per tutti i grandi terremoti (anche in Italia), stazioni poste nelle vicinanze delle faglie abbiano registrato accelerazioni mai osservate prima. Di conseguenza sono stati aggiornati i modelli di attenuazione del moto del suolo, che adesso restituiscono accelerazioni più elevate rispetto ai modelli utilizzati in passato. Questa è una delle novità più importanti, prodotta dal miglioramento dei dati disponibili, in questo caso le registrazioni accelerometriche.
Per quanto riguarda la distribuzione geografica, rispetto al modello del 2004 le aree ad alta pericolosità sismica (il Friuli, tutta la catena appenninica fino alla Calabria) saranno più ristrette e concentrate sulle strutture sismogenetiche responsabili dei terremoti più forti. Invece, alcune aree, in particolare del Sud Italia, potrebbero risultare un po’ meno pericolose di quanto noto finora, a causa dei molti dati rivisti, tra l’altro sulla sismicità del passato. E’ un aspetto che stiamo verificando con attenzione proprio in queste settimane.

Il nuovo modello segue, come il precedente e come la stragrande maggioranza dei modelli a livello mondiale, l’approccio probabilistico. Ci puoi riassumere le ragioni di questa scelta?

Non esiste una pericolosità sismica “unica”, ma a seconda dell’utilizzo che se ne vuole fare può essere opportuno usare indicatori diversi. L’approccio probabilistico offre la stima di valori di scuotimento attesi per probabilità da molto alte a molto basse (che per semplificare, è come dire da frequenti a rari). La scelta del parametro da utilizzare per le costruzioni non riguarda il calcolo della pericolosità; riguarda piuttosto il livello di sicurezza che si vuole assicurare a persone ed edifici e spetta al legislatore, anche perché significa quanto si vuole investire economicamente in sicurezza. Al contrario, l’approccio deterministico, quello che definisce gli scenari di scuotimento per i massimi eventi, fornisce di fatto un unico parametro estremo, relativo a un evento che potrebbe anche non verificarsi mai. Per la progettazione di edifici potrebbe risultare troppo oneroso, come hanno ben spiegato anche in questo blog i colleghi ingegneri.

Dopo ciascuno dei terremoti più recenti, alcune voci si sono levate per sostenere che la “mappa” MPS04 “sottostimerebbe” la pericolosità sismica per svariate ragioni (approccio, modelli e dati utilizzati, etc.). Alcune di queste voci hanno usato argomenti chiaramente fallaci, ad esempio non considerando il tipo di suolo; altre si sono limitate a considerare solo la classica “mappa”, mentre il modello MPS04 offre una varietà di valutazioni della pericolosità sismica che si prestano a analisi più meditate. E’ così?

Se vuoi le critiche sono la dimostrazione del “successo” di MPS04. E’ diventato un elaborato popolare, molto diffuso in rete, mostrato ogni volta che si parla di terremoti in Italia. Parte delle critiche derivano – in parte – anche dalla nostra scarsa capacità di comunicare cosa rappresentano esattamente i valori e quindi i colori della mappa (accelerazione orizzontale su suolo rigido e orizzontale, con una certa probabilità di essere superata in 50 anni; non è il valore massimo possibile!). Dall’altra parte ci sono commentatori e colleghi che devono attaccare il modello MPS04 solo perché non lo hanno fatto loro. Nella stragrande maggioranza dei casi vengono usati argomenti errati o in malafede, oppure argomenti che dimostrano di non capire il concetto di probabilità. Peraltro, quando uscì MPS04 fu accusata di proporre valori troppo alti; dopo i terremoti forti degli ultimi 10 anni, viene accusata di sottostimare. Che si decidano!

Vale anche la pena di ricordare che un modello probabilistico non si valuta dopo un singolo evento, ma dopo un periodo di tempo significativo in cui si confrontano tutti gli eventi accaduti con le stime del modello. Infine, ricordo anche che il modello attuale presenta oltre 2000 parametri diversi per ogni sito, proprio per descrivere al meglio la pericolosità, ma si guarda sempre e solo ad un unico dato (il 10% in 50 anni).

In sostanza, a me sembra che a volte si tenda – addirittura – a attribuire la causa di alcuni crolli alle valutazioni di pericolosità sismica, quando in discussione dovrebbe esserci le modalità di costruzione e, magari, l’adozione – da parte dell’ingegneria – dei classici parametri di riferimento (10% di probabilità di superamento in 50 anni, spesso assunto come dogma e mai spiegato a sufficienza). Ti torna?

A dir la verità io sto ancora aspettando che qualcuno mi segnali, in Emilia o in Italia centrale, un edificio crollato che fosse stato progettato (correttamente) con le NTC08. Poi, come completamento alla risposta precedente, vorrei ricordare che il parametro PGA che si usa per rappresentare la pericolosità sismica non è usato direttamente per progettare gli edifici; cioè, non è la eventuale “bassa” PGA stimata che fa crollare gli edifici. La PGA è l’accelerazione di picco del suolo (la sigla deriva dall’inglese Peak Ground Acceleration) che si registra durante un terremoto; un parametro molto più significativo è l’accelerazione relativa a un periodo di oscillazione pari a quello proprio dell’edificio.

Per quanto riguarda i parametri, non è scritto sulla pietra che si debba usare sempre e solo il 10% di probabilità di superamento in 50 anni per gli edifici ordinari. La scelta del valore di probabilità di superamento non è dei sismologi, ma degli estensori della normativa. Negli Stati Uniti, per esempio, si prende in considerazione solo la pericolosità con il 2% di probabilità di superamento in 50 anni. Se si vuole essere più cautelativi rispetto alle scelte del passato, il normatore anche in Italia può decidere di utilizzare un periodo di ritorno più lungo e quindi parametri più severi. Peraltro, va ricordato che le prescrizioni della normativa rappresentano il valore minimo secondo il quale si deve progettare l’edificio: nessuno vieta di adottare valori di riferimento più elevati.

Il nuovo modello non si riferisce a una formale richiesta “normativa”. Puoi fare qualche previsione sul suo possibile utilizzo?

Vuole essere essenzialmente un documento scientifico aggiornato; rappresenta ciò che oggi la comunità scientifica può dire sulla pericolosità sismica in Italia. Ho insistito per far partire questo progetto proprio per dimostrare che le nostre conoscenze non sono ferme al 2004. Saremmo partiti molto prima se non fosse stato che il modello di pericolosità era stato recepito da troppo poco tempo nelle norme delle costruzioni.
Il suo utilizzo dipenderà essenzialmente dai risultati che otterremo; così è stato convenuto dalla Commissione Grandi Rischi nel 2015: si valuterà se le differenze tra il vecchio e il nuovo modello saranno così significative da giustificare la modifica dell’input per la normativa. I requisiti del nuovo modello sono stati comunque discussi e definiti con DPC e i due centri di competenza per l’ingegneria sismica, vale a dire ReLuis ed Eucentre, e con essi verrà discusso l’utilizzo futuro.

La mappa “classica” MPS04 è stata usata da molti come una descrizione “divulgativa” del pericolo sismico italiano: questo ha comportato – ad opera dei media ma non solo – diverse semplificazioni esagerate (es.: “nelle zone a bassa pericolosità sismica non si possono avere terremoti molto forti”), che sono state alla base di numerosi equivoci.
Personalmente ho sempre sostenuto che la descrizione del pericolo sismico a scopo informativo richieda numerose mappe, ciascuna dedicata a un aspetto diverso (es.: massima magnitudo, massima intensità osservata, etc.), corredate da spiegazioni ben fatte. E’ anche necessario che chi vuole informarsi o essere informato dedichi a questi aspetti il tempo e la pazienza necessari, evitando la ricerca degli “spot”.

Siamo in cammino verso questa direzione, secondo te?

Io ho sempre pensato che rappresentare la pericolosità sismica con una mappa sia stato riduttivo rispetto alla complessa articolazione del modello. Però è anche è vero che quella è la mappa stampata sulla Gazzetta Ufficiale.
Quando si guarda ad una mappa, si tende a confrontare luoghi diversi (L’Aquila sta messa peggio di Milano, per fare un esempio); viceversa qualcuno ha pensato che le aree che avevamo rappresentato con il verde e il celeste fossero esenti dalla possibilità che si verifichi un terremoto forte.
E’ difficile anche per noi, ma credo che dovremmo sforzarci di rappresentare la pericolosità con più rappresentazioni contemporaneamente. Per esempio usando di più le curve di pericolosità sismica per un singolo sito, quelle che mostrano i diversi valori di scuotimento con le diverse frequenze di superamento; oppure con mappe che rappresentino le diverse probabilità che si verifichi un certo livello di scuotimento, nelle quali si vede che la probabilità zero di avere un terremoto di fatto in Italia non esiste. Poi sicuramente aiuterebbero anche altri tipi di mappe, tipo quello della massima magnitudo, che è uno degli elementi di input per la pericolosità sismica.
Ma prima di tutto dovremmo impegnarci noi per descrivere ancora meglio e con linguaggio più semplice questo tipo di elaborati. Da questo deriverà anche il grado di accettazione del nuovo modello.

 

Towards the new seismic hazard model of Italy (interview with Carlo Meletti)


In 2004 a small research group, coordinated by INGV, released the Map of Seismic hazard of the Italian territory (MPS04), compiled as required by the Ordinance n. 3274 of the President of the Council of Ministers (2003). The map was to serve as a reference for the Regions, whose task is to update the seismic classification of the respective territories. The map was then made “official” by the Ordinance n. 3519 of the President of the Council of Ministers (28 April 2006) and subsequently published on  the Official Gazette (No. 108 of 11 May 2006).
In the following, other elaborations were added to the map using the same conceptual structure. It  represents the first modern seismic hazard model for Italy. For the first time estimates for different return periods and for various spectral accelerations were released. This model has been then used as the basis for the building code contained in the 2008 Technical Regulations (NTC08), which became operational in 2008 and was also adopted by the 2018 Technical Regulations.
Features and events related to the success of MPS04 are described, among other things, in two posts of this blog:

https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/
https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/

As usual in many seismic countries, since a few years a research group is compiling a new hazard model, which uses updated data and techniques.
Massimiliano Stucchi discusses about it with Carlo Meletti who, after its important contribution to MPS04, coordinates the new initiative through the INGV Seismic Hazard Center.

MPS04,  even if compiled  “in a hurry” in order to meet the State requirements, had a considerable success, both in the technical-administrative field and – after a few years – at the public level. What drives a new model to be built?

There is the awareness that after more than 10 years we are able to better describe the seismic hazard in Italy. A hazard model is the synthesis of knowledge and data  available at the time of its compilation. In the meantime, we have accumulated a lot of new or updated data (starting from an important revision of not only the historical catalog of earthquakes, but also of the fault and seismogenic sources database, as well as all the accelerometric records of the strong Italian earthquakes of the last 10 years).
Therefore, we decided to check how much the hazard assessment does change. It is a regular practice in the most developed countries (every 6 years in the United States, every 5 in Canada, every 10 in New Zealand). We were driven by a scientific need, but also the Civil Protection Department supported this initiative to verify the potential impact on the building code (seismic classification of municipalities and building regulations).

Can you briefly summarize the phases of this new initiative and anticipate, if possible, the release date of the new model?

Our project started in mid-2015 and we wanted to finish in 2 years. However, our intent was very ambitious: for instance, we involved a very large scientific community (about 150 researchers who, for various reasons, participated). Also the number of activities that we have foreseen was very wide, in how much we wanted to be sure not to neglect any fundamental aspect for the estimate of the hazard. Obviously the intention was to confirm that Italy stands at the same level as the most advanced countries in the world. Because of this reason, deadlines have been postponed respect to the initial project planning. The Department of Civil Protection itself gave priority to the quality of the model rather than to quantity of time necessary to obtain it, given that in the meanwhile the MPS04 model is still considered reliable.
In part,  the process was lengthened because of the continuous interaction with the Great Risks Commission, which assessed the first results during the course of work, suggested changes, and asked for further checks. To this day, we think we are really close to the project conclusion and we can finish by the end of 2018.

Can you anticipate, even without going into detail, if there are any important changes in the distribution of seismic hazard?

In general there is a tendency to have higher acceleration values today than the estimates of the past. Stations located near the faults have recorded accelerations never observed before, for all large earthquakes (also in Italy), due to the increase of number and density of seismic stations worldwide. As a consequence, the ground motion attenuation models have been updated: this now produces higher accelerations compared to the models used in past. This is one of the most important innovations produced by the improvement of available data, in this case the accelerometric recordings.
As for the geographical distribution, compared to the 2004 model, the high seismic hazard areas (Friuli, the entire Apennine chain up to Calabria) will be more restricted and concentrated on the seismogenic structures responsible for the strongest earthquakes. On the other hand, some areas, particularly in Southern Italy, may be a little less dangerous than previously known, thanks to the revision of many data on the seismicity of the past. It is an aspect that we are checking carefully in these weeks.

The new model follows the probabilistic approach like the previous one and like the vast majority of models worldwide. Can you summarize the reasons for this choice?

There is no “unique” seismic hazard but, depending on the use that you want to make, it may be appropriate to use different indicators. The probabilistic approach offers the estimation of expected shaking values from very high to very low probabilities (in other words, it is like saying from frequent to rare). The choice of the parameter to be used for buildings does not concern the hazard danger but the level of safety to be assured to citizens and buildings. The choice is up to the legislator since the size of the economic investment varies. In contrast, the deterministic approach, which defines shaking scenarios for maximum events, provides a single extreme parameter related to a certain event that may not even occur. therefore, the design of buildings could be too burdensome, as engineers have also well explained in this blog.

After each of the most recent earthquakes, rumors claiming that the “map” MPS04 “would underestimate” the seismic hazard for a variety of reasons (approach, models and data used, etc.) raised. Some of these rumors were clearly based on flawed arguments, for example, the type of soil was not taken into account; others just considered the classic “map”, while the MPS04 model offers a variety of seismic hazard assessments that lend themselves to more pondered analyzes. Is that true?

Criticisms might be the proof of the “success” of MPS04. It has become a popular document, very common on the web, and it is shown every time there is talk about earthquakes in Italy. Part of the criticism derives also from our lack of ability to communicate what the values exactly represent and therefore the colors on the map (horizontal acceleration on rigid and horizontal ground, with a certain probability of being exceeded in 10% of cases in 50 years is not the maximum value possible!). On the other side, there are commentators and colleagues who attack the MPS04 model just because they did not take part in its compilation. Unfortunately, most of the times critics are based on wrong or bad faith arguments, or arguments that show how people are not able to grasp the concept of probability. Moreover, when MPS04 came out, it was blasted because its values were considered as too high, whereas after the strong earthquakes of the last 10 years, it is criticized of underestimating data?. They should make up their mind!
It is also worth remembering that a probabilistic model is not evaluated after a single event, but after a significant period of time in which all the events occurred with the model estimates are compared. Finally, I also remember that the current model relies on over 2000 different parameters for each site, precisely to better describe the danger, but people look at only one data (10% in 50 years).

In short, it seems to me that sometimes someone tends to attribute the cause of some collapses to (wrong) seismic hazard assessments, when there should be a discussion on how to build and, perhaps adopt –  the classical reference parameters from an engineering point of view (10% probability of overcoming in 50 years, often assumed as a dogma and never sufficiently explained). Do you agree?

Actually, I am still waiting for someone to show me, a collapsed building that had been designed (correctly) with the NTC08 in Emilia or in central Italy. Then, as a completion to the previous answer, I would like to mention that the PGA parameter used to represent seismic hazard is not used directly to design buildings. It is not the eventual “low” estimated PGA that causes buildings collapse. The PGA is the “Peak Ground Acceleration” that is recorded during an earthquake and it is only one of the many parameters that can be used. For example, a much more significant parameter is the acceleration related to a period of oscillation close to the one of the building.
With reference to the parameters, it is common knowledge that one should always use only 10% of probability of exceeding in 50 years for ordinary buildings. The choice of the value of probability of overcoming is not up to the seismologists, but to the authors of the legislation. In the United States, for example, only the danger with a 2% probability of exceeding in 50 years is taken into consideration. In order to be more precautionary than in the past the code in Italy can decide to use a longer return period and therefore more stringent parameters. Furthermore, it should be remembered that the provisions of the legislation represent the minimum value according to which buildings must be designed: no one forbids the adoption of higher reference values.

The new model does not refer to a formal “normative” request. Can you make any predictions about its possible use?

It is essentially an updated scientific document and it represents what the scientific community can tell about the seismic hazard today in Italy. I insisted on starting this project to show that our knowledge is not blocked at 2004. We would have started much earlier if the model of danger had not been implemented by too little time in the construction regulations.
Its use will essentially depend on the results we will obtain; so it was agreed by the Great Risks Commission in 2015. The differences between the old and the new model will be weigh and if significant will justify changes in the input for the code. The requirements of the new model were however discussed and defined with DPC and the two centers of competence for seismic engineering, namely ReLuis and Eucentre, and with them the future use will be discussed.

The “classical” map MPS04 has been used by many as a “popular” description of the Italian seismic hazard: this has led – through the media but not only – to various exaggerated simplifications (eg: “in areas with low seismic hazard you cannot have very strong earthquakes “), which were the causes of many misunderstandings.
Personally, I have always maintained that the description of the seismic hazard for information purposes requires multiple maps, each dedicated to a different aspect (eg: maximum magnitude, maximum observed intensities etc.), accompanied by well-made explanations. It is also necessary that those who want to get information should devote time and patience to these aspects, avoiding the search for “spots”. Are we in the right direction, in your opinion?

I have always thought that representing the seismic hazard through a map is  an understatement of the complex articulation of the model. But it is also true that that the map is published in the Official Gazette.
When looking at a map, it is easy to misjudge. People tend to compare different places (L’Aquila is worse off than Milan, to give an example), or to think  that the areas we represented with green and light blue were exempt from the possibility of a strong earthquake. It is difficult for us too, but I think we should strive to describe the hazard with several representations at the same time. For example, by using more the seismic hazard curves for a single site, showing the different shaking values with the respective different frequency of exceedance, or with maps that represent the different probabilities of a certain level of shaking, in which it is possible to see that the zero probability of having an earthquake actually in Italy does not exist. In addition to that, the availability of other types of maps would help, such as the one of the maximum magnitude, which is one of the input elements for the seismic hazard.
But first of all we should commit ourselves to better describe this type of work even better and with simpler language. to change the degree of acceptance of the new model.

Come ridurre una volta per tutte il rischio sismico in Italia (di Patrizia Feletig e Enzo Boschi)

In un articolo sul Corriere della Sera lunedì 19 marzo, Milena Gabanelli scrive di copertura assicurativa contro i terremoti ipotizzando un intervento dello Stato come avviene in alcuni paesi esteri, quale alternativa finanziariamente più sostenibile rispetto al risarcimento finanziato con varie “tasse sulla disgrazia”.
Giusto, anche perché i costi per la ricostruzione inseguono una parabola incontrollabile considerato l’aumento della concentrazione di ricchezza per metro quadro. Ma soprattutto con la diffusione di un sistema di copertura assicurativa, gli edifici verrebbero per forza sottoposti a collaudi strutturali. Come dovrebbe essere per attuare la famosa “carta d’identità del fabbricato” rimasta lettera morta. Mentre negli altri paesi europei un fabbricato senza una validazione strutturale non ottiene l’allacciamento di luce, acqua, ecc. in Italia, ci si limita alla verifica formale della sola certificazione energetica del fabbricato in occasione di vendita o locazione!

Una polizza potrebbe allora diventare un incentivo alla prevenzione con la responsabilizzazione delle istituzioni come testimonia la copertura da rischio contro catastrofi naturali francese a partecipazione mista stato-mercato in vigore dal 1982 e incresciosamente non citato nell’articolo! Per non discriminare tra aree ad alto rischio e quelle poco esposte, il premio è fisso, varia invece la franchigia a secondo se il comune dove risiede il fabbricato ha adottato provvedimenti come dei lavori di contenimento di corsi d’acqua o adeguamenti alle norme antisismiche, per contenere la propria esposizione ad alluvioni, terremoti, eruzioni vulcaniche.
Considerando gli otto terremoti più forti che hanno colpito la Penisola negli ultimi 42 anni, non si può non convenire che una polizza contro il sisma sia una misura più che necessaria. Deplorevole che se ne discuta da un quarto di secolo (il primo disegno di legge risale al 1993) e sebbene a volte la proposta sia anche riuscita a spuntare in qualche Finanziaria, è stata velocemente stralciata come fosse l’ennesima gabella impossibile da fare ingoiare al popolo dei proprietari di case.

Ma proprio la politica è doppiamente colpevole.
Primo per il suo irresponsabile fatalismo a ritenere di poter continuare ribaltare sull’iniziativa del singolo la messa in sicurezza delle abitazioni recentemente “incentivata” con la detraibilità fiscale. Il sisma bonus è un lodevole strumento fortemente voluto da Ermete Realacci ma la cui efficacia si scontra con il cronico vizio dei lavori edili in nero.
Secondo, se il 70% del patrimonio immobiliare di un territorio sismico come l’Italia, risulta inadeguato a scosse di medie magnitudo, è anche grazie alla sconsideratezza con la quale gli amministratori locali spesso, non hanno vietato l’edificabilità in aree a rischio. Casamicciola è solo l’ultimo dei tanti casi. Lo stesso vale quando nelle nuove costruzioni o negli interventi di riqualificazione, non hanno fatto rispettare le leggi sulla prevenzione sismica.
Il sindaco di Amatrice è indagato proprio per il crollo di una palazzina che nel 2009 venne evacuata a seguito delle scosse dell’Aquila e, in seguito degli interventi di ripristino, dichiarata dal comune agibile salvo franare la notte del 24 agosto 2016 causando la morte dei suoi abitanti.

Decisamente scellerata poi è la piaga dei condoni, la cui madre di tutte le regolarizzazioni dell’abusivismo è la legge 47 del 1985 del governo Berlusconi. Una sanatoria per la quale grande fu la protesta affinché almeno i territori dichiarati sismici fossero esclusi da questa delittuosa fittizia idoneità assegnata per default all’edificazione precaria, fuori norma, illecita. Sì delittuoso, perché la natura è matrigna ma le vittime dei terremoti sono attribuibili all’abusivismo, alle irregolarità, alla sciatteria, che hanno molti corresponsabili. In un tragico intreccio dove i colpevoli magari finiscono anche per essere loro stessi vittime delle loro azioni o omissioni. Ma questa non è giustizia.

Masonry buildings to the test of Italian earthquakes (interview with Guido Magenes)

…..This comparison with medicine fits very well, there are really many similarities between the work of the technician who has to understand what to do with an existing building and that of the doctor who tries to make a diagnosis and to find a correct therapy for a patient…..


versione italiana qui: Gli edifici in muratura alla prova dei terremoti italiani (colloquio con Guido Magenes)


Guido Magenes is Professor of Structural Engineering at the University of Pavia and IUSS Pavia. He is also the coordinator of the Masonry Structures division of the EUCENTRE Foundation. His area of ​​greatest competence is the seismic behavior of masonry buildings and for this reason he has also participated and still participates in numerous Italian and European technical-regulatory committees.
We discussed with him the behavior of masonry buildings in Italy, with particular reference to what happened during the last earthquakes.

1. The earthquakes of 2016 have determined a sequence of shaking that has put a strain on the buildings of the affected area, especially those in masonry. The effects seen in the field are very different: next to the buildings already heavily damaged by the earthquake of August 24th, there are others that have seen their condition worsen after the shock in October, and others that seem not to have suffered serious damage in all the sequence. Do you have an explanation for this?

 The masonry buildings stock in our country has very variable characteristics and qualities, depending on the era of construction, the materials and construction criteria that were used, the type and architectural form (ordinary buildings or churches, palaces, towers, etc … ), any maintenance and reinforcement or tampering and weakening processes that may have occurred over time. Certainly there are recurrent types of problems, but the diversity of the behavior of masonry buildings, apart from the severity of the shaking (or the different ground motion in the various sites), is  essentially due to this great variability.
Therefore, in the specific case of the seismic sequence of central Italy, which involved a very large area and a considerable variety of buildings, we observed what you say: from the recently built building, of a few storeys, in great part or fully compliant with the modern design and construction criteria, which did not show significant damage, to historic buildings with large spans and heights, such as churches, which tend to be more vulnerable and have therefore suffered great damage and collapse because of their dimensions, geometric ratios and their structural organization. In many if not most cases, also the poor quality of the materials has further worsened the situation.

2. In all the municipalities affected, seismic regulations were in force, with various years of enforcement (the extremes are represented by Amatrice and Accumoli, 1927, and Arquata del Tronto, 1984). The distribution of the damage does not seem to be influenced by these differences; is there a reason?Schermata 2018-02-05 alle 20.44.50Not all regulations are equally effective: a 1927 standard is obviously very different, under many points of view, from a rule of the 1980s or the years 2000s and, as I mentioned above, the buildings built in compliance with the latest rules behaved generally well (constructed with artificial blocks and mortars of good strength, or even stone buildings demolished and rebuilt with good quality mortars). Therefore, I would not say that the distribution of damage is not at all influenced by the regulatory context. It depends on what was written in the norm and how many buildings were built or repaired or reinforced after the introduction of the norm (in the affected centers a significant percentage of the buildings had been built before the seismic regulations that you mentioned).

The rules and design criteria are not necessarily born perfect and they have to adjust, to evolve based on the experience of earthquakes. For example, it is only fifteen or twenty years that we began to recognize that certain types of interventions proposed and widely applied after the earthquakes of Friuli and Basilicata can be harmful or plainly ineffective (think of the infamous reinforced concrete ring beams “in breccia” inserted at intermediate floors in an existing building in stone masonry: in Umbria-Marche ’97 we have begun to see its shortcomings).
In the areas in which the presence of a regulation or a seismic classification seems to have had no effect, it must also be taken into account that the on-site control of the quality of construction and execution, in particular for masonry buildings, were inexistent or ineffective at least until the more recent regulations. The use of a very bad mortar is a recurrent element in many of the old masonry buildings collapsed or damaged in the last seismic sequence. In centers like Accumoli and Amatrice it seems that even where interventions had been carried out on buildings, replacing old floors, for example, or inserting some ties, the problem of poor quality of the masonry had been greatly overlooked, ultimately making the interventions ineffective. We can add that a large part of those areas suffered a considerable depopulation since the early 1900s, with inevitable consequences on the maintenance of buildings, which has led to an increase in widespread vulnerability.

Then there are some particular cases in which historical norms and more recent norms seem to have had a positive effect. Take Norcia’s example: without going into the details of the measurements of the characteristics of the ground motion, it is a fact that Norcia in the last sequence suffered strong shaking, comparable to those of Amatrice and Accumoli but with a much lower damage to buildings. In the history of Norcia there were two very significant events that may have affected  the response of the buildings in the 2016 sequence, one before and one following the 1962 regulations. In 1859 a strong earthquake caused numerous collapses and victims in some areas of the historical center, and following this the Papal State issued a quite effective regulation that gave a series of provisions for repairs and reconstructions: on geometry, in particular on the maximum height of the buildings (two floors), on the construction details, on the quality of materials. Then, in 1979 there was another earthquake in Valnerina, after which other parts of the historic center were damaged, followed by a series of systematic reinforcement measures on many buildings. In many of these buildings the reinforcement of the vertical walls (even with the controversial technique of the reinforced plaster) has remedied one of the main elements of vulnerability, i.e. the weakness/poor quality of the masonry walls. If for a moment we leave aside the elements that can go against the use of reinforced plaster (such as the durability of the intervention), and we see it simply as a technique that has remedied a factor of great vulnerability, we can say that for Norcia there has been a positive combined effect of pre-modern and more recent regional regulations, stemming from the direct experience of seismic events.

3. Let’s  talk about seismic regulations and in particular of their engineering aspects. We hear that they have changed a lot over time, and that perhaps the non-recent ones were not entirely effective. Is it true, and if so why?

As for the engineering component of the regulation, what we now know about the structural and seismic behavior of buildings, in masonry and other structural systems, is the result of a continuous evolution through the experience of earthquakes in Italy and in other parts of the world. In Italy the engineering study of masonry buildings has resumed life, after decades of almost total abandonment, after the 1976 earthquake in Friuli. The first norms/codes that give indications on how to “calculate” a masonry building in Italy date back to the early 80s (to “calculate” I mean “quantitatively assess the level of safety”). Although “calculation” is not the only component of the design, this fact gives the idea of ​​how only the very recent rules have a technical-scientific basis aligned with current knowledge. I would like to say that the absence of calculation in a project does not necessarily imply that the building is unsafe: in the past we followed geometric and constructive rules of an empirical type, based on the experience and intuition of the mechanical behavior, although not explicated in detailed calculations. Even today, for the design of a simple and regular masonry building, it is possible to follow codified geometrical and constructive rules that avoid detailed or complex calculations, but still achieve an adequate level of safety.
The experience of the earthquakes of Irpinia, Umbria-Marche, until the most recent in central Italy, have been a continuous test and a source of knowledge. For example, as mentioned in my answer to the previous question, the Umbria-Marche 1997 earthquake, besides highlighting the great vulnerability of churches and of certain historical structures, has been an important test for strengthening criteria and techniques on masonry buildings that were proposed and developed following the Italian earthquakes of the late ’70s, showing how some techniques are not very effective or can even be harmful if applied indiscriminately and without awareness

To conclude my answer with my opinion on current technical standards, I think that as regards the design of new buildings we are really at a very advanced state of progress, which effectively attains the levels of safety that today are considered adequate. I think there are more uncertainties on the assessment and strengthening of existing buildings, even if it is not so much a regulatory problem but rather of scientific knowledge and of the correct identification of strategies and techniques for the intervention. It is certainly easier to design and build a seismic-resistant building from scratch, than to assess and intervene on an existing building.

4. How much – and how – does the construction and detailing of a building affect its seismic safety, beyond the design?

The question gives me the opportunity to dwell a little more on what is meant by “design”, which is something different from the mere “calculation”. The design includes all aspects of overall conception, choice and organization of the structure, choice of materials and construction techniques (with the awareness of how they can and should be executed in situ), performance verification calculations in terms of safety against collapse and of satisfactory behavior in normal operation, prescriptions on construction details. In modern seismic design it is also necessary to take into account, when relevant, the seismic response of the non-structural parts of the construction. There must also be a check that what is prescribed in the design is actually implemented during construction.

The calculation is therefore only a component of the design. It is interesting to note that most of the existing masonry buildings were not calculated, at least as we understand structural calculations now. The first Italian national technical standard on masonry constructions with a sufficiently detailed description of the calculations for the structural verification dates back to 1987. Technical standards with indications for the seismic calculation, were issued after the earthquake of Friuli 1976 and in subsequent times. Before those norms, a technical literature and manuals existed, with reference to the principles of mechanics, as well as a building tradition. I would like to clarify that here I am talking about regulations/norms that tell how to calculate the resistance of a masonry building, subject to seismic or non-seismic actions. Just to give an example, the Royal Decree of 1909 (post earthquake of Messina), a historical milestone as regards seismic regulations, gives criteria to define the seismic action, gives constructive and geometric rules but does not tell how to calculate the resistance (the capacity, according to the modern technical language) of a masonry building.

The constructive tradition based on the respect of the “rule of art” always had in mind the importance of construction details, of the quality of the materials, of how the building is built, and this has allowed and allows well-constructed buildings (but not “calculated”, i.e. non-engineered) to withstand even very violent seismic shocks. In modern buildings, the compliance during construction site of the execution rules, the control of the quality of the materials, is equally important, although this holds for masonry as for the other types of construction. The sensitivity of the structure to constructional defects is a function of the level of robustness of the structural system. A masonry box-like construction, strongly hyperstatic (i.e. where the number of resistant elements is higher than the minimum necessary to ensure equilibrium under the applied loads) could in principle be less sensitive to construction defects than an isostatic prefabricated structure (i.e. where the number of resistant elements is just equal to the minimum necessary to ensure equilibrium under the applied loads, so that the failure of a single element is sufficient to generate a collapse). Obviously we are talking about local defects and not generalized over the whole construction. If all materials are poor quality throughout the construction, then it is a great problem, but not necessarily a masonry building is more sensitive to such problem than, say, a reinforced concrete frame, in which also defects in the reinforcement detailing are possible (for instance in beam-column joints or in lap splices or in anchorage of rebars and so forth).

5. Many surveyors in post-earthquake reconnaissance activities have found traces of interventions that have allegedly weakened the structures. Do you agree?

In post-earthquake surveys, carried out quickly in emergency conditions, it is not always possible to clearly understand the history of the building and what changes have been made, in what time and modalities, but sometimes it is clear that some modifications to the construction have been detrimental to safety. Often these are interventions that were made with total unawareness of the effects on structural safety and purely for the purpose of use and redistribution of space. In other cases, more rare, there are also interventions made with “structural” purposes, perhaps even with the idea of ​​achieving an increase in safety, but which in reality were harmful or ineffective. A classic example, often discussed in the literature also on the basis of the Italian post-earthquake recognitions from Umbria-Marche 1997 onwards, is the insertion of new, rigid and heavy structural elements (such as the replacement of a wooden floor with a reinforced concrete floor) in a building with very weak masonry (for example masonry made of irregular stones with poor mortar), without the masonry being properly consolidated. There was a period, following the earthquakes of Friuli and Irpinia, where much emphasis was given to the fact that rigid diaphragms (i.e. the floors and roofs) increase the hyperstaticity, hence the robustness of the construction and the so-called “box behaviour”, by which engineers tried to replicate in existing structures something that is relatively simple to implement, and whose effects are well controllable, in new constructions, but which in an existing construction has great problems of practical implementation (particularly in the connection between new elements and existing elements) and of potentially negative structural effects (increase of stresses in an already weak masonry). It is important to note that the effectiveness of the interventions is tested by earthquakes that take place in later times, and in some areas of central Italy it has been possible to draw indications of this kind. In the earthquake of Umbria-Marche in 1997 it was possible to observe various problematic situations in buildings where the existing floors had been replaced by heavier and more rigid slabs.

Allow me, however, to add a further comment. From the scientific point of view, the fact that an intervention is “harmful” or weakens the structure compared to the non-intervention is verifiable experimentally only if there is a confirmation of what would happen to the building without intervening and what would happen following the intervention . This type of comparison in the vast majority of practical cases  is not possible, except for very fortunate cases of almost identical buildings built on the same ground where one was reinforced and the other not, or that were reinforced with different methods. Or through laboratory experiments, comparing specimens tested on a “shaking table” (earthquake simulator). So, in general I am always rather skeptical of interpretations given on the basis of purely visual rapid surveys, without the necessary in-depth study of the details and without a quantitative analysis carried out in a competent and thorough manner.
I can say (and I know that many colleagues have a similar opinion) that in many cases seen in central Italy the collapse of the construction would have taken place regardless of the type of floor, light or heavy, rigid or flexible, by virtue of the bad quality of the masonry, which appeared to be the main problem.

6. How did the repetition of the strong shocks play in the aggravation of the damage (where it occurred)? Is it something that is implicitly foreseen, and taken care of, by the seismic norms? On the other hand, how do you explain the numerous cases of almost total absence of damage?

The repeated shaking aggravates the damage, the more the damage caused by the previous shock is serious. It seems a rather obvious statement, but essentially it is what happens. For example, if a first shock on a masonry building generates only a few cracks, not very wide and of a certain type (for example horizontal cracks, which close after the shock due to selfweight), the building has not lost much of its resistance; so if it is subjected to repeated shaking, less intense than the first shock, it is possible that the damage does not get too much worse, and if it is subjected to a shaking stronger than the first shock it will have a resistance equal to or slightly less than it would have if the first shock had not been there. On the other hand, if a shock leads to the development of diagonal cracks (so-called “shear cracks”) or vertical cracks with spalling, the damaged part has lost a significant portion of its ability to resist and subsequent repeated shaking can lead to progressive degradation and collapse, even if the subsequent shocks suffered by the building, individually, are perhaps less strong than the first one. This is something visible and reproducible also in the laboratory.

That said, there are types of constructions and structural elements that are more or less sensitive to the repetition of the seismic action. When seismic engineers speak of “ductility” of the structure or of a mechanism, they also refer to the ability of a structure to resist repeated loading cycles well beyond the threshold of the first crack or the first visible damage, without reaching collapse. A well-designed modern reinforced concrete construction is a structure of this type, for example. Unreinforced masonry, on the other hand, is more susceptible to damage induced by the repetition of loading cycles beyond cracking. As a consequence, existing masonry buildings, once damaged by a first shock, are more vulnerable to subsequent shocks. On the other hand, if the first shock does not cause significant damage, the safety of the building remains, in most cases, more or less unchanged and this accounts for the fact that numerous masonry constructions have also resisted repeated shocks. Unfortunately, sometimes the damage may not be clearly visible. Damage in masonry originates in the form of micro-cracks (not visible to the naked eye) which then develop into macro-cracks. If in a laboratory test a sample of masonry is pushed to a condition very close to the onset of the macro-cracks but the load is removed just before they develop, it may happen that in a subsequent loading phase the macro-cracks develop at a load level lower than that achieved in the first phase. It may therefore happen that a building that has resisted a violent shock without apparent damage is visibly damaged by a subsequent shock less violent than the first.

You ask me if the behavior of the structure under repeated shocks is implicitly considered in the seismic norms: the answer is yes, at least for certain aspects. For example, the respect of certain construction details in reinforced concrete and the application of certain rules in the sizing of the sections and of the reinforcement have this purpose: to make the structure less susceptible to damage under repeated actions. Moreover, less ductile structures, such as those in unreinforced masonry, are designed with higher seismic “loads” than the more ductile structures, also to compensate their greater susceptibility to degradation due to repeated action. However, there are some aspects of the problem of resistance and accumulation of damage under repeated shaking that remain to be explored and are still cutting-edge research topics. In particular, if it is true that theoretical models are becoming available to assess how the risk (i.e. the probability of collapse or damage) evolves in a building or a group of buildings as time passes and seismic shocks occur, these models must still be refined to give results that are quantitatively reliable.

7. It seems to me that the variety of masonry buildings, at least in Italy, is really large: so large that knowing them requires an approach similar to that of medicine, where each case has its own peculiarities. Therefore, there is perhaps no universal therapy, every case requires a specific care: is it correct? And if so, given that the building and construction techniques and quality of different areas of the Apennines (and others) are similar to those of the areas affected in 2016, should a similar destruction be expected to repeat again?

This comparison with medicine fits very well, there are really many similarities between the work of the technician who has to understand what to do with an existing building and that of the doctor who tries to make a diagnosis and to find a correct therapy for a patient. From the technical point of view there is no universal therapy and no (good) doctor would be able to apply a therapeutic protocol without the anamnesis, the objective examination, any necessary instrumental or laboratory tests and the formulation of a diagnosis (which tells us what is the patient’s disease / health status, and then defines what he needs, the therapy). The good technician follows a similar path to arrive at the evaluation of safety and possible hypotheses of intervention (or not intervention). Of course it is possible and necessary, as is the case for medicine and public health, to define strategies and policies for prioritization and allocation of resources to ensure that the overall seismic risk in our country decreases. Certainly, where the old buildings have not been subject to maintenance, or just to aesthetic and functional maintenance without structural reinforcement, we can expect destructions similar to those seen in 2016 on the occasion of future earthquakes of comparable magnitude. This applies to both public and private buildings.

Where instead we have intervened or will intervene in a conscious way, paying attention to the problem of seismic safety, the level of damage to be expected is  lower, as the experience of the past earthquakes teaches us.
Allow me to conclude this interview with some non-purely technical engineering comments. The possibility of reducing the seismic risk in Italy depends on many factors, ranging from how politics govern the problem of natural hazards, to how technicians, individually and collectively, interact and communicate with politics, to how the presence of risk is communicated to the population, to how, as a consequence,  the citizen makes his choices when he buys or takes decisions to maintain a property. In my opinion it is necessary to progressively evolve into a system in which the citizen recognizes that it is in his own interest to pursue a higher seismic safety, initially spending a little more, because he will have a return in the future not only in terms of safety but also of economic benefit, for example in the market value of his property. The “Sismabonus” initiative is certainly a first step in this direction, but other steps will have to be taken. The goal, certainly not easy to achieve, should be that the safety level of a building has a clear and recognized economic market value, and I think this would work for both the small owner and for real estate investors. I know that some are scared by this perspective, but personally I think that, at least for what concerns privately owned real estate and facilities, there are no other ways to achieve, within a few decades, a substantial and widespread reduction of seismic risk in Italy.

 

Gli edifici in muratura alla prova dei terremoti italiani (colloquio con Guido Magenes)

…….”Questo paragone con la medicina calza benissimo; ci sono veramente tante analogie tra il lavoro del tecnico che deve capire cosa fare di un edificio esistente e quello del medico che cerca di fare una diagnosi e di individuare una terapia corretta su un paziente”…..


English version here: Masonry buildings to the test of Italian earthquakes (interview with Guido Magenes)


Guido Magenes è professore di Tecnica delle Costruzioni all’Università di Pavia e allo IUSS Pavia. E’ inoltre coordinatore della sezione murature della Fondazione EUCENTRE. La sua area di maggior competenza è il comportamento sismico delle costruzioni in muratura e per questo ha anche partecipato e tuttora partecipa a numerosi comitati tecnico-normativi italiani e europei. 
Abbiamo discusso con lui del comportamento degli edifici in muratura in Italia, con particolare riferimento a quanto avvenuto in occasione degli ultimi terremoti.

1. I terremoti del 2016 hanno determinato una sequenza di scuotimenti che ha messo a dura prova gli edifici della zona colpita, in particolare quelli in muratura. Gli effetti visti sul campo sono molto diversi fra loro: accanto agli edifici già pesantemente danneggiati dal terremoto del 24 agosto ve ne sono altri che hanno visto aggravare le loro condizioni dalle scosse di ottobre, e altri che sembrano non aver subito danni gravi in tutta la sequenza. Hai una spiegazione per questo?

Il patrimonio di edifici in muratura esistenti sul nostro territorio ha caratteristiche e qualità molto variabili, in funzione dell’epoca di costruzione, dei materiali e dei criteri costruttivi utilizzati, della tipologia e forma architettonica (edifici ordinari o chiese, palazzi, torri, eccetera…), degli eventuali interventi di manutenzione e rinforzo o manomissione e indebolimento succedutesi nel tempo. Certamente esistono tipologie problematiche ricorrenti, ma la diversità del comportamento degli edifici in muratura, al netto della severità dello scuotimento (ovvero del diverso moto del terreno nei vari siti), è dovuta appunto a questa grande variabilità.
Nel caso specifico della sequenza sismica dell’Italia centrale, che ha interessato un’area molto vasta e quindi una notevole varietà di edifici, si è quindi osservato quello che dici tu: dall’edificio di costruzione recente, di pochi piani, in buona parte o in tutto conforme ai criteri moderni di progettazione e di costruzione, che non ha presentato danni di rilievo, agli edifici storici con grandi luci ed altezze, come ad esempio le chiese, che tendono ad essere più vulnerabili e hanno quindi subito danni significativi e crolli a causa delle loro dimensioni, dei rapporti geometrici e della loro organizzazione strutturale. In molti casi anche la scarsa qualità dei materiali ha ulteriormente aggravato la situazione.

2. In tutti i Comuni colpiti vigeva la normativa sismica, con diversi anni di decorrenza (gli estremi sono rappresentati da Amatrice e Accumoli, 1927, e Arquata del Tronto, 1984).

Schermata 2018-02-05 alle 20.44.50da https://tegris2013.files.wordpress.com/2018/02/considerazioni-su-flagello-del-terremoto-e-riduzione-del-rischio-sismico.pdf

La distribuzione del danno non sembra essere influenzata da queste diversità; c’è una ragione?

Non tutte le normative sono ugualmente efficaci: una norma del 1927 è ovviamente molto diversa, sotto tanti punti di vista, da una norma degli anni ’80 o degli anni 2000 e, come ho accennato sopra, gli edifici costruiti nel rispetto delle norme più recenti si sono comportati generalmente bene (edifici costruiti con blocchi artificiali e malte di buona resistenza, oppure anche edifici in pietra demoliti e ricostruiti con malte di buona qualità).
Non direi quindi che la distribuzione del danno non sia del tutto influenzata dal contesto normativo. Dipende da cosa c’era scritto nella norma e da quanti edifici sono stati costruiti o riparati o rinforzati dopo l’introduzione della norma (nei centri colpiti una percentuale notevole degli edifici era stata costruita prima delle normative sismiche che hai ricordato). Le norme e i criteri progettuali non nascono necessariamente perfetti e aggiustano il tiro sulla base dell’esperienza dei terremoti. Ad esempio, certamente è solo da quindici-venti anni che si è incominciato a riconoscere che certi tipi di interventi proposti e largamente applicati dopo i sismi del Friuli e della Basilicata sono dannosi o non funzionano (si pensi ai famigerati ”cordoli in cemento armato in breccia” inseriti in un edificio esistente in muratura di pietrame: è da Umbria-Marche ’97 che si è incominciato a capirne l’inefficacia).
Nei centri in cui la presenza di una normativa o di una classificazione sismica sembra non aver sortito alcun effetto bisogna tener conto anche del fatto che i controlli sulla qualità della costruzione degli edifici, in particolare in muratura, erano inesistenti o inefficaci almeno fino alle legislazioni più recenti. L’uso di una malta scadentissima è un elemento ricorrente in molte delle vecchie costruzioni in muratura crollate o danneggiate nell’ultima sequenza sismica. In centri come Accumoli e Amatrice sembra che anche dove sono stati fatti interventi sugli edifici, sostituendo ad esempio i vecchi solai, o inserendo qualche catena, non ci fosse consapevolezza o si sia molto sottovalutato il problema della scarsa qualità muraria, rendendo in definitiva inefficaci gli interventi fatti. Aggiungiamo poi che gran parte di quelle aree hanno subito dagli inizi del 1900 ad oggi un notevole spopolamento, con inevitabili conseguenze sulla manutenzione delle costruzioni, che ha portato ad un incremento di vulnerabilità piuttosto diffuso.

Ci sono poi alcuni casi particolari in cui norme storiche e norme più recenti sembrerebbero aver avuto un effetto positivo. Prendiamo l’esempio di Norcia: senza entrare nel dettaglio delle misurazioni delle caratteristiche del moto, è un dato di fatto che Norcia nell’ultima sequenza abbia subito forti scuotimenti, paragonabili a quelli di Amatrice e Accumoli ma con un danno agli edifici molto inferiore. Nella storia di Norcia ci sono stati due eventi molto significativi che hanno avuto un effetto notevole sulla risposta degli edifici in quest’ultima sequenza, uno antecedente ed uno seguente alla norma del 1962. Nel 1859 un forte terremoto causò numerosi crolli e vittime in alcune zone del centro storico, e a seguito di ciò lo Stato Pontificio emanò un regolamento molto efficace che dava una serie di disposizioni sulle riparazioni e le ricostruzioni: sulla geometria, in particolare sull’altezza massima degli edifici (due piani), sui dettagli costruttivi, sulla qualità dei materiali. Poi nel 1979 c’è stato un altro terremoto in Valnerina, a seguito del quale si sono danneggiate altre parti del centro storico, a cui hanno fatto seguito una serie di interventi sistematici di rinforzo, su molti edifici. In molti di questi edifici il rinforzo delle murature verticali (pur con la tecnica controversa dell’intonaco armato) ha rimediato ad uno dei principali elementi di vulnerabilità, cioè la scarsa qualità muraria. Se per un attimo lasciamo da parte gli elementi che possono andare a sfavore dell’uso dell’intonaco armato (in primis la durabilità dell’intervento), e lo vediamo semplicemente come una tecnica che ha rimediato ad un fattore di grande vulnerabilità, possiamo dire che per Norcia c’è quindi stato un effetto positivo di normative regionali pre-moderne e più recenti scaturite dall’esperienza diretta di eventi sismici.

3. Parliamo di normativa sismica e in particolare dei suoi aspetti ingegneristici. Si sente dire che è variata molto nel tempo, e che forse quella non recente non era del tutto efficace. E’ vero, e se sì perché?

Per quanto riguarda la componente ingegneristica della norma, quello che sappiamo ora del comportamento strutturale e sismico delle costruzioni, in muratura ma non solo, è il frutto di una continua evoluzione attraverso l’esperienza dei terremoti italiani e in altre parti del mondo. Da noi in Italia lo studio ingegneristico delle costruzioni in muratura ha ripreso vita, dopo decenni di quasi totale abbandono, dopo il terremoto del Friuli. Le prime norme in cui si danno indicazioni su come “calcolare” un edificio in muratura in Italia risalgono ai primi anni ’80 (per “calcolare” intendo “valutare quantitativamente il livello di sicurezza”). Per quanto il “calcolo” non sia l’unica componente della progettazione, questo fatto dà l’idea di come siano solo le norme molto recenti ad avere una base tecnico-scientifica allineata con le conoscenze attuali. Ci tengo a dire che l’assenza del calcolo in un progetto non implica necessariamente che l’edificio non sia sicuro: nel passato si seguivano regole geometriche e costruttive di tipo empirico, basate sull’esperienza e sull’intuizione del comportamento meccanico, ancorché non esplicitata in calcoli. Ancor oggi per la progettazione di un edificio in muratura semplice e regolare è possibile seguire regole geometriche e costruttive codificate che consentono di evitare calcoli dettagliati o complessi, raggiungendo comunque un livello adeguato di sicurezza.
Le esperienze dei sismi dell’Irpinia, dell’Umbria-Marche, via via fino ai più recenti dell’Italia centrale, sono stati un continuo banco di prova e una fonte di conoscenza. Ad esempio, come accennato nella risposta alla domanda precedente, il terremoto Umbria-Marche 1997, oltre a sottolineare come sempre la grande vulnerabilità delle chiese e di certe strutture storiche, è stato un notevole banco di prova per criteri e tecniche di intervento sugli edifici in muratura proposti e sviluppati a seguito dei terremoti italiani di fine anni ’70, mettendo in evidenza come alcune tecniche non risultano essere molto efficaci o possono essere addirittura controproducenti se applicate in modo indiscriminato e inconsapevole.

Per concludere questa mia risposta con una mia opinione sulle attuali norme tecniche, credo che per quel che riguarda la progettazione delle nuove costruzioni siamo veramente ad un livello molto avanzato e che consegue i livelli di sicurezza che oggi si ritengono adeguati  Credo che ci siano più incertezze in merito alla valutazione e al rinforzo degli edifici esistenti, anche se non è tanto un problema normativo ma proprio di conoscenze scientifiche e di corretta individuazione di strategie e tecniche per l’intervento. E’ certamente più facile concepire e costruire ex novo un edificio sismo-resistente, che valutare e intervenire su un edificio esistente.

4. Quanto – e come – gioca nella sicurezza sismica di un edificio in muratura la sua realizzazione, al di là del progetto?

La domanda mi dà l’occasione di soffermarmi ancora un momento su cosa si intende per “progetto”, che è qualcosa di diverso dal mero “calcolo”. Il progetto comprende tutti gli aspetti di ideazione, concezione, scelta e organizzazione della struttura, scelta di materiali e tecniche costruttive con la consapevolezza di come potranno e dovranno essere realizzati in opera, calcoli di verifica delle prestazioni in termini di sicurezza e di comportamento in esercizio, prescrizioni sui dettagli costruttivi. Nella progettazione sismica moderna è inoltre necessario tener conto, quando rilevante, della risposta sismica delle parti non strutturali della costruzione. Deve inoltre esserci il controllo che quanto prescritto nel progetto sia realizzato in fase di costruzione. Il calcolo è quindi solo una componente del progetto. E’ interessante quindi notare come gran parte degli edifici esistenti in muratura non è stato calcolato, perlomeno come intendiamo il calcolo strutturale ora. La prima norma tecnica nazionale sulle costruzioni in muratura con una descrizione sufficientemente dettagliata dei calcoli per la verifica strutturale risale al 1987. Norme tecniche con indicazioni per il calcolo sismico, sono state emanate dopo il sisma del Friuli 1976 e via a seguire. Prima di quelle norme esisteva sostanzialmente una letteratura e una manualistica tecnica, con riferimento ai principi della meccanica, nonché una tradizione costruttiva. Vorrei chiarire che sto parlando di norme che dicano come calcolare la resistenza di un edificio in muratura, soggetto ad azioni sismiche o non sismiche. Tanto per fare un esempio, il Regio Decreto del 1909 (post terremoto di Messina), grande esempio storico di normativa sismica, dà criteri per definire l’azione sismica, dà regole costruttive e geometriche ma non dice come si calcola la resistenza (quella che oggi si chiamerebbe la capacità) di un edificio in muratura.

La tradizione costruttiva basata sul rispetto della “regola dell’arte” ha sempre avuto ben presente l’importanza del dettaglio costruttivo, della qualità dei materiali, di come l’edificio viene costruito, e questo ha consentito e consente ad edifici ben costruiti ma non “calcolati” di resistere egregiamente a scosse sismiche anche molto violente. Nella costruzione moderna il rispetto in cantiere delle regole esecutive, del controllo della qualità dei materiali, è altrettanto importante, anche se lo è per la muratura come per le altre tipologie. La sensibilità della struttura a difetti costruttivi è funzione del livello di robustezza della concezione strutturale. Una costruzione scatolare in muratura, fortemente iperstatica (cioè in cui il numero di elementi resistenti è superiore al minimo necessario per garantire l’equilibrio dei carichi) potrebbe in principio essere meno sensibile al problema di una struttura prefabbricata isostatica (cioè in cui il numero di elementi resistenti è pari al minimo necessario per garantire l’equilibrio dei carichi, per cui è sufficiente che un solo elemento vada in crisi per avere il collasso). Ovviamente stiamo parlando di eventuali difetti locali e non generalizzati su tutta la costruzione. Se tutti i materiali sono scadenti in tutta la costruzione è un grosso guaio, ed è comunque difficile dire se sta peggio un edificio in muratura o uno a telaio in cemento armato, in cui magari aggiungiamo difetti nei dettagli d’armatura nei nodi o negli ancoraggi….

5. Molti operatori che sono intervenuti sul campo, hanno riscontrato tracce di interventi che avrebbero indebolito le strutture. Ti risulta?

Nei rilievi post-terremoto svolti in modo rapido in condizioni di emergenza, non sempre si riesce a capire con chiarezza la storia dell’edificio e quali modifiche siano state apportate, in che tempi e modalità, ma a volte è evidente che alcune modifiche apportate al fabbricato siano state di detrimento alla sicurezza.  Sovente si tratta di interventi fatti con totale inconsapevolezza degli effetti sulla sicurezza e con finalità legate puramente alla destinazione d’uso, all’utilizzo e alla ridistribuzione degli spazi. In altri casi, più rari, si tratta di situazioni di interventi fatti anche con finalità “strutturali” magari anche con l’idea di conseguire un incremento di sicurezza, ma che in realtà sono dannosi o inefficaci. Un classico esempio, spesso discusso in letteratura anche sulla base dei rilievi post-sisma italiani da Umbria-Marche 1997 in poi, è l’inserimento di elementi strutturali nuovi, rigidi e pesanti (come ad esempio la sostituzione di un solaio in legno con un solaio in cemento armato) in un edificio con muratura molto debole (ad esempio muratura in pietrame irregolare con malta scadente), senza che la muratura venga consolidata in modo adeguato. C’è stato un periodo, successivo ai terremoti del Friuli e dell’Irpinia, in cui si sosteneva molto il fatto che i diaframmi (ovvero i solai e i tetti) rigidi aumentano l’iperstaticità, ovvero la robustezza della costruzione e il cosiddetto “comportamento a scatola”, per cui si cercava di riprodurre in strutture esistenti qualcosa che è relativamente semplice realizzare e i cui effetti sono ben controllabili nelle nuove costruzioni,  ma che in una costruzione esistente ha problemi realizzativi (nel collegamento tra elementi nuovi e elementi esistenti) e strutturali  (possibile aumento delle sollecitazioni nella muratura). E’ importante notare che l’efficacia degli interventi viene messa alla prova da terremoti che hanno luogo successivamente, e in alcune zone dell’Italia centrale è stato ed è possibile ora trarre indicazioni di questo tipo. Nel terremoto dell’Umbria-Marche del 1997 è stato possibile osservare diverse situazioni problematiche in edifici in cui erano stati sostituiti i solai esistenti con solai più pesanti e rigidi.

Permettimi però di aggiungere un ulteriore commento. Dal punto di vista scientifico, il fatto che un intervento sia “dannoso” ovvero indebolisca la struttura rispetto al non-intervento è verificabile sperimentalmente solo se c’è il riscontro di cosa succederebbe all’edificio senza intervenire e cosa succederebbe a seguito dell’intervento. Questo tipo di confronto nella stragrande maggioranza dei casi non c’è o non è possibile farlo, a meno di casi fortunatissimi di edifici quasi identici costruiti sullo stesso suolo in cui uno è stato rinforzato e l’altro no, oppure sono stati rinforzati con metodi diversi. Oppure, come ad alcuni ricercatori capita di fare, quando si confrontano prove sperimentali su tavola vibrante. Quindi in generale io sono sempre piuttosto scettico di fronte a interpretazioni date sulla base di rilievi puramente visivi, senza il necessario approfondimento dei dettagli e senza una analisi quantitativa svolta in modo competente.
Mi sento di poter dire (e so che molti colleghi hanno la stessa opinione) che in moltissime situazioni viste in centro Italia il crollo della costruzione sarebbe avvenuto e avverrebbe a prescindere dal tipo di solaio, leggero o pesante, rigido o flessibile, in virtù della pessima qualità della muratura, che mi sembra sia stato il problema principale.

6. Come ha giocato nell’aggravamento del danno (laddove si è verificato) il ripetersi degli scuotimenti forti? Si tratta di qualcosa che è implicitamente previsto, e contrastato, dalle norme sismiche? Viceversa, come spieghi i numerosi casi di assenza quasi totale di danno?

Lo scuotimento ripetuto aggrava tanto più il danno quanto più il danno generato dalla scossa precedente è grave. Sembra un’affermazione un po’ banale, però nella sostanza è quello che succede. Per esempio, se in un edificio in muratura una prima scossa genera solo poche fessure non molto ampie e di un certo tipo (ad esempio fessure orizzontali nei muri, che si richiudono dopo la scossa per effetto del peso proprio), l’edificio non ha perso molta della sua capacità resistente; quindi se verrà assoggettato a scuotimenti ripetuti, meno intensi della prima scossa, è possibile che il danno non si aggravi eccessivamente, e se verrà assoggettato ad uno scuotimento più forte della prima scossa avrà una resistenza uguale o di poco inferiore a quella che avrebbe se la prima scossa non ci fosse stata. Se invece una scossa porta a sviluppare fessure diagonali (le cosiddette fessure “per taglio”) o fessure verticali con distacchi, la parte lesionata ha perso una quota significativa della sua capacità di resistere e lo scuotimento ripetuto successivo può portare al degrado progressivo e al crollo anche se le scosse successive subite dall’edificio, singolarmente sono magari meno forti della prima. E’ qualcosa di visibile e riproducibile anche in laboratorio.

Detto questo, ci sono tipologie di costruzioni e di elementi strutturali che sono più o meno sensibili al ripetersi dell’azione sismica. Quando gli ingegneri sismici parlano di “duttilità” della struttura o di un meccanismo si riferiscono anche a questo, cioè alla capacità di una struttura di resistere a ripetuti cicli di sollecitazione ben oltre la soglia della prima fessurazione o del primo danno visibile, senza arrivare al crollo. Una costruzione moderna ben progettata in cemento armato è una struttura di questo tipo, ad esempio. La muratura non armata, invece è più suscettibile al danno indotto dalla ripetizione di cicli di sollecitazione post-fessurazione. Come conseguenza, gli edifici esistenti in muratura una volta danneggiati da una prima scossa sono più vulnerabili a scosse successive. Se invece la prima scossa non genera danni di rilievo la sicurezza della costruzione si mantiene, nella maggior parte dei casi, più o meno inalterata e questo rende conto del fatto che anche numerose costruzioni in muratura hanno resistito alle scosse ripetute. Purtroppo a volte il danno può non essere chiaramente visibile. Il danno nella muratura si origina sotto forma di micro-fessure (non visibili ad occhio nudo) che si sviluppano poi in macro-fessure. Se in una prova di laboratorio si spinge un campione di muratura ad una condizione molto prossima all’innesco delle macro-fessure ma si rimuove il carico prima del loro sviluppo, può succedere che in una fase di carico successiva la macro-fessura si formi ad un livello di carico inferiore a quello raggiunto nella prima fase. Può quindi succedere che un edificio che ha resistito ad una scossa violenta senza danni apparenti si lesioni visibilmente per una scossa successiva meno violenta della prima.

Mi chiedi se il comportamento della struttura a scosse ripetute sia implicitamente considerato nelle norme sismiche: la risposta è affermativa, almeno per alcuni aspetti. Ad esempio, il rispetto di certi dettagli costruttivi nel cemento armato e l’applicazione di certe regole nel dimensionamento delle sezioni e dell’armatura hanno proprio anche questo scopo, di rendere la struttura meno suscettibile al danno sotto azioni ripetute. Inoltre strutture meno duttili, come quelle in muratura non armata, vengono progettate con azioni sismiche di progetto più elevate anche per “compensare” la loro maggiore suscettibilità al degrado dovuto all’azione ripetuta. Ci sono però alcuni aspetti del problema della resistenza e dell’accumulo del danno sotto scosse ripetute che restano ancora da esplorare e costituiscono un argomento di ricerca ancora abbastanza “di frontiera”. In particolare, se è vero che incominciano ad essere disponibili dei modelli concettuali per valutare come cambia il rischio (ovvero la probabilità di collasso o di danneggiamento) di un edificio o di un insieme di edifici al trascorrere del tempo e al susseguirsi delle scosse sismiche, questi modelli vanno ancora notevolmente affinati per dare risultati che siano quantitativamente affidabili.

7. Mi sembra di capire che la varietà delle casistiche degli edifici in muratura, almeno in Italia, sia veramente elevata: tanto elevata che conoscerle richiede un approccio simile a quello della medicina dove ogni caso rappresenta quasi un fatto singolo. Forse non esiste quindi una terapia universale ogni caso richiede una cura particolare: è corretto? E se sì, visto che le condizioni edilizie di diverse zone dell’Appennino (e non solo) sono simili a quella delle zone colpite nel 2016, ci si devono attendere distruzioni analoghe?

Questo paragone con la medicina calza benissimo, ci sono veramente tante analogie tra il lavoro del tecnico che deve capire cosa fare di un edificio esistente e quello del medico che cerca di fare una diagnosi e di individuare una terapia corretta su un paziente. Dal punto di vista tecnico non esiste una terapia universale e a nessun (bravo) medico verrebbe in mente di applicare un protocollo terapeutico senza l’anamnesi, l’esame obiettivo, eventuali esami strumentali o di laboratorio e la formulazione di una diagnosi (che ci dice quale è la malattia /stato di salute del paziente, e quindi ci definisce di cosa ha bisogno). Il bravo tecnico segue un percorso analogo per pervenire alla valutazione della sicurezza e alle possibili ipotesi di intervento (o non intervento). Certo è possibile e doveroso, come avviene a livello sanitario, definire delle strategie e delle politiche di prioritizzazione e allocazione di risorse per far sì che complessivamente il rischio sismico nel nostro paese diminuisca. E’ certo che là dove l’edilizia vecchia non è stata soggetta a manutenzione, o a sola manutenzione estetica e funzionale senza rinforzo strutturale ci si possono attendere distruzioni analoghe a quelle viste nel 2016 in occasione di eventuali futuri sismi di magnitudo comparabile. Questo vale sia per l’edilizia pubblica che privata. Là dove invece si è intervenuti o si interverrà in modo consapevole ponendo attenzione al problema della sicurezza sismica, l’esperienza degli ultimi terremoti ci insegna che il livello di danno da attendersi sarà più contenuto.

Permettimi di concludere questa intervista con qualche commento di tenore non prettamente tecnico-ingegneristico. La possibilità di ridurre il rischio sismico in Italia dipende da tanti fattori, che vanno dal modo con cui la politica affronta il problema dei rischi naturali, al modo con cui i tecnici, singolarmente e collettivamente, interagiscono e comunicano con la politica, al modo con cui si comunica la presenza del rischio alla popolazione, al conseguente modo con cui il cittadino compie le sue scelte quando acquista o deve decidere di manutenere un immobile. Secondo me è necessario arrivare progressivamente ad un sistema in cui il cittadino riconosca che è nel suo interesse perseguire una maggiore sicurezza sismica, spendendo inizialmente un po’ di più perché ne avrà un ritorno in futuro non solo in termini di sicurezza ma anche di beneficio economico, ad esempio di valore del proprio immobile. L’iniziativa del Sismabonus è sicuramente un primo passo in questa direzione, ma dovranno essere fatti altri passi. L’obiettivo, certamente non facile da raggiungere, dovrebbe essere che il livello di sicurezza di una costruzione abbia un chiaro corrispettivo in termini di valore economico, e credo che questo funzionerebbe sia per il piccolo proprietario che per gli investitori immobiliari. So che questo spaventa alcuni, ma personalmente credo che, almeno per quel che riguarda il patrimonio immobiliare di proprietà privata, non ci siano altre soluzioni per arrivare nel giro di qualche decennio ad una concreta e diffusa riduzione del rischio sismico in Italia.

 

 

 

 

 

Belice 1968: 50 anni dopo – Belice 1968, 50 years after (Massimiliano Stucchi)

Si ringraziano Renato Fuchs, Maurizio Ferrini e Andrea Moroni

English version below

Il terremoto – o meglio la sequenza sismica – del Belice (i parametri sismologici si possono trovare in https://emidius.mi.ingv.it/CPTI15-DBMI15/ arrivò nel gennaio del 1968, quando il “Sessantotto” non era ancora cominciato. Non si era “abituati” ai terremoti come lo siamo ai giorni nostri: sei anni prima c’era stato quello del Sannio-Irpinia e per avere un altro M6 bisognava risalire al 1930, anche se, nel frattempo, non erano mancati terremoti capaci di produrre danni.
I terremoti del Belice annunziarono in un certo senso il decennio sismico degli anni 70: 1971 Tuscania, 1972 Ancona, 1976 Friuli, 1978 Golfo di Patti, 1979 Norcia e Cascia, 1980 Irpinia e Basilicata. E il dopo-terremoto divenne simbolo di spopolamento, emigrazione, rapine di fondi pubblici, follie urbanistiche e quant’altro.

All’epoca studiavo fisica, con interessi prevalenti rivolti alla fisica cosmica. In occasione di un soggiorno a Palermo nel 1969 raccolsi le descrizioni di amici e parenti che avevano vissuto il periodo sismico. Scoprii Segesta e partecipai alla mattanza a Favignana ma non andai nel Belice. Visitai per la prima volta il Belice nel 1977, in autostop, in coda alla mia prima scuola di Geofisica di Erice, dopo aver partecipato alle celebrazioni del trentennale della strage di Portella della Ginestra. Si stava costruendo: diverse località – secondo tradizione – venivano ricostruite altrove, e le rovine di Gibellina non erano ancora state sigillate dal Cretto di Burri. 

Ci ritornai altre volte con la benemerita Scuola di Geofisica diretta da Enzo Boschi, sempre diretto alla mia preferita – e ancora viva – Poggioreale ormai “antica”.

Continua a leggere