Verso il nuovo modello di pericolosità sismica per l’Italia (colloquio con Carlo Meletti)

English version at

https://terremotiegrandirischi.com/2018/07/03/towards-the-new-seismic-hazard-model-of-italy-interview-with-carlo-meletti/

Nel 2004 un piccolo gruppo di ricerca, coordinato da INGV, rilasciò la Mappa di Pericolosità Sismica del territorio italiano (MPS04), compilata secondo quanto prescritto dalla Ordinanza n. 3274 del Presidente del Consigli dei Ministri (PCM) del 2003. La mappa doveva servire come riferimento per le Regioni, cui spetta il compito di aggiornare la classificazione sismica dei rispettivi territori. La mappa fui poi resa “ufficiale” dalla Ordinanza n. 3519 del Presidente del Consiglio dei Ministri (28 aprile 2006) e dalla conseguente pubblicazione nella Gazzetta Ufficiale (n. 108 del 11 maggio 2006).
Nel seguito, utilizzando lo stesso impianto concettuale, alla mappa furono aggiunti altri elaborati che andarono a costituire il primo modello di pericolosità sismica per l’Italia. In particolare per la prima volta furono rilasciate stime per diversi periodi di ritorno e per svariate accelerazioni spettrali. Questo modello divenne poi la base per la normativa sismica contenuta nelle Norme Tecniche 2008 (NTC08), divenute operative nel 2008 ed è stato adottato anche dalle Norme Tecniche 2018.
Caratteristiche e vicende legate al successo di MPS04 sono descritte, tra l’altro, in due post di questo blog: 

https://terremotiegrandirischi.com/2016/09/26/che-cose-la-mappa-di-pericolosita-sismica-prima-parte-di-massimiliano-stucchi/

https://terremotiegrandirischi.com/2016/10/05/la-mappa-di-pericolosita-sismica-parte-seconda-usi-abusi-fraintendimenti-di-massimiliano-stucchi/

Come avviene in molti paesi sismici, da qualche anno un gruppo di ricerca sta compilando un nuovo modello di pericolosità, che utilizzi dati e tecniche aggiornate.
Massimiliano Stucchi ne discute con Carlo Meletti il quale, dopo aver contribuito in modo importante a MPS04, coordina la nuova iniziativa attraverso il Centro di Pericolosità Sismica dell’INGV.

MPS04, pur compilata abbastanza “di fretta” per soddisfare le esigenze dello Stato, ha avuto un notevole successo, sia in campo tecnico-amministrativo sia – dopo qualche anno – a livello di pubblico. Che cosa spinge alla compilazione di un nuovo modello?

C’è la consapevolezza che dopo oltre 10 anni siamo in grado di descrivere meglio la pericolosità sismica in Italia. Un modello di pericolosità è la sintesi di conoscenze, dati e approcci disponibili al momento della sua compilazione. Nel frattempo abbiamo accumulato tantissimi dati nuovi o aggiornati (non solo un importante revisione del catalogo storico dei terremoti, ma anche del database delle faglie e sorgenti sismogenetiche, nonché tutte le registrazioni accelerometriche dei terremoti forti italiani degli ultimi 10 anni).
Abbiamo pertanto ritenuto di dover verificare quanto cambia la definizione della pericolosità. E’ una prassi normale nei paesi più evoluti (ogni 6 anni negli Stati Uniti, ogni 5 in Canada, ogni 10 in Nuova Zelanda). Noi siamo partiti da un’esigenza di tipo scientifico, ma anche il Dipartimento della Protezione Civile ha sostenuto questa iniziativa per verificare il possibile impatto sulla normativa sismica (classificazione dei comuni e norme per le costruzioni).

Ci puoi riassumere brevemente le fasi di questa nuova iniziativa e anticipare, se possibile, la data di rilascio nel nuovo modello?

Abbiamo iniziato a metà 2015 e intendevamo chiudere in 2 anni. Però il nostro intento era molto ambizioso e, per esempio, abbiamo coinvolto una comunità scientifica molto ampia (stimiamo in circa 150 il numero di ricercatori che, a vario titolo, hanno partecipato). Anche il numero di attività che abbiamo previsto era molto ampio, in quanto volevamo essere sicuri di non trascurare alcun aspetto fondamentale per la stima della pericolosità. Ovviamente l’intenzione era quella di confermare l’Italia allo stesso livello dei paesi più all’avanguardia a livello mondiale. Questo ha comportato un allungamento dei tempi rispetto alla previsione iniziale; lo stesso Dipartimento della Protezione Civile ha ritenuto più importante privilegiare la qualità del modello rispetto al tempo necessario per ottenerlo, visto che comunque intanto il modello MPS04 è considerato ancora affidabile.
In parte ha contribuito all’allungamento dei tempi la continua interazione con la Commissione Grandi Rischi, che ha valutato in corso d’opera i primi risultati, suggerito modifiche, chiesto via via nuove verifiche. Ora pensiamo di essere davvero vicini alla conclusione e di poter chiudere entro la fine del 2018.

Ci puoi anticipare, sia pure senza entrare in dettaglio, se vi saranno delle novità importanti nella distribuzione della pericolosità sismica?

In generale c’è la tendenza ad avere valori di accelerazione più elevati rispetto alle stime del passato. Questo è un fenomeno che si osserva a scala mondiale e dipende dal fatto che l’aumento e la densità delle stazioni sismiche ha fatto sì che, per tutti i grandi terremoti (anche in Italia), stazioni poste nelle vicinanze delle faglie abbiano registrato accelerazioni mai osservate prima. Di conseguenza sono stati aggiornati i modelli di attenuazione del moto del suolo, che adesso restituiscono accelerazioni più elevate rispetto ai modelli utilizzati in passato. Questa è una delle novità più importanti, prodotta dal miglioramento dei dati disponibili, in questo caso le registrazioni accelerometriche.
Per quanto riguarda la distribuzione geografica, rispetto al modello del 2004 le aree ad alta pericolosità sismica (il Friuli, tutta la catena appenninica fino alla Calabria) saranno più ristrette e concentrate sulle strutture sismogenetiche responsabili dei terremoti più forti. Invece, alcune aree, in particolare del Sud Italia, potrebbero risultare un po’ meno pericolose di quanto noto finora, a causa dei molti dati rivisti, tra l’altro sulla sismicità del passato. E’ un aspetto che stiamo verificando con attenzione proprio in queste settimane.

Il nuovo modello segue, come il precedente e come la stragrande maggioranza dei modelli a livello mondiale, l’approccio probabilistico. Ci puoi riassumere le ragioni di questa scelta?

Non esiste una pericolosità sismica “unica”, ma a seconda dell’utilizzo che se ne vuole fare può essere opportuno usare indicatori diversi. L’approccio probabilistico offre la stima di valori di scuotimento attesi per probabilità da molto alte a molto basse (che per semplificare, è come dire da frequenti a rari). La scelta del parametro da utilizzare per le costruzioni non riguarda il calcolo della pericolosità; riguarda piuttosto il livello di sicurezza che si vuole assicurare a persone ed edifici e spetta al legislatore, anche perché significa quanto si vuole investire economicamente in sicurezza. Al contrario, l’approccio deterministico, quello che definisce gli scenari di scuotimento per i massimi eventi, fornisce di fatto un unico parametro estremo, relativo a un evento che potrebbe anche non verificarsi mai. Per la progettazione di edifici potrebbe risultare troppo oneroso, come hanno ben spiegato anche in questo blog i colleghi ingegneri.

Dopo ciascuno dei terremoti più recenti, alcune voci si sono levate per sostenere che la “mappa” MPS04 “sottostimerebbe” la pericolosità sismica per svariate ragioni (approccio, modelli e dati utilizzati, etc.). Alcune di queste voci hanno usato argomenti chiaramente fallaci, ad esempio non considerando il tipo di suolo; altre si sono limitate a considerare solo la classica “mappa”, mentre il modello MPS04 offre una varietà di valutazioni della pericolosità sismica che si prestano a analisi più meditate. E’ così?

Se vuoi le critiche sono la dimostrazione del “successo” di MPS04. E’ diventato un elaborato popolare, molto diffuso in rete, mostrato ogni volta che si parla di terremoti in Italia. Parte delle critiche derivano – in parte – anche dalla nostra scarsa capacità di comunicare cosa rappresentano esattamente i valori e quindi i colori della mappa (accelerazione orizzontale su suolo rigido e orizzontale, con una certa probabilità di essere superata in 50 anni; non è il valore massimo possibile!). Dall’altra parte ci sono commentatori e colleghi che devono attaccare il modello MPS04 solo perché non lo hanno fatto loro. Nella stragrande maggioranza dei casi vengono usati argomenti errati o in malafede, oppure argomenti che dimostrano di non capire il concetto di probabilità. Peraltro, quando uscì MPS04 fu accusata di proporre valori troppo alti; dopo i terremoti forti degli ultimi 10 anni, viene accusata di sottostimare. Che si decidano!

Vale anche la pena di ricordare che un modello probabilistico non si valuta dopo un singolo evento, ma dopo un periodo di tempo significativo in cui si confrontano tutti gli eventi accaduti con le stime del modello. Infine, ricordo anche che il modello attuale presenta oltre 2000 parametri diversi per ogni sito, proprio per descrivere al meglio la pericolosità, ma si guarda sempre e solo ad un unico dato (il 10% in 50 anni).

In sostanza, a me sembra che a volte si tenda – addirittura – a attribuire la causa di alcuni crolli alle valutazioni di pericolosità sismica, quando in discussione dovrebbe esserci le modalità di costruzione e, magari, l’adozione – da parte dell’ingegneria – dei classici parametri di riferimento (10% di probabilità di superamento in 50 anni, spesso assunto come dogma e mai spiegato a sufficienza). Ti torna?

A dir la verità io sto ancora aspettando che qualcuno mi segnali, in Emilia o in Italia centrale, un edificio crollato che fosse stato progettato (correttamente) con le NTC08. Poi, come completamento alla risposta precedente, vorrei ricordare che il parametro PGA che si usa per rappresentare la pericolosità sismica non è usato direttamente per progettare gli edifici; cioè, non è la eventuale “bassa” PGA stimata che fa crollare gli edifici. La PGA è l’accelerazione di picco del suolo (la sigla deriva dall’inglese Peak Ground Acceleration) che si registra durante un terremoto; un parametro molto più significativo è l’accelerazione relativa a un periodo di oscillazione pari a quello proprio dell’edificio.

Per quanto riguarda i parametri, non è scritto sulla pietra che si debba usare sempre e solo il 10% di probabilità di superamento in 50 anni per gli edifici ordinari. La scelta del valore di probabilità di superamento non è dei sismologi, ma degli estensori della normativa. Negli Stati Uniti, per esempio, si prende in considerazione solo la pericolosità con il 2% di probabilità di superamento in 50 anni. Se si vuole essere più cautelativi rispetto alle scelte del passato, il normatore anche in Italia può decidere di utilizzare un periodo di ritorno più lungo e quindi parametri più severi. Peraltro, va ricordato che le prescrizioni della normativa rappresentano il valore minimo secondo il quale si deve progettare l’edificio: nessuno vieta di adottare valori di riferimento più elevati.

Il nuovo modello non si riferisce a una formale richiesta “normativa”. Puoi fare qualche previsione sul suo possibile utilizzo?

Vuole essere essenzialmente un documento scientifico aggiornato; rappresenta ciò che oggi la comunità scientifica può dire sulla pericolosità sismica in Italia. Ho insistito per far partire questo progetto proprio per dimostrare che le nostre conoscenze non sono ferme al 2004. Saremmo partiti molto prima se non fosse stato che il modello di pericolosità era stato recepito da troppo poco tempo nelle norme delle costruzioni.
Il suo utilizzo dipenderà essenzialmente dai risultati che otterremo; così è stato convenuto dalla Commissione Grandi Rischi nel 2015: si valuterà se le differenze tra il vecchio e il nuovo modello saranno così significative da giustificare la modifica dell’input per la normativa. I requisiti del nuovo modello sono stati comunque discussi e definiti con DPC e i due centri di competenza per l’ingegneria sismica, vale a dire ReLuis ed Eucentre, e con essi verrà discusso l’utilizzo futuro.

La mappa “classica” MPS04 è stata usata da molti come una descrizione “divulgativa” del pericolo sismico italiano: questo ha comportato – ad opera dei media ma non solo – diverse semplificazioni esagerate (es.: “nelle zone a bassa pericolosità sismica non si possono avere terremoti molto forti”), che sono state alla base di numerosi equivoci.
Personalmente ho sempre sostenuto che la descrizione del pericolo sismico a scopo informativo richieda numerose mappe, ciascuna dedicata a un aspetto diverso (es.: massima magnitudo, massima intensità osservata, etc.), corredate da spiegazioni ben fatte. E’ anche necessario che chi vuole informarsi o essere informato dedichi a questi aspetti il tempo e la pazienza necessari, evitando la ricerca degli “spot”.

Siamo in cammino verso questa direzione, secondo te?

Io ho sempre pensato che rappresentare la pericolosità sismica con una mappa sia stato riduttivo rispetto alla complessa articolazione del modello. Però è anche è vero che quella è la mappa stampata sulla Gazzetta Ufficiale.
Quando si guarda ad una mappa, si tende a confrontare luoghi diversi (L’Aquila sta messa peggio di Milano, per fare un esempio); viceversa qualcuno ha pensato che le aree che avevamo rappresentato con il verde e il celeste fossero esenti dalla possibilità che si verifichi un terremoto forte.
E’ difficile anche per noi, ma credo che dovremmo sforzarci di rappresentare la pericolosità con più rappresentazioni contemporaneamente. Per esempio usando di più le curve di pericolosità sismica per un singolo sito, quelle che mostrano i diversi valori di scuotimento con le diverse frequenze di superamento; oppure con mappe che rappresentino le diverse probabilità che si verifichi un certo livello di scuotimento, nelle quali si vede che la probabilità zero di avere un terremoto di fatto in Italia non esiste. Poi sicuramente aiuterebbero anche altri tipi di mappe, tipo quello della massima magnitudo, che è uno degli elementi di input per la pericolosità sismica.
Ma prima di tutto dovremmo impegnarci noi per descrivere ancora meglio e con linguaggio più semplice questo tipo di elaborati. Da questo deriverà anche il grado di accettazione del nuovo modello.

 

“Ricostruire…dove, come?” Un opuscolo del 1981 – “Reconstructing … where, how?” A 1981 booklet (by M. Stucchi)

Schermata 2017-11-24 alle 17.54.55english version below

Come già ricordato, il terremoto del 1980 trovò la comunità scientifica (sismologi, geologi, ingegneri, vulcanologi) impegnata nel Progetto Finalizzato Geodinamica (PFG) del CNR che stava volgendo al termine (avviato nel 1976 il PFG aveva incontrato i terremoti del Friuli, 1976; Patti, 1978; Norcia, 1979).

Lo sforzo fu enorme. Oltre alle osservazioni strumentali coordinate dall’Osservatorio Vesuviano, che consentirono in seguito una delle prime ricostruzioni “moderne” della sorgente sismica, furono svolte indagini macrosismiche e geologiche. Continua a leggere

Achille e la tartaruga, ovvero la riduzione di vulnerabilità e rischio sismico in Italia (colloquio con Gian Michele Calvi)

Come dopo ogni terremoto distruttivo in Italia, anche dopo la sequenza sismica del 2016-2017 si sono risvegliati i dibattiti sul rischio sismico, sulla messa in sicurezza degli edifici, i relativi costi, ecc.
Ne discutiamo con Gian Michele Calvi, professore allo IUSS di Pavia e Adjunct Professor alla North Carolina State University. Calvi è stato il fondatore della Fondazione Eucentre e della ROSE School a Pavia; è attualmente uno dei Direttori della International Association of Earthquake Engineering. Ha coordinato, fra le altre cose, il Gruppo di Lavoro che ha redatto il testo dell’Ordinanza PCM 3274 del 2003, che ha innovato il sistema della normativa sismica in Italia. È stato presidente e componente della Commissione Grandi Rischi, sezione rischio sismico. È stato imputato, e successivamente assolto “perché il fatto non sussiste”, nel cosiddetto “Processo Grandi Rischi”.

Ha sempre lavorato ad innovare la progettazione sismica, concentrandosi inizialmente sulle strutture in muratura e sui ponti, l’isolamento e la progettazione basata sugli spostamenti negli ultimi vent’anni. Ha pubblicato un gran numero di articoli sull’argomento e ricevuto vari riconoscimenti internazionali.

C’è qualcosa di nuovo all’orizzonte, secondo te?

Sai bene quanto me che si tratta di risvegli a carattere cronico, che si ripetono in modo analogo da più di un secolo. Nel caso specifico mi pare che ci siano ancora più chiacchiere e meno fatti. Incluso la fantomatica “Casa Italia” di cui confesso di non capire nulla, obiettivi strategia tattica risultati.
Gli unici momenti in cui ho percepito fatti veri, in modo diretto o attraverso lo studio della cronaca sono stati:

  • l’incredibile sviluppo scientifico e tecnico che ha seguito il terremoto di Messina del 1908;
  • la strategia di ricostruzione dopo il Friuli, in cui si è privilegiato il settore produttivo rispetto al residenziale;
  • la rivoluzione di norme e mappa di pericolosità dopo il terremoto di San Giuliano di Puglia del 2002;
  • la costruzione di 186 edifici isolati in poco più di sei mesi dopo il terremoto di L’Aquila.

So bene che gli ultimi due casi possono apparire come auto citazioni, ma ciò non toglie nulla ai fatti. Quello che ora mi piacerebbe vedere è un cambiamento della politica di intervento dopo un evento, con la creazione di incentivi che favoriscano l’azione dei privati ed il progressivo passaggio dallo Stato al sistema assicurativo della copertura delle perdite.
Spero, senza ottimismo. Continua a leggere

Achilles and the Turtle, or the reduction of vulnerability and seismic risk in Italy (interview with Gian Michele Calvi

(translated from the Italian by Google Translate, reviewed)

As after every destructive earthquake in Italy, the sequence of 2016-2017 has awakened the debates on seismic risk, on the safety of buildings, the relative costs, etc.
We discuss this with Gian Michele Calvi, who is professor at the IUSS of Pavia and Adjunct professor at North Carolina State University. He was the founder of the Eucentre Foundation and the ROSE School in Pavia; he is currently one of the directors of the International Association of Earthquake Engineering.
He coordinated, among other initiatives, the working group that drew up the text of the Ordinance PCM 3274 of 2003, which innovated the system of the seismic building code in Italy. He was president and member of the Commission of Major Risks, seismic risk section. He was accused, and subsequently acquitted “because the fact does not exist”, in the so-called “Great risks” or L’Aquila trial.
He has always worked to innovate the seismic design, concentrating mainly on masonry structures and bridges, isolation and design based on displacements over the last twenty years. He has published a large number of articles on the subject and received various international recognitions.

Is there something new on the horizon, according to you?

You know as well as me that there are chronic awakenings, which are repeated in a similar way since more than a century. In the specific case it seems to me that there is even more talking and less facts. Including the fancy “Casa Italia”, of which I confess I do not understand anything: tactics, strategy, goals.
The only moments in which I perceived real facts, directly or through the study of the history were:

  • the incredible scientific and technical development that followed the Messina earthquake of 1908;·
  • the rebuilding strategy after Friuli, where the production sector was more privileged than the residential one;
  • the revolution of codes and seismichazard maps the earthquake of San Giuliano of Puglia in 2002;
  • the construction of 186 isolated buildings in just over six months after the earthquake in L’Aquila.I know that the last two cases may appear as self-quotes, but that does not detract from the facts.
    What I would like to see now is a change in the policy of intervention after an event, creating incentives for private action and progressive transition from the state to the loss coverage insurance system.
    Hope, without optimism.

Continua a leggere

Che cosa vuol dire “antisismico”? What does “anti-seismic” mean? (Intervista a Rui Pinho)

English version below

Il termine “antisismico” è entrato da qualche tempo a far parte del linguaggio corrente dei media: si legge ad esempio che “il 70% degli edifici italiani non è antisismico”; “9 scuole su 10 non sono antisismiche” (si veda ad esempio un recente articolo pubblicato dall’Espresso che fornisce la possibilità di interrogare il database delle scuole italiane, gestito dal MIUR, ottenendo la risposta al quesito se la singola scuola sia o meno antisismica – ne discutiamo più avanti). Il termine, tuttavia, assume differenti significati a seconda di chi lo usa: l’immaginario collettivo lo percepisce, più o meno, come una sorta di sistema binario che si risolve per l’appunto in un sì o un no (antisismico uguale “a prova di terremoto”): l’ingegnere lo intende in un modo un po’ diverso, e preferisce parlare ad esempio di “quanto antisismico”.
Ne discutiamo con Rui Pinho, ingegnere sismico, professore associato all’Università di Pavia, per cinque anni segretario generale dell’iniziativa internazionale GEM (Global Earthquake Model) e che svolge ora l’incarico di Direttore Scientifico della Fondazione Eucentre di Pavia. Continua a leggere