Il Modello di Pericolosità Sismica MPS19: genesi e realizzazione (colloquio con Carlo Meletti e Paolo Bazzurro)

Il modello di pericolosità sismica MPS19 è stato realizzato fra il 2015 e il 2019 da un gruppo di ricerca INGV, su incarico e finanziamento del Dipartimento della Protezione Civile (DPC). La realizzazione del modello è stata seguita passo passo da un gruppo di revisori, istituito dallo stesso DPC, che l’ha successivamente approvato. Il modello è descritto nella sua completezza in Meletti et al. (2021), mentre gli aspetti relativi ai modelli di sismicità e ai modelli di attenuazione sono riportati in Visini et al. (2021) e Lanzano et al. (2020), rispettivamente.
Nonostante si tratti di un elaborato che ha ricevuto plauso e consensi pressoché unanimi da parte della comunità scientifica internazionale, alla conclusione del lavoro non è seguita una adeguata pubblicizzazione – come avvenuto viceversa per il suo predecessore MPS04 – da parte dell’Istituto che ne ha curato la realizzazione e che ha goduto del relativo finanziamento. Solo di recente, ad esempio, dopo ben 7 anni, i dati del modello stesso sono stati messi in rete a disposizione del pubblico.
Questa sorta di oscuramento trova spiegazione nelle vicende seguite alla consegna del modello stesso al committente; queste vicende, peraltro, sono anch’esse avvolte da una sostanziale oscurità solo parzialmente rischiarata da un paio di articoli a carattere informativo. Non tratteremo qui di queste vicende: intendiamo qui presentare il modello MPS19 in quanto elaborato scientifico di elevato valore, attraverso le parole di uno dei coordinatori, Carlo Meletti, e di un componente del comitato di revisione, Paolo Bazzurro
.

Carlo Meletti è dirigente tecnologo dell’INGV, dove è entrato nel 2003 dopo esperienze nel Gruppo Nazionale per la Difesa dai Terremoti e all’Università di Pisa. Ha partecipato alla realizzazione del modello di pericolosità sismica MPS04 e dal 2013 è stato coordinatore del Centro Pericolosità Sismica dell’INGV; nell’ambito di quest’ultimo incarico ha coordinato, insieme a Warner Marzocchi, il gruppo di lavoro che dal 2015 al 2019 ha sviluppato il modello MPS19.

Paolo Bazzurro è professore di Ingegneria Sismica e Valutazione del Rischio presso la Scuola Universitaria Superiore (IUSS) di Pavia.  Ha conseguito il dottorato di ricerca in ingegneria civile presso l’Università di Stanford, dove è stato part-time Consulting Assistant Professor per 4 anni. Prima di entrare allo IUSS nel 2012, ha maturato oltre 25 anni di esperienza professionale in Europa e negli Stati Uniti occupandosi di valutazione del rischio di perdite monetarie causate da eventi naturali per grandi aziende, compagnie di assicurazione, compagnie di riassicurazione e broker, governi sovrani e locali e altre istituzioni quali la Banca Mondiale. È stato membro per 5 anni della sezione sismica della Commissione Nazionale Grandi Rischi del Dipartimento di Protezione Civile e membro del Gruppo di lavoro per la revisione delle mappe di pericolosità sismica in Italia. È autore di oltre 200 pubblicazioni in diversi settori dell’ingegneria.

Cominciamo con Carlo Meletti. Carlo, nel 2018 avevi già rilasciato a questo blog una intervista riguardo ai lavori in corso:

Puoi riassumere brevemente, con gli occhi di oggi, quali furono le motivazioni e le circostanze organizzative che portarono all’avvio dei lavori?

Sono già passati 8 anni da quella intervista e 7 dalla consegna di MPS19 al Dipartimento della Protezione Civile (DPC). Molti aspetti chiave li avevamo già descritti allora e non posso che confermarli. Li riassumo per punti: dal rilascio di MPS04 erano passati molti anni e le conoscenze avevano avuto uno sviluppo straordinario, anche – purtroppo – per i terremoti fortiavvenuti nel frattempo in Italia: L’Aquila 2009, Emilia 2012, Italia centrale 2016. I principali dataset usati in MPS04 erano stati più volte aggiornati, come ad esempio il catalogo CPTI e il database delle sorgenti sismogenetiche DISS. Nuovi codici di calcolo erano ora disponibili e questo permetteva una modellazione delle rotture molto più articolate: da aree poligonali 2D a faglie complesse 3D.
Le NTC08 avevano introdotto un legame strettissimo tra pericolosità sismica e normativa, quindi è chiaro che quando ci siamo messi a lavorare per un nuovo modello, avevamo in mente che la possibile applicazione era di tipo normativo. Per non farci distrarre durante la realizzazione del modello, abbiamo sempre tenuto in mente quanto ci disse in uno dei primi incontri la Commissione Grandi Rischi (CGR), che funzionava da braccio operativo del Dipartimento della Protezione Civile: “pensate a produrre il modello scientifico più avanzato possibile e l’eventuale applicazione alla normativa sarà valutata alla fine del processo, in termini di rischio sismico”.
Per ottenere questo risultato abbiamo cercato di coinvolgere una comunità più ampia possibile, quindi non solo il Centro di Pericolosità Sismica (CPS) dell’INGV, ma ricercatori di diversi enti e università italiani. Sono un centinaio le persone che hanno contribuito, ognuno per le proprie conoscenze, al modello complessivo.
Abbiamo sfruttato la credibilità del CPS, la sponsorizzazione e il finanziamento di DPC per convincere i colleghi a partecipare, fissando sin dall’inizio le regole del gioco. Per esempio, abbiamo chiesto valutazioni relative all’intero territorio nazionale, per avere elementi che poi potevamo combinare tra loro nell’albero logico complessivo. Ad aprile 2015 abbiamo reso pubblica la “call”, le attività sono iniziate dopo qualche mese, quando in 2 incontri con i centri di competenza di DPC dell’ingegneria sismica (Eucentre e Reluis) sono stati chiariti quali dovevano essere le uscite necessarie per aggiornare la normativa.

Puoi accennare alle novità principali: ingredienti, metodologia adottata, ecc?
Gli ingredienti principali sono stati uno dei punti di forza del nostro lavoro. Mi sto riferendo in particolare alle basi di dati aggiornate proprio per questo studio: il catalogo dei terremoti CPTI15 che riporta circa il doppio degli eventi del catalogo usato in MPS04 (questo non significa che la pericolosità aumenta, ma che le stime sulle occorrenze di terremoti sono molto più affidabili), il database delle sorgenti sismogenetiche, il modello unificato di velocità crostali, un dataset di registrazioni accelerometriche ricchissimo. Sono state aggiornate le stime di completezza del catalogo, adottando un approccio prevalentemente storico (esteso a tutta l’area analizzata) in combinazione con un approccio statistico. Inoltre l’aumento esponenziale di registrazioni accelerometriche disponibili, grazie allo sviluppo delle reti, ha fatto sì che i modelli di attenuazione siano molto cambiati, decisamente più affidabili oggi rispetto a quelli usati in MPS04, sviluppati 30 anni fa. Ma ovviamente non ci sono solo i dati; ci sono stati molti sviluppi metodologici pensati dal gruppo di lavoro, presentati in molti convegni internazionali per ricevere feedback dai colleghi, e che poi sono stati ripresi da altri modelli nazionali. Mi riferisco, per esempio, alle modalità per eseguire test sui modelli, all’introduzione di una versione del modello con le sequenze e altro. Tutto questo scambio ha fatto sì che nel 2019 siamo stati coinvolti nella stesura di un articolo per la più prestigiosa rivista del settore (Reviews of Geophysics, IF 37) che presenta i modelli nazionali più avanzati e tra questi c’è MPS19.
Ovviamente dietro a questo c’è stato un lavoro enorme di tanti. Io e molti colleghi per 5 anni ci siamo dedicati esclusivamente a questo progetto con riunioni continue (eravamo in era pre-Covid e le riunioni erano solo in presenza) a vari livelli. Personalmente in 5 anni ho fatto più di 360 giorni di trasferte.

E’ stato adottato un approccio probabilistico: perché?
Potrei cavermela dicendo che è quanto prevede il codice di protezione civile o l’Ordinanza 3274/2003, ma in realtà è un convincimento di tutta la comunità mondiale che un approccio probabilistico offra una serie di vantaggi rispetto a quello deterministico. E senza parlare degli aspetti applicativi per i quali gli ingegneri possono essere molto più accurati di quanto possa fare io. In un modello probabilistico è possibile considerare tutte le rotture che siano in grado di modellare, anche quelle con probabilità di accadimento bassissime, senza che chi elabora il modello debba farsi carico di decidere quale sia l’evento massimo (peraltro esistono diversi modelli della massima magnitudo in Italia che forniscono stime molto diverse). Così come con un approccio probabilistico posso utilizzare modelli di sorgente diversi, ecc. Di fatto combinando molte informazioni aumenta l’incertezza finale del modello, che d’altronde è la rappresentazione della nostra conoscenza imperfetta nel modellare il fenomeno. Il risultato è che un approccio probabilistico per lunghi periodi di ritorno potrebbe spesso fornire stime di scuotimento confrontabili con quelle fornite dall’approccio deterministico.

Ci puoi riassumere brevemente la cronologia dei lavori?
I lavori si sono svolti per poco più di 4 anni, dall’inizio del 2015 a metà 2019, quando abbiamo rilasciato al Committente un rapporto di oltre 600 pagine che descrivevano tutto il percorso. Una parte del rapporto era dedicato alla valutazione delle differenze tra MPS04 e MPS19, immaginando che questo aspetto sarebbe stato oggetto di discussione. I tempi più lunghi rispetto a quanto avevamo previsto inizialmente (l’idea era di chiudere entro il 2016) sono legati alla complessità del modello e agli incontri con il gruppo di revisori che ci hanno seguito fin dall’inizio, dapprima come CGR (9 incontri), poi – quando la CGR nel 2017 è stata completamente rinnovata nella sua composizione, con un gruppo di precedenti membri che hanno così potuto completare la loro cosiddetta participatory review (altri 9 incontri).
Il 23 maggio 2019 la CGR ha iniziato la fase di valutazione del modello ai fini della sua possibile applicazione a fini normativi, che è proseguita per altri 2 anni (questo argomento verrà trattato in un altro articolo). Nel frattempo abbiamo proceduto a pubblicare in diversi articoli scientifici il modello. In particolare per il lavoro che descrive l’intera struttura del modello, abbiamo chiesto all’editore (la scelta è stata di pubblicare su Annals of Geophysics in quanto rivista open diamond access e quindi il lavoro è ad accesso gratuito) che i revisori fossero disponibili a dichiararsi per dare ulteriore forza al lavoro stesso.

MPS19: PGA con il 10% di probabilità di eccedenza in 50 anni.
 

Ci illustri i risultati più significativi?
Il modello MPS19 è caratterizzato da alcune novità, almeno per l’Italia. Intanto abbiamo utilizzato ben 11 modelli di sismicità alternativi tra loro, intendendo sorgenti e relativi tassi di occorrenza dei terremoti; i modelli coprono tutta l’area valutata. Tra questi alcuni modelli non usavano in alcun modo il catalogo dei terremoti, ma ricavavano i tassi di sismicità dallo slip rate delle faglie (per un modello che usava direttamente le faglie del DISS) e dalle velocità GPS (due degli 11 modelli erano basati esclusivamente su dati geodetici). I modelli geodetici, in particolare, rappresentano una scommessa vinta, che ha richiesto un grande sforzo per finalizzarli, anche se ancora necessitano di miglioramenti.
Un altro punto di forza del modello è stata la fase continua di test, non solo dei risultati ma anche dei singoli elementi che entravano nel calcolo. Sia i modelli di sismicità che le relazioni di attenuazione sono stati valutati rispetto alla loro capacità di rappresentare le osservazioni disponibili. Abbiamo fatto anche un’elicitazione da parte di esperti, come ormai prassi consolidata, che si è aggiunta ai test quantitativi.
Sicuramente i valori di pericolosità sismica cambiano in parte rispetto a MPS04, ma questo è solo ovvio e d’altronde se si fosse voluto un modello uguale al precedente non ci sarebbe stato bisogno di impegnare tempo, persone e risorse economiche. Tra il 2004 e il 2019 abbiamo avuto un’implementazione dai dati di base (catalogo, sorgenti sismogenetiche, modelli di attenuazione, ecc.), codici di calcolo molto più sofisticati che hanno consentito di modellare le sorgenti con dettagli non pensabili prima, ecc.
Credo che il confronto tra MPS04 e MPS19 vada fatto guardando tutti i periodi di ritorno calcolati e tutte le ordinate spettrali valutate, in quanto le differenze non vanno sempre nello stesso senso (intendo un modello sempre più basso dell’altro), ma la situazione è molto articolata.
Inoltre bisogna ricordare che i modelli non sono direttamente confrontabili: MPS04 rappresentava la mediana dei sottomodelli, MPS19 la loro media; MPS04 esprimeva la componente orizzontale massima dello scuotimento, MPS19 la media geometrica delle componenti orizzontali e una stima grossolana ci indica solo per questi elementi differenze valutabili intorno al 20%.

Il sito web aperto di recente
MPS19, anche se non utilizzato per la normativa, ha trovato una sua applicazione in campo assicurativo e per questo motivo le uscite sono state pubblicate già dal 2022 su Zenodo (https://zenodo.org/records/7032251). Stime non nostre indicano un aumento del rischio e per questo motivo le assicurazioni l’hanno incluso nelle loro valutazioni. Inoltre è comunque un modello che può essere utilizzato in diversi ambiti. Solo per fare alcuni esempi può trovare applicazione in valutazioni aggiornate del rischio sismico a scala nazionale, in stime aggiornate della pericolosità sismica a scala locale, in studi di microzonazione e analisi di risposta sismica, applicazioni di ricerca.
E’ il motivo per il quale abbiamo pubblicato un webgis (https://mps19.pi.ingv.it/) che consente di visualizzare le diverse uscite del modello, nello stile di MPS04. Una novità del webgis è che si possono visualizzare anche mappe della probabilità di superamento per valori prefissati di PGA o accelerazioni spettrali, che potrebbero avere un’applicazione soprattutto in termini informativi della pericolosità sismica in Italia.


Interfaccia WebGIS del modello MPS19 (https://mps19.pi.ingv.it/). Visualizzazione della mappa della probabilità che si verifichi una PGA pari a 0.5g.

Passiamo a Paolo Bazzurro.

Paolo, tu hai fatto parte del Gruppo di Lavoro (GdL) istituito, secondo consuetudine, dal Committente principale. Ci puoi ricordare la composizione e i compiti assegnativi?

Fino al 2017 ero membro della Commissione Grandi Rischi (CGR) e il modello MPS19 (che ai tempi della valutazione era denominato MPS16 e poi MPS18) è stato valutato in quella sede. Dopo quella data, poiché il processo di revisione non era stato completato, è stato istituito questo GdL con 5 membri scelti tra i componenti della CGR per dare continuità al lavoro di valutazione: Domenico Giardini, Francesco Mulargia, Silvio Seno, Claudio Modena ed io. Il compito assegnatoci era la valutazione scientifica dei modelli probabilistici di pericolosità di lungo termine per terremoti e maremoti generati da sisma per il territorio nazionale. Per la parte maremoti (di cui non parlerò qui) oltre ai componenti di cui sopra, erano stati nominati anche Felice Arena e Alberto Armigliato. 

A mio parere, i componenti della GdL furono scelti in modo molto equilibrato in modo che le varie competenze fossero tutte rappresentate. Dopo alcuni mesi Giardini si è dimesso per motivi personali e siamo rimasti in 4 fino alla fine del mandato. La relazione finale di valutazione del modello, firmata da Mulargia, Seno, Modena ed io, è stata consegnata al DPC il 10 aprile 2019.

Puoi riassumere come si è svolto il vostro compito?
Prima di tutto è necessario chiarire quale fossero i dettagli del mandato sulla cui base ha operato il GDL è stato: “… sulla base dello stato dell’arte delle conoscenze scientifiche al momento disponibili, [il GDL] dovrà valutare i modelli di pericolosità sia in fase di sviluppo (participatory review), sia alla conclusione dei lavori, con una valutazione finale (end-of-project review) indipendente per ciascuno dei modelli”.
L’attività del GDL riguardo ai prodotti finali, e cioè alle mappe e al rapporto a corredo di MPS16, successivamente integrato e ridenominato MPS18 nella sua versione finale, è consistita nell’esame della bozza di rapporto prodotta dagli autori del modello, effettuato in data 27 febbraio 2019. Ogni modifica apportata successivamente a tale documento non è stata considerata né nell’attività del GDL, né nella relazione finale.
Il GDL non è entrato nel merito del layout, dell’organizzazione e della gestione del Progetto, né tanto meno ha verificato la qualità dei dati di input e delle procedure di calcolo, tutti argomenti che peraltro non rientravano nel mandato. Non aveva quindi alcuna responsabilità sulla effettiva correttezza dei risultati finali.
Cosa ha fatto allora il GDL? I principali temi trattati dal GDL e le conseguenti richieste di modifiche hanno riguardato:

  1. l’aggiornamento dei modelli di sismicità per correggere eventuali errori di compilazione del catalogo;
  2. la pesatura dei modelli a livello di macroaree e non più su scala nazionale;
  3. lo sviluppo di un modello di sismicità supplementare per valutare la stabilità del risultato medio delle stime di pericolosità;
  4. l’utilizzo dell’approccio cosiddetto “backbone” per sviluppare un modello di GMPE;
  5. il trattamento delle aree vulcaniche in modo armonizzato e mediante l’utilizzo di modelli specifici;
  6. l’introduzione di uno schema di pesatura dei modelli di sismicità che permettesse la disaggregazione di alcune aree specifiche;
  7. un’analisi approfondita sull’apparente discrepanza delle stime di pericolosità sismica in Sicilia orientale rispetto alla mappa di pericolosità attuale, MPS04;
  8. il confronto tra le stime di pericolosità sismica basate sui modelli e quelle basate sulle osservazioni macrosismiche disponibili;
  9. l’ulteriore calcolo delle stime di pericolosità basato sul catalogo dei terremoti non declusterato.

Veniamo ora al come si è svolto il nostro lavoro dal punto di vista operativo. Il GDL ha operato mediante una fitta serie di riunioni con i responsabili e i ricercatori che hanno contribuito a MPS18 oltre che due rappresentanti del DPC: dieci, a partire dal 7 dicembre 2017 fino al 27febbraio 2019, oltre alle due riunioni interne del GDL. Durante tali riunioni, nell’ambito della participatory review prevista dal mandato, sono stati mossi rilievi e formulate richieste di ulteriori analisi, i cui risultati sono statip oi scambiati telematicamente e, soprattutto, esaminati e discussi direttamente con i ricercatori coinvolti, in presenza dei referenti del Dipartimento dellaProtezione Civile, che hanno avuto accesso a tutto il materiale a disposizione del GDL.

Quale è il rapporto del risultato (MPS19) con gli standard internazionali?
Certamente il modello MPS19 è stato sviluppato seguendo lo stato dell’arte della conoscenza disponibile all’epoca (non solo in Italia ma anche a livello internazionale). La metodologia adottata per il trattamento dell’incertezza è stata, per quanto possibile, rigorosa e trasparente, e i pesi assegnati ai diversi rami sono stati determinati utilizzando tecniche statistiche avanzate basate su evidenze empiriche, piuttosto che affidarsi esclusivamente al giudizio esperto, come avvenuto in altri casi. Inoltre, le stime di pericolosità ottenute non sono state accettate acriticamente, ma sono state sottoposte a numerosi controlli di coerenza. Un elemento significativo della robustezza del modello finale, come riportato nella relazione finale del GDL, è dato dalla sostanziale coerenza tra tassi di eccedenza di intensità macrosismiche osservate e quelle calcolate dal modello. Questo confronto, pur con tutte le limitazioni del caso dovute all’incertezza sui dati osservati e alla completezza degli stessi, è importante, perché i dati di intensità macrosismica non sono stati usati in modo esplicito durante lo sviluppo del modello MPS18, se si eccettua l’utilizzo per la stima della magnitudo di eventi pre-strumentali.
Inoltre, ancorché non richiesto dal GDL e non discusso nella bozza di rapporto del 27 febbraio 2019, è importante segnalare che l’adeguatezza del modello MPS18 è stata anche testata mediante un confronto tra le stime dei tassi di eccedenza di PGA misurate in stazioni accelerometriche operative da almeno 30 anni e quelle predette dal modello. Anche in questo caso le stime del modello MPS18 dei tassi di eccedenza delle PGA sono risultate compatibili con quelle osservate.
Veniamo al confronto. Ho familiarità con le procedure adottate per lo sviluppo di modelli regionali o nazionali di pericolosità sismica in diverse parti del mondo, in particolare negli Stati Uniti. Sotto molti aspetti (ad esempio nel trattamento dell’incertezza e nelle procedure di pesatura dei rami), il modello MPS19 risulta superiore ad altri modelli nazionali. Esiste tuttavia un numero limitato di casi (ad esempio il modello UCERF3 sviluppato per la California) che beneficiano di dataset di faglia molto meglio vincolati rispetto a quelli disponibili in Italia. Per questa ragione, UCERF3, per mantenere lo stesso esempio, ha potuto adottare metodologie molto raffinate per la stima dei tassi di occorrenza sismica, metodologie che non sono applicabili in Italia a causa della scarsità di dati disponibili.

Come avete concluso il vostro lavoro?
Le interazioni con i ricercatori, le modifiche richieste, e le soluzioni adottate e approvate dal GDL sono state riassunte in un rapporto datato 27 Febbraio 2019 e sintetizzate in una relazione finale datata 10 Aprile 2019. Entrambi i documenti sono stati firmati e inviati al DPC. Tutte le richieste del GDL sono state considerate dai ricercatori e le soluzioni adottate sono state approvate con piena soddisfazione dal GDL, come espressamente riportato nella relazione finale.
Il modello MPS19 rappresenta senza dubbio uno strumento solido e, a mio avviso e senza paura di smentita, significativamente più avanzato rispetto al modello MPS04, che continua a essere utilizzato in Italia come riferimento per il calcolo delle azioni sismiche in progettazione.

Nota: le vicende successive alla consegna del modello MPS19 al DPC saranno oggetto di un intervento successivo.

Bibliografia

  • Lanzano G., Luzi L., D’Amico V., Pacor F., Meletti C., Marzocchi W., Rotondi R., Varini E., 2020.
    Ground Motion Models for the new seismic hazard model of Italy (MPS19): selection for active shallow crustal regions and subduction zones.
    Bull. Earthq. Eng., 18(8), 3487–3516. DOI: 10.1007/s10518-020-00850-y.
     
  • Meletti C., Marzocchi W., D’Amico V., Lanzano G., Luzi L., Martinelli F., Pace B., Rovida A., Taroni M., Visini F. & the MPS19 Working Group, 2021.
    The new Italian seismic hazard model (MPS19).
    Ann. Geophys., 64, 1, 1-12, SE112. doi:10.4401/ag-8579.
     
  • Visini F., Pace B., Meletti C., Marzocchi W., Akinci A., Barani S., Barreca G., Basili R., Bird P., Bonini M., Burrato P., Busetti M., Carafa M. M. C., Console R., Corti G., D’Agostino N., D’Amico V., Dal Cin M., Falcone G., Fracassi U., Kastelic V., Lai C. G., Maesano F. E., Marchesini A., Martelli L., Monaco C., Murru M., Poli M. E., Pondrelli S., Rebez A., Rotondi R., Rovida A., Sani F., Santulin M., Scafidi D., Slejko D., Spallarossa D., Tamaro A., Tarabusi G., Taroni M., Tiberti M. M., Valensise G., Vannoli P., Varini E., Zanferrari A., Zuccolo E., 2021.
    Earthquake Rupture Forecasts inputs for the MPS19 Seismic Hazard Model of Italy.
    Ann. Geophys., 64, 2, SE220. doi:10.4401/ag-8608.

Qualche considerazione a margine del terremoto in Turchia (‘the builder was at fault’, cit.) di Gian Michele Calvi

Pubblichiamo volentieri questa riflessione di Gian Michele Calvi sui terremoti del 6 febbraio, che contiene anche una poesia di C. Richter, ricordando che si è trattato di due terremoti, poco distanti nello spazio e nel tempo come indica la figura. E questo fatto ha contribuito, in particolare per le zone comprese fra i due epicentri, ad aumentare la distruzione e le vittime.

Gian Michele Calvi, professore allo IUSS di Pavia e Adjunct Professor alla North Carolina State University. Calvi è stato il fondatore della Fondazione Eucentre e della ROSE School a Pavia. Ha coordinato, fra le altre cose, il Gruppo di Lavoro che ha redatto il testo dell’Ordinanza PCM 3274 del 2003, che ha innovato il sistema della normativa sismica in Italia. È stato presidente e componente della Commissione Grandi Rischi, sezione rischio sismico.

Schermata 2023-02-15 alle 15.30.32

Charles Richter (si veda più sotto una sua poesia) avrebbe voluto diventare un astronomo.
Ma era il tempo della grande depressione e nemmeno con un dottorato a Caltech era facile rifiutare una posizione all’appena costituito Seismo Lab, diretto allora da Harry Wood (quello del sismometro Wood-Anderson).
In pochi anni Richter[1] osserva che “sarebbe desiderabile avere una scala per misurare le scosse in termini di energia rilasciata, indipendentemente dagli effetti che possono essere indotti in un particolare punto di osservazione”, propone una scala e decide di chiamarla magnitudo, il termine usato per classificare la luminosità delle stelle.
Richter certo non immaginava quante volte la parola magnitudo sarebbe stata usata male.

“Professore di che magnitudo è la scossa che avete applicato alla tavola?” È la domanda più ricorrente quando un giornalista assiste alla simulazione della risposta di una struttura costruita su tavola vibrante. Ma alla tavola si applica un moto, non un’energia; un moto che può essere originato da rilasci di energia (e quindi magnitudo) molto diversi, se originati a distanze diverse, o amplificati localmente da situazioni orografiche o stratigrafiche diverse. Il moto che sente un edificio può essere caratterizzato da diversi parametri, ad esempio dalla massima accelerazione, dalla domanda di spostamento ad un certo periodo di vibrazione, dal picco di velocità, dalla durata del moto. Non dall’energia rilasciata alla fonte.
Richter[2] era perfettamente cosciente del carattere relativo della scala che aveva proposto. Le conoscenze sull’energia rilasciata erano scarse: “visto che la scala è logaritmica, qualsiasi futuro adattamento ad una scala assoluta potrà essere ottenuto semplicemente correggendo i valori con l’aggiunta di una costante”.

Ci vollero quarant’anni per consentire a Kanamori[3] e altri di proporre una scala assoluta, esprimendo, con la bellezza della semplicità, che l’energia rilasciata è proporzionale alla superficie di rottura della faglia, al modulo di elasticità della crosta terrestre ed allo spostamento relativo. Poiché il modulo di elasticità è poco variabile (circa 30.000 MPa), l’energia rilasciata dipende dalla lunghezza di rottura della faglia e dallo spostamento relativo tra le sue due facce, entrambi fortemente correlati alla superficie di rottura. Per semplificare, in modo molto approssimativo:

  • magnitudo 6.2 (energia circa 2,5´1018 Nm): rottura 15-20 km e spostamento 0,10-0,15 m
  • magnitudo 7.0 (energia circa 4,0´1019 Nm): rottura 55-60 km e spostamento 0,5-1,0 m
  • magnitudo 7.8 (energia circa 6,3´1020 Nm): rottura ⁓200 km e spostamento 10-12 m.

Sento già qualcuno domandarsi “ma non doveva parlare del terremoto in Turchia?” Il punto è proprio qui.

Il terremoto di L’Aquila ha indotto accelerazioni massime al terreno inferiori a quelle indotte dall’evento turco-siriano, ma dello stesso ordine di grandezza. Tuttavia, i valori di picco si sono manifestati su un’area di poche decine di chilometri quadrati. Se la faglia non fosse stata proprio sotto la città probabilmente gli effetti in termini di danni, feriti, vittime sarebbero stati molto più modesti. Il terremoto turco-siriano ha indotto accelerazioni superiori a 0,5 g su un’area di decine di migliaia di chilometri quadrati. Ha colpito zone con ogni tipo di terreno, in grado di amplificare accelerazioni e spostamenti con fattori anche dell’ordine di due volte. Ha stanato ogni possibile deficienza in centinaia di migliaia di edifici, fatti bene e fatti male.
Se un evento di magnitudo 7.8 avvenisse in qualsiasi punto della dorsale appenninica gli effetti devastanti si sentirebbero dal Tirreno all’Adriatico. Probabilmente producendo diverse decine di L’Aquila.

Un secondo aspetto da non trascurare è connesso alla durata del moto.
Con un forte rilascio di energia le onde sismiche tendono a combinarsi, dando luogo ad accelerogrammi più lunghi (e disordinati), dell’ordine di diverse decine di secondi, soprattutto nella direzione opposta a quella di propagazione della rottura della faglia. E molti tipi di costruzioni (tipicamente quelle storiche in muratura, ma anche edifici moderni tirati su senza badare troppo ai dettagli, come è tipico nei paesi in via di sviluppo) tendono a deteriorarsi ciclo dopo ciclo, finendo per soccombere ad un’azione di lunga durata. Nella direzione di propagazione della rottura della faglia le onde tendono a sovrapporsi, con la possibile formazione di singoli impulsi con grandi accelerazioni, velocità, spostamenti. Un colpo solo, ma spesso mortale.

Un terzo aspetto.
È noto come il danno e la probabilità di collasso dipendano più dalla domanda in spostamento che da un confronto tra forza d’inerzia e resistenza della struttura.
La domanda in spostamento tende a diminuire in funzione della diminuzione della magnitudo e della distanza dalla faglia molto più rapidamente dell’accelerazione. Purtroppo la rottura della faglia è qui dell’ordine delle centinaia di chilometri, cosicché in migliaia di chilometri quadrati la domanda di spostamento è stata dell’ordine delle molte decine di centimetri per un ampio campo di risposta spettrale. Nelle ore e nei giorni che hanno seguito il terremoto sono state diffuse molte registrazioni poi rivelatesi inaffidabili o affette da errori, si veda comunque come esempio (considerandolo dunque verosimile piuttosto che attendibile) lo spettro in spostamento nella figura che segue, ripresa da uno dei primi rapporti disponibili[4] (in ascissa il periodo in secondi, in ordinata la domanda di spostamento, per la componente con orientamento 168° registrata alla stazione 3126).

Schermata 2023-02-15 alle 23.32.53
Si legge una domanda dell’ordine del metro per periodi compresi tra 2 e 6 secondi. In Italia si progetta generalmente per spostamenti inferiori ai 30 cm anche nelle zone ad alta sismicità.

Dopo il terremoto di Loma Prieta[5] fu predisposto un rapporto[6] per il Governatore della California, George Deukmejian, con il coordinamento di George Housner; si intitolava Competing Against Time. Nelle conclusioni si leggevano le righe seguenti.

“Futuri terremoti in California sono inevitabili. Terremoti più forti di Loma Prieta con più intensi moti al terreno accadranno in aree urbane ed avranno severe conseguenze – troppo rilevanti per continuare business as usual. […]

La Commissione ha identificato tre sfide essenziali che devono essere affrontate dai cittadini della California, se vogliono attendersi un futuro ragionevolmente sicuro nei confronti dei terremoti:

  • Assicurarsi che il rischio sismico[7] delle nuove costruzioni sia accettabile.
  • Identificare e correggere le condizioni di inaccettabile sicurezza sismica7 nelle costruzioni esistenti.
  • Sviluppare e implementare azioni che favoriscano una risposta rapida, efficace ed economica agli eventi sismici.

[…] Lo Stato della California non deve aspettare il prossimo grande terremoto, e le probabili perdite di miliardi di dollari e le migliaia di vittime, per affrettare le misure di mitigazione del rischio […].

I terremoti verranno – se saranno catastrofi o no dipende dalle nostre azioni”.

Il mandato del Governatore riguardava i sistemi di trasporto, anche a seguito del crollo del celebre double decker, l’autostrada a viadotti sovrapposti che collegava Berkeley al Bay Bridge e a San Francisco.

“La Commissione avrebbe potuto limitare le sue raccomandazioni ad azioni ritenute necessarie per correggere i problemi dei ponti posseduti dallo Stato. Ma così facendo avrebbe abdicato alla considerazione della più fondamentale responsabilità del governo – garantire la sicurezza pubblica”.

George Deukmejian aveva posto sei specifici temi da approfondire alla Commissione, che nel rispondere concluse con tre sfide (quelle riportate sopra) e otto raccomandazioni, al Governatore, al Direttore del Dipartimento dei Trasporti, alle Agenzie di gestione dei sistemi di trasporto. Rileggetele.

Il Governatore rispose con un Ordinanza[8] che diede il via al programma di adeguamento dei ponti californiani
(“The Director of the Department of General Service shall prepare a detailed action plan to ensure that all facilities maintained or operated by the State are safe from significant failure in the event of an earthquake and that important structures are designed to maintain their function following an earthquake”) ed all’enorme sforzo di ricerca[9] (“The Director of the Department of Transportation shall assign a high priority to development of a program of basic and problem-focused research on earthquake engineering issues, to include comprehensive earthquake vulnerability evaluations of important transportation structures […]”) che lo rese possibile ed efficace.

Sono passati trentaquattro anni.
In molti paesi è cambiato assai poco.
In Turchia è stato intrapreso un piano, avanzato e coraggioso, per isolare sismicamente tutti gli ospedali. I primi dati (per esempio la risposta dell’ospedale, isolato, di Malatya) sembrano confermare l’efficacia della scelta. Purtroppo garantire continuità di funzionamento agli ospedali sembra poca cosa di fronte a quarantamila morti.
Anche io avrei potuto limitarmi a dettagli tecnici sul terremoto in Turchia, i lettori li troveranno presto in moltissime fonti. Il problema non è trovare le informazioni, è capirne l’affidabilità, la rilevanza, l’impatto. E lavorare “in tempo di pace”.

Gian Michele Calvi
Scritto l’11 e il 12 febbraio 2023

Una poesia di Charles Richter
(riportata in: S. E. Hough (2007). Richter’s Scale. Measure of an earthquake measure of a Man. Princeton University Press)

Schermata 2023-02-16 alle 14.24.55

[1] Richter, C.F. (1935). An instrumental earthquake magnitude scale. Bulletin of the Seismological Society of America, 25:1, 1–32

[2] Ibidem

[3] Kanamori, H. and D.L. Anderson (1975). Theoretical basis of some empirical relations in seismology. Bull. Seismol. Soc. Am., 65, 1073-1095

Hanks, T. C., & Kanamori, H. (1979). A moment magnitude scale. Journal of Geophysical Research: Solid Earth, 84(B5), 2348-2350

[4] Baltzopoulos G., Baraschino R., Chioccarelli E., Cito P., Iervolino I. (2023) Preliminary engineering report on ground motion data of the Feb. 2023 Turkey seismic sequence V2.0 – 10/02/2023

[5] 17 ottobre 1989, magnitudo 7.1

[6] Competing against time, Report to Governor George Deukmejian from the Governor’s Board of Inquiry on the 1989 Loma Prieta Earthquake, George W. Housner, Chairman, Department of General Service, North Highlands, California, 1990

[7] Si noti l’uso della parola rischio, che include pericolosità, vulnerabilità, esposizione, e quindi perdite, per le nuove costruzioni; l’uso della parola sicurezza, con riferimento principale al crollo e quindi alla protezione della vita, per le costruzioni esistenti.

[8] Executive Department State of California Executive Order D-86-90, June 2, 1990

[9] Priestley, M.J.N., F Seible and G.M. Calvi (1996). Seismic design and retrofit of bridges. Wiley

 

20 anni fa, un terremoto nella normativa sismica: conversazione fra Massimiliano Stucchi e Gian Michele Calvi

Quello che segue è il racconto, necessariamente sintetico, di una vicenda che, in un tempo relativamente breve, modificò in modo straordinario il sistema della normativa sismica italiana. Molto è stato scritto in proposito. Qui la ricordano Massimiliano Stucchi e Gian Michele Calvi, che guidò la commissione incaricata della stesura delle nuove norme.

MS. Era la fine di ottobre del 2002. Era da poco evaporata la Agenzia di Protezione Civile auspicata da Franco Barberi. Al governo c’era Silvio Berlusconi: Guido Bertolaso era il capo del Dipartimento per la Protezione Civile (DPC), Vincenzo Spaziante il vice capo. Era nato da poco l’INGV con Enzo Boschi presidente. Eucentre stava per nascere. Vennero due terremoti in Molise, di pari magnitudo e localizzati poco lontani fra di loro, a distanza di un giorno. Zona povera, marginale, non classificata come sismica. Molti danni, non molti morti se non fosse stata per quella maledetta scuola di San Giuliano di Puglia che catturò tutta l’attenzione. La vecchia scuola resistette; quella nuova, sopraelevata da poco, no, con le conseguenze che sappiamo.

Il fatto che la zona di San Giuliano di Puglia non fosse classificata scosse tutti e soprattutto i sismologi: ma si sapeva bene che le classificazioni precedenti erano state fatte “al risparmio” per la rigidità del Ministero dei LL.PP. La situazione normativa ristagnava: in particolare ben 5135 Comuni (più della metà) non erano classificati in zona sismica. La proposta di riclassificazione del 1998 (“Proposta 98”, pubblicata nel 1999: Gavarini et al., 1999) a cura di Gruppo Nazionale per la Difesa dai Terremoti (GNDT), Servizio Sismico Nazionale (SSN) e Istituto Nazionale di Geofisica (ING), che pure avrebbe lasciato 3500 Comuni non classificati, giaceva nei cassetti del Ministero. Era iniziato un lento confronto con le Regioni, ma il problema principale era l’aumento (circa 1700) dei Comuni da inserire in terza categoria. SSN aveva formulato una propria proposta alternativa, sottomettendola alle Regioni e ricevendo qualche commento. La normativa tecnica era quella del 1996 con i successivi aggiornamenti. Nell’ottobre 2001 era stato predisposto un nuovo testo, depositato al CNR per il parere previsto dalla L64/74. La Commissione Norme del CNR aveva espresso parere negativo.
Michele, tu eri stato appena nominato Presidente della Sezione Rischio Sismico (SRS) della Commissione Grandi Rischi (CGR). A parte una riunione rapida sul campo, a Larino, il 2 novembre, che ricordi hai?

GMC. Il 12 novembre si riunì a Roma la Sezione Rischio Sismico (SRS) della Commissione Grandi Rischi (CGR), composta da: Calvi pres., Marson, Lavecchia, Faccioli, Cosenza, Dolce, Romeo, Amato (assenti giustificati Bonafede e Lavecchia), completata da componenti della CGR (Pace, Berlasso, Coccolo, Boschi, Eva) e con la presenza di Bertolaso e Spaziante.
Tra le altre cose venne convenuto che la “Proposta 98” costituisse un avanzamento rispetto alla situazione di allora. La Regione Campania aveva già riclassificato (7.11.2002) sulla base della citata “Proposta 98”. Venne suggerito di adottarla e procedere con gli eventuali aumenti di classe, ma di attendere per eventuali declassificazioni. Venne auspicata l’istituzione di un tavolo unico per nuova classificazione sismica e nuova normativa in prospettiva Eurocodice 8 (EC8); i lavori avrebbero potuto essere conclusi in tre-sei mesi. Vennero auspicati incontri scientifici e Boschi offrì la disponibilità dell’INGV a realizzarli.
Venne raccomandata la necessità di valutazioni sistematiche di vulnerabilità sismica degli edifici. Venne inoltre raccomandato che gli interventi sugli edifici venissero svolti da professionisti competenti nel settore e venne ipotizzata la creazione di un apposito Albo. Venne raccomandata l’incentivazione della formazione degli addetti ai lavori. Questi elementi furono riassunti in un comunicato stampa.

MS. Per cercare di accelerare l’istituzione del tavolo unico auspicato dalla CGR, Boschi chiese un incontro al Sottosegretario alla Presidenza del Consiglio dei Ministri (PCM) Gianni Letta e lo convinse a organizzare un incontro a Palazzo Chigi.
In vista di questo incontro il 28 novembre si riunì presso l’INGV un gruppo di lavoro convocato da Boschi. Erano presenti: Amato, Stucchi, Valensise, Bramerini, Di Pasquale, Sabetta, Calvi, Faccioli, Pinto, Slejko. Ne uscì un verbale che divenne una proposta concreta da portare alla riunione di Palazzo Chigi. In questo documento si delineavano l’adozione dell’EC8 come riferimento e le linee guida per la nuova classificazione sismica. La riunione convocata da Letta si tenne il 2 dicembre. Che cosa ti ricordi della riunione?

GMC. Letta convocò parte del gruppo di lavoro e persone del giro del Ministero, compreso il Ministro Lunardi. La riunione fu molto particolare, presieduta da un Sottosegretario con un Ministro presente, con battute del tipo “ma lo sapete che in Italia non esiste una norma per la progettazione dei ponti in zona sismica?” Lunardi al Presidente del Consiglio Superiore (Aurelio Misiti): “ma è vero?”, Misiti, guardando Marcello Mauro (credo allora presidente della prima sezione, poi del Consiglio Superiore): “Ehm …”, Mauro: “si, ma  …”. Si ebbe un confronto molto acceso, al termine del quale risultò chiara l’inadeguatezza del quadro normativo e della classificazione sismica e che il Ministero non era in grado di gestire il problema in tempi compatibili con la percezione della situazione. Dopo la riunione Letta nominò (4 dicembre) una Commissione per predisporre una versione della normativa sismica nella prospettiva dell’EC8.

MS. Della Commissione fecero parte Coccolo e Berlasso in rappresentanza delle Regioni, Faccioli, Cosenza, Pinto, Amato, Dolce, Stucchi, Eva e Slejko. Tu venisti nominato presidente. Contribuirono anche Sabetta e Mazzolani. La prima riunione si tenne il 12 dicembre. In particolare si convenne di proporre che le zone sismiche diventassero quattro e coprissero tutto il territorio, utilizzando come base la “Proposta 98”, senza procedere a declassificazioni. Per quanto riguarda la normativa si convenne di prendere come base una bozza di normativa del 1999 predisposta da un gruppo ristretto e anch’essa in stand-by. La commissione lavorò senza soluzione di continuità e, dopo un ulteriore incontro a Pavia il 10 gennaio, trasmettesti a Letta il materiale il 15 gennaio 2003, rispettando la scadenza prevista. In che cosa consisteva il materiale?

GMC. Il materiale consisteva in una lettera di accompagnamento, un documento esplicativo molto sostanzioso, una bozza di testo del provvedimento e quattro allegati, anch’essi in bozza: 1. Criteri per l’individuazione delle zone sismiche; 2. Edifici; 3. Ponti; 4. Opere di fondazione e sostegno dei terreni. I contenuti più salienti possono essere così riassunti:

  • l’adozione di un sistema normativo coerente con l’EC8, che consisteva nell’abbandono di un sistema puramente prescrittivo in favore di un sistema prestazionale, nel quale gli obiettivi della progettazione che la norma si prefigge vengono dichiarati e i metodi utilizzati allo scopo vengono singolarmente giustificati;
  • la definizione di due condizioni limite, relative al collasso e al danno strutturale e non strutturale, caratterizzate da azioni sismiche corrispondenti alla probabilità di superamento del 10% in 50 e 10 anni. Viene peraltro precisato che le strutture progettate secondo queste norme posseggono margini di resistenza che consentono loro di resistere senza collasso ad azioni sismiche ben superiori a quelle di progetto, e ne vengono spiegate le ragioni;
  • il superamento della dicotomia fra zone classificate e non classificate come sismiche, che in passato veniva interpretato come assenza di pericoli in queste ultime. Le zone divennero quattro (vedi Figura 1) per tutto il territorio e per ciascuna di esse veniva definito uno spettro di progetto (Figura 2). Per la zona 4, ovvero quella a minor pericolosità sismica, si ipotizzava che potessero essere utilizzate procedure di progetto e verifica semplificate;
  • la semplificazione, grazie all’EC8, delle modalità di definizione delle zone sismiche, fin qui largamente soggettive, mediante la relazione con un parametro fisico individuato nella accelerazione orizzontale di picco. In particolare veniva richiesta la predisposizione di una mappa di PGA 10%/50 anni entro un anno, secondo specifiche molto precise e stringenti;
  • l’attenzione verso il problema delle costruzioni esistenti, di cui si parla estesamente più sotto. Si sollecitava tra l’altro l’adozione di politiche assicurative. Si affrontava anche il problema della formazione degli operatori, anche mediante la costituzione di appositi Albi.

MS. Letta rispose il 30 gennaio ringraziando te e la Commissione. Nel frattempo, d’intesa con il Capo e il vice Capo del DPC, si diede da fare per determinare la forma normativa più opportuna e rapida per adottare il provvedimento, successivamente individuata nella Ordinanza del Presidente del Consiglio dei Ministri (OPCM). L’OPCM 3274/2003, intitolata opportunamente Primi elementi in materia di criteri generali per la classificazione sismica del territorio nazionale e di normative tecniche per le costruzioni in zona sismica”, venne firmata dal PCM il 20 marzo e pubblicata in Gazzetta Ufficiale l’8 maggio 2003. 

classificazione sismica 2003

Figura 1 – Mappa dei Comuni italiani afferenti alle 4 zone sismiche per effetto dell’OPCM 3274. La didascalia era provvisoria ma rifletteva il significato della classificazione sismica. La situazione aggiornata al 2022 è rintracciabile qui (la didascalia è diversa dalla precedente e non del tutto pertinente).

Spettri OPCM 3274:2003

Figura 2 – I quattro spettri di progetto relativi alle quattro zone sismiche (vale la pena di ricordare che questi spettri erano in generale più conservativi di quelli successivamente definiti dalla Norme Tecniche del 2008).

Le Regioni vennero invitate a adottare i relativi provvedimenti di classificazione sismica, con la possibilità di variare di +/- 1 la classe individuata dall’Ordinanza e la facoltà di decidere se introdurre o meno l’obbligo di normativa sismica in zona 4. Un’altra “facilitazione” consentiva per le opere già appaltate o i cui progetti fossero già stati approvati alla data dell’Ordinanza di continuare a utilizzare le norme e la classificazione precedente. Il problema venne discusso anche dalla SRS CGR del 10 giugno 2003, che concluse che le parole “in zona 4 è lasciata facoltà alle singole Regioni di introdurre o meno l’obbligo della progettazione antisismica” di cui all’art. 2 comma 1 dell’Ordinanza, andassero intese nel senso che in assenza di delibera regionale le norme dovevano essere comunque applicate, precisando che fosse inoltre opportuno suggerire alle Regioni che “l’obbligo di applicazione delle norme sismiche sia mantenuto almeno per le opere e gli edifici strategici o importanti”.
Questa sorta di deroga fu poi oggetto di numerose discussioni, interpretazioni, ricorsi che si protrassero per anni.

GMC. Nella stessa seduta della SRS CGR venne deciso di raccomandare di “ridurre al massimo i tempi di produzione della mappa di riferimento prevista al punto 4 dell’allegato 1 all’Ordinanza 3274, al fine di evitare ripetuti cambiamenti nella classificazione del territorio. Il prossimo mese di ottobre è ritenuto un termine adeguato”. Si raccomandava inoltre di “porre in essere ogni misura necessaria al fine di ottenere un prodotto unitario ed autorevole, che raccolga un consenso generale, assicurando peraltro piena coerenza tra norme e mappa”. Venne raccomandato inoltre “che il processo di revisione ed aggiornamento di tutti gli allegati all’Ordinanza 3274 venga sviluppato in un arco temporale di tre – cinque anni, con il concorso di tutte le componenti istituzionali e scientifiche interessate. A tal fine è opportuno che le ricerche e gli studi necessari vengano sostenuti e coordinati da subito”.

MS. A valle del punto precedente INGV si attivò per produrre la mappa richiesta dall’OPCM 3274 secondo i criteri ivi contenuti, istituendo un gruppo di lavoro cui vennero invitati i maggiori esperti italiani (alcuni peraltro rifiutarono di partecipare, anche per lo scarso tempo disponibile). La compilazione, senza finanziamenti ad hoc, fu guidata da un board internazionale di esperti istituito da DPC. Dopo una prima versione rilasciata nell’ottobre del 2003, il board richiese una nuova versione corredata dalla valutazione dell’incertezza, da calcolarsi mediante l’adozione di un albero logico. La versione finale, chiamata MPS04, fu resa disponibile nel maggio 2004 dopo approvazione del citato board e della SRS CGR, e successivamente adottata come riferimento dello Stato mediante l’OPCM 3516/2006. Le sue caratteristiche, finalità usi e abusi sono stati ampiamente discussi in questo blog e altrove.
Va ricordato che la finalità di questa mappa era quella di facilitare l’assegnazione dei Comuni alle zone sismiche, mentre le azioni sismiche di progetto restavano quelle di Fig. 2. 

GMC. L’OPCM 3274 riservò una attenzione particolare al problema degli edifici esistenti. In effetti l’OPCM faceva obbligo ai proprietari – entro cinque anni e con priorità per le zone sismiche 1 e 2 – di procedere a verifica sia di edifici di interesse strategico e delle opere infrastrutturali la cui funzionalità durante gli eventi sismici assume rilievo fondamentale per le finalità di protezione civile sia degli edifici e delle opere infrastrutturali che possono assumere rilevanza in relazione alle conseguenze di un eventuale collasso. Il programma di tali verifiche avrebbe dovuto essere stilato da DPC e Regioni entro sei mesi, individuando gli edifici di cui al punto precedente. Erano esclusi gli edifici costruiti dopo il 1984 se ricadenti in zone sismiche che non avevano subito variazione di categoria.
Si trattava di una operazione imponente, anche se limitata alla sola verifica. La stessa SRS CGR, nella sopracitata seduta, raccomandò di procedere con la massima urgenza nella definizione delle opere strategiche ed importanti, ai sensi dell’art. 2, comma 3 dell’Ordinanza 3274. “Tale elenco può essere assai esteso e conseguentemente in una prima fase si può ipotizzare di limitarsi alla creazione di un data base con coordinate geografiche e dati essenziali. Possono poi essere identificate alcune classi di opere (scuole, ospedali, ponti importanti, caserme dei vigili del fuoco) ed alcune loro caratteristiche (collocazione in zona 1 o 2, costruzione antecedente la classificazione sismica del comune di appartenenza) per le quali suggerire verifiche accurate ed omogenee sul territorio nazionale. Le modalità di verifica, da definire con urgenza, dovrebbero comunque consentire la definizione dei livelli di accelerazione del suolo per le quali si prevede il raggiungimento degli stati limite definiti nelle norme”.

MS. Purtroppo questo provvedimento fu attuato solo in parte. La prima scadenza, prevista nel maggio 2008, venne in seguito prorogata da DPC al 31.12.2010 e poi ancora fino al 31 marzo 2013.
Va anche ricordato che l’Ordinanza incontrò non poche resistenze, sia da parte delle Regioni che in ambito ingegneristico. Come è ovvio determinava e richiedeva un cambio di mentalità e anche di attrezzature (ad esempio, software di calcolo) non facili da digerire con rapidità. Determinava altresì, per certe Regioni un aumento notevole di Comuni classificati e di conseguenza un numero elevato di pratiche che dovevano essere esaminate da parte dei Geni Civili.
Dopo un certo numero di discussioni in convegni ad esempio il 13 ottobre 2003 “La Repubblica” uscì con un articolo dal titolo “Norme antisismiche – beffa”, che faceva seguito a un “errata corrige” ad alcuni contenuti dell’Ordinanza pubblicati sulla Gazzetta Ufficiale. Tu rispondesti a nome del gruppo di lavoro precisando che gli errori in questione erano di natura non concettuale e che parte di coloro che secondo il quotidiano erano “saliti sulle barricate” avevano responsabilità nell’aver mantenuto per decenni norme e classificazione sismica in uno stato di inadeguatezza.

GMC. In realtà le correzioni rientravano in quanto previsto dall’OPCM stessa e cioè un periodo praticamente sperimentale in cui erano state raccolte svariate osservazioni formulate da Regioni e professionisti, confluite in una nuova Ordinanza (3336 del 2 ottobre). Queste e ulteriori modifiche avrebbero dovuto confluire in una versione del Testo Unico sulle costruzioni, per il quale il Ministero competente si era dato la scadenza del 28 giugno 2004 mediante proprio decreto-legge. Nel febbraio del 2005, pertanto, Bertolaso scrisse a Letta esponendogli la situazione e sollecitando la promulgazione di una nuova Ordinanza.
La vicenda si protrasse, nei fatti, fino alla definizione delle Norme Tecniche 2008 (NTC08), entrate in vigore solo nel giugno 2009 a valle del terremoto di l’Aquila.

In conclusione vale la pena ricordare quanto scritto nel già citato documento esplicativo di accompagnamento alla prima versione dell’Ordinanza: “Si sottolinea che le norme proposte non determinano automaticamente una riduzione del rischio sismico attuale, legato essenzialmente alle costruzioni esistenti. A tal fine è stata prestata particolare attenzione alle prescrizioni relative agli edifici esistenti, indicando i casi in cui si ritiene opportuno rendere obbligatorio procedere a eventuali interventi di adeguamento. Non si ritiene che ciò sia sufficiente a produrre rapidamente significativi effetti di riduzione del rischio, che in genere possono determinarsi solo a partire da concrete politiche di prevenzione che prevedano obblighi o incentivi per interventi di miglioramento e adeguamento”.

Riferimenti

Gavarini C., P. Pinto, L. Decanini, G. Di Pasquale, A. Pugliese, R. Romeo, F. Sabetta, F. Bramerini, M. Dolce, V. Petrini, A. Castellani, T. Sanò, D. Slejko, G. Valensise and T. Lo Presti (1999). Proposta di riclassificazione sismica del territorio nazionale, Ingegneria Sismica, XVI‑1, 5‑14.

Che cosa resta del processo “Grandi Rischi”? (Massimiliano Stucchi)

Dopo la sentenza della Cassazione, questa domanda se la pongono in molti, in privato e in pubblico. Molti si chiedono come sia stato possibile che si siano spesi quasi quattro anni di – costose – attività giudiziarie; di ferite profonde agli imputati; di aspettative frustrate da parte dei parenti delle vittime e di quanti sono scesi in campo al loro fianco; di discussioni infinite su aspetti pseudoscientifici; di prese di posizione dettate da infinita sicurezza e presunzione.
Ci vorrà del tempo per meditare, con sufficiente distacco, sulla vicenda “Grandi Rischi”: su come sia stato possibile farla nascere, portarla avanti, crederci davvero. Sicuramente sarà utile leggere anche le Motivazioni della Cassazione. Tuttavia, da oggi è già possibile tentare di mettere insieme qualche considerazione, con una premessa: esprimere le proprie idee sul processo non significa mancare di rispetto alle vittime e ai loro parenti. Gli imputati e tutti quelli che operano nella ricerca scientifica e nella protezione civile hanno sempre rispettato le vittime, di questo terremoto come di tutti gli altri in occasione dei quali si sono trovato a operare. Continua a leggere

Ancora sul rischio sismico – parte seconda (Massimiliano Stucchi)

Questo post fa seguito alla parte prima, con lo stesso titolo, che inizia così:

“La condanna in primo grado dei sette imputati al processo dell’Aquila ha determinato, nell’opinione pubblica come in molti intellettuali, alcune convinzioni che l’assoluzione di sei di essi in secondo grado non ha contribuito, almeno per il momento, a modificare, e che hanno implicazioni importanti per il futuro della riduzione del rischio sismico.
Si tratta in particolare delle tesi che:

  1. gli imputati fossero stati condannati per non aver valutato “correttamente” il rischio sismico;
  2. gli eventi di cui al processo dell’Aquila siano stati determinati da una errata comunicazione del rischio.”

 Le conclusioni della prima parte erano che:

  1. il rischio sismico in una larga porzione di Italia è – oggi – alto;
  2. non aumenta in modo significativo a causa di sequenze sismiche non distruttive, quale era quella dell’aquilano al 31 marzo 2009;
  3. l’emergenza sismica non è iniziata con la sequenza del 2009. Era già iniziata (da sempre), ed è permanente, anche se la maggior parte degli italiani non se ne vuole convincere;
  4. quest’ultimo è il vero problema, e dovrebbe essere il cuore della comunicazione del rischio.

In questa seconda parte si discute la tesi b).

—————————–

E veniamo alla comunicazione del rischio.
Una premessa. Il rischio sismico nell’aquilano era indiscutibilmente elevato ben prima dell’inizio della sequenza sismica, a causa dell’alta pericolosità sismica e dell’alta vulnerabilità; tuttavia pochi ne parlavano, non vi si dedicavano volumi, articoli, blog, interviste. Zero comunicazione del rischio a fronte di alto rischio? Nessuno andava in cattedra perché ne aveva parlato. Giaceva nei cassetti – poco diffuso – qualche report di convegni promossi dalle Amministrazioni locali a scopo essenzialmente catartico, come spesso avviene. Solo qualcuno portava avanti con fatica interventi di educazione nelle scuole. Continua a leggere

Ancora sul rischio sismico – parte prima (Massimiliano Stucchi)

La condanna in primo grado dei sette imputati al processo dell’Aquila ha determinato, nell’opinione pubblica come in molti intellettuali, alcune convinzioni che l’assoluzione di sei di essi in secondo grado non ha contribuito, almeno per il momento, a modificare, e che hanno implicazioni importanti per il futuro della riduzione del rischio sismico.
Si tratta in particolare delle tesi secondo cui:

  1. gli imputati sono stati condannati per non aver valutato “correttamente” il rischio sismico;
  2. gli eventi di cui al processo dell’Aquila sono stati determinati da una errata comunicazione del rischio.

Questi due aspetti sono strettamente interconnessi, anche perché hanno a che vedere entrambi con il concetto di rischio; questo concetto, come è noto, assume connotati variegati e spesso determinati dall’immaginario di chi ne tratta. A riprova del desiderio di fissarne i contorni in modo sempre più personale si può osservare l’apparizione, in volumi recenti e meno recenti, del concetto di “nuova rischiosità del rischio” (nella società dell’irresponsabilità), così come il titolo “oltre il rischio sismico”. Continua a leggere

Finale, con lezioni e rapsodia (Massimiliano Stucchi)

Finale. Dunque il processo di Appello si è concluso, con la sentenza che conosciamo. Prima di tutto questa sentenza restituisce agli imputati la dignità di persone che hanno svolto il proprio compito, dopo aver dedicato decine di anni a valutare il rischio e a cercare di convincere stato, regioni, comuni e cittadini della possibilità e dell’importanza di farlo. Per il resto aspettiamo con interesse la motivazione e, come abbiamo sempre detto, rispettiamo il dolore per le vittime; questo rispetto ci ha sempre stimolato a chiederci, ben prima dell’Aquila, se avevamo fatto abbastanza per ridurre il rischio sismico. Rispettiamo anche le opinioni antagoniste: le sentenze di discutono, l’abbiamo sempre sostenuto e lo sosteniamo anche adesso. Invitiamo solo i colpevolisti a fare lo sforzo di collocare al loro posto i tasselli, che in generale vengono proposti e vivisezionati con logica da “moviola”; il loro posto nel tempo, cioè prima che l’accadimento del terremoto abbia favorito tutte le semplificazioni che sono state proposte. Continua a leggere

La sentenza d’appello (M. Stucchi)

La corte d’appello ha assolto Boschi, Barberi, Calvi, Eva, Selvaggi, Dolce perchè il fatto non sussiste (!). Cade così il castello del giudizio di primo grado che si basava, tra le altre cose, sulla cooperazione colposa degli imputati.
La corte ha poi condannato De Bernardinis a due anni, in relazione alla morte di circa la metà delle vittime rispetto alla sentenza di primo grado. La pena è stata sospesa.

http://video.gelocal.it/ilcentro/locale/grandi-rischi-la-lettura-della-sentenza-d-appello-assolti-sei-dei-sette-imputati/35993/36278?ref=HREC1-4

I legali di parte civile ricorreranno probabilmente in Cassazione. La sentenza è stata accolta dalle proteste di una parte del pubblico; in alcune interviste si sono fatti paragoni azzardati con altre sentenze di questi giorni.

Un grazie a tutti quelli che hanno collaborato fin qui a questo blog e che lo hanno visitato, e un grande abbraccio agli imputati.

La quinta udienza dell’Appello (M. Stucchi)

Si apre l’udienza con il consueto appello di imputati e avvocati. L’avv. Stefàno legge una lettera dell’avv. Biondi, che non può essere presente.
Parla ora l’avv. Musco, difensore di Calvi. La sentenza di primo grado ha fatto il giro del mondo, ed è molto rilevante anche per l’Italia. Tutti quelli che hanno analizzato criticamente la sentenza hanno espresso posizioni fortemente critiche sulla concatenazione logica degli argomenti della sentenza. Elenca alcuni esempi interni all’ambiente del diritto, fra cui Galluzzo, Valbonesi, Pagliaro. Cita la definizione “legale” del danno, analizzata da Pagliaro. Il coro dei giuristi che criticano è quasi unanime. Cita anche M. Tozzi (da La Stampa). Continua a leggere

La quarta udienza dell’Appello (M. Stucchi)

Dopo la ricognizione dei presenti, parla l’avv. Petrelli, difensore di Barberi. Parte dalla teoria delle rappresentazioni sociali, definita frutto malato del processo. Cita la deposizione di Ciccozzi. La teoria è paradigmatica del processo; nel processo, a partire dal capo di imputazione,  i fatti sono stati sostituiti dalle loro rappresentazioni. Primo esempio l’ “allargamento” della Commissione Grandi Rischi”: confusione fra due organi distinti, gli esperti e il DPC De Bernardinis come esperto avrebbe fornite informazioni carenti a se stesso, come DPC. Gli esperti non “si riunirono” ma vennero convocati, esiste un documento di convocazione. Le finalità di comunicazione sono di pertinenza dell’Organo cui gli esperti forniscono consulenza.

Continua a leggere

La seconda e la terza udienza dell’Appello (M. Stucchi)

Venerdì 17 ottobre si è tenuta la seconda udienza dell’Appello, che ha visto le arringhe degli avvocati di parte civile. Per un riassunto si può vedere

http://ilcentro.gelocal.it/laquila/cronaca/2014/10/17/news/grandi-rischi-al-via-la-seconda-udienza-d-appello-1.10133774

Si deve notare l’affermazione “Dovevano dirci quello che sarebbe successo e non lo hanno detto. Non dovevano prevedere il terremoto, ma valutare il rischio” dell’avvocato A. Valentini. Questa frase è ben più diretta di quelle scritte  dal Giudice Billi che, nella Motivazione della Sentenza, ripete come un mantra:

“Il parametro di riferimento dell’analisi che doveva essere compiuta il 31.3.09 non era individuabile in un determinato evento futuro, non consisteva in un evento naturalistico da prevedere deterministicamente, ma era rappresentato dalla valutazione del rischio”

Continua a leggere

In questi due anni…. (Massimiliano Stucchi)

Dunque, a breve comincerà il processo d’appello.
La Sentenza del 22 ottobre 2012 aveva lasciato incredula una parte dell’opinione pubblica, ed aveva trovato diversi consensi in un’altra parte, che ha compreso anche autorevoli commentatori. Ad esempio il 28 ottobre, sul Corriere, D. Maraini si lanciò in una violenta intemerata a favore della sentenza, che le valse una precisa replica da parte di G.D. Caiazza, presidente del Comitato Radicale per la Giustizia “Piero Calamandrei” (Radicali Italiani) su Radio Radicale (2 novembre 2012): “Cara Maraini, leggi almeno l’imputazione”.
Vale infatti la pena di sottolineare che la maggior parte dei commentatori della prima ora, di entrambi i fronti, aveva una conoscenza minima della sostanza dell’accusa e dei temi dibattuti al processo (certo, uno non può certo seguire tutto, deve affidarsi ai media; e quindi…). Il confronto fra colpevolisti e innocentisti si reggeva ancora su parole d’ordine imprecise, quali “processo alla scienza”, “mancato allarme”, “non aver previsto il terremoto”, “aver rassicurato”, ecc. Continua a leggere

Era facile prevederlo…..(Massimiliano Stucchi)

Era facile prevedere che qualche giornalista disinvolto si sarebbe impadronito della notizia (che poi notizia non è) del presunto avvio della sperimentazione del metodo denominato OEF (Operational Earthquake Forecast, ovvero previsione operativa dei terremoti) per collegarla al processo Grandi Rischi. E’ successo con un articolo di G. Sturloni Continua a leggere

Franco Barberi e la lezione del terremoto del 1980 (Carlo Meletti)

Recuperare la memoria è un esercizio molto utile, in generale nella vita di tutti i giorni, ma in particolare nel settore della prevenzione dai terremoti, non fosse altro perché sappiamo che dove sono avvenuti già in passato i terremoti potranno verificarsi ancora.Facendo una ricerca con un motore di ricerca su alcune parole chiave relative alla difesa dai terremoti, mi è stato proposto il link ad un documento che conoscevo molto bene, ma che era rimasto in un angolo sperduto della memoria e ho così approfittato della combinazione per rileggerlo. Continua a leggere

Il rischio, l’educazione, la solitudine: lettera a M. Paolini (Ingrid Hunstad)

Caro Marco Paolini,
ci sono alcuni personaggi, nel panorama italiano, che nel triste degrado culturale in cui si trova l’Italia da molti anni, hanno tenuto alto il morale per la loro lucidità, il loro coraggio nell’affrontare temi difficili, la loro fantasia e bravura. Lei era fra questi.  Oggi mi è difficile conservare questo pensiero.  Quando ho letto le sue pesanti accuse contro di noi, ho fatto fatica a credere che si trattasse dello stesso Marco Paolini a cui avevo scritto il 25  gennaio 2011.  Se è vero che ha studiato a fondo le vicende e i fatti legati alla tragedia del Vajont, è altrettanto vero che lo stesso approfondimento non lo ha dedicato alle vicende legate alla tragedia del terremoto di L’Aquila. Continua a leggere