La colpa è dei modelli di pericolosità sismica? (di Massimiliano Stucchi)

Premessa. In questi giorni si discutono problemi ben più gravi e urgenti. Tuttavia l’apparizione di un articolo, su l’Espresso, che approfitta della ricorrenza del terremoto di Amatrice del 2016 per gettare discredito sul modello di pericolosità sismica corrente e sulle norme dello Stato, utilizzando fake news e argomenti inconsistenti mi ha mandato in bestia.

Ce lo si poteva aspettare. Cosa meglio di una ricorrenza di un terremoto (Amatrice, 2016) e delle sue vittime per tornare a accusare terremoti e sismologia? Dopo L’Aquila c’era stato addirittura un processo (anzi, più di uno; uno – civile – ancora in corso, al quale sono stato convocato per testimoniare in settembre, senza spiegazione alcuna, dalla parte che accusa lo Stato e chiede risarcimenti).
Dopo Amatrice e Norcia 2016 nulla di così grave, anche se qualche polemichetta era uscita da parte di chi pretende di leggere i dati e gli elaborati sismologici come se fosse il suo pane quotidiano. Ora però (25 agosto 2019, L’Espresso http://m.espresso.repubblica.it/plus/articoli/2019/08/26/news/terremoto-calcoli-sbagliati-1.338128?fbclid=IwAR2G7stT6dZRMqJfipfldqSy7Y4e5RS1rYGmoqzxCso3k1J3d6Q2PvTyxws esce con un “j’accuse” formale: il modello in vigore (quello che supporta la tanto celebrata mappa di pericolosità sismica) “ha sottostimato i pericoli sismici ma, incredibilmente, è ancora in vigore”.

Ci avevano già provato dopo L’Aquila 2009, e avevamo dimostrato che avevano fatto male i conti (1). Ci hanno riprovato dopo l’Emilia-Romagna del 2012; anche in quel caso avevano fatto male i conti, confrontando le registrazioni su terreno di consistenza media con quelle previste su roccia (2). E lo ripropongono paro paro anche nell’articolo citato: una autentica fake news.
Nel caso del 2016 invece è successo: sì, in alcuni punti, e per alcune scosse, le accelerazioni registrate hanno superato i valori proposti dal modello di pericolosità (con il 10% di probabilità di superamento in 50 anni).

Questo significa dunque che il modello ha sottostimato? Facciamo a capirci. Prima di tutto, adottare una certa probabilità di superamento significa ammettere che i valori proposti possano essere superati, qualche volta: non rappresentano dunque il massimo possibile e sotto vediamo perché. Poi: il modello di pericolosità sismica offre svariate elaborazioni relative a diverse probabilità di superamento in diversi intervalli di tempo (complicato, lo so: ma se uno ci si mette ce la può fare). Ad esempio, alcuni valori di picco registrati nel 2016 sono di poco superiori a quelli relativi al 2% di probabilità di superamento in 50 anni, ma sono inferiori a quelli relativi all’1% di probabilità di superamento nello stesso intervallo. Dunque?

Occorre poi ricordare che il confronto andrebbe fatto (se del caso; ma ci sono buone ragioni per sostenere che non ha molto significato) su tutti i valori dello spettro di risposta e non solo sul valore di accelerazione di picco, valore che tra l’altro non viene utilizzato nella progettazione. Ovvero, può succedere che la accelerazione al suolo superi quella proposta dalla normativa in piccole porzioni dello spettro stesso, magari non interessanti per alcuni tipi di costruzione.

Il problema, comunque, risiede principalmente nella scelta dell’intervallo e della probabilità di superamento adottati dalla normativa, appunto il 10% in 50 anni – ovvero periodo di ritorno 475 anni. Questa scelta la fa lo Stato (parliamo di normativa, appunto), sulla base di una consuetudine abbastanza condivisa a livello internazionale. Le ragioni di questa scelta dovrebbero essere spiegate meglio dagli ingegneri; con le mie parole dico che questa scelta significa garantire, se la costruzione è fatta bene, che non crolli, accettando più o meno implicitamente che si possa danneggiare in modo ragionevolmente riparabile. Perché? questione di ottimizzazione del rapporto costi-benefici. Gli ingegneri che leggono potranno inserire commenti e correzioni, che saranno benvenuti.

Vanno poi aggiunte altre considerazioni. La prima è che l’eventuale superamento delle accelerazioni proposte dalla normativa non determina automaticamente il crollo della costruzione; anche in questo caso gli ingegneri potrebbero spiegare meglio di me.
Non sono a conoscenza di alcun crollo recente avvenuto solamente per tale, eventuale superamento, e mi chiedo: perché invece di accuse teoriche non viene presentato un caso, almeno uno?
Sono a conoscenza, viceversa, di crolli avvenuti per difetti di costruzione, nemmeno lievi, tali da chiedersi come funzioni la catena progetto-controllo. Sono anche a conoscenza di edifici che hanno sopportato le accelerazioni “eccedenti” senza crollare.
La seconda – repetita juvant – è che la normativa stabilisce un valore minimo delle azioni di progetto ma non vieta certo di progettare per azioni superiori, se il proprietario e il progettista lo desiderano e sono disposti a spendere di più. Ma anche su questo c’è scarsa informazione.
La terza, più importante, è che la maggior parte degli edifici crollati per causa dei terremoti era stata costruita prima dell’entrata in vigore della normativa (NTC08, entrata in vigore nel giugno 2009), quindi con riferimento ad altre azioni sismiche e soprattutto ad altra norma costruttiva. L’articolo dice che la ricostruzione di Norcia post-1997 è stata fatta sulla base della mappa probabilistica, che uscì solo nel 2004, pensa te! E per attirare l’attenzione mostra la Basilica di San Benedetto, costruita qualche tempo prima, credo…..
Ancora una volta si confrontano mele con pere e si propongono fake news.

L’articolo in questione ripropone il confronto fra metodo probabilistico e deterministico. Anche questo  confronto è mal posto. L’approccio deterministico privilegia il massimo evento (scuotimento) possibile (evidentemente con la presunzione di poterlo determinare con esattezza). E’ bene ricordare che i valori ottenuti con questo metodo – tradotti in termini ingegneristici, ossia spettri – sono del tutto confrontabili con quelli offerti dal metodo probabilistico per probabilità di superamento più basse e intervalli di tempo più elevati rispetto a quelli previsti dalla normativa in vigore.

Perché non adottare come riferimento il “massimo”, ovvero un periodo di riferimento più lungo? Ovunque nel mondo le scelte in materia le fanno gli ingegneri, che hanno scelto ovunque il probabilistico. Tocca a loro spiegare perché, soprattutto al pubblico e ai media che ne avrebbero molto bisogno (come sempre per i media l’Italia è più avanti: prevede i terremoti con i vari autodidatti, ha i metodi migliori per diminuire i danni da terremoto, ecc.; il tutto a opera di minoranze oppresse e inascoltate).
Sicuramente costruire secondo il “massimo” scuotimento atteso costerebbe di più e non è detto che i benefici varrebbero lo sforzo; ma questo è un paese in cui prima del terremoto si minimizza e si risparmia, dopo il terremoto si protesta e si sarebbe pronti a scialare (in teoria).

Alla serie di fake news e di imprecisioni contenute in questo articolo, provenienti da un gruppo molto ristretto di ricercatori (gruppo che ha vari, lontani nel tempo e poco nobili motivi di astio con il fondatore dell’INGV), dovrebbe rispondere il Governo, visto che parliamo di accuse gravi a leggi dello Stato e non a “papers” scientifici; magari tramite il Ministro delle Infrastrutture e/o il Dipartimento della Protezione Civile, che sono di fatto i gestori della materia (Casa Italia dà scarsi segni di vita. Possibilmente in modo diverso da quanto  fece il Ministro dell’Ambiente del Governo Monti nel 2012, che disse che le “mappe di rischio sono forse da rivedere” (come no, se ci sono stati dei crolli devono essere sbagliate le mappe….).
Ma in questi giorni vi sono cose più importanti.

Ricorrenze a parte, ci vuole un bel coraggio a cercare di scaricare ancora le responsabilità di crolli e morti sulle mappe di pericolosità e comunque sul terremoto, come fa l’articolo terminando con il ricordo di San Giuliano di Puglia, 2002. Vergogna!
Sarebbe veramente ora che dalla comunità ingegneristica si alzino voci forti e chiare in proposito. Le scelte in materia di protezione dai terremoti sono ingegneristiche; i modelli di pericolosità sismica non decidono proprio niente, offrono i materiali per tutte le possibili scelte.

Prima o poi uscirà il nuovo modello di pericolosità INGV, che ha avuto tutte le verifiche, battesimi e riconoscimenti scientifici possibili. C’è grande attesa. Si tratterà di capirlo, prima di tutto, e usarlo come si deve. Qualche numeretto cambierà e – temo – inizierà la solita solfa che i valori precedenti erano sbagliati, ecc. Ad esempio, chi ha calcolato con il modello precedente l’indice di sicurezza di un edificio così come previsto dalla normativa, potrà ricalcolarlo con il nuovo modello e, senza che la vulnerabilità dell’edificio sia stata modificata di una virgola, potrebbe d’incanto ritrovarsi con un valore dell’indice un po’ maggiore (o anche minore), ovvero con un edificio teoricamente un  po’ più sicuro (o anche meno).

Via, su; cerchiamo di fare i seri, guardiamo la luna e non il dito. Le mappe di pericolosità sono il dito, mentre la luna sono, in questo caso, le nostre case, con il loro deficit di sicurezza accumulato in anni di normativa non applicata, controlli mancati, usura, modifiche strutturali (e non) eseguite senza criterio, frodi, condoni, abusivismo.
La colpa dei disastri non è dei modelli di pericolosità sismica!

 

(1) Crowley, H. et al, 2009. Uno sguardo agli spettri delle NTC08 in relazione al terremoto de L’Aquila, https://drive.google.com/file/d/134KHJrfRohBHG37RD6nG0qDTcZdafa4L/view

(2) Stucchi, M. et al. 2012. I terremoti del maggio 2012 e la pericolosità sismica dell’area: che cosa è stato sottostimato? https://drive.google.com/file/d/1yh3R_rg_39cyUYmja-MSTfke-fS8HbLQ/view

 

2 thoughts on “La colpa è dei modelli di pericolosità sismica? (di Massimiliano Stucchi)

  1. Bell’articolo. Penso sia compito anche di noi ingegneri aumentare la sensibilità sul tema e difendere gli enormi sforzi che sono stati fatti per sviluppare tutto ciò che sta dietro all’ingegneria sismica attualmente in vigore. Uno sforzo non di poco conto. Visti i tempi, probabilmente anche a costo di “perdere” tempo per diventare più social anche noi.

  2. Si, tutto vero (incluso i vari “appunti ingegneristici”). L’articolo su l’Espresso è infatti di una disonestà intellettuale senza limiti. Purtroppo, però, i media ormai funzionando così; non fanno verifiche fattuali di quello che scrivono, non sentono tutte le parti coinvolte od interessate, nulla di nulla, è tutto un gran “social” in cui si accusa e si infanga senza mai prendersi le dovute responsabilità e conseguenze..

Rispondi a Mauro Torquati Annulla risposta

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...