Al lupo, al lupo? Più cautela con gli allarmi sismici (Massimiliano Stucchi)

Premessa. In questo post si commentano – tra le altre cose – modelli scientifici e la loro possibile applicazione a fini di Protezione Civile. La trattazione è necessariamente semplificata: eventuali approfondimenti sono allo studio.

1. La previsione deterministica dei terremoti è da sempre invocata dall’umanità come possibile riparo da sciagure sismiche, in particolare per quello che riguarda la possibilità di restarne vittime. Per la ricerca scientifica, invece, si tratta di un obiettivo lontano e forse irraggiungibile, che presuppone conoscenze teoriche e osservazioni sperimentali sulle dinamiche di accumulo e rilascio dell’energia, oggi non disponibili. Il tema è ampio e complesso e non può essere certo trattato in profondità in queste pagine.

2. Mentre a volte il pubblico si lamenta la mancanza di “allarmi sismici” da parte della comunità scientifica, ogni tanto succede che ne vengano rilasciati alcuni, anche in Italia. Nel 2009 le celebri “previsioni” di G. Giuliani, e in particolare quella riguardante la possibilità di un forte terremoto nella zona di Sulmona, rischiarono di mettere in crisi le amministrazioni locali e regionali e contribuirono a innescare la spirale di panico che, assieme alle smentite prive di fondamento della Regione Abruzzo, determinarono la successiva convocazione della riunione di esperti a L’Aquila e i fatti che ne seguirono. Nel 2012 il Presidente del Consiglio in persona, in occasione della sequenza emiliana del 2012, segnalò la possibilità di un forte evento sismico generabile dal cosiddetto “terzo segmento” sulla base di informazioni fornite dalla Commissione Grandi Rischi (CGR). Di recente infine il Capo Dipartimento della Protezione Civile (DPC), da poco confermato nel suo incarico dal Governo, ha sostenuto in pubblico, in relazione all’evento del Molise del 16 agosto scorso di Mw 5.1 e alla sequenza sismica in corso, che “gli esperti non possono escludere l’occorrenza di un evento di Mw anche maggiore”, anche in questo caso a valle di una riunione della CGR che si è tenuta il 17 agosto.

3. Il retroterra scientifico relativo al caso del Molise 2018 si basa – verosimilmente – su un modello statistico, implementato da una decina di anni da alcuni ricercatori INGV sulla scia di altri studi simili, che fornisce la probabilità di occorrenza di un terremoto in una determinata area. Anche se la comunità scientifica internazionale è prevalentemente scettica e comunque molto cauta riguardo al metodo (la discussione è intensa e la letteratura consistente), DPC ha accolto con favore il modello, anche a seguito del documento conclusivo della famosa commissione internazionale (Commissione Internazionale sulla Previsione dei Terremoti per la Protezione Civile – ICEF) http://www.protezionecivile.gov.it/resources/cms/documents/ICEF_Final_Report_IT_prefazione_e_riassunto_DLC.pdf)
insediata dallo stesso DPC dopo il terremoto dell’Aquila del 6 maggio 2009.
Il modello, di cui DPC finanzia sperimentazione e sviluppo, è ora chiamato “Operational Earthquake Forecast”, ovvero strumento “operativo” per determinare la probabilità di occorrenza di un evento di data Magnitudo o, più recentemente, di un dato effetto (intensità) in una specifica area in un dato intervallo di tempo.

4. Il capo della suddetta commissione – T. Jordan (USA) – sostenne addirittura, in un articolo scientifico, che fu la mancata disponibilità di un affidabile OEF che determinò quello che a suo dire fu l’insuccesso della riunione di esperti del 31 marzo 2009 a L’Aquila, che poi costituì l‘oggetto del celebre processo. Peraltro nel corso di quel processo uno degli autori del metodo, interrogato come testimone su richiesta del PM, mostrò i risultati del metodo nelle settimane prima del terremoto, chiamandole stime di pericolosità e alimentando in questo modo una certa confusione con le classiche stime di pericolosità sismica che vengono effettuate e utilizzate per la normativa sismica delle costruzioni.

5. Il metodo implementato in Italia è di natura puramente statistica e non si basa su modelli di base fisici e geologici. Fornisce aumenti di probabilità di occorrenza di un terremoto o di una scossa che effettivamente arrivano a superare di circa 100 o anche 1000 volte la probabilità standard di un evento quale deducibile dalla mappa di pericolosità sismica ma che restano nell’ambito di poche unità percentuali, o frazioni, nel periodo di riferimento, di solito fissato pari a una settimana. Si deve peraltro sottolineare che il riferimento alle stime di pericolosità sismica non è corretto, in quanto queste ultime hanno una natura diversa essendo prodotte e utilizzate per un altro scopo. Ne ha discusso E. Boschi:
https://ilfoglietto.it/l-angolo-di-boschi/3378-vi-presento-il-mister-oef-che-prevede-i-terremoti
https://ilfoglietto.it/l-angolo-di-boschi/3224-i-terremoti-non-si-prevedono-ma-ci-sono-gli-algoritmi

6. Con aumenti di probabilità di qualche unità su 100, OEF non sembra dunque di uno strumento molto sensibile, oggi e in Italia, rispetto alle finalità “operational” che si ripromette. Siamo ben lontani dai valori di probabilità di tipo meteo, tanto cari al pubblico dei media, i quali, con tutti i loro limiti, possono avere un carattere realmente operativo in quanto forniscono probabilità di occorrenza che a volte superano il 50% e si avvicinano all’80%, 90%.

7. Va anche aggiunto che la comunità scientifica accetta con maggior favore l’impiego di metodi statistici per la determinazione della probabilità di occorrenza di importanti repliche di un terremoto forte nell’ambito di una sequenza sismica (OAF = operational aftershock forecast), che non per determinare la probabilità di un evento sismico indipendente (OEF). Ad esempio, nelle risultanze della riunione di marzo 2018 del SESAC (Scientific Earthquake Studies Advisory Committee degli Stati Uniti, incaricato di dare un parere sul programma di ricerca sui terremoti dell’USGS (United States Geological Survey, il più grande ente US e del mondo nel settore), si legge che SESAC raccomanda lo sviluppo di OAF, mentre assegna priorità molto più bassa a quello di OEF.

8. Tornando alla frase del capo DPC sul recente terremoto del Molise, l’affermazione suscita perplessità per i seguenti motivi:

  • la possibilità di un terremoto forte in quella zona è un dato di fatto anche in assenza di sequenza sismica; sottolinearla solo in relazione soltanto alla sequenza, come fa intendere il comunicato, è sbagliato. Inoltre, tale possibilità esiste anche per la maggior parte delle zone di Italia: tale possibilità va ricordata anche in assenza di sequenze (si veda la discussione in https://terremotiegrandirischi.com/2014/05/20/quando-comincia-lemergenza-sismica-m-stucchi/;
  • non sono stati forniti: i) il valore del terremoto atteso, o almeno la soglia minima di magnitudo; ii) il valore dell’eventuale aumento di probabilità; iii) la durata dell’allerta;
  • non si è a conoscenza di quali indicazioni operative siano state diramate da DPC a seguito di tale comunicazione. E’ noto peraltro che i cittadini tendono a restare fuori casa dopo un terremoto sensibile sia perché di solito si verificano altre scosse di cui sono testimoni diretti, indipendentemente da OEF, sia perché l’edificio in cui risiedono può essersi indebolito a causa della scossa stessa.

9. In conclusione, mentre la ricerca scientifica su questi aspetti va sicuramente incoraggiata, sarebbe auspicabile in primo luogo che vengano considerati anche modelli alternativi a quello in uso (è di poche settimane fa un articolo di “Nature” che descrive un metodo basato sull’uso delle reti neurali). Inoltre, e soprattutto, sembra auspicabile una maggiore cautela per quanto riguardo l’aspetto “operational”, in particolare per quel che riguarda la gestione pubblica dei risultati.
E’ chiaro infatti che, mentre DPC può gestire – al suo interno – le informazioni di questo tipo con la consapevolezza dei limiti dello strumento, altrettanto non si può dire per quanto riguarda la relativa comunicazione a pubblico e media, che non dispongono di nessuna consapevolezza operativa sul da farsi. Siamo ben lontani insomma dal modello “a semaforo” (verde, giallo, rosso) tanto caro a media e non solo, sviluppato per altri tipi di fenomeni a evoluzione più lenta (es. alluvioni, eruzioni vulcaniche).
In questa situazione, infine, qualora dopo alcuni allarmi non dovesse verificarsi nessun evento disastroso, il pubblico potrebbe attribuire scarsa credibilità a metodo e comunicati, con le immaginabili conseguenze (modello “al lupo al lupo”).

Lascia un commento