Gianluca Valensise, sismologo di formazione geologica, dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: https://diss.ingv.it). Gli abbiamo chiesto di commentare l’ultima versione, pubblicata di recente.
Gianluca, puoi spiegare ai non addetti ai lavori in che cosa consiste questo database?
Il Database of Individual Seismogenic Sources, o DISS, è uno strumento ideato per censire le sorgenti sismogenetiche, ovvero le faglie in grado di generare forti terremoti che esistono su uno specifico territorio, esplorandone le dimensioni, la geometria e il comportamento atteso, espresso dallo slip rate e dalla magnitudo degli eventi più forti che tali faglie possono generare. Presenta delle somiglianze con un catalogo/database della sismicità storica, nella misura in cui fornisce informazione georeferenziata sul verificarsi dei forti terremoti, potendo fungere da base di partenza per l’elaborazione di modelli di pericolosità sismica a varie scale spaziali e temporali; tuttavia se ne differenzia per due ragioni fondamentali. La prima è quella di essere principalmente basato su informazione geologica, geofisica e sismometrica, e in parte anche storica. La seconda, che ne rappresenta la vera forza, e quella di “guardare in avanti” in modo esplicito, proponendo dove potrebbero accadere i terremoti del futuro e con quali caratteristiche. Anche un catalogo storico può essere utilizzato con le stesse finalità, sulla base del principio-cardine della Geologia per cui è possibile “ribaltare sul futuro” gli eventi naturali che abbiamo visto nel passato; ma l’immagine del futuro che potrà derivare da quest’operazione è certamente meno nitida di quella che si può ottenere ipotizzando l’attivazione futura di sorgenti sismogenetiche delle quali, almeno nell’ambito di incertezze anche ampie, riteniamo di conoscere le caratteristiche fondamentali, come lunghezza, profondità, cinematica e magnitudo del terremoto più forte che possono generare.
Perché ‘sorgenti sismogenetiche’ e non semplicemente ‘faglie’?
Questo è un quesito importante, che richiede un flashback di circa mezzo secolo. Un’acquisizione relativamente recente nel campo delle Scienze della Terra – parliamo di qualcosa che ha iniziato ad emergere sostanzialmente sugli anni ’70 e gli anni ’80, quantomeno in Italia – è che le faglie che attraversano e dislocano la crosta terrestre sono fortemente gerarchizzate. Fino ad allora aveva prevalso una visione decisamente “piatta” del problema, in virtù della quale tutte le faglie indistintamente venivano considerate in grado di generare terremoti, purché attive; inoltre si tendeva a non cogliere la loro tridimensionalità, anche perché questa caratteristica si scontrava con l’incapacità del geologo di osservare il pianeta a profondità superiore a poche decine di metri, se non attraverso trivellazioni o attraverso l’esecuzione di profili sismici, usando tecnologie sviluppate a partire dal secondo dopoguerra dalla nascente industria degli idrocarburi. A quell’epoca i sismologi venivano soprattutto dal mondo della Fisica, dunque avevano una chiara percezione delle dimensioni e della tridimensionalità della sorgente di un forte terremoto ma non erano in grado di inquadrarla nella realtà geologica; per loro la faglia era al massimo un piano idealizzato nello spazio. Quella realtà ovviamente la maneggiavano bene i geologi, i quali però in quel momento del fenomeno sismico coglievano soprattutto gli effetti di scuotimento, ed eventualmente la loro variabilità legata alla geologia di superficie.
Il punto di svolta che ha riavvicinato queste due culture, un tempo quasi contrapposte, è rappresentato dal terremoto dell’Irpinia del 1980 e dalle successive ricerche sul terreno. Le ricerche sugli aspetti geologici di questo terremoto iniziarono subito ma finirono già nel 1981, quando io ero ancora studente; ripresero nel 1984, per merito di due studiosi inglesi, e furono poi proseguite da Daniela Pantosti e dal sottoscritto nel novembre 1986. Seguirono a ruota nuove ricerche sui terremoti del 1915 nella Marsica e del 1908 nello Stretto di Messina.
Alla fine degli anni ’80 iniziarono quindi ad essere indagati a fondo i terremoti più forti del secolo scorso, per i quali erano disponibili sia dati strumentali, sia osservazioni di terreno su come ciascun evento si inquadrava nell’evoluzione della geologia recente e del paesaggio. Apparve finalmente chiaro anche ai geologi italiani che un forte terremoto è generato da una grande faglia, lunga anche 50 km (in Italia); talora inaccessibile all’indagine diretta, ma che attraverso il suo movimento ripetuto nel tempo diventa l’attore principale dell’evoluzione della geologia e del paesaggio dell’area in cui si trova. L’attività di questo elemento di ordine zero, che noi chiamiamo sorgente sismogenetica e che non necessariamente appare in superficie (si parla allora di una faglia ‘cieca’), determina a sua volta la formazione di un complesso reticolo di faglie gerarchicamente subordinate nel volume di roccia in cui è immerso. Queste faglie minori, che per lo più non sono in grado di generare terremoti, rappresentano certamente una evidenza diretta dell’esistenza della sorgente profonda e sono certamente ‘attive’ in senso geologico; ma allo stesso tempo è difficile – se non impossibile – evincere da esse i caratteri della sorgente profonda.
Dunque in che cosa il DISS si differenzia dai database delle faglie attive?
La risposta discende direttamente da quanto ho appena asserito. Il DISS (si veda l’immagine, che mostra la pagina di ingresso alla consultazione della versione 3.3.0 del database, pubblicata a dicembre del 2021), si propone di censire con la massima accuratezza delle sorgenti sismogenetiche, ovvero delle strutture di ordine gerarchico principale che possono causare forti terremoti; anche se, come spesso accade, tali strutture sono cieche, ovvero prive di un’espressione superficiale diretta, cioè fragile, o sono addirittura in mare. Un’ampia sintesi di cosa è il DISS e di cosa contiene, seppure non molto aggiornata, è fornita in Basili et al. (2008). Ovviamente prima di censirle bisogna identificarle, queste sorgenti, verificando i rapporti di ciascuna con quelle adiacenti: un tema di ricerca che ancora oggi non viene insegnato in alcun ateneo, per quello che mi risulta.
A sua volta, un database di faglie attive – in Italia abbiamo ITHACA (ITaly HAzard from CApable faults), nato nel 2000 e gestito dall’ISPRA – tende a censire tutte le faglie che interessano un determinato territorio e che si sono mosse in tempi relativamente recenti (a seconda dei casi si ragiona sugli ultimi 10.000 anni, o sugli ultimi 40.000 anni, o anche su tempi più lunghi). Tuttavia, essendo basato quasi esclusivamente sull’evidenza di superficie, questo database difficilmente potrà contenere faglie cieche di qualunque ordine gerarchico, incluse quelle primarie, e tantomeno faglie a mare.
Si badi bene che dietro questo dualismo ci sono due visioni molto differenti della ricerca sulla sismogenesi. Il DISS “parte dai terremoti”, mentre ITHACA (così come tutte le compilazioni simili in giro per il mondo) “parte dalle faglie”. Dove c’è stato un forte terremoto ci deve essere per forza una grande sorgente sismogenetica, e questo spiega anche perché il DISS sia nato in qualche modo “imparentato” con il CFTI, il Catalogo dei Forti Terremoti in Italia, che non a caso è arrivato a piena maturazione fra il 1997 e il 2000. Sapendo che i grandi trend sismogenetici sono relativamente pochi e relativamente regolari, l’obiettivo iniziale del DISS era quello di ricostruire al meglio che fosse possibile questa “litania” di sorgenti sismogenetiche, messe in fila come un trenino. C’era un fatto certo, il terremoto – e questo implicava anche una sconfinata fiducia nelle capacità e nell’importanza della sismologia storica, che io ancora oggi difendo strenuamente – e c’era un esito incerto, ovvero la nostra capacità di “capire” la sorgente di quel terremoto. Viceversa, nella ricerca sulle faglie attive di superficie prima di tutto contano le faglie stesse, ovvero conta la capacità – mai scontata – di identificare importanti dislocazioni sul terreno e di certificarne “l’attività”; i terremoti semmai arrivano dopo, venendo “calati,” talvolta addirittura “forzati”, sulle strutture individuate, con la sola eccezione di quei pochissimi casi in cui siamo stati testimoni diretti sia dello scuotimento sismico, sia degli effetti geologici di superficie.
Un caso per tutti è quello del terremoto del 1693 nell’area iblea, che si trovò a essere assegnato alla cosiddetta scarpata ibleo-maltese, distante qualche decina di chilometri dall’area dei maggiori effetti di quell’evento, e che oggi in molti riteniamo essere in terraferma, probabilmente sotto la dorsale del Monte Lauro. Ritenevo – e a maggior ragione ritengo oggi – che quello fu un errore concettuale, basato sulla presunzione che tutte le faglie sismogenetiche abbiano un’espressione superficiale, e per di più, che siano ‘poche’. Ma era una presunzione, appunto, perché come già accennato, molte grandi faglie sismogenetiche sono parzialmente o totalmente cieche; ed erano gli stessi terremoti a mostrarci qualcosa che le faglie attive di superficie, evidentemente un sottoinsieme di tutte le faglie che attraversano la crosta terrestre, non avrebbero mai potuto insegnarci. Mi riferisco al terremoto del 1980 in Irpinia, generato da un faglia che arrivava in superficie ma che mai avrebbe potuto essere identificata a priori (in compenso ne venivano identificate numerose altre, che però quel 23 novembre 1980 non si mossero); al terremoto del 1908, un evento di magnitudo superiore a 7.0 generato da una faglia sorprendentemente ma evidentemente cieca; o anche al terremoto di San Giuliano di Puglia del 2002, generato da una faglia profonda 10-20 km che nessun geologo di terreno avrebbe mai potuto vedere e mappare. Le mie possono suonare come critiche sgradevoli, ma a 25 anni dall’inizio della vicenda che sta narrando credo sia giusto fare anche i conti con la storia, con i suoi successi e con gli eventuali errori; anche miei ovviamente.
Tornando al dualismo sorgenti vs. faglie attive (di superficie, è sottinteso), devo riconoscere che sto molto semplificando il tema, ma solo perché per me questa distinzione è chiarissima, e tuttavia, su questo dualismo negli ultimi 25 anni non sono mancati gli equivoci. Tra le faglie attive esistono in piccola misura anche elementi primari, ovvero elementi che rappresentano l’espressione diretta della fagliazione in profondità; ma resta vero che per la gran parte, le faglie attive sono in realtà faglie passive, che non è un gioco di parole ma indica il fatto che esse si mobilizzano esclusivamente se e quando si muove la sottostante sorgente sismogenetica, ovvero l’elemento strutturale di ordine gerarchico principale.
Fortunatamente questa mia affermazione si sta consolidando sempre di più negli ultimi anni, ma sono sicuro che esistono ancora molti geologi “duri e puri” che non ci si riconoscono, sia in Italia sia in molte altre regioni sismiche del globo. Su questo tema è utile mostrare una immagine tratta da Bonini et al. (2014), e che riguarda la sorgente del terremoto di L’Aquila del 2009:
La figura mostra due sezioni geologiche attraverso la faglia che ha generato quel terremoto, indicata in rosso e ben delineata dalla sismicità. Nell’articolo si tentò di gerarchizzare tutte le faglie che hanno avuto un ruolo in quel forte terremoto: dalla principale, che è poi la sorgente sismogenetica, indicata come Categoria 1, a dei piani di sovrascorrimento antichi che hanno limitato la dimensione della faglia principale “confinandola” tra circa 3 e circa 10 km di profondità e limitando così la magnitudo del terremoto(Categoria 2), alle faglie di superficie generate ex-novo (Categoria 4) o riattivate passivamente in quanto pre-esistenti (Categoria 5) dal movimento della faglia profonda.
Come dicevo sopra e come la figura mostra chiaramente, ricostruire la geometria di una sorgente sismogenetica profonda a partire dei soli elementi fragili di superficie è come minimo fonte di gravi ambiguità, perché si rischia di mappare come elementi primari e indipendenti delle faglie che in effetti si muovono solo in corteo e come risposta al movimento di un elemento di ordine gerarchico superiore, e come massimo impossibile. Idealmente una sorgente sismogenetica viene ricostruita a partire da dati strumentali di varia natura, che possono essere poi confrontati con l’evidenza di terreno; ma per i terremoti di epoca pre-strumentale bisogna ricorrere a un mix ben strutturato di dati storici, geologici e geomorfologici, che illustrino una evoluzione estesa su un orizzonte relativamente lungo, per esempio un milione di anni, e di dati geofisici, se disponibili, come ad esempio le tante linee sismiche industriali realizzate in Italia nell’ambito della ricerca degli idrocarburi.
La conoscenza delle faglie attive e delle sorgenti sismogenetiche è utile per tante ragioni, ma la sua applicazione più ovvia è nella stima della pericolosità sismica. E anche qui per me la distinzione è semplice e diretta. Conoscere le sorgenti sismogenetiche aiuta in modo anche sostanziale a valutare la pericolosità sismica da scuotimento (ground shaking hazard), che include anche la pericolosità dovuta a frane e liquefazioni, ma dice poco sui possibili effetti geologici ‘fragili’ di superficie di un forte terremoto. Viceversa, conoscere la distribuzione delle faglie attive dice poco o nulla sulla sismogenesi, ma ci consente di valutare pericolosità sismica da fagliazione superficiale (surface faulting hazard), ovvero gli effetti ‘fragili’ appena citati, con implicazioni evidenti sul corretto uso del territorio nelle aree che si trovano al di sopra di una grande faglia sismogenetica; anche perché dallo scuotimento ci si può sempre difendere, almeno in linea di principio, mentre ben poco si può fare di fronte alla possibilità che le fondamenta di un’infrastruttura critica vengono brutalmente dislocate da una scarpata di faglia, anche di un metro o più.
Si tratta quindi di due strumenti non alternativi ma del tutto complementari, perché ciascuno porta informazioni che l’altro non è strutturalmente in grado di fornire; ed è per promuovere questo principio che io e i miei colleghi più vicini ci siamo molto adoperati negli ultimi anni. Anche la Protezione Civile nazionale è ben consapevole di questo dualismo, tanto da aver finanziato già da alcuni anni un progetto che coinvolge INGV e ISPRA e che punta a rendere culturalmente, scientificamente e informaticamente interoperabili i due database DISS e ITHACA; questo avvantaggerà molto tutti coloro che si avvicinano a questi due strumenti, non sempre cogliendone le differenze.
DISS è nato nel 2000. Puoi ripercorrere brevemente le tappe della sua evoluzione?
Nel luglio 2000 abbiamo presentato il prototipo del DISS, che veniva distribuito su un CD-ROM insieme a un software GIS in uso gratuito; ma in effetti la sperimentazione era iniziata nel 1996, addirittura nell’ambito di una tesi di laurea, collegata ad un progetto europeo in cui l’INGV (allora ancora ING) collaborava con l’ISMES di Bergamo. Nel luglio 2001, esattamente un anno dopo, abbiamo presentato la versione 2.0 del DISS, che era accompagnata da un volumetto degli Annali di Geofisica, da un poster e da un CD-ROM.
L’accoglienza fu entusiastica, ma si trattava ancora di uno strumento molto rudimentale, che conteneva solo quelle che oggi chiamiamo “sorgenti individuali”, ovvero delle rappresentazioni semplificate – ma pienamente tridimensionali – delle sorgenti di numerosi forti terremoti del passato e anche di qualche possibile terremoto futuro. In quella fase pionieristica giocavano un ruolo centrale le “sorgenti macrosismiche”, di cui dirò nel seguito. Negli anni successivi però si capì che bisognava dare più spazio alla Geologia, che era l’unico modo per anticipare i terremoti del futuro e rendere il DISS uno strumento prognostico realmente utilizzabile per analisi di pericolosità sismica, ovvero “completo”.
Fu così che nel 2005 vennero introdotte le “sorgenti composite”, che affiancavano informazione geologica a quella sismologica condensata nelle “sorgenti individuali”. Lo scopo era quello di identificare tutti i principali sistemi di faglia estesi, senza poterli però segmentare, come si dice nel nostro gergo, nelle singole porzioni di questi sistemi che generanno un singolo forte terremoto. La prospettiva dichiarata – ma forse solo con la pretesa – era quella di costruire un insieme completo rispetto a tutte le sorgenti sismogenetiche che esistono sul territorio italiano, così come i sismologi storici si sforzano di rendere i loro cataloghi completi almeno per un congruo numero di secoli.
Le “sorgenti composite” sono definite con minor dettaglio di quanto non lo siano le individuali, ma si spingono coraggiosamente in zone dove non abbiamo ancora visto grandi terremoto ma è legittimo ritenere se ne potranno verificare nel futuro.
Ne 2009 sono state poi introdotte le “sorgenti dibattute”, ovvero delle faglie attive proposte in letteratura ma che non riteniamo ancora mature per una trasformazione in sorgenti vere e proprie, e le “zone di subduzione”; non solo quella ionico-tirrenica, ma anche quella dell’Arco Egeo – un’area del Mediterraneo in grado di generare forti terremoti e maremoti che possono interessare anche l’Italia – e quella, in larga misura disattivata, che si estende al di sotto dell’Appennino centrale e settentrionale.
In oltre 20 anni di storia il DISS è cresciuto molto (invito tutti a vedere la piccola ma eloquente animazione in cima a questa pagina di sintesi e a verificare l’evoluzione delle diverse versioni), anche attraverso la pubblicazione di sintesi regionali a cura degli autori del DISS e grazie all’avvio di collaborazioni con altri istituti di ricerca, italiani e stranieri. Abbiamo esteso il numero delle sorgenti composite, che sono triplicate, passando da 65 nel 2005 a 197 nel 2021; il numero dei riferimenti bibliografici, più che raddoppiato nello stesso intervallo di tempo, da 1.720 a 4.057, e il numero delle immagini associate alla descrizioni delle sorgenti, da 550 a 1.192; tutte le novità sono state attentamente registrate in un file di “Accompanying Notes” e il contenuto di ogni versione è stato “congelato” con l’assegnazione di un DOI (tutte le versioni sono scaricabili on-line).
Dal 2000 a oggi sono “solo” aumentate le conoscenze o sono intervenuti anche cambiamenti di punti di vista?
Questa è una domanda a cui mi fa molto piacere rispondere perché contiene l’essenza dello sforzo fatto in questi ultimi 25 anni. Premetto che il DISS non è un database nel senso stretto, ovvero uno strumento che si limita ad accumulare e rappresentare un certo set di conoscenze; al contrario, è uno strumento i cui contenuti sono sempre approvati e sottoscritti dai componenti del gruppo di lavoro, i quali in qualche modo “ci mettono la faccia”. Qualunque scelta, qualunque affermazione è riconducibile a uno o più autori, i quali hanno proposto e portato all’attenzione di tutto il gruppo di lavoro ipotesi scientifiche basate su proprie convinzioni o sull’analisi della letteratura. Ciò detto, si, l’orizzonte è molto cambiato rispetto ai primordi. Per sintetizzare al massimo, il DISS è partito come uno strumento basato da un lato su pochi forti terremoti del XX secolo, studiati o reinterpretati a partire da dati sismologici, geofisici, geodetici e storici, e dall’altro su un gran numero di terremoti storici, analizzati con la tecnica Boxer, non a caso pubblicata nel 1999. Boxer consentiva di estrarre una pseudo-sorgente sismica da un quadro macrosismico, purché ragionevolmente denso e ben distribuito geograficamente intorno all’area epicentrale. Questo modo di procedere era l’applicazione pedissequa del principio che ho enunciato, e cioè del fatto che è necessario partire dai terremoti e poi marciare a ritroso per studiare le faglie che li hanno generati; ma era anche il modo migliore per non impelagarsi nelle difficoltà intrinseche nella ricerca delle faglie attive, una volta stabilito che forse il 50% delle sorgenti dei grandi terremoti sono cieche, e al massimo causano in superficie un quadro deformativo che è difficile ricondurre alla sorgente primaria.
Con l’uscita della versione 3.0, nel 2005, c’è stata una prima rivoluzione. Abbiamo deciso di uscire da una fase pionieristica in cui era inevitabile utilizzare in maniera preponderante il dato storico e si è cercato di aprire una nuova fase in cui invece diventasse dominante la tipologia di dato che ci era più congeniale, ovvero quello geologico-sismotettonico. Come già accennato, nacquero le “sorgenti composite” e uscirono di scena le sorgenti basate esclusivamente su informazioni macrosismiche, anche se il dato storico non spariva del tutto ma continuava essere uno degli elementi principali nella costruzione delle sorgenti, particolarmente quelli individuali; tuttavia, a differenza di quello che avveniva in precedenza, tutte le sorgenti riflettevano in misura variabile un’informazione geologica, geofisica, e nei casi più favorevoli, sismometrica e geodetica.
Questo cambio di passo è stato reso obbligato dalla necessità – o comunque dal desiderio – di iniziare a mappare anche sorgenti sismogenetiche in mare, sfruttando la grande mole di dati geofisici disponibili per i bacini italiani. Difficilmente queste sorgenti, che includono anche l’area di subduzione ionico-tirrenica, possono essere caratterizzate con riferimento alla sismicità, sia storica che strumentale, e solo occasionalmente sono disponibili evidenze dirette di fagliazione sul fondo marino.
Tra i cambiamenti di filosofia, per così dire, c’è stata anche la decisione di migliorare l’accessibilità dei dati, in un processo che ha seguito e sfruttato la rapida evoluzione degli strumenti GIS, e negli ultimi 15 anni anche web-GIS. La versione 3.3.0 è interoperabile con diverse banche-dati pertinenti, quali il CPTI-DBMI, il CFTI, la banca-dati strumentale dell’INGV denominata ISIDe, oltre che, come già detto, con ITHACA. La base geografica può essere scelta in un ventaglio di proposte e possono essere aggiunti i confini amministrativi ISTAT e misurate distanze, come se ci si trovasse in un vero GIS da desktop. È quindi possibile realizzare immagini di grande ricchezza, caratterizzando il rapporto tra sorgenti sismogenetiche, sismicità del passato e sismicità strumentale. Va infine ricordata la possibilità di consultare il DISS attraverso Google Earth, con tutte le opportunità che a sua volta questa piattaforma consente.
La circolazione dei dati proposti da DISS è stata resa più facile dalla possibilità di scaricarli in vari formati di scambio e dal fatto che gli stessi dati oggi si interfacciano in modo diretto con OpenQuake, il software per il calcolo della pericolosità sismica di base che si sta rapidamente imponendo a scala globale. La sfida più recente riguarda la possibilità di rendere il pubblico degli utenti del DISS più partecipe dell’evoluzione di questa banca-dati, anche attraverso una presenza capillare sui social networks; questo sia per renderne l’uso più diffuso, sia per sollecitare possibili contributi esterni utili a migliorare la definizione delle sorgenti esistenti o a introdurne delle nuove.
Quali sono gli utilizzi attuali di DISS?
Noi monitoriamo costantemente gli accessi al DISS e riceviamo diverse sollecitazioni dagli utenti, ma è arduo capire chi c’è dietro ogni indirizzo IP; al massimo possiamo fare delle inferenze. Sappiamo dai record bibliometrici che il DISS viene consultato e attivamente utilizzato per scopi di ricerca, prevalentemente da colleghi italiani ma anche da studiosi del resto del mondo. Vediamo dati e immagini tratti dal DISS in numerose relazioni tecniche, realizzate dalle amministrazioni o da singoli professionisti, ad esempio nel contesto di attività di microzonazione a diversi livelli o di attività di rivalutazione della pericolosità sismica di siti di specifico interesse, come le reti di trasporto e le dighe.
C’è poi l’uso più “nobile”, che è particolarmente delicato perché impegna la banca-dati nella sua interezza: mi riferisco alla elaborazione di modelli di pericolosità a scala regionale o nazionale, come nel caso del recente modello MPS19. Il DISS entra in questi modelli direttamente, attraverso le “sorgenti composite” e relativi ratei di attività (ottenuti dagli slip rates), ma anche in altri modi meno diretti, come nella definizione della magnitudo massima attesa nelle diverse aree, nella delineazione di zone a sismicità omogenea, o nella definizione di macroaree in cui effettuare scelte operative diverse – ad esempio nella scelta delle relazioni di attenuazione più adatte a ciascuna area – e infine nella definizione delle aree da considerare di near-field.
L’idea di DISS è stata estesa all’Europa?
Certamente. Un primissimo tentativo data addirittura al periodo 1998-2000, quando le esperienze in corso in ambito DISS vennero estese al resto dell’Europa nel quadro del progetto comunitario Faust, di cui conserviamo gelosamente in vita il sito originario.
Tra il 2009 e il 2013 il DISS è stato adottato come una sorta di template per la costruzione di EDSF13 (oggi aggiornato in EFSM20) dal progetto comunitario SHARE , che aveva come obiettivo primario la realizzazione di un nuovo modello di pericolosità a scala europea. Le “sorgenti composite” sono state scelte come elemento di base di una mappatura da estendere a tutto il continente europeo, o almeno della sua porzione in cui esistono faglie in grado di generare forti terremoti. In quegli stessi anni era attivo il progetto EMME, un omologo di SHARE che si proponeva di realizzare un modello di pericolosità per la Turchia e il Medio Oriente, e il modello EDSF venne così armonizzato con l’imponente raccolta di faglie sismogenetiche che caratterizza quei territori.
ll modello DISS è stato poi mutuato – in alcuni casi con il relativo software – da alcuni altri singoli paesi europei. Citerò qui solo il caso del GreDaSS (Greek Database of Seismogenic Sources), realizzato dalle università di Ferrara e di Salonicco.
Esistono realizzazioni simili in altre parti del mondo?
Esistono alcune decine di compilazioni di “faglie attive”, “faglie sismogenetiche”, “lineamenti” e tutte le categorie intermedie; molte sono censite dal progetto GEM-Global Active Faults, che non a caso nelle sue fasi iniziali prese ad esempio proprio il DISS-EDSF (si veda il report del progetto GEM-Faulted Earth). Ma a onor del vero – e mi si perdoni l’immodestia – quasi nessuna di queste compilazioni offre tutta la ricchezza di informazione immagazzinata dal DISS, con la sola eccezione della California: una ricchezza dovuta soprattutto al fatto che l’Italia possiede una storia sismica ricchissima, una comunità delle Scienze della Terra molto attiva, e molti dati di esplorazione geofisica, ed è sede di terremoti che vengono registrati e studiati con grande attenzione. Anche altri paesi godono di queste prerogative, ma per ragioni che non so spiegarmi i loro modelli della sismogenesi basati su faglie attive sono ancora molto essenziali: valga per tutti l’esempio del Giappone, dove ancora si fatica a trattare in modo naturale persino la terza dimensione delle faglie, quella verticale: cruciale per la pericolosità sismica, ma decisamente ostica per il geologo tradizionale.
È possibile valutare la “completezza” di DISS?
Temo che la risposta sia negativa, o comunque non semplice. È un fatto che l’introduzione delle “sorgenti composite” nel 2005 servisse proprio a “rincorrere” la completezza, ma è arduo dire a che punto siamo oggi. Un esercizio utile può essere quello di confrontare gli earthquake rupture forecasts (ERFs) proposti da Visini et al. (2021) nel quadro della elaborazione della MPS19, e ragionare sulle differenze tra il modello “DISS based” (MF1) e gli altri modelli non basati su sorgenti sismogenetiche (spero che qualcuno elabori queste differenze e ci scriva sopra un articolo, che sarebbe utilissimo). Un giorno lontano potremmo valutare questa completezza attraverso dati GPS, come hanno fatto Carafa et al. (2020) per una porzione dell’Appennino centrale, in via sperimentale.
What next?
What next…. Dal punto di vista dei contenuti è relativamente facile ipotizzare che continuerà incessante la ricerca di nuovi dati e di nuove sorgenti, ma che la struttura della banca-dati resterà abbastanza stabile per qualche anno almeno. Mi è più difficile rispondere per ciò che riguarda gli utilizzi del DISS: le possibili applicazioni sono numerose, ma ho spesso la sensazione che siamo stati più veloci noi a crearlo, nonostante che ormai siano passati esattamente 25 anni dai primi esperimenti, che non il mondo dei possibili utenti a sfruttarlo.
Normalmente in un modello di pericolosità a scala nazionale o regionale entrano tre set di dati di ingresso, che idealmente possono essere usati per costruire modelli della sismogenesi in teoria indipendenti, ma in pratica variamente intrecciati tra loro, come ho raccontato finora. Li descriverò brevemente in ordine crescente di complessità:
- modelli a sismicità diffusa (smoothed seismicity), che si basano esclusivamente sui terremoti già accaduti, talora con piccoli correttivi di natura sismotettonica, e che letteralmente “spalmano” la sismicità già vista su zone più ampie. La produttività sismica è quindi strettamente proporzionale a quello che arriva dal catalogo sismico utilizzato;
- modelli di zonazione sismogenetica, nei quali il territorio è suddiviso in aree indipendenti all’interno di ciascuna delle quali si assume che la sismicità abbia caratteristiche costanti, indipendentemente dal punto esatto che si considera, inclusa la produttività sismica; quello che si ottiene è un patchwork di zone più o meno grandi all’interno delle quali la sismicità è omogenea;
- modelli di sorgente sismogenetica, ovvero modelli quali il DISS, nei quali la delineazione delle sorgenti è guidata anche dalla conoscenza dei forti terremoti del passato, ma la produttività sismica è calcolata in modo indipendente sulla base delle stime dei ratei di dislocazione delle faglie (gli slip rates). Quello che si ottiene è un andamento delle sismicità che segue fedelmente le strutture sismogenetiche riconosciute.
Il modello MF1, l’unico ad essere stato derivato esclusivamente dalle sorgenti del DISS, offre evidentemente una migliore risoluzione spaziale, come fosse un quadro disegnato con un pennello più sottile; consentendo da un lato di determinare con maggior accuratezza quale sarà lo scuotimento atteso al di sopra delle sorgenti, ovvero nel cosiddetto near-field (al netto di altri effetti di sorgente come la direttività e di eventuali e onnipresenti effetti di sito, ovviamente), dall’altro di non ‘portare pericolosità’ in zone in cui l’evidenza geologica, corroborata da quella storica e strumentale, non mostra la presenza di simili sorgenti sismogenetiche. Il DISS offre questa informazione: se non dovunque, in molti luoghi dell’Italia.
L’immagine qui di seguito (Fig. 3 di Meletti et al., 2021) mostra che da ognuno di questi modelli è possibile calcolare dei ratei di sismicità ai nodi di una griglia regolare e con un passo adeguato a non creare singolarità indesiderate (in genere qualche km).
Le due immagini che seguono mostrano la differenza tra il modello di pericolosità sismica elaborato per la Turchia nel 1996 (sopra), basato essenzialmente su un modello di zonazione sismogenetica tradizionale, e il modello pubblicato nel 2018 (sotto), che fa tesoro delle conoscenze sulle sorgenti sismogenetiche raccolte grazie ai già citati progetti SHARE e EMME. Si percepisce distintamente la differenza di potere risolvente dei due modelli, particolarmente evidente nel settore occidentale del paese; e si percepisce anche l’aumento della ‘dinamica’ del modello del 2018, che mostra valori di accelerazioni alti a cavallo delle sorgenti sismogenetiche e valori bassi i quasi nulli lontano da esse.
Fino ad oggi in Italia non siamo riusciti a cogliere del tutto questa opportunità, che potrebbe contribuire a rendere più accurato il modello di pericolosità sismica. I motivi veri non mi sono chiari, anche se qualcuno ritiene che DISS non sia sufficientemente maturo a questo scopo, senza peraltro spiegarlo in modo opportuno.
_______________
Chiudo ringraziandoti per l’opportunità che mi hai dato di riflettere e scrivere su questi 25 anni di storia, che peraltro ci hanno visto sempre ragionare in buona sintonia (anche se inizialmente eravamo su due fronti opposti, quali sono stati ING e GNDT fino al 2001, anno di nascita dell’INGV). Ringrazio anche tutti coloro che avranno avuto la pazienza di arrivare a leggere questi pensieri fino in fondo.