Norme tecniche per le costruzioni, modelli di pericolosità sismica e sicurezza degli edifici (colloquio con Antonio Occhiuzzi)

Anche se l’interesse maggiore di questi tempi è ovviamente per l’emergenza Covid, abbiamo ritenuto utile proporre una interessante analisi sul problema della sicurezza sismica degli edifici in relazione alle norme tecniche e ai modelli di pericolosità sismica.

Antonio Occhiuzzi, napoletano e tifoso del Napoli, è professore di Tecnica delle Costruzioni presso l’Università Parthenope. E’ laureato in ingegneria a Napoli e al MIT di Boston, ha un dottorato di ricerca in ingegneria delle strutture, materia cui si dedica da sempre.
Dal 2014 dirige l’Istituto per le Tecnologie della Costruzione (ITC), ossia la struttura del CNR che si occupa di costruzioni, con sedi a Milano, Padova, L’Aquila, Bari e Napoli.

Caro Antonio, tempo fa avevi commentato un mio post di risposta a un articolo dell’Espresso in cui veniva riproposta, come avviene periodicamente, la questione del superamento dei valori di progetto in occasione dei terremoti recenti e, di conseguenza, la presunta fallacia dei modelli di pericolosità e delle normative basate su di essi, quasi che entrambi fossero responsabili dei crolli e delle vittime. https://terremotiegrandirischi.com/2019/08/27/la-colpa-e-dei-modelli-di-pericolosita-sismica-di-massimiliano-stucchi/

Poichè in questa problematica si intrecciano aspetti sismologici e ingegneristici, ti ho invitato a approfondire la tematica.

 Caro Max, l’avevo commentato perché ero assolutamente d’accordo con te. L’articolo dell’Espresso, rivolto al grande pubblico, risulta ingannevole per il non addetto ai lavori perché vengono mescolate considerazioni ragionevoli a clamorose inesattezze. Il giornalista si basa su di un’intervista a un geofisico, la figura professionale più credibile per studiare i fenomeni fisici del nostro pianeta: tuttavia, quando poi si passa agli effetti di tali fenomeni sulle costruzioni, il geofisico diventa, come lo sarebbe un medico o un letterato, un incompetente, perché si “entra” nei temi dell’ingegneria strutturale e, in particolare, di quella antisismica. Temi che non fanno parte degli studi e delle esperienze di geologi, fisici, medici e letterati (tra i tanti).

Le mappe, o meglio I modelli, di pericolosità sismica vengono compilati – nella maggior parte delle nazioni e anche dei progetti internazionali – secondo un approccio probabilistico, poiché questo viene “richiesto” dagli utilizzatori dei modelli stessi, ovvero dagli ingegneri progettisti. Ci puoi spiegare perché?

La progettazione strutturale e antisismica è, in tutto il mondo evoluto, basata su concetti probabilistici, anche per quanto concerne le azioni, incluse quelle sismiche. E questo approccio non è in discussione nella comunità mondiale dell’ingegneria strutturale (e antisismica). Il motivo, che spesso sfugge a chi non è del mestiere, è che la progettazione strutturale è dominata dalle incertezze: incertezze nella definizione delle azioni, sui modelli utilizzati, sulle resistenze dei materiali. Per tale motivo, la progettazione strutturale è convenzionale: nessuno al mondo pensa che nei solai di abitazione ci sia un carico variabile uniformemente distribuito pari a 2 kN/mq, che sarebbe a dire che in ogni stanza della casa c’è un allagamento con l’acqua alta 20 cm. Tuttavia, praticamente tutte le case del mondo sono progettate secondo questo tipo di ipotesi, per la quale gli effetti dei carichi che possono realmente interessare gli ambienti di una casa sono probabilisticamente minori di quelli corrispondenti a quella specie di “piscina” di cui parlavo prima. L’approccio probabilistico cerca di coniugare accuratezza e fattibilità operativa: in alternativa, ad esempio, un progettista dovrebbe prevedere, nell’ambito di un soggiorno, quale possa mai essere la disposizione dell’arredo e la posizione degli occupanti, eseguire i calcoli e imporre di non spostare divani, tavoli e pianoforte e di sedersi sempre tutti allo stesso posto. Sarebbe la “maximum credible furniture position”, concetto analogo a quello di “maximum credible earthquake” descritto nell’articolo dell’Espresso. In entrambi i casi, inutilizzabile per l’ingegneria antisismica: ti assicuro che prima o poi il pianoforte lo spostano e che il prossimo terremoto che arriva in un’area avrà caratteristiche che ai fini della sicurezza delle costruzioni saranno differenti da quelle previste: occorre progettare senza avere la presunzione di “sapere tutto”, ma gestendo “probabilisticamente” le incertezze.

Per inciso, è corretto dire che le azioni proposte dalla normativa rappresentano un valore minimo, obbligatorio, ma che se un proprietario decide di adottare valori superiori per ottenere una sicurezza maggiore è libero di farlo?

E’ corretto. Il “minimo obbligatorio” è frutto di un compromesso tra esigenze diverse e “contrastanti”. Nell’ambito delle costruzioni, due esigenze contrastanti sono la “resistenza al crollo” e il “danneggiamento delle componenti non strutturali”. Aumentare l’intensità delle azioni corrisponde a costruzioni più resistenti e più rigide: questo corrisponde ad accelerazioni ai piani più elevate e, di conseguenza, a danneggiamenti più elevati per partizioni esterne e interne, impianti, finiture, etc. Se diminuisce l’intensità delle azioni attese, la costruzione è meno resistente, meno rigida e durante un terremoto subisce accelerazioni ai piani più modeste: meno danni, ma aumenta il “rischio crollo” (per semplificare). Il “punto di equilibrio”, basato sull’esperienza, è – per ora – quel 10% in 50 anni.
Se però io avessi un minuto da dedicare a ciascun proprietario di casa, lo utilizzerei dicendogli di non fare soppalchi abusivi, non nascondere i radiatori realizzando nicchie nelle murature portanti, non tagliare o comunque danneggiare travi e pilastri in calcestruzzo armato per fare spazio agli impianti tecnologici, di risparmiare e poi spendere qualche soldo per le verifiche strutturali e per il consolidamento strutturale. Il minuto sarebbe finito e non sarei pentito di non avere avuto il tempo di parlargli dell’ultimo dei problemi, ossia la modifica di dettaglio dell’intensità dell’azione sismica rispetto a una definizione che va già sostanzialmente bene.

E’ però vero che in alcuni paesi si cominciano a adottare azioni con probabilità di superamento più basse, così come avviene, per inciso, per opere pubbliche di particolare rilevanza. E qualcuno spinge per adottare il massimo terremoto atteso, sempre ammesso che lo si sappia valutare.

Mi perdonerai la franchezza, ma questo è un falso problema. Ti racconto un aneddoto. Alla fine del 2008 partecipai alla progettazione di un nuovo padiglione dell’ospedale di Fivizzano, in Garfagnana. Proposi subito l’adozione delle allora recenti NTC 2008: tutti, committente, tecnici, persino i colleghi del locale Genio Civile mi dicevano “siamo nel periodo transitorio, perché non vai con le norme del 1996?”. Insistetti, e l’edificio fu realizzato secondo le NTC 2008, forse uno dei primi in Italia, all’inizio del 2009, prima del terremoto di L’Aquila. Nel giugno 2013 accadde un terremoto, non un evento epocale (M=5.1), ma con epicentro molto prossimo a Fivizzano. Nel plesso ospedaliero c’è una stazione accelerometrica della rete nazionale: guardando PGA e spettro di risposta in accelerazione ricavati dal segnale registrato, mi accorsi che si trovavano ben al di sopra dello spettro di progetto allo SLD e al di sotto di quello allo SLU. Un sopralluogo permise di constatare che gli unici danni rilevati nel nuovo padiglione riguardarono due piccole lesioni nei componenti non strutturali di partizione esterna. La riparazione durò mezza giornata. Voglio dire che mentre ci sono testimonianze empiriche, come quella che ti ho raccontato, del fatto che la scelta di utilizzare una certa probabilità di superamento in un dato periodo “ha funzionato”, non esiste alcun caso reale, per edifici progettati e realizzati secondo le norme attuali (dalle NTC 2008 in poi), che mostri che le scelte alla base di tali normative sono sbagliate.

Uno degli argomenti più usati – strumentalmente – per attaccare modelli di pericolosità e normativa sismica basata su di essi è l’avvenuto superamento dei valori di progetto in occasione di terremoti recenti. Premesso che, a parte gli svarioni che vengono commessi nell’effettuare questi confronti,  i valori adottati per la progettazione sono “superabili” per definizione se si accetta un x% di probabilità di superamento in x anni, l’idea che viene trasmessa al pubblico è che se le azioni sismiche superano quelle di progetto la costruzione crolla. E’ così?

 In generale non è così. Come dicevamo prima, l’approccio attuale dell’ingegneria antisismica mondiale è fondato su basi probabilistiche. Questo significa che l’impostazione normativa prevede esplicitamente che non sia nota, ad esempio, l’entità dell’azione sismica (ovviamente in un certo, ragionevole intervallo). Per esemplificare, se la PGA di progetto allo Stato Limite Ultimo (SLU) è, per un dato sito, pari a 0,27g, puoi star sicuro che un edificio correttamente progettato avrà il comportamento previsto anche per valori superiori della PGA. Naturalmente, se impattiamo un asteroide e il moto del suolo arriva a punte di accelerazione molto maggiori, ad esempio 10 volte maggiori, questo discorso non vale più. Ma per una data area, l’attuale impostazione progettuale tiene in considerazione il fatto che le azioni possano essere ragionevolmente superiori a quelle di progetto senza che la sicurezza della costruzione ne risenta significativamente. A tale risultato si perviene per due strade principali.
La prima concerne i coefficienti di sicurezza (parziali) previsti dalle norme vigenti, che riguardano le azioni, le resistenze e i modelli di valutazione. La questione è un po’ sottile, per addetti ai lavori: i coefficienti parziali sono parzialmente esplicitati nelle norme, ma sono spesso invisibili ai “non specialisti” e pertanto applicati spesso senza che progettisti ed esecutori ne abbiano esatta contezza. Semplificando in maniera estrema, e perdendo quindi in rigore scientifico, posso dirti che l’effetto globale dei coefficienti parziali (espliciti e nascosti) comporta per una costruzione in calcestruzzo armato un margine di sicurezza compreso tra 2,5 e 3, che aumenta nel caso di meccanismi di rottura fragile (di nuovo, roba da super-specialisti). Questo significa che azioni, modelli e resistenze previste in progetto possono essere sbagliati – complessivamente – fino al 150-200% prima di causare un crollo. Può sembrare tanto, ma al momento in tutto il mondo questa è più o meno la riserva di resistenza che viene ritenuta necessaria.
La seconda è il concetto di duttilità. Secondo le attuali norme di progettazione e di esecuzione, gli organismi strutturali sono in grado di resistere ad azioni maggiori di quelle previste in progetto utilizzando meccanismi di duttilità e di dissipazione energetica e purché non insorgano meccanismi di rottura fragile (accuratamente evitati mediante l’applicazione di coefficienti parziali di modello e del concetto di “gerarchia delle resistenze”). Aggiungo, inoltre, che le costruzioni moderne dispongono di “riserve di resistenza” aggiuntive delle quali non si tiene conto nella progettazione, ma che comunque esistono.
Per quanto detto, quindi, la tesi che accelerazioni sismiche effettive alla base superiori a quelle convenzionali di progetto (di quanto: 10, 20, 50%?) siano in qualche modo un problema che riguarda la sicurezza delle costruzioni è priva di qualsiasi riscontro nel mondo dell’ingegneria antisismica.

Tornando al problema principale, possiamo affermare che i crolli che riscontriamo in occasione di molti terremoti non sono dovuti al superamento delle azioni di progetto? Sei a conoscenza di casi in cui questo si sia verificato in modo dimostrato?

Le costruzioni realizzate a partire delle recenti normative antisismiche (dall’Ordinanza PCM del 2003 in poi) hanno un grado di sicurezza nei riguardi delle azioni sismiche molto elevato (la sicurezza “assoluta” non esiste!). Quelle che hanno “sofferto” e soffriranno per i terremoti sono sostanzialmente costruzioni non realizzate secondo criteri antisismici o oggetto di manomissioni operate con poco scrupolo. Sintetizzando, fino ad oggi hanno fatto più morti i soppalchi e le aperture abusive che la PGA.

Qui ovviamente si apre la questione del come mai questo avvenga. Che crollino alcune costruzioni non realizzate secondo criteri antisismici, ad esempio prima che il relativo Comune venisse inserito nelle zone sismiche, ci può stare: tuttavia ci sono fior di costruzioni di quel tipo che hanno superato in maniera decente la prova del terremoto. Come mai avviene questo?

L’ingegneria antisismica è una disciplina relativamente moderna. Fino agli anni ’80 è rimasta confinata nei dipartimenti (allora erano istituti) universitari, la prima generazione di laureati in ingegneria civile con l’esame di costruzioni in zona sismica nel libretto è apparsa sul mercato del lavoro nella decade a cavallo del nuovo millennio. I crolli registrati in Italia in corrispondenza dei terremoti sono riferiti, nella stragrande maggioranza dei casi, a costruzioni in muratura non ingegnerizzate o a edifici in calcestruzzo armato non progettati e realizzati secondo criteri antisismici. Anche per questo tipo di costruzioni, però, esiste una capacità, ancorché limitata, di resistere alle azioni sismiche. Una muratura regolare, ben conservata, con aperture geometricamente ordinate può essere in grado di sostenere azioni orizzontali significative anche se chi l’ha realizzata non lo sapeva.

Anche senza tirare in ballo probabilità di superamento, argomento sempre ostico e scivoloso ad ogni semplificazione, si può dire che il modello di pericolosità ha fornito alcuni “terremoti” di riferimento di entità crescente, per ogni località Italiana. Le NTC hanno deciso di usare (per civile abitazione) due di questi, richiedendo ai progettisti di superarne uno senza danni e l’altro senza crolli.  Alla luce delle esperienze degli ultimi anni, ritieni ancora questa assegnazione la migliore (per lo Stato e per il proprietario) o c’è spazio per un passaggio dall’approccio “salva vite” a quello “limitazione del danno”, per avere in futuro crateri ancora più piccoli e meno danneggiati?”

Caro Max, devo dire che ancora una volta siamo “fuori fuoco”. Le vite perdute e i danni occorsi durante i terremoti italiani delle ultime decadi sono dovuti a due diversi fattori, tra i quali certamente non c’è la scelta operata in sede di NTC. Il primo è che morti e danni hanno riguardato costruzioni precedenti all’attuale assetto normativo. Sotto questo profilo è fuorviante associare i danni e le tragedie che osserviamo al telegiornale con l’attuale norma tecnica. Il secondo è che morti e danni hanno riguardato molto spesso costruzioni malamente manipolate e per questo indebolite nei riguardi della sicurezza strutturale e antisismica (ricordi la “casa dello studente” di L’Aquila? O le foto di Amatrice con le murature portanti “tagliate” in corrispondenza di improbabili soppalchi?). Ovviamente, tutto è migliorabile, anche le mappe di pericolosità e l’uso che se ne fa nell’ingegneria antisismica: tuttavia, questi aspetti oggi sono molto meno importanti del dramma di avere in tutto il Paese una maggioranza di costruzioni irrispettose di qualsiasi criterio antisismico anche minimo.

A volte, perdonami la franchezza, mi sembra che il dibattito scada nel paradossale osservando che una diversa modellazione delle azioni sismiche porta a oscillare il rapporto tra capacità e domanda (ossia il livello di sicurezza antisismica) tra 0,9 e 1,1 mentre la stragrande maggioranza delle costruzioni italiane delle zone sismiche 1 e 2, ivi incluse scuole, tribunali, edifici sportivi e case, ha valori prossimi a 0,3, offrendo quindi una sicurezza strutturale pari a circa un terzo di quella che viene richiesta oggi alle nuove costruzioni!

 

 

Parlare di terremoti e di pericolosità sismica, oggi?

Meglio di no, certo. Ci sono ben altri problemi, oggi; anche se, inevitabilmente, qualcuno azzarda paragoni con l’epidemia, a volte azzeccati, a volte maldestri.
Anche la puntata di “Presa Diretta”, che doveva continuare l’opera di critica nei confronti del modello di pericolosità sismica adottato dalla Normativa Tecnica per le Costruzioni, già rinfocolata da L’Espresso lo scorso agosto e ripresa addirittura da una indagine della Corte dei Conti (!), è stata rinviata.

Rimandare alla fase 2? La fase 3? Ma quando comincia la fase 2, e soprattutto come sarà questa fase 2? Molti si ingegnano a cercare il “picco” attraverso modelli più o meno complessi, che cercano di utilizzare dati abbastanza farlocchi. Altri protestano perché non viene spiegata in dettaglio la fase 2; altri ancora se la prendono con i “trasgressori” del lockdown, che impediscono la discesa della curva. Si aprono inchieste, giuste ma forse non prioritarie, quando si pensa ai degenti del Triulzio o di altre RSA ancora vivi, da proteggere (vogliamo parlare di che cosa si fa per loro, oggi?).

E da parte dei media continua, imperterrita, la ricerca del parere degli esperti, più spesso per evidenziare eventuali disaccordi che non per fornire al pubblico elementi di informazione e di conoscenza. Come nel caso di terremoti, appunto.

Nell’autunno scorso, con Carlo Meletti, avevamo scritto un articolo che voleva fare il punto sul modello di pericolosità sismica MPS04 e cercava di smontare bufale e fake news in proposito.
Anzi, cercava di fare di più: di ragionare sul problema.

Questo articolo sta per essere pubblicato sul prossimo numero di “Progettazione Sismica”, che ringrazio per aver reso disponibile una preview al seguente link

https://drive.google.com/file/d/1bFNXPSqZL2K6I6njQJlFy9tu_a7EyJDe/view

Ho pensato di renderlo disponibile comunque.

In aggiunta, succede che mercoledì 15 aprile, alle ore 12, parlerò proprio di questi temi nel corso di un Webinar organizzato dalla Università di Camerino, in particolare da Emanuele Tondi, che è anche direttore della locale sede INGV.

Doveva essere un seminario per studenti, in loco: le circostanze l’hanno trasformato in un webinar aperto a tutti, che potrà essere seguito da questo link

https://unicam.webex.com/meet/emanuele.tondi

Niente di speciale, cose forse già dette. Per studenti che vogliono continuare a studiare, capire e prepararsi alle prossime fasi.

Gravimoti: la discussione continua (di Patrizio Petricca e Giuseppe De Natale)

Patrizio Petricca (Università Sapienza, Roma). Caro Gianluca, grazie per questa tua intervista che alimenta la discussione alla base della ricerca scientifica, importante sia tramite canali ufficiali (le riviste peer-reviewed) che, in qualche modo, su blog come questo. Condivido ciò che dice nel suo commento Giuseppe De Natale, che riprende un concetto di Popper, ovvero che la Scienza progredisce attraverso nuove proposte che spingono la comunità scientifica a chiarire meglio i concetti ed a trovare precisamente gli errori. Vedo con soddisfazione che l’argomento genera interesse e spero che in futuro il modello venga confutato o confermato da nuovi studi.

Continua a leggere

Gravimoti: altri commenti (di Giuseppe De Natale e Roberto Devoti)

Continua a leggere

Enzo Boschi, un anno dopo (colloquio fra Massimiliano Stucchi e Tullio Pepe)

Introduzione. Da un anno Enzo Boschi non è più con noi, e già questo sembra un paradosso: quando gli si parlava, il futuro sembrava sempre molto vicino, tutto sembrava possibile, in una vita abbastanza “spericolata” che sembrava comunque praticamente illimitata, come la crescita dell’ING prima e dell’INGV poi, attraverso lo sfruttamento delle occasioni che si presentavano (terremoti, eruzioni) e l’impegno consapevole di gran parte dei ricercatori che ne avevano beneficiato. Continua a leggere

Gravimoti: alcuni commenti all‘intervista di Valensise (di Carlo Doglioni)

Riceviamo da Carlo Doglioni questo commento, che pubblichiamo come contributo indipendente, all’intervista a Gianluca Valensise
https://terremotiegrandirischi.com/2019/12/17/gravimoti-un-nuovo-paradigma-intervista-a-gianluca-valensise/
 
Carlo Doglioni, geologo, è professore di geodinamica all’Università Sapienza di Roma dal 1997. Dal 2009 al 2014 è stato presidente della Società Geologica Italiana; dal 2009 è membro dell’Accademia dei Lincei e dal 2011 dell’Accademia dei XL. Dal 27 aprile 2016 è presidente dell’Istituto Nazionale di Geofisica e Vulcanologia.

La teoria del rimbalzo elastico è stata una grande innovazione all’inizio del secolo scorso. Questo modello assumeva l’ipotesi che le faglie sismogenetiche fossero “prevedibili” nel loro comportamento e che tendessero alla rottura in modo simile e con la stessa magnitudo in un ciclo potenzialmente infinito. Questa assunzione, indistinta per gli ambienti tettonici estensionali, compressivi o trascorrenti, si è dimostrata poco attinente alla realtà più complessa del ciclo sismico.
I terremoti estensionali hanno per esempio un certo numero di differenze rispetto a quelli compressivi che non possono essere spiegate se non con meccanismi genetici diversi.

Continua a leggere

Gravimoti: un nuovo paradigma? (intervista a Gianluca Valensise)

Gianluca Valensise, del Dipartimento Terremoti, INGV, Roma, è sismologo di formazione geologica.Dirigente di ricerca dell’INGV, è autore di numerosi studi sulle faglie attive in Italia e in altri paesi. In particolare è il “fondatore” della banca dati delle sorgenti sismogenetiche italiane (DISS, Database of Individual Seismogenic Sources: http://diss.rm.ingv.it/diss/).  Ha dedicato oltre 30 anni della sua carriera a esplorare i rapporti tra tettonica attiva e sismicità storica, con l’obiettivo di fondere le osservazioni geologiche con l’evidenza disponibile sui grandi terremoti del passato.
Da qualche anno è emerso, nel panorama geo-sismologico italiano, il termine “gravimoti”: gli abbiamo chiesto di commentare l’origine e il significato.

Da qualche anno abbiamo cominciato a sentire parlare di “gravimoti”, in alcuni casi come alternativa al termine “terremoti”. Ci puoi riassumere da dove nasce questa idea e a cosa si riferisce?

Continua a leggere

Come (e quando) nacque l’INGV… (di Massimiliano Stucchi)

Premessa. A dispetto del fatto che in questi giorni si voglia celebrare il ventesimo anniversario della nascita dell’INGV, l’INGV nacque invece il 10 gennaio 2001. Nel 1999 uscì il Decreto Legislativo 381/1999, che stabilì il percorso e le modalità di costituzione dell’INGV. Fino al 10 gennaio 2001 l’INGV non esisteva; esistevano al suo posto gli istituti che vi sarebbero confluiti, con i loro presidenti, direttori e organi di governo. Come ha commentato un ex-collega, celebrare la nascita dell’INGV nell’anniversario del suo decreto istitutivo, che aveva fissato anche l’itinerario per la nascita vera e propria, è un po’ come “anticipare la celebrazione del compleanno al giorno del concepimento” (cit.). Ma comunque.
Pensavo quindi di avere un po’ di tempo per preparare un ricordo circostanziato, magari assieme a Tullio Pepe e altri; questo anticipo mi costringe a essere un po’ approssimativo, e mi scuso con chi ha vissuto le esperienze che descrivo se non troverà la narrazione perfettamente corrispondente a come si svolsero i fatti. Comunque mi è piaciuto scriverlo: commenti benvenuti e…rimedierò nel 2021.

Correva l’anno 1999 e, come ci ha ricordato un altro ex-collega, a Erice (Trapani), alto luogo della ricerca scientifica, si tenne in luglio una sessione un po’ particolare della “School of Geophysics”, diretta da Enzo Boschi. Si riunirono infatti, in prevalenza, ricercatori italiani afferenti agli istituti di ricerca del settore geofisico, sismologico e vulcanologico (ING, CNR, Osservatorio Vesuviano, Osservatorio Geofisico Sperimentale di Trieste), oltre a docenti universitari di varie discipline afferenti alla geofisica. Era presente anche qualche docente di ambito geologico. Continua a leggere

How (and when) INGV was born (by Massimiliano Stucchi)

translated from https://terremotiegrandirischi.com/2019/09/26/come-e-quando-nacque-lingv-di-massimiliano-stucchi/ by googletranslate, revised

Premise. In spite of the fact that these days the twentieth anniversary of the birth of INGV is going to be celebrated, INGV was actually born on January 10th 2001. In 1999, Legislative Decree 381/1999 was published, which established the path and methods of establishing the INGV. Until January 10, 2001, INGV did not exist; in its place there existed the institutes that would have merged there later, with their presidents, directors and governing boards.
As one former colleague commented, celebrating the birth of INGV on the anniversary of his institutional decree, is a bit like “anticipating the birthday celebration to the day of conception ”(cit.). Anyhow.
I therefore thought I had some time to prepare a detailed account, perhaps with Tullio Pepe and others; this advance forces me to be a bit approximate, and I apologize to those who have lived through the experiences I describe if they will not find my narrative perfectly corresponding to how the events took place. However I liked writing it: comments are welcome and … I’ll fix it in 2021.
Continua a leggere

“Non è vero ciò che è vero, ma è vero ciò che si decide sia vero” (Claudio Moroni, cit.). Di Massimiliano Stucchi

Parte 1: passaggio a L’Aquila, per un altro processo.
Il giorno 9 settembre 2019 sono stato convocato, in qualità di testimone, da un avvocato difensore di alcuni cittadini che hanno avviato, credo nel lontano 2010, una causa civile contro la Presidenza del Consiglio dei Ministri (PCM) per risarcimenti – pare multimilionari – ai parenti di alcune  vittime del terremoto del 6 aprile 2009, di nuovo in relazione alla riunione di esperti del 31 marzo 2009. Il colpevole sarebbe la PCM, in quanto le attività degli esperti vennero svolte a favore del Dipartimento della Protezione Civile, che dipende dalla PCM. L’accusa, sempre la solita: avere rassicurato le vittime, inducendole a non uscire di casa prima del terremoto distruttivo. Continua a leggere