Quando le azioni sismiche di progetto vengono superate: colloquio con Iunio Iervolino

La stampa riporta, con attenzione crescente, informazioni sull’avvenuto superamento – in occasione di terremoti forti in Italia – delle azioni sismiche di progetto previste dalla normativa sismica. Il confronto fra le azioni sismiche di progetto, previste dalle attuali NTC, e i valori registrati in occasione di terremoti forti in Italia ha una storia abbastanza recente. Questo confronto è reso possibile dal fatto che le azioni sismiche di progetto sono espresse oggi in termini direttamente confrontabili con quelli delle registrazioni stesse, per esempio mediante spettri di risposta, cosa che non avveniva in passato.
Spesso l’informazione sui superamenti è accompagnata – nella stampa o da commenti inesperti – da un giudizio sommario di inadeguatezza delle norme sismiche e, a volte, dei modello di pericolosità sismica sui quali si appoggiano. Questo giudizio rischia di gettare un’ombra anche sulla sicurezza degli edifici costruiti secondo quelle norme.
Ne parliamo oggi con Iunio Iervolino, ingegnere, professore ordinario per il settore scientifico-disciplinare Tecnica delle Costruzioni presso l’Università Federico II di Napoli, dove coordina anche il dottorato di ricerca in Ingegneria Strutturale, Geotecnica e Rischio Sismico. Tra le altre cose ha conseguito un dottorato in Rischio Sismico ed è stato allievo di C. Allin Cornell alla Stanford University in California. Da circa vent’anni si occupa di ricerca nel campo della pericolosità e del rischio sismico delle costruzioni. Ha recentemente scritto, per Hoepli, Dinamica delle Strutture e Ingegneria Sismica.

Da diversi anni ti sei occupato dei problemi di cui al titolo di questo colloquio. Ricordo un tuo lavoro in cui sostenevi che il confronto fra lo spettro di una singola registrazione con gli spettri della normativa non fosse “lecito”. In altri lavori, pubblicati con i tuoi collaboratori, hai analizzato le caratteristiche e la distribuzione dei “superamenti” in occasione dei terremoti più recenti, il cui numero è aumentato nel 2016 anche a seguito dell’aumento del numero di registrazioni (si veda l’esempio, ormai classico, delle registrazioni di Amatrice). Se non vado errato tu concludi che è impossibile evitare che si verifichino tali superamenti.

La figura è tratta da: Iervolino I., Giorgio M. (2017). È possibile evitare il superamento delle azioni di progetto nell’area epicentrale di terremoti forti? Progettazione Sismica, 8 (3), https://drive.google.com/file//1lAcn0GMlBhvSeYEjgT7U0rdRbFuhsA8x/view

Sì, è praticamente impossibile qualunque sia la misura dell’intensità considerata (PGA, accelerazione spettrale, ecc.), oltre che essere incoerente con la logica dei codici di progettazione sismica più moderni, tra cui quello italiano. Le norme allo stato dell’arte, infatti, invece che fissare una intensità (cioè accelerazione) di progetto, fissano una probabilità tollerata che le azioni di progetto siano superate al sito della costruzione. Per esempio, se il periodo di ritorno di progetto è 475 anni, allora c’è il 10% di probabilità che tale azione sia superata in 50 anni, per definizione. Una volta stabilita tale probabilità di superamento si determina, con la analisi di pericolosità, quale sia la intensità (accelerazione) che vi corrisponde al sito della costruzione. Con questa procedura si fa sì che le intensità di progetto siano diverse per siti diversi, ma che abbiano – per equità – la stessa probabilità di essere superate.
Essendo l’accelerazione di progetto stabilita sulla base di una probabilità che sia superata, è ben strano sorprendersi se essa poi venga effettivamente superata. Al massimo ci si può sorprendere (cioè biasimare l’analisi di pericolosità) se, al sito della costruzione, la misura di intensità in questione è superata troppo frequentemente rispetto a quanto indicato dalla analisi di pericolosità. Tuttavia, siccome essa, sempre per definizione, è superata mediamente ogni 475 anni, vuol dire che parliamo di un fenomeno molto raro, quindi difficilmente nell’ambito dei dati a disposizione da quando si registrano sistematicamente i terremoti (cioè dagli anni ’70 in Italia) si può fare questa valutazione in modo convincente per un qualunque sito [1].

Questo ragionamento dovrebbe anche aiutare a capire che, anche se il superamento della accelerazione di progetto a un dato sito è un fenomeno raro, guardando all’Italia intera ogni qual volta che c’è un terremoto, di una magnitudo da moderata in su, c’è da attendersi che esso provochi almeno un superamento. Questo è il perché i superamenti non ci sembrano rari: perché, per definizione, lo sono per un dato sito, ma non per tutta l’Italia; si veda a tale proposito [2].
Vale anche la pena dire che si può verificare più facilmente, rispetto a quella prevista dalla analisi di pericolosità, la frequenza osservata di superamento di accelerazioni con periodi di ritorno inferiori a 475 anni, e più e basso il periodo di ritorno più è facile fare questa verifica ‘sperimentale’. Essa però, oltre che essere poco interessante perché quelli che interessano la sicurezza strutturale sono i terremoti rari, non sarebbe estrapolabile, almeno non direttamente, per le intensità corrispondenti ai periodi di ritorno più lunghi.

Che i superamenti siano impossibili da evitare è dovuto a questo tipo di normativa oppure al modello di pericolosità adottato?

Direi a nessuna delle due, ma alla conoscenza dei terremoti molto limitata che abbiamo. L’unico modo per trasformare in termini quantitativi, quindi utilizzabili dagli ingegneri (i professionisti), la conoscenza incompleta su un fenomeno, è il calcolo delle probabilità. Ecco perché c’è grandissimo consenso sulla analisi probabilistica di pericolosità sismica, e le critiche a essa portate (ciclicamente) non sono state finora mai convincenti, per chi ha gli strumenti per capire le questioni portate in discussione.
Infatti, siccome i terremoti sono un fenomeno su cui si ha una conoscenza parziale, non si può essere certi che per qualunque valore di accelerazione (intensità del moto al suolo, per essere precisi) si progetti, esso non possa essere superato. Per questo, come detto prima, le norme allo stato dell’arte, invece che fissare una accelerazione, fissano una probabilità tollerata che le azioni di progetto siano superate al sito della costruzione.
Si potrebbe cambiare approccio, passando da probabilità di superamento della azione di progetto accettata a rischio di fallimento strutturale accettato (la ricerca parla, in questo caso, di risk-targeted design [3]); è una strada che si sta cercando di percorrere in alcuni paesi, ma la sostanza non cambierebbe, non ci si può garantire in progettazione che non venga un terremoto che mandi in crisi la struttura.

Qui qualcuno potrebbe obiettare che basterebbe allora proteggersi dal massimo terremoto possibile…

Che – io almeno – non so definire, perché ammesso che lo si possa fare in termini di magnitudo massima e distanza minima dal sito, non lo si può fare in termini di accelerazione che ne scaturisce perché i residui delle leggi di attenuazione sono – in linea di principio – illimitati. Inoltre, ammesso e non concesso che si possa stabilire l’accelerazione massima possibile, non è detto ci siano le tecnologie progettuali e costruttive perché con certezza essa non mandi comunque in crisi la struttura. Da professore di dinamica strutturale devo qui ricordare che anche le accelerazioni (e.g., le pseudo-accelerazioni spettrali) hanno un potere esplicativo limitato della risposta sismica di strutture a molti gradi di libertà non-elastiche e non-lineari (cioè le strutture reali).

Sempre nei tuoi lavori recenti hai sostenuto che il fatto che i valori di progetto possano essere o vengano superati non pregiudica la validità delle norme. Puoi spiegare meglio?

Mi riferisco alla analisi di pericolosità alla base delle norme: i superamenti non solo non la mettono in discussione, ma forse più che altro la confermano. Come dicevo, si può pensare che l’Italia sia un bersaglio su cui si lancia una freccia che sarebbe il terremoto. Il bersaglio è grande, quindi ogni punto raramente sarà colpito (diciamo con un periodo di ritorno di 475 anni), ma la freccia un punto lo colpisce, e ciò sarà caratterizzato dal periodo di ritorno con cui sono scagliate le frecce, che è molto minore di 475 anni. È facilissimo dimostrare analiticamente anzi, che se si guardano le accelerazioni che a tutti i siti hanno 10% di probabilità di essere superate in 50 anni allora, ci si aspetta che il 10% del territorio italiano dovrà avere osservato almeno un superamento in 50 anni. In questo senso dicevo che, più che smentire l’analisi di pericolosità, i superamenti la confermano, a meno che – come si diceva sopra – non si dimostri che i superamenti siano ‘troppi’.

(Rispondendo a questa domanda si può anche tornare a una delle domande precedenti, precisando che i superamenti osservati finora non sono in generale abbastanza per una verifica della frequenza dei superamenti sito per sito, ma permettono una valutazione complessiva dei superamenti in Italia; finora anche questi calcoli non hanno mai convincentemente smentito la pericolosità).

Il messaggio che a volte passa, a volte solo indirettamente, è che se le azioni sismiche superano quelle previste dalle norme l’edificio possa, o debba, crollare. Non tutti hanno chiaro – tra l’altro – il fatto che le nuove norme richiedano la verifica di quattro stati limite. Si tratta di un timore teorico oppure vi sono evidenze (casi) concrete? Nei tuoi lavori fai riferimento a dei margini di sicurezza più o meno intrinseci nelle modalità costruttive, che tuttavia non sono esplicitati nelle NTC. Anche in questo caso, puoi spiegare?

Abbiamo già detto che le azioni sismiche, attraverso la analisi di pericolosità, sono controllate probabilisticamente in modo che sia raro che tali azioni siano superate al sito della costruzione (per esempio mediamente ogni 475 anni, cioè con probabilità 10% in 50 anni). Quindi, per definizione, esse possono essere superate. Abbiamo dimostrato, ma è facile intuirlo, che ciò avviene quando il sito si viene a trovare nei pressi della sorgente di un terremoto da una certa magnitudo in poi. In effetti, il modello di pericolosità MPS04 [5] prevede intrinsecamente che, qualunque sia il sito in Italia, se esso si trova vicino (e.g., entro 5 km) dalla sorgente di un terremoto di magnitudo almeno sei, c’è da aspettarsi che la PGA (ma anche altre ordinate spettrali) con periodo di ritorno 475 anni sia superata. Questi terremoti li abbiamo chiamati ‘terremoti forti’, costruendo la mappa delle magnitudo nella cui area epicentrale c’è da attendersi il superamento delle azioni di progetto [6] (si veda la figura sotto). Come già detto ciò non contraddice l’analisi di pericolosità, ma ne è una caratteristica intrinseca, perché che il sito si trovi nell’area epicentrale di un terremoto di magnitudo da sei in poi è una cosa che avviene – parlando grossolanamente – mediamente, molto più raramente di 475 anni.

Figura 1. Mappa dei terremoti ‘forti’, cioè le magnitudo minime con probabilità superiore al 50% di superare due ordinate spettrali con periodo di ritorno del superamento pari a 475 anni, qualora il terremoto occorresse entro 5 km (in alto), 15 km (al centro) e 50 km (in basso) dal sito. Le aree bianche indicano che per i siti in esse contenuti non ci sono terremoti, secondo il modello [5], che hanno più del 50% di probabilità di superare le ordinate spettrali in questione, qualora occorressero vicino al sito. Figura tratta da [6].

E per quanto riguarda la progettazione?

La progettazione è tale per cui ci sono altri margini di sicurezza (per esempio si usano resistenze cautelative dei materiali, criteri di gerarchia delle resistenze etc.) per cui è lecito aspettarsi che se la struttura è progettata con azioni con periodo di ritorno, per esempio 475 anni, il periodo di ritorno della crisi strutturale sia più grande di 475 anni, eventualmente anche di molto. Inoltre, la progettazione considera che la struttura vada in crisi, cioè sia ‘fallita’ violando lo stato limite di progetto, molto prima che essa ‘collassi’, cioè anche lo stato limite di progetto non è il collasso inteso come scompaginamento strutturale, ma una definizione molto convenzionale dello stesso, e questa è una cautela aggiuntiva.
Tuttavia, c’è da dire che tutti questi margini aggiuntivi sono controllati in modo semi-probabilistico e non probabilistico, per cui il rischio implicito delle strutture progettate secondo norma non è noto al progettista. Per cui non è lecito aspettarsi direttamente il collasso al superamento delle azioni di progetto, ma non si sa esplicitamente quanto, oltre le azioni di progetto, ciascuna struttura può resistere, a meno di fare ex-post analisi molto accurate della struttura progettata. Abbiamo visto in un progetto finanziato al consorzio ReLUIS dalla protezione civile, a cui hanno partecipato i più grandi esperti italiani di ingegneria sismica e che ho avuto (immeritatamente) l’onore di coordinare, che tale margine cambia con la tipologia strutturale e col sito di progettazione [7], per questioni che è difficile approfondire qui. In questo senso è difficile stabilire se e quanto si possa fare affidamento su tale margine ulteriore, perciò per me questo è un tema delicato.
Devo infine aggiungere che ritengo che proprio perché la parte di azioni sismiche è molto chiara nel suo significato (almeno per chi la ha studiata), mentre il resto della sicurezza strutturale è meno trasparente, la pericolosità sismica è sempre messa in discussione, mentre io personalmente ritengo si debba lavorare sul resto della sicurezza implicata dalla progettazione per renderla altrettanto esplicita.

Qualcuno si chiede comunque se non sia il caso di aumentare la severità delle norme, per lo meno nelle vicinanze delle faglie conosciute. Si deve peraltro osservare che le NTC18 hanno adottato le stesse azioni delle precedenti NTC08, che a loro volta non hanno considerato l’incertezza fornita dal modello di pericolosità MPS04. Inoltre, tali azioni risultano generalmente inferiori di quelle previste dall’OPCM 3279/2003. Posto che già ora le azioni previste dalle norme rappresentano un minimo ma non certo un massimo, pensi che un eventuale aumento sarebbe opportuno, valutando il rapporto costi-benefici? E, senza ricorrere all’obbligo, potrebbe essere introdotto come raccomandazione su base volontaria?

Questa è una domanda che è lecito porsi, ma la discussione è per me molto più complessa di come appare. Infatti, se il periodo di ritorno della intensità di progetto è lo stesso ovunque per un sito vicino a una faglia nota e per uno lontano, in principio non ci sarebbe bisogno di differenziare tra chi si trova in prossimità di una faglia oppure no; tuttavia sappiamo che non è possibile conoscere tutte le faglie (almeno in Italia) e per questo usiamo modelli a zone sismogenetiche che, di fatto, le faglie non le considerano esplicitamente. Inoltre, sappiamo che per “effetti di bordo” in alcuni casi confrontabili con l’effetto Doppler della acustica, si possono avere variabilità spaziali del moto sismico intorno alle rotture dei terremoti che possono creare effetti deleteri per alcune strutture (vedi anche una delle domande successive) e che la analisi di pericolosità classica non considera se non ‘mediamente’. Quindi più che alzare le azioni, ci vorrebbero modelli più raffinati (cioè maggiore conoscenza) per le faglie.

C’è da dire invece che, come dicevo nella risposta precedente, abbiamo trovato, che in Italia, le accelerazioni nelle zone ad alta pericolosità oltre il periodo di ritorno di progetto, sono disproporzionalmente più alte rispetto a rispetto a quelle dei siti a bassa pericolosità. In altre parole, le accelerazioni per periodi di ritorno maggiori di 475 anni crescono molto di più che proporzionalmente rispetto a quelle di Milano, per esempio. Questo fa sì che il rischio di fallimento cui è esposta una struttura a l’Aquila è molto maggiore di una struttura della stessa tipologia progettata, per lo stesso periodo di ritorno, a Milano [8]. Questo non ha a che fare con la pericolosità, ma solo col fatto che progettiamo con un numero limitato di periodi di ritorno, mentre quello che succede per periodi di ritorno più grandi comunque influenza la sicurezza. Questo problema non è un limite della norma italiana, ma mondiale, perché è lo stato dell’arte di tutte le normative più avanzate. Forse questa è una questione ancora più rilevante e che si più mitigare con il recente risk-targeted design e che consiste nel progettare fissando un periodo di ritorno del fallimento, e non fissando il periodo di ritorno del superamento della azione sismica. Ovviamente anche in questo caso si fa riferimento alla pericolosità probabilistica, ma si usa in modo diverso.

La tematica del confronto di cui al titolo del colloquio è solo italiana oppure il dibattito è esteso a livello internazionale?

Il tema è di rilevanza mondiale [9] [10]. Negli Stati Uniti si sta cercando di cambiare approccio passando, come detto, da norme che definiscono la probabilità di superamento delle azioni di progetto alla probabilità di fallimento accettata della struttura (risk-targeted design). È la strada giusta, e auspicata molti decenni fa dal padre della pericolosità sismica C. Allin Cornell, ma è anche questo approccio ha i suoi problemi, principalmente dovuti al fatto che la probabilità di fallimento di una struttura è molto difficile controllarla fin dal progetto se non facendo assunzioni forti.
In Europa, nel frattempo, si sta lavorando alla revisione dello Eurocodice 8 per la progettazione sismica, e io presiedo il gruppo italiano per conto dell’UNI. Siccome l’approccio sarà lo stesso delle NTC, le questioni che ci stiamo dicendo si ripropongono allo stesso modo, ma le idee sono poco chiare e la percezione è limitata, soprattutto da parte dei paesi ‘meno sismici’, soprattutto perché questi temi richiedono una competenza molto specifica. Stiamo cercando comunque di mettere l’esperienza del nostro paese e cultura sismica che portiamo, al servizio dell’Europa su questo tema.

Un aspetto emergente, del quale ti sei occupato di recente, riguarda i cosiddetti effetti “near source”, ovvero “near fault”. Ci puoi riassumere brevemente di che cosa si tratta? La normativa attuale italiana non ne tiene conto: esistono normative internazionali che invece hanno già affrontato il problema? Che cosa suggeriscono le tue analisi?

Come dicevo sopra, tra i vari effetti che si osservano vicino alle rotture dei terremoti ce n’è uno potenzialmente di interesse per l’ingegneria sismica: è quello dei cosiddetti terremoti impulsivi per direttività. Succede che, in date configurazioni della rottura rispetto al sito, la registrazione di velocità dello scuotimento sismico può mostrare un grande ciclo che concentra la maggior parte dell’energia portata in dote dal segnale. Che l’energia del segnale sia concentrata in un solo ‘impulso’ può essere particolarmente rilevante per strutture con proprietà dinamiche legate alla durata dell’impulso. Questo è un fenomeno noto da molti decenni e osservato anche in terremoti italiani come quello di L’Aquila [11]. Tuttavia, come dicevo, la sua rilevanza dipende dalla posizione del sito rispetto alla sorgente e se la struttura ha periodo di vibrazione naturale in una certa relazione con quello dell’impulso. In ogni caso, di tale effetto si può tenere in conto nella analisi di pericolosità probabilistica, ma richiede una conoscenza molto accurata delle faglie possibile origine dei terremoti [12].

Fin qui abbiamo parlato di accelerazioni. Non sarebbe forse opportuno ragionare anche in termini di spostamento?

È vero che le strutture si danneggiano per spostamenti (in effetti, rotazioni de nodi nelle strutture a telaio) imposti dai terremoti. Tuttavia, va ricordato che sono le accelerazioni che costituiscono il termine noto delle equazioni del moto delle stesse strutture e determinano tali spostamenti, quindi ha senso definire le azioni sismiche in termini di accelerazione. Inoltre, in effetti, come sai le azioni di norma sono in termini di pseudo-accelerazione che, per definizione, è la forza da applicare staticamente alla massa di un sistema, che abbia un certo periodo di oscillazione, per ottenere lo spostamento massimo imposto dal terremoto che ha quella pseudo-accelerazione spettrale a quel dato periodo [13].

Quanto discusso fin qui riguarda essenzialmente il rapporto fra domanda e capacità nel caso di edifici nuovo ben costruiti. Per edifici costruiti con normative precedenti, oppure in assenza di normativa (oppure costruiti “male” o ancora usurati o rimaneggiati) la questione si pone negli stessi termini?

Permettimi di escludere dalla mia risposta gli edifici costruiti male. Non ho elementi sufficienti per dire che “costruiti male” sia una condizione generalizzata del costruito esistente italiano. Per queste costruzioni ci sarebbe bisogno di una valutazione caso per caso. Più appropriato trovo invece porsi la questione delle strutture costruite con codici di progettazione ora considerati obsoleti o prima della adozione di qualunque norma sismica. Ciò praticamente tutto il patrimonio pre-terremoto di Messina del 1908 (tranne buone pratiche costruttive storiche in alcune zone di Italia). Tali strutture possono essere state progettate per soli carichi verticali o con azioni sismiche (cioè orizzontali) valutate con metodi convenzionali, cioè non su base probabilistica, e con criteri progettuali meno efficaci di quelli che usiamo oggi. In entrambi i casi tali strutture hanno comunque una capacità sismica, anche se controllata ancora meno di quelle di nuova progettazione e con minori margini di sicurezza attesi (per esempio per assenza di gerarchia delle resistenze). Questo è un tema molto rilevante per quanto riguarda la sicurezza sismica: infatti si può dire che le strutture costruite con le correnti norme tecniche, ancora per molto tempo saranno una frazione molto piccola dell’intero patrimonio italiano.

Riferimenti

  1. Iervolino, I. (2013). Probabilities and fallacies: Why hazard maps cannot be validated by individual earthquakes. Earthquake Spectra29(3), 1125-1136.
  2. Iervolino, I., Giorgio, M., & Cito, P. (2019). Which earthquakes are expected to exceed the design spectra? Earthquake spectra35(3), 1465-1483.
  3. Luco, N., Ellingwood, B. R., Hamburger, R. O., Hooper, J. D., Kimball, J. K., & Kircher, C. A. (2007). Risk-targeted versus current seismic design maps for the conterminous United States.
  4. Iervolino, I., Giorgio, M., & Cito, P. (2017). The effect of spatial dependence on hazard validation. Geophysical Journal International, 209(3), 1363-1368.
  5. Stucchi, M., Meletti, C., Montaldo, V., Crowley, H., Calvi, G. M., & Boschi, E. (2011). Seismic hazard assessment (2003–2009) for the Italian building code. Bulletin of the Seismological Society of America, 101(4), 1885-1911.
  6. Cito, P., & Iervolino, I. (2020). Rarity, proximity, and design actions: mapping strong earthquakes in Italy. Annals of Geophysics63(6), 671.
  7. Iervolino, I., Spillatura, A., & Bazzurro, P. (2018). Seismic reliability of code-conforming Italian buildings. Journal of Earthquake Engineering, 22(sup2), 5-27.
  8. Cito, P., & Iervolino, I. (2020). Peak‐over‐threshold: Quantifying ground motion beyond design. Earthquake Engineering & Structural Dynamics, 49(5), 458-478.
  9. Hanks, T. C., Beroza, G. C., & Toda, S. (2012). Have recent earthquakes exposed flaws in or misunderstandings of probabilistic seismic hazard analysis? Seismological Research Letters, 83(5), 759-764.
  10. Stirling, M., & Gerstenberger, M. (2010). Ground motion–based testing of seismic hazard models in New Zealand. Bulletin of the Seismological Society of America, 100(4), 1407-1414.
  11. Chioccarelli, E., & Iervolino, I. (2010). Near‐source seismic demand and pulse‐like records: A discussion for L’Aquila earthquake. Earthquake Engineering & Structural Dynamics, 39(9), 1039-1062.
  12. Chioccarelli, E., & Iervolino, I. (2013). Near‐source seismic hazard and design scenarios. Earthquake engineering & structural dynamics, 42(4), 603-622.
  13. Iervolino I. (2021). Dinamica delle Strutture e Ingegneria Sismica, Hoepli, Milano.

4 thoughts on “Quando le azioni sismiche di progetto vengono superate: colloquio con Iunio Iervolino

  1. Cari Max e Iunio, grazie per questo pezzo molto informativo e chiaro; dovrebbe diventare lettura obbligatoria per tanti! Permettetemi solo un paio di appunti sulle due risposte finali di Iunio:
    (i) come discusso nella pubblicazione seminale di Priestley, Calvi e Kowalsky sul ‘Direct Displacement-based Seismic Design’, ed in tanti altri lavori, ci potrebbero essere numerosi vantaggi in una progettazione diretta agli spostamenti, per cui si tratta di un tema che io non escluderei in modo cosi lapidario;
    (ii) anche se capisco le difficoltà in esprimere concetti generali sul tema degli edifici costruiti “male”, credo anche che non ci si debba sottrarre di provare a farlo, altrimenti qualcuno potrebbe pensare che il problema non c’è, quando invece ci sono tanti edifici progettati e costruititi male in Italia e nel mondo (li vediamo sempre dopo ogni terremoto). Si tratta di una realtà che non dovrebbe sorprenderci – in tutte le professioni c’è chi lavora meglio e c’è chi lavora peggio, e l’ingegneria/costruzione civile non ne costituisce un’eccezione, purtroppo.

    • Grazie Rui. (i) Ho inteso la domanda cui ti riferisci come relativa alle misure di intensità dello scuotimento oggetto di analisi pericolosità e non ai metodi di progettazione. In tal senso le considerazioni fatte si applicano, in termini generali, a qualunque misura di intensità tra quelle che conosco. (ii) Capisco e per questo posso solo ribadire che la fatica a esprimermi in termini generali sulla questione è solo un limite personale. Ti saluto e spero di vederti presto.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...