Un articolo di Nicola Facciolini, da www.abruzzo24ore.tv. Riportiamo dapprima le opinioni di Warner Marzocchi, Enrico Mantovani ed Antonio Moretti sulla presentazione di Giuliani, di seguito l’articolo integrale.
“L’AGU e’ il convegno più grande – fa notare il professor Warner Marzocchi (Ingv) appena tornato dalla California – vi si parla di tutto: dal clima alle inondazioni, dai tornado agli tsunami, ai terremoti e vulcani, ma per scelta si tende a tenerlo aperto a tutti. In altre parole, non c’e’ nessun particolare merito ad essere accettato come speaker. Lo fanno con tutti. Detto questo, sono molto contento che Giuliani sia venuto. Come gli avevo suggerito, se vuole essere preso in considerazione deve cercare un confronto con i ricercatori. Ciò avviene scrivendo articoli scientifici e andando ai convegni”. Prof. Marzocchi com’e’ andata?
“La presentazione di Giuliani e’ stata molto “debole”, tuttavia in queste occasioni non c’e’ un vero confronto perché ognuno di noi ha 15 minuti per presentare il proprio lavoro e c’e’ spazio solo per una domanda”. “Dopo la sessione ho avuto modo di cenare con molti colleghi americani che mi hanno confermato il loro “estremo scetticismo” per essere gentili. Nessuno e’ rimasto né impressionato né assolutamente convinto. La presentazione lascia molti dubbi e molte cose non vengono spiegate. Inoltre nella sua presentazione, Giuliani non dice certamente di essere capace di prevedere i terremoti. Lo fa intuire ma e’ molto più soft di quanto lo sia con i giornalisti”. “In sintesi, chi non lo conosceva ne e’ rimasto impressionato non positivamente. Non voglio essere enfatico né di parte, ma questo e’ quello che si e’ visto chiaramente”.
Ha conosciuto i colleghi di Giuliani?
“Ouzounov (della Nasa) e Poulinet sono da anni al margine della scienza (riferisco quanto detto dai miei colleghi americani e russi) non perché sono “banditi” ma semplicemente perché la qualita’ del loro lavoro almeno in ambito sismologico e’ veramente scarsa. Ho visto la presentazione di Ouzounov e sono rimasto molto perplesso”.
“Il radon e’ studiato dagli anni ‘60 del XX Secolo e – rivela Warner Marzocchi – non e’ mai stata presentata una correlazione significativa e convincente tra le emissioni di radon e i terremoti. In sintesi non e’ mai stato utilizzato per prevedere i terremoti. Forse in futuro qualcuno potra’ portare novita’ in questo campo ma per ora non c’e’ discussione sullo scarso valore delle emissioni del radon per prevedere i terremoti. Ripeto: forse in futuro qualcuno fara’ meglio ma ora non c’e’ nessuna discussione aperta. A livello internazionale non c’e’ nessun Paese al mondo che usi il radon per prevedere i terremoti. Singoli ricercatori stanno facendo ricerche senza risultati apprezzabili. Il pericolo di un terremoto non e’ mai inesistente, radon o no. Variazioni del radon non portano a nessuna variazione delle probabilita’ di accadimento. In sintesi, per ora le emissioni di radon non le usa nessuno per prevedere i terremoti o anche per stimare delle probabilita’. Non c’e’ nessuna prova scientifica a supporto.
Per il prof. Enzo Mantovani, può essere che le emissioni di radon siano in qualche modo connesse con fratture nel sottosuolo, che potrebbero precedere scosse maggiori, ma purtroppo non e’ ancora possibile stabilire una connessione regolare e affidabile che permetta di dare allarmi giustificati in un numero congruo di volte. Nel caso di L’Aquila avrebbe sicuramente evitato molte vittime, ma cosa succederebbe se sulla base di presunti precursori di radon venissero dati allarmi ingiustificati? La gente sopporterebbe i disagi di un’evacuazione ingiustificata per molto tempo? In base a quello che dicono gli esperti di questo problema i casi di allarmi fasulli sarebbero stati molti.
Per il prof. Antonio Moretti dell’Universita’ di L’Aquila, le risposte alle domande sono tutte dei sonanti SI, “solo che gli strumenti di Giuliani sono una semplice bufala che meriterebbe uno Speciale delle Iene. Una cosa e’ dire che il cancro esiste e può essere curato con determinate terapie (vero!) – fa notare il geologo Moretti – un’altra vendere le pozioni miracolose fatte con acqua fresca (a caro prezzo) asserendo che curano il cancro. Gli strumenti di Giuliani – rivela Moretti – non misurano il radon (ci sono efficientissimi strumenti di misura in commercio per poche migliaia di euro) ed in ogni caso il radon da solo non può dare nessuna informazione”.
L’ARTICOLO INTEGRALE di Nicola Facciolini
Il 2010 deve essere l’anno della sismologia italiana vera. I fuochi d’artificio alla conferenza internazionale di San Francisco si sono visti e sentiti. Non di semplici “schioppi” scintillanti si tratta: la “disfida” geofisica ha premiato la scienza italiana galileiana e boccia inesorabilmente le false pozioni miracolose. Alla vigilia degli Anni Dieci del 21° Secolo (con gli auspici, il perdono, la benedizione e la protezione di Papa Celestino) c’e’ ancora tempo sufficiente per convincere chi di dovere dell’urgente necessita’ di porre in essere atti e fatti concreti di indirizzo, utili a concentrare i finanziamenti sulla ricerca geofisica in Italia. Prima della prossima grande tragedia. Si consentano subito, sul modello Telethon, sperimentazioni all’avanguardia sotto il controllo diretto dei ricercatori e dei cittadini, liberalizzando la scienza e la tecnologia geofisica. I sismologi italiani si sentano liberi come negli Usa di operare come credono opportuno, senza più lacci ai piedi. Non basta la consapevolezza del totale fallimento degli oroscopi dello scorso anno e dell’inutile fiume di denari privati spesi in abulici oracoli, pozioni e visioni, per “elaborare” la miseria italiota. Alle porte del nuovo anno 2010, e’ tempo di bilanci e proposte concrete.
In primis occorre potenziare le ricerche autentiche sul sisma aquilano e sulle faglie abruzzesi (Mw= 6.3; 308 morti; migliaia di feriti; decine di miliardi di euro di danni materiali e morali) che il 6 aprile 2009 hanno funestato la Pasqua, buttando a terra la citta’ capoluogo di Regione, la “capitale d’Abruzzo”. E se imperversano leggende metropolitane, metafisiche ed astrologiche su quello che si poteva fare prima del dramma, alcune di taglio prettamente politico-strategico per cui scientificamente poco attendibili e decisamente risibili, pazienza. La saggezza consiglia ai prudenti una sana navigazione a vista, un ristoratore bagno di umilta’ collettivo sia nella ricerca della verita’ sia nel giudizio sindacabile (che liberamente lasciamo ai Lettori) su studi e pubblicazioni accettati dalla comunita’ scientifica nazionale ed internazionale. La scienza galileiana nasce nel riscontro scientifico. Per cui non ci limiteremo soltanto a presentare i lavori che meritano di essere conosciuti, dopo attenta e scrupolosa verifica, ma declassificheremo gli studi bocciati dalla comunita’ degli scienziati, senza futuro e prospettive. Questo in segno di rispetto delle 308 vittime aquilane. E se occorrono dosi industriali di pazienza per capire fenomeni e dinamiche tettoniche e psicologiche a quanto pare interconnesse ed ancora attive sopra e sotto la crosta terrestre, faremo le necessarie provviste per l’inverno.
Certo, a bocce ferme si ragiona meglio ma in questi casi e’ semplicemente assurdo perché e’ impossibile arrestare il corso del tempo (continuum). Dunque, e’ molto più sensato battere il ferro finché e’ rovente nel rispetto delle persone e delle libere opinioni di ciascun ricercatore. Il segreto però e’ racchiuso in uno scrigno tempestato di domande giuste per risposte esaurienti. Anche la verita’ scientifica e’ un processo lento ma inesorabile che affiora in superficie “step by step”: le ricerche sul terremoto di L’Aquila, infatti, proseguono con osservazioni e indagini che si fanno di giorno in giorno sempre più elaborati. La mole immensa di dati finora acquisiti sul sisma aquilano, su tutti i terremoti e le eruzioni vulcaniche di queste ultime settimane, richiedera’ decenni di elaborazione fisico-matematica. E crediamo che anche i più potenti elaboratori elettronici oggi disponibili, non siano sufficienti.
Il “quake forecasting”, ad esempio, sembra imporsi quale metodo migliore di indagine e studio sulle probabilita’ di reale accadimento di un evento sismico secondario rispetto alla scossa principale che può manifestarsi ovunque in Italia senza alcun preavviso. Tutto qui? E vi pare poco, se fino a pochi mesi fa tronfi politici ed “accademici” ritenevano semplicemente “inesistente” la probabilita’ della distruzione sismica di L’Aquila, per alcuni la citta’ gemella di Gerusalemme, fiera custode dei segreti dei nobili Cavalieri Templari?
Chi ha interpellato l’altra campana dei sismologi “deterministi” che a quanto pare hanno molto da raccontare sulle previsioni sismiche? Insomma, d’ora in poi nulla sara’ più come prima e ci sara’ lavoro per tutti gli scienziati, i ricercatori e i tecnici che desiderano approfondire le loro conoscenze geofisiche su terremoti, eruzioni vulcaniche, tsunami, liquefazione tellurica, frane, alluvioni e chi più ne ha più ne metta, magari intrecciando magnificamente le loro informazioni come mai finora pensato e fatto. Ce lo auguriamo di cuore.
Un’opportunita’ mondiale che l’Abruzzo deve cogliere al volo sull’esempio della California, creando un Istituto Superiore di primissimo livello ed riunendo migliaia di scienziati e tecnici sul modello dell’Agu Fall Meeting di San Francisco. Non per abbuffarsi di leccornie abruzzesi, ma per interfacciare le ricerche e studiare insieme i segreti della Terra. Il nuovo catalogo sismico mediterraneo ne giovera’, perché l’obiettivo scientifico e’ sempre quello di giungere un giorno alla previsione sismica su basi matematiche-sperimentali, come per il meteo quotidiano e settimanale. Come farlo? Con il dialogo tra gli scienziati e i ricercatori italiani. Non con i regolamenti di conti e certamente non annientando, con un colpo di spugna dal sapore vagamente politico, prestigiosi Istituti di ricerca e lavori decennali.
Magari per ripartire da zero, favorendo istituzioni straniere in forte competizione scientifica con le italiane. Oggi, la comunita’ scientifica nazionale ha il dovere di informare il mondo dei media, dei blog, della politica e del diritto sulla questione delicatissima della previsione e della prevenzione sismica e vulcanica (tsunami compresi), consentendo una corretta informazione scientifica avulsa dalle ideologie romanzate. Grazie all’aggiornamento costante di norme e leggi sullo stato delle nostre attuali conoscenze onde impedire grossolani pasticci di varia natura, ponendo attenzione al rispetto della persona e della libera ricerca scientifica, per la formazione di una libera e cosciente opinione pubblica.
La sessione sul terremoto di L’Aquila alla conferenza “Agu Fall Meeting 2009” di San Francisco (14-18 dicembre 2009), e’ stata sì molto interessante, ma senza apprezzabili conclusioni. Per cui nessuno oggi può arrogarsi il diritto di certificare alcunché senza la reale approvazione della comunita’ scientifica internazionale. La questione dell’attendibilita’ dei “precursori sismici”, ad esempio, corre il rischio di essere affrontata con troppa superficialita’, magari per difetto di verifica pre e post evento. Perché dopo un dramma tipo L’Aquila, e’ facile dire tutto e il suo contrario. La delicatezza del tema richiede scrupolo, indagine e debito sospetto sin dai primi passi, al fine di non divulgare notizie che possano creare erronee aspettative tra i cittadini. Questo in segno di rispetto delle vittime di L’Aquila e di ogni tempo. Non di statue ai finti martiri della scienza abbiamo bisogno, ma di equazioni, soluzioni e strumenti per la previsione di terremoti, eruzioni vulcaniche e tsunami nel Mediterraneo.
“L’AGU e’ il convegno più grande – fa notare il professor Warner Marzocchi (Ingv) appena tornato dalla California – vi si parla di tutto: dal clima alle inondazioni, dai tornado agli tsunami, ai terremoti e vulcani, ma per scelta si tende a tenerlo aperto a tutti. In altre parole, non c’e’ nessun particolare merito ad essere accettato come speaker. Lo fanno con tutti. Detto questo, sono molto contento che Giuliani sia venuto. Come gli avevo suggerito, se vuole essere preso in considerazione deve cercare un confronto con i ricercatori. Ciò avviene scrivendo articoli scientifici e andando ai convegni”.
Prof. Marzocchi com’e’ andata?
“La presentazione di Giuliani e’ stata molto “debole”, tuttavia in queste occasioni non c’e’ un vero confronto perché ognuno di noi ha 15 minuti per presentare il proprio lavoro e c’e’ spazio solo per una domanda”. Cioe’? “Dopo la sessione ho avuto modo di cenare con molti colleghi americani che mi hanno confermato il loro “estremo scetticismo” per essere gentili.
Nessuno e’ rimasto né impressionato né assolutamente convinto. La presentazione lascia molti dubbi e molte cose non vengono spiegate. Inoltre nella sua presentazione, Giuliani non dice certamente di essere capace di prevedere i terremoti. Lo fa intuire ma e’ molto più soft di quanto lo sia con i giornalisti”. Quindi? “In sintesi, chi non lo conosceva ne e’ rimasto impressionato non positivamente. Non voglio essere enfatico né di parte, ma questo e’ quello che si e’ visto chiaramente”.
Per quello che riguarda la partecipazione dei ricercatori italiani? “E’ andata bene. I nostri modelli saranno integrati nel prossimo “earthquake forecast” per la California. A tale proposito sono stato invitato a seguire in America i lavori dei miei colleghi Usa, per esportare la nostra competenza. Come ricercatore italiano non posso che essere soddisfatto”.
Ha conosciuto i colleghi di Giuliani?
“Ouzounov (della Nasa) e Poulinet sono da anni al margine della scienza (riferisco quanto detto dai miei colleghi americani e russi) non perché sono “banditi” ma semplicemente perché la qualita’ del loro lavoro almeno in ambito sismologico e’ veramente scarsa. Ho visto la presentazione di Ouzounov e sono rimasto molto perplesso”.
Insomma, l’Agu Fall Meeting 2009 ha premiato le ricerche italiane istituzionali? “A parte gli studi più di interesse scientifico, sembra esserci molto interesse verso il cosiddetto “operational earthquake forecast”, cioe’ di come si possono usare i nostri modelli per fare delle previsioni probabilistiche su diverse scale temporali”. Le scale temporali sono legate alle operazioni di mitigazione del rischio? Può spiegare meglio il concetto? “In sintesi, i forecast (previsioni) su 50 anni servono per fare la mappa di pericolosita’ e quindi i “building code”, cioe’ le regole per costruire bene.
La scala intermedia (1-10 anni) serve per accelerare le operazioni di verifica della vulnerabilita’ ed eventualmente qualche opera di rinforzo di edifici come scuole, ospedali, centri nevralgici e strategici. La scala breve (1-7 giorni) serve eventualmente per operazioni di mitigazione su breve scala”. Il forecast di breve termine e’ quello su cui la sismologia oggi sembra essere più “debole”: ci sono novita’? “Come detto gia’ in passato, siamo in grado a volte di vedere aumenti di probabilita’ ma mai valori “alti”. E questo e’ vero per tutto il mondo! Comunque sia, all’Agu Fall Meeting 2009 si e’ ribadita la necessita’ di trovare azioni di mitigazione del rischio di “basso impatto”; in altre parole, se l’allarme dovesse risultare un falso allarme, non si creerebbero comunque disagi alla popolazione”.
I media l’hanno capito? “E’ questo il problema più grosso: far capire alla gente (e ai giornalisti) che comunque un falso allarme non e’ una “cattiva scienza”, ma e’ una parte del gioco. Se siamo in grado di fare previsioni probabilistiche significa che certe volte ci saranno falsi allarmi”. Fiumi di inchiostro telematico scorrono in Internet su presunte correlazioni tra il gas radon e i terremoti: verita’ o fantasie? Una questione scientifica, politica e giuridica aperta o cos’altro? Il gas radon e’ correlato al movimento delle faglie? E’ davvero un fatto riconosciuto a livello internazionale? Tra l’accumulo di gas radon e la verificazione di eventi sismici, esiste davvero una relazione ritenuta generalmente attendibile dalla comunita’ scientifica internazionale, che impedisca di considerare “inesistente” il pericolo di terremoto?
“Il radon e’ studiato dagli anni ‘60 del XX Secolo e – rivela Warner Marzocchi – non e’ mai stata presentata una correlazione significativa e convincente tra le emissioni di radon e i terremoti. In sintesi non e’ mai stato utilizzato per prevedere i terremoti. La questione scientifica, dunque, non e’ aperta. Forse in futuro qualcuno potra’ portare novita’ in questo campo ma per ora non c’e’ discussione sullo scarso valore delle emissioni del radon per prevedere i terremoti. Ripeto: forse in futuro qualcuno fara’ meglio ma ora non c’e’ nessuna discussione aperta.
A livello internazionale non c’e’ nessun Paese al mondo che usi il radon per prevedere i terremoti. Singoli ricercatori stanno facendo ricerche senza risultati apprezzabili. Il pericolo di un terremoto non e’ mai inesistente, radon o no. Ad esempio sappiamo che alcune aree hanno pericolo maggiore di altre. Durante le crisi sismiche questo pericolo aumenta, senza mai raggiungere valori di probabilita’ alti. Il pericolo quindi esiste e non e’ mai trascurabile. Variazioni del radon non portano a nessuna variazione delle probabilita’ di accadimento. In sintesi, per ora le emissioni di radon non le usa nessuno per prevedere i terremoti o anche per stimare delle probabilita’. Non c’e’ nessuna prova scientifica a supporto”. Più scettico e’ il prof. Mantovani dell’Universita’ di Siena. “Ho letto che Giuliani – afferma il prof. Enzo Mantovani – aveva previsto terremoti anche nella zona di Cassino. Può essere che le emissioni di radon siano in qualche modo connesse con fratture nel sottosuolo, che potrebbero precedere scosse maggiori, ma purtroppo non e’ ancora possibile stabilire una connessione regolare e affidabile che permetta di dare allarmi giustificati in un numero congruo di volte.
Nel caso di L’Aquila avrebbe sicuramente evitato molte vittime, ma cosa succederebbe se sulla base di presunti precursori di radon venissero dati allarmi ingiustificati? La gente sopporterebbe i disagi di un’evacuazione ingiustificata per molto tempo? In base a quello che dicono gli esperti di questo problema i casi di allarmi fasulli sarebbero stati molti”. Per il professor Gianluca Valensise, esperto Ingv di sismotettonica e pericolosita’ sismica, “il gas radon non e’ direttamente e necessariamente correlato al movimento di una faglia. Ai Castelli Romani c’e’ un fondo di radon molto alto che ha a che fare con la presenza del Vulcano Laziale. Ma una “relazione ritenuta generalmente attendibile dalla comunita’ scientifica“ non esiste oggi per nessuno dei vari precursori di cui si parla”. Quanto al fatto di considerare “inesistente” il pericolo terremoto, a cosa ci si riferisce? “Inesistente” se non si vedono anomalie di radon? “Premesso che quando si parla di terremoti sarebbe sempre meglio parlare di probabilita’ di accadimento bassa o alta, mai inesistente, in una zona come l’Aquilano parlare di pericolo inesistente sarebbe sempre e comunque sbagliato. In questo ambito caratterizzato da forti incertezze non c’e’ quasi nulla che possa essere considerato utile in un eventuale giudizio, se non appunto l’elevata probabilita’ di accadimento di un terremoto a L’Aquila (almeno prima del 6 aprile 2009)”.
Per il prof. Enzo Mantovani le considerazioni fatte dalla Commissione nominata dalla Protezione Civile sembrano escludere che i precursori a breve termine, come il radon, possano essere usati in modo attendibile per individuare il luogo e il tempo di scosse future. “Siccome tale commissione include ricercatori di grande esperienza in questo settore – fa notare Mantovani – pensavo che tutti considerassero pressoché chiuso questo argomento. Per quanto riguarda invece le previsioni a medio-lungo termine, la Commissione considera le prospettive in questa direzione molto più concrete e utili per la Protezione Civile. Le ricerche in questa direzione sono state analizzate in modo parziale, trascurando un tipo di approccio (quello deterministico) che offre prospettive molto più interessanti di quello statistico. Su queste ultime vi rivelo alcune argomentazioni che a mio parere sono molto convincenti sulla loro scarsa potenzialita’”. Al convegno di Trieste di meta’ novembre, la discussione ha suscitato notevole interesse tra i ricercatori e gli organizzatori hanno deciso di raccogliere i vari contributi in un volume di una rivista scientifica. “Come previsto – rivela Mantovani – l’analisi dei dati geodetici sull’Appennino centro settentrionale pre e post-terremoto aquilano sta prendendo tempo, ma penso che sia speso molto bene”. Per il prof. Antonio Moretti dell’Universita’ di L’Aquila, “le risposte alle domande di cui sopra sono tutte dei sonanti SI, solo che gli strumenti di Giuliani sono una semplice bufala che meriterebbe uno Speciale delle Iene. Una cosa e’ dire che il cancro esiste e può essere curato con determinate terapie (vero!) – fa notare il geologo Moretti – un’altra vendere le pozioni miracolose fatte con acqua fresca (a caro prezzo) asserendo che curano il cancro. Gli strumenti di Giuliani – rivela Moretti – non misurano il radon (ci sono efficientissimi strumenti di misura in commercio per poche migliaia di euro) ed in ogni caso il radon da solo non può dare nessuna informazione”.
Dopo le notevoli polemiche che si sono scatenate in occasione del terremoto del 6 Aprile 2009 riguardo alle possibilita’ di fare previsioni di terremoti, la Protezione Civile ha ritenuto opportuno favorire un approfondimento delle conoscenze su questo aspetto. “In prima istanza – sostiene il prof. Enzo Mantovani – e’ stato affidato il compito di fare il punto della situazione ad una Commissione internazionale di esperti, che ha gia’ emesso un documento in cui sono sintetizzate le prospettive offerte dalle attuali conoscenze e le indicazioni da seguire nelle indagini a venire. Questo messaggio conferma l’attuale scetticismo sulla possibilita’ di fare previsioni a breve termine sul luogo e il momento di future scosse e incoraggia invece le ricerche sulle previsioni a medio-lungo termine, come strumento per riconoscere le zone sismiche più esposte ai prossimi terremoti forti in Italia”.
L’informazione più utile? “Tale informazione sarebbe infatti di notevole utilita’ per la Protezione Civile in quanto potrebbe permettere di concentrare in poche zone le scarse risorse (eventualmente) stanziate nel breve termine per mettere in sicurezza il patrimonio edilizio esistente”. Le indagini in questa direzione, sono attualmente svolte seguendo due metodologie chiaramente distinte: la statistica e la deterministica. Quale le sembra la più promettente? “A questo riguardo – spiega Mantovani – va rivisto lo schema riportato nel documento della Commissione, che nomina le indagini deterministiche come unicamente finalizzate a elaborare previsioni a breve termine. Questa impostazione del problema da parte della Commissione si riflette poi nel fatto che nel documento finale non sono considerate le potenzialita’ del metodo deterministico per la previsione a medio-lungo termine dei terremoti, nonostante che tale metodo sia riconosciuto in letteratura”. Come lo spiega?
“Il fatto che nessuno degli esperti della Commissione ha conoscenze molto sviluppate sull’assetto geodinamico e sismotettonico dell’area mediterranea centrale (un’informazione che costituisce la base indispensabile per qualsiasi metodologia deterministica per la previsione a medio-lungo termine dei terremoti) può avere avuto un ruolo non secondario nella scelta delle metodologie da inserire nel documento finale”. Considerata l’importanza di avere una conoscenza approfondita e completa su un problema di altissimo impatto sociale come la difesa dai terremoti, cosa e’ urgente fare subito? “Sarebbe opportuno che le conclusioni della Commissione venissero sottoposte ad una discussione aperta a tutti gli operatori del settore. Lo sforzo non sarebbe eccessivo e la Protezione Civile avrebbe la possibilita’ di acquisire conoscenze molto più complete sulle potenzialita’ delle metodologie attualmente disponibili per il riconoscimento delle zone più pericolose in Italia”.
Per dare un’idea sull’opportunita’ di organizzare una discussione aperta sul problema in oggetto, il prof. Mantovani suggerisce alcune considerazioni sulle potenzialita’ e limitazioni delle due metodologie alternative: la statistica e la deterministica, che potrebbero servire come spunto di discussione durante l’auspicato convegno internazionale italiano che potrebbe svolgersi a L’Aquila. “La metodologia statistica e’ basata sulla speranza di riuscire a dedurre (tramite analisi più o meno sofisticate) dalla storia sismica passata delle zone implicate, possibili regole di comportamento dell’attivita’ sismica, con l’obiettivo di utilizzarle per prevedere la prossima distribuzione dei terremoti forti sia nel tempo sia nello spazio. Molte ipotesi sono state finora avanzate a questo riguardo. Le più citate nella letteratura relativa sono note”.
Cos’e’ il ciclo sismico? “Questo concetto presuppone che in una determinata zona esistano alcune faglie principali su cui si sviluppano tutte le scosse più intense. Questo implicherebbe che la conoscenza (presunta) delle sorgenti dei terremoti passati (per esempio le informazioni riportate nel documento DISS elaborato dall’INGV, Basili et alii, 2008, Tectonophysics, 453) individua automaticamente i siti dove si verificheranno i prossimi terremoti forti. In ogni zona sismogenetica si suppone che la deformazione si accumuli lentamente per l’azione dei processi tettonici a larga e piccola scala, avvicinando progressivamente la faglia alla condizione di slittamento sismico”. Quindi, la separazione tra una scossa e quella successiva sarebbe regolata dal tempo trascorso dall’ultima scossa, dalla velocita’ di accumulo della deformazione e dalla resistenza alla rottura delle strutture locali. “Se questo quadro interpretativo fosse reale, sarebbe uno strumento estremamente efficace per la previsione dei terremoti. Purtroppo, numerosissime evidenze indicano che pur essendo valido in linea generale, e’ troppo semplificato per descrivere una realta’ molto più complessa.
Nella parte superficiale fragile della crosta (fino a circa 10-15 km) esistono numerosissime faglie di varie dimensioni (indotte dai processi tettonici precedenti). Quando l’entita’ degli sforzi raggiunti in un determinato momento evolutivo supera la soglia di rottura delle rocce nella zona di maggiore debolezza, la frattura comincia a svilupparsi, attivando in successione faglie minori fino a che la frattura incontra un ramo di faglia dove la resistenza delle rocce supera lo sforzo in atto. Questo processo implica che la lunghezza complessiva della sorgente sismica può essere molto variabile e che la geometria finale della faglia può essere differente rispetto a quella di scosse precedenti (che hanno preso strade diverse, in base al principio del minimo lavoro). Inoltre, la velocita’ di accumulo della deformazione in ogni zona può variare da un ciclo sismico all’altro in funzione di come si distribuiscono i terremoti forti avvenuti in precedenza nelle principali zone di disaccoppiamento del sistema strutturale in movimento (placca, cuneo orogenico, ecc).
I terremoti avvenuti nelle ultime decine di anni (Irpinia1980, Colfiorito 1997, S.Giuliano 2002, L’Aquila 2009) hanno fortemente ridimensionato la fiducia sull’idea che le faglie colpiscano sempre le stesse strutture (terremoto caratteristico) in quanto le faglie attivate nei vari casi non erano state inserite tra le maggiori candidate nelle zone relative, come ammesso dal Dr. Valensise del’INGV, uno dei più convinti sostenitori del terremoto caratteristico (rivista GeoItalia, 2009, n. 28)”.
E’ vero che i terremoti sono fenomeni indipendenti fra loro e quindi si distribuiscono nel tempo in modo completamente casuale (distribuzione poissoniana)? “L’unico vincolo e’ dato dalla legge di Gutenberg e Richter, dedotta in modo empirico dalla distribuzione nel mondo del numero di scosse in funzione della magnitudo. Questa ipotesi e’ incompatibile con il fatto che i terremoti sono un fenomeno deterministico, cioe’ controllato da una causa largamente riconosciuta (il movimento relativo delle placche) e dai suoi effetti sulla crosta terrestre nelle zone di interazione tra le placche. E’ quindi scontato che ogni forte terremoto possa perturbare in modo significativo lo stato di sforzo e deformazione nella litosfera, influenzando la probabilita’ che si verifichino altri terremoti nelle zone circostanti, anche a distanze considerevoli sia nel tempo che nello spazio. Evidenze molto convincenti di questo concetto, in termini di distribuzioni particolari di terremoti nello spazio e nel tempo sono riportate in numerosi lavori (vedi per esempio le rassegne di Harris et al., 1998 J.Geophys.Res,103 e Steacy et al., 2005, J.Gephys.Res., 110).
Inoltre, l’ipotesi che i terremoti si verifichino in modo indipendente l’uno dall’altro e che questa impostazione si possa utilizzare per fare previsioni di terremoti ha subito notevoli critiche da vari autori sulla base di evidenze importanti (e.g., Mulargia e Geller, 2003, Kluwer Acad. Publ.)”.
Cos’e’ il gap sismico? “Questa ipotesi presuppone che le zone più esposte a terremoti forti siano i settori di una struttura sismogenetica, come una lunga faglia o un margine di placca, che da più tempo non si sono attivati simicamente. L’applicazione di questo concetto alla zona italiana e’ però molto complicato, soprattutto per la mancanza di strutture a larga scala come quelle sopra citate. Quindi, e’ estremamente problematico riconoscere quali zone potrebbero essere classificate come gap. Anche nel caso in cui questo riconoscimento fosse possibile, la previsione del tempo di attesa per la prossima scossa forte nel presunto gap sarebbe troppo incerta per essere utilizzata come criterio di priorita’ nella difesa dai terremoti. Argomentazioni molto dettagliate sulle principali difficolta’ del concetto di gap sismico sono riportate in vari lavori (e.g., Kagan e Jackson, 1995, J.Geophys.Res., 100; Mantovani et al., 1997, Ann. of Geophys., 40). Le scosse sismiche tenderebbero a concentrarsi nel tempo (clustering)? “Questa ipotesi, che implica che nel periodo seguente un forte terremoto la probabilita’ di scosse aumenta significativamente, e’ sicuramente realistica per le scosse minori che generalmente si verificano dopo un terremoto forte.
La sua applicazione a terremoti maggiori presenta invece seri problemi. In Italia questa ipotesi avrebbe portato a previsioni prevalentemente errate dopo i terremoti intensi dell’ultimo secolo. Per esempio, se si considerano i 13 terremoti di M>6 avvenuti dopo il 1900, l’analisi del catalogo italiano indica che solo una di tali scosse (Calabria 1905 M=6.7, seguita dal famoso terremoto di Messina del 1908) e’ stata seguita da eventi di uguale magnitudo nel raggio di 50 km entro 15 anni. Una casistica così sfavorevole (che peggiorerebbe notevolmente allargando l’analisi ad un periodo più lungo) dovrebbe scoraggiare l’uso del concetto di clustering per la previsione a medio-lungo termine dei terremoti forti in Italia”. Cosa sono i modelli multipli? “Alcuni tentativi di previsione non sono basati su nessuna delle ipotesi sopra citate, ma su combinazioni di esse. Una di queste e’ la metodologia (Faenza et al., 2003, Geophys.J.Int., 155; Cinti et al., 2004, Geochem.Geophys.Geosystems, 5) che e’ attualmente utilizzata per elaborare le mappe di previsione a medio-lungo termine che l’INGV mette regolarmente a disposizione della Protezione Civile (consultabili nel sito www.bo.ingv.it). Questo approccio, definito come non parametrico/multivariato, parte dal presupposto che i terremoti tendono a raggrupparsi nel tempo e nello spazio (clustering) nel periodo immediatamente seguente (mesi) ad una forte scossa e a distribuirsi poi in modo casuale (distribuzione Poissoniana) nel periodo successivo. Questo approccio, come tutte le metodologie statistiche, ricava l’algoritmo di previsione dalla storia sismica della zona in esame.
In questo caso e’ stata utilizzata l’informazione relativa al periodo 1600-1950. In questa operazione di taratura sono stati presi inizialmente in considerazione vari parametri geologici e sismologici. Poi, si e’ cercato di riconoscere l’influenza che ogni parametro esercita sulla distribuzione spazio-temporale delle scosse. Alla fine di questa analisi, le informazioni raccolte indicano che l’unico parametro che risulta avere un peso significativamente diverso da zero e’ il numero di scosse avvenute nella storia sismica della zona implicata (tempo di ricorrenza medio)”.
Sono stati utilizzati per il sisma di L’Aquila? “Questa metodologia e’ stata utilizzata per elaborare una mappa di previsione nel gennaio 2009, che era quindi in vigore al momento del terremoto del 6 Aprile nell’aquilano. In tale mappa viene indicata come più pericolosa la zona del Friuli, con una probabilita’ del 27%, seguita dalla zona dall’Appennino meridionale (25%), l’Umbria (25%), la Calabria centrale (17%), la Calabria settentrionale (14%), l’Appennino centrale (11%) e altre zone con probabilita’ più basse. Il fatto che in questa mappa la zona di L’Aquila (Appennino centrale), fosse classificata al sesto posto di pericolosita’ suscita qualche perplessita’ sulla potenzialita’ di questo metodo. In particolare, sembra strano che una zona che in passato ha subito scosse fortissime e che non aveva subito scosse di M>6 da oltre 300 anni (1703, M=6.8) sia stata considerata meno esposta rispetto ad altre zone, come il Friuli, la Calabria e l’Appennino meridionale, dove terremoti di M > 6 sono avvenuti nell’ultimo secolo”.
Per quale motivo? “Questo problema e’ molto probabilmente legato al fatto che i risultati della metodologia sopra discussa sono fortemente dipendenti dalla geometria delle zone in cui e’ suddiviso il territorio italiano. Per esempio, se la zona dell’Appennino centrale fosse stata suddivisa in due sottozone, relative ai due sistemi di faglie di L’Aquila e del Fucino (tettonicamente e sismicamente distinti), il risultato dell’analisi statistica sarebbe stato molto diverso. In particolare, la probabilita’ prevista per la zona di L’Aquila sarebbe risultata molto superiore (in linea con quanto avvenuto in realta’)”. Questo esempio mette in luce un grosso problema metodologico: quali altre zone della suddivisione adottata da Cinti et al. e dalle soluzioni successive (sito INGV) hanno lo stesso problema della zona di L’Aquila? “Purtroppo, non e’ possibile trovare una risposta sicuramente attendibile a questa domanda. L’unico antidoto contro questa difficolta’ (senza garanzie di guarigione, però) e’ una profonda conoscenza dell’attuale assetto tettonico nella regione in esame, una disciplina che non viene adeguatamente coltivata in molti ambienti scientifici sismologici. Nel lavoro in cui verrebbe dimostrata la validita’ del metodo (Cinti et al., 2004) e’ riportata un’unica mappa di previsione, molto simile a quella inserita nel sito INGV nel gennaio 2009.
Le previsioni fatte per terremoti precedenti vengono considerate soddisfacenti dagli Autori, ma a sostegno di questa valutazione viene solo riportata un’informazione parziale, come il numero di scosse forti del periodo considerato suddivise nelle zone classificate come altamente probabili, mediamente probabili, poco probabili ecc. Per convincere la comunita’ scientifica sulla validita’ di questa metodologia sarebbe invece necessario presentare la mappa di previsione per ogni terremoto considerato, in modo da rendere possibile un controllo come quello sopra discusso”. Vale a dire? “Inoltre, va sottolineato che le probabilita’ massime previste nella mappa del 2009 sono tutte inferiori al 28 % (per cui la probabilita’ che le zone in esame non siano colpite da scosse e’ molto superiore, 72%) e che le probabilita’ assegnate alle prime sei zone in graduatoria differiscono di qualche punto percentuale. Considerando le forti incertezze che queste valutazioni possono avere (difficilmente definibili per la scarsa conoscenza sulla validita’ delle assunzioni fatte), sarebbe molto strano che la decisione di destinare risorse economiche ad una zona e non ad un’altra fosse basata su tali minuscole differenze di probabilita’, la cui significativita’ e’ quasi sconosciuta”.
Qual e’ il concetto che sta alla base dell’approccio statistico? “L’idea che l’analisi di qualche centinaio di anni di storia sismica possa rivelarci il modo in cui le scosse si distribuiranno nello spazio e nel tempo. Considerando che i processi tettonici che stanno attualmente sollecitando il territorio italiano sono stati attivi per milioni, o per lo meno centinaia di migliaia di anni, sembra molto improbabile che il comportamento sismico degli ultimi 300-400 anni sia rappresentativo dell’intera successione di deformazioni e conseguenti fatturazioni che si sono sviluppate nell’intera storia de formativa”. Qual e’ il concetto che sta alla base dell’approccio deterministico? “Questo tipo di indagine si basa sull’ipotesi che la probabilita’ di scosse in una determinata zona sia controllata da un meccanismo fisico ben definito.
Tale impostazione implica una procedura di validazione completamente diversa rispetto al metodo statistico. La differenza principale e’ che la storia sismica non deve essere adoperata per dedurre il modello di previsione, ma costituisce invece l’evidenza sperimentale che le previsioni del meccanismo ipotizzato devono spiegare in modo soddisfacente. Per dare un’idea più concreta di quanto detto sopra può essere utile considerare un esempio di questa metodologia che e’ chiaramente definito in tutti gli aspetti, cioe’ l’approccio basato sullo studio del rilassamento post-sismico, descritto in vari lavori (Mantovani et al., 1997; Viti et al., 2003, Geophys.J.Int., 153; Mantovani et al., 2010, J.Seismology). Questo metodo suggerisce che la probabilita’ di scosse in una zona può subire incrementi significativi quando la zona in oggetto e’ investita dalla perturbazione del campo di deformazione e sforzo indotta da una scossa forte avvenuta in una zona vicina.
In particolare, la massima probabilita’ di terremoti indotti e’ prevista quando nella zona esposta arrivano i valori più elevati (molto superiori ai valori precedenti e seguenti) del tasso di deformazione associato alla perturbazione migrante. La plausibilita’ di questa ipotesi e’ sostenuta da considerazioni teoriche basate su quantificazioni analitiche e numeriche e da osservazioni sperimentali in molte parti del mondo, entrambe descritte in numerosi lavori su riviste internazionali (e.g., Lorenzo Martin et al., 2006, Tectonophysics, 424; Pollitz et al., 2006, Geophys.Res.Letts., 33). Cioe’? “Le quantificazioni fatte permettono di chiarire che per terremoti molto forti l’entita’ delle perturbazioni attese (rilassamento post-sismico) sono sufficienti a innescare terremoti in zone sismiche mature, cioe’ vicine al punto di rottura delle rocce, anche se situate centinaia di km dalla scossa innescante. E’ bene chiarire comunque, che la probabilita’ che il rilassamento post-sismico provochi terremoti indotti dipende fortemente dalla condizione che sulla traiettoria della perturbazione migrante ci sia una zona sismica dove le faglie siano favorevolmente orientate rispetto alle caratteristiche degli sforzi indotti dalla perturbazione in arrivo.
La validazione di questo metodo può essere facilmente fatta verificando la sua capacita’ di spiegare aspetti significativi della storia sismica nelle zone in cui (in base alle attuali conoscenze sull’assetto tettonico dell’area mediterranea centrale e alle quantificazioni delle perturbazioni indotte da terremoti forti in quelle zone) sono previsti effetti significativi del rilassamento post-sismico. Le analisi finora effettuate a questo proposito indicano che il fenomeno in oggetto potrebbe essere responsabile dell’interazione tra varie sorgenti sismiche periadriatiche (Viti et al., 2003; Cenni et al., 2008, Boll.Soc.Geol.It., 127; Mantovani et al., 2008, Envir.Semeiotics, 1, 2010, J.Seismology). L’esempio più significativo finora individuato, e’ costituito dal fatto che negli ultimi due secoli tutti i terremoti forti (M>5.5) nell’Appennino meridionale sono stati preceduti di alcuni anni da scosse molto intense (M>6) nella zona delle Dinaridi meridionali (Montenegro-Albania). L’ultima corrispondenza si riferisce al terremoto avvenuto nel Montenegro nel 1979 (M=7) seguito dal terremoto dell’Irpinia del 1980 (M=6.9).
Questa stretta corrispondenza temporale tra scosse forti nelle stesse zone si e’ verificata altre sei volte nel periodo considerato”. L’interazione osservata tra le sorgenti sismiche sopra citate sembra coerente con evidenze molto significative: quali? “Le conoscenze molto dettagliate sull’assetto sismotettonico della zona adriatica meridionale e le catene circostanti indicano molto chiaramente che i forti terremoti di disaccoppiamento lungo il bordo di sottoscorrimento sotto le Dinaridi meridionali innescano una perturbazione del campo di deformazione che e’ molto favorevolmente orientata rispetto alle faglie normali che sono situate nell’Appennino meridionale. Le quantificazioni del rilassamento post-sismico effettuate con tecniche numeriche indicano che i valori massimi dell’incremento di tasso di deformazione atteso nell’Appennino meridionale sono previsti circa uno-due anni dopo la scossa innescante nelle Dinaridi meridionali. Un tempo di ritardo che e’ compatibile con gli intervalli di tempo che hanno finora separato le forti scosse dinariche e appenniniche negli ultimi due secoli. Numerose corrispondenze di questo tipo sono riconoscibili nella storia sismica precedente tra le scosse delle due zone in oggetto, anche se in tali periodi la corrispondenza e’ meno regolare. Ulteriori indagini sulle informazioni storiche relative alle storie sismiche delle zone implicate potranno chiarire se le mancate correlazioni siano imputabili a lacune nei cataloghi relativi”.
Una correlazione temporale analoga a quella sopra citata sarebbe stata individuata tra i forti terremoti dell’Arco Calabro e le crisi sismiche più intense dell’Arco Ellenico, la zona che si sviluppa da Creta alle isole Ioniche: e’ vero? “In questo caso la corrispondenza e’ riconoscibile per un periodo più esteso (dal 1600). Inoltre, e’ stato messo in evidenza che la distribuzione spazio-temporale dei terremoti più violenti nella catena appenninica durante quattro sequenze storiche (1349; 1456-1461; 1688-1706; 1910-1920) e’ molto compatibile con il meccanismo di deformazione recente/attuale dedotto dall’analisi delle deformazioni peri-adriatiche dal Pleistocene medio (Mantovani et al., 2009, Tectonophysics, 476). In particolare, e’ molto difficile considerare casuale il fatto che la crisi sismica più violenta e concentrata mai registrata nell’Appennino settentrionale (con sei scosse di M>5.5 nel periodo 1916-1920) si sia verificata immediatamente dopo il forte terremoto del Fucino del 1915 (M=7), che in base al meccanismo tettonico ipotizzato avrebbe notevolmente accentuato ed accelerato il carico tettonico sull’Appennino settentrionale. Anche per i casi sopra citati nella catena appenninica, le quantificazioni del rilassamento sismico forniscono giustificazioni plausibili sulla cronologia delle scosse avvenute (Cenni et al., 2008; Mantovani et al., 2010)”.
Il metodo descritto avrebbe tutti i requisiti per essere inserito tra quelli da sottoporre ad accurata indagine: può spiegare in sintesi per quale motivo? “In quanto “e’ basato su precursori chiaramente definiti e facili da riconoscere, cioe’ il verificarsi di scosse forti in zone definite; il meccanismo che può portare all’incremento della probabilita’ di terremoti in altre zone e’ definito da leggi precise che permettono il calcolo dei possibili effetti, da confrontare con riscontri altrettanto chiari in quanto costituiti dalla storia sismica, un’informazione non discutibile; anche se non può essere considerato una dimostrazione definitiva dell’attendibilita’ del metodo proposto, il fatto che le implicazioni del meccanismo ipotizzato forniscono spiegazioni plausibili e coerenti di alcuni aspetti significativi della storia sismica del territorio italiano rende ottimisti sulla potenzialita’ di questo tipo di approccio”.
Nella discussione che si e’ svolta nella sessione dedicata a questi problemi, durante il convegno del gruppo nazionale di geofisica della terra solida (GNGTS) tenuto a meta’ novembre a Trieste, alcuni suoi colleghi hanno obiettato che il metodo deterministico non e’ in grado di fornire previsioni ben definite, paragonabili a quelle delle metodologie statistiche. Che ne pensa? “Questo conferma la nostra impressione che il metodo da noi proposto sia ancora poco conosciuto, nonostante la dettagliata descrizione riportata in letteratura. Per esempio, nel lavoro Mantovani et al. (2010) vengono quantificate le probabilita’ di terremoti forti previste dal metodo in oggetto per le zone implicate. In particolare, l’analisi statistica delle scosse coinvolte nella prima correlazione citata indica che la probabilita’ che una scossa forte (M>5.5) avvenga nell’Appennino meridionale senza essere preceduta da scosse forti (M>6) nelle Dinaridi meridionali, e’ circa del 10%. Questo implica che fino all’occorrenza di scosse forti nella zona dinarica in oggetto, l’Appennino meridionale non potra’ essere considerata una zona in pericolo imminente. Questa condizione cambierebbe drasticamente se una scossa forte, come quella avvenuta nel 1979 in Montenegro (M=7) si verificasse nuovamente. In quel caso, la probabilita’ di scosse forti nell’Appennino meridionale salirebbe a oltre il 50%. Un valore di probabilita’ non elevatissimo, ma decisamente più alto di quelli (di circa il 25%) stimati dall’altra metodologia”. Per quanto riguarda la seconda correlazione citata? “L’analisi statistica delle scosse implicate indica che la probabilita’ che un precursore nell’Arco Ellenico (M>6.5) sia seguito da una scossa forte (M>5.5) in Calabria, e’ compresa tra il 60% e il 70%. Anche in questa correlazione la probabilita’ che un terremoto forte in Calabria avvenga senza essere preceduto da un precursore nell’Arco ellenico, e’ molto bassa (minore del 10%). Siccome la recente attivita’ nella zona dell’Arco Ellenico (due scosse di M>6.5 nel 2008) ha caratteristiche simili a quella di un possibile precursore (due scosse di M>6.5 o una di M>6.8), la Calabria potrebbe essere attualmente inserita tra le zone di pericolosita’ più elevata”. Dunque, i dubbi su questa previsione sono principalmente dovuti alle incertezze che possono interessare i valori di magnitudo stimati? “Certamente. Nonostante che la casistica delle migrazioni di terremoti forti lungo la catena appenninica sia meno numerosa (solo quattro sequenze sono riconoscibili), stiamo analizzando la possibilita’ di quantificare la probabilita’ di scosse forti anche in questi casi (Mantovani et al., 2010, in preparazione)”. Quali sono allora le possibili limitazioni del metodo proposto? “L’interazione tra le sorgenti sismiche tramite il fenomeno del rilassamento post-sismico e’ molto probabile, nelle situazioni favorevoli, quando l’energia liberata dalla scossa scatenante e’ elevata. Nei casi in cui l’energia e’ intermedia (come per il recente terremoto aquilano, Mw=6.3), la previsione dei possibili effetti e’ molto più incerta. Le correlazioni finora riconosciute sono basate sui valori di magnitudo riportate nei cataloghi sismici, che come noto possono essere affette da incertezze significative. Gli intervalli di tempo presi in considerazione nelle correlazioni suggerite sono limitati alle parti dei cataloghi ritenute più complete, generalmente qualche centinaio di anni. Rimane quindi da chiarire se i peggioramenti delle correlazioni nei periodi precedenti sono dovuti alla non realisticita’ delle interazioni proposte o a lacune nelle informazioni storiche”.
Quali sono le prospettive per “azzeccare” in Italia una futura previsione sismica? “Un aspetto importante della metodologia deterministica, che potrebbe aiutare a superare le incertezze sopra citate, e’ costituito dal fatto che tale approccio e’ basato sulla propagazione di un fenomeno fisico (rilassamento post-sismico) i cui effetti sulla superficie della Terra hanno ampiezze che per terremoti sufficientemente intensi possono essere rilevate da osservazioni geodetiche o geofisiche. Per esempio, l’attuale disponibilita’ di reti abbastanza dense di stazioni GPS permanenti sul territorio italiano, potrebbe permettere, per terremoti forti, di seguire l’avanzamento del picco del tasso di deformazione verso le zone sismiche esposte, agevolando la previsione sul ritardo atteso delle possibili scosse indotte.
Un’interessante opportunita’ di svolgere questo tipo di indagine, e’ stata determinata dal terremoto aquilano del 6 Aprile 2009. Le misure effettuate prima e dopo tale scossa hanno permesso di riconoscere significativi indizi del fenomeno del rilassamento post-sismico innescato dal terremoto aquilano. Anche se i risultati di questa indagine, in accordo con le quantificazioni del rilassamento post-sismico, indicano che le ampiezze della perturbazione innescata dal terremoto del 6 Aprile sono molto probabilmente insufficienti a indurre terremoti nelle zone circostanti, le informazioni così ottenute saranno sicuramente utili per valutare in modo più realistico le caratteristiche geologiche del sistema strutturale appenninico. Questo potra’ agevolare lo studio del rilassamento post-sismico per futuri più intensi terremoti nella catena”.
Cosa si augura possa fare un giorno la Protezione Civile per prevenire le conseguenze di un terremoto distruttivo sugli Appennini? “Essendo l’Ente che deve prendere le decisioni operative per la difesa dai terremoti, e’ indispensabile che la Protezione Civile abbia a disposizione un quadro conoscitivo esauriente delle attuali possibilita’ di riconoscere le zone italiane più esposte a scosse forti, da utilizzare per programmare la destinazione delle risorse eventualmente stanziate nel breve termine per la messa in sicurezza del patrimonio edilizio esistente. Le considerazioni riportate in questo contributo (e quelle molto più dettagliate che potrebbero essere fornite) suggeriscono che per vari motivi la Protezione Civile abbia attualmente informazioni solo parziali sul problema in oggetto.
L’acquisizione delle informazioni mancanti può essere ottenuta in vari modi. Una possibile strada potrebbe essere l’organizzazione di un convegno aperto a tutta la comunita’ scientifica, dedicato alla discussione delle potenzialita’ e limitazioni delle metodologie di previsione finora proposte. Per affidare questo delicato compito ad un ristretto gruppo di esperti sarebbe necessario che tale gruppo comprendesse ricercatori con esperienza in tutti i tipi di metodologia. Per esempio, non sembra che componenti dell’attuale Commissione abbiano svolto ricerche su metodi deterministici di previsione a medio-lungo termine, capaci di sfruttare le dettagliate conoscenze attualmente disponibili sull’assetto sismotettonico dell’area in esame. Trascurare questo tipo di metodologia non sembra giustificato”.
Chi propone? “Per esempio, un esperto quale il Prof. Perkins (uno scienziato largamente riconosciuto per le sue ricerche sulla pericolosita’ sismica negli Stati Uniti) ha giudicato i risultati recentemente acquisiti da quest’ultimo tipo di indagine di grande interesse per la comunita’ scientifica. Il convegno da organizzare su questo problema potrebbe anche essere un’occasione per illustrare alla comunita’ scientifica quali risultati pratici sono stati finora ottenuti nell’ambito dei progetti di ricerca finanziati negli anni passati dalla Protezione Civile con il coordinamento di ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia”.
Dunque, l’idea forte e’ quella di organizzare, magari a L’Aquila nel 2010, un convegno multidisciplinare di geofisica sul modello dell’Agu Fall Meeting di San Francisco dove migliaia di ricercatori parlano e discutono non solo di terremoti, ma anche di ambiente e di fisica interplanetaria, integrando le conoscenze acquisite in svariati esperimenti e missioni. Come ha fatto la sonda Cassini (Esa-Nasa) che ha confermato la presenza di laghi di metano liquido su una delle lune di Saturno, Titano, autentica miniera di idrocarburi, posta a un miliardo e mezzo di chilometri dalla Terra. Mentre tutto gioca contro il futuro dell’uomo sulla Terra perché molti scienziati sono convinti del fatto che, indipendentemente dalle tardive decisioni politiche internazionali, saranno semplicemente disastrosi i cambiamenti climatici sulla Terra entro la fine del 22° Secolo, indotti o meno dall’uomo o dal vento solare o piuttosto dai raggi cosmici di una supernova galattica. E questo anche per un aumento medio di temperatura di soli 2 gradi Celsius, fatale per i ghiacciai polari e gli equilibri oceanici. Le piante e gli oceani ce faranno ad assorbire l’anidride carbonica in più? Siamo prossimi allo scenario del film “Waterworld” con tutte le citta’ della Terra sommerse dalle acque? Davvero non c’e’ più tempo da perdere, come annunziato dal Presidente Barack H. Obama? Ma per fare cosa? Attorno a 15-16 milioni di anni fa, in un’epoca nota come Miocene Medio, le temperature dell’Antartide erano straordinariamente miti: una media di 10°C nel mese di gennaio (che corrisponde all’estate australe), con condizioni climatiche simili a quelle che si riscontrano oggi nella Patagonia e nella Nuova Zelanda Meridionale. Questa storia climatica sta emergendo, strato dopo strato, da una serie di carotaggi effettuati sotto i fondali marini della Baia di McMurdo, nei pressi della omonima base americana.
La ricostruzione delle condizioni climatiche di questa lontana epoca della Terra e’ possibile grazie al progetto Andrill (Antartic Geological Drilling), una collaborazione internazionale fra Stati Uniti, Germania, Italia e Nuova Zelanda. La perforazione attraverso cui vengono raccolte le carote di sedimenti avviene attraverso una piattaforma di ghiaccio marino dello spessore di circa 9 metri, che galleggia su un mare profondo 380 mt. Giunto sul fondale di questo mare, il perforatore affonda nei sedimenti per oltre 1000 mt. Così facendo i ricercatori sono riusciti ad analizzare sedimenti e fossili per ricostruire le condizioni climatiche di un periodo di tempo compreso tra 17 e 14 milioni di anni fa.
Quando il sistema climatico globale ha avuto una transizione fondamentale, passando da una fase calda nota agli addetti ai lavori come “worm climate optimum”, all’inizio di un progressivo raffreddamento che ha portato alla formazione di una copertura glaciale quasi permanente nell’Antartide orientale. Al geologo Fabio Florindo che ha partecipato a numerose spedizione in Antartide per conto dell’INGV e che fa parte da circa nove anni del progetto Andrill, chiediamo qual e’ il contributo che la conoscenza dei climi del passato sta dando allo studio delle attuali variazioni climatiche. “Gli effetti del riscaldamento globale non hanno tardato a farsi sentire anche in questo continente remoto: ricordo che nell’ultima decade, due enormi piattaforme di ghiaccio si sono disintegrate in pochissimi giorni: nel 2002 il Larsen B con 570 chilometri quadrati di estensione e nel 2008 la piattaforma di Wilkins con 3250 chilometri quadrati di estensione. E’ difficile al momento prevedere se l’inizio di un futuro e brusco collasso dei ghiacci antartici avverra’ tra un secolo oppure nel prossimo millennio, in dipendenza ai futuri livelli di gas serra in atmosfera. I dati ottenuti da Andrill costituiscono un tassello fondamentale per la conoscenza dei cambiamenti climatici e degli effetti del riscaldamento globale ai poli. Affiancati dall’enorme mole di dati e informazioni interdisciplinari acquisiti in questi decenni essi forniranno un contributo importante alla prossima valutazione dell’IPCC, la quinta dalla sua istituzione”.