Infrastrutture: la resilienza non basta, occorre una teoria della prudenza
Dopo il crollo del ponte a Genova, scosse ancora forti in Molise, Abruzzo, Emilia Romagna, la tragedia del Pollino, ispezioni costanti presso il Ponte di via Eroi dell’Aria e viadotto Toano a Terni, osservazioni specifiche sul Ponte della Magliana, allerta sulla A24 per i viadotti, panico per i Ponti sulla A1 e sulla A14 ormai datati o ancora, come riportato dalla giornalista Milena Gabanelli, l’esistenza di oltre 5000 km di strade provinciali chiuse per frane e smottamenti, non è più possibile parlare di una situazione di allarmismo ingiustificato e occorre invece fare seriamente i conti con il concetto mutato negli anni del termine “infrastruttura”. Le infrastrutture dovrebbero permettere il collegamento di due o più punti per generare migliori servizi. Siano esse strade, linee elettriche, rotte navali, ponti o tanto altro. In Italia questi “link” da tempo non sono più coerenti con il territorio circostante, sono “stimolati” ogni giorno da eventi diversi e non congrui rispetto al passato. Per questo motivo queste infrastrutture sono diventate “critiche”.
Con il termine “infrastruttura critica” si intende un sistema, una risorsa, un processo, la cui distruzione, interruzione o anche momentanea indisponibilità ha l’effetto di indebolire in maniera significativa non solo l’efficienza e il funzionamento normale di un Paese, ma anche la sicurezza e il sistema economico-finanziario e sociale, compresi gli apparati della pubblica amministrazione centrale e locale. Quelle infrastrutture che hanno dato gloria ai nostri nonni, a ragione, trattandosi di creazioni post guerra, utili per lo sviluppo, oggi diventano difficili da gestire e in tanti casi dannose. Questo accade per molti motivi: ad esempio non sono più coerenti con un territorio che nella maggior parte dei casi è cambiato a causa di mutamenti idrogeologici, terremoti o semplicemente per la comparsa di altre costruzioni su quello che un tempo era terreno di sostegno. Se prima si costruiva in spazi aperti oggi questi sono sempre più ridotti.
Come affrontare questa situazione? Prima di tutto deve finire l’era dei tanti controlli “a vista”. Premesso che ci sono problemi di attuazione di alcune riforme e problemi economici degli enti locali, cerchiamo di ripartire da un principio principe. La competenza attraverso lo studio e il coinvolgimento di più professionisti abbinato a uno studio serio dei materiali. Ad esempio il calcestruzzo. Utilizzato per coprire ferro o acciaio e per evitare erosioni troppo celeri, il calcestruzzo tende però a macerarsi e deve essere controllato spesso. Esso è infatti soggetto al processo di carbonatazione. Più volte citato in questi giorni, tale processo ci fa capire come il calcestruzzo, che è fortemente alcalino, ha ossigeno e acqua che penetrano, corrodendo i ferri. Essendo questo un processo variabile di zona in zona, anche l’età media della vita del calcestruzzo (e di conseguenza quella delle strutture che ricopre) diventa di circa 8 anni e mezzo. Non basta accettare il “fisiologicamente deteriorato” come ho ascoltato e letto, ma bisogna captare zone franche e analizzare i movimenti del territorio, il grado di umidità, il vento, le corrosioni già esistenti, i colori esterni, l’esposizione solare e tanto altro.
Insomma bisogna studiare meglio, di più e con strumenti più innovativi. Bisogna puntare seriamente sulla scienza, quella applicata. Tornare a scommettere su di lei. Quella che riesce a uscire dai laboratori e a confrontarsi con la vita reale. D’altro canto bisogna cambiare l’approccio anche al metodo scientifico. Dall’osservazione dobbiamo iniziare a passare alle prove sperimentali su zone sotto analisi, scavalcando la parte dell’ipotesi. Arrivare sul posto prima possibile e lavorare insieme sui problemi. Occorre iniziare a perorare meglio la causa della resilienza, che, come ci ha già lasciato intendere il Ministro della Difesa Elisabetta Trenta, non va semplicemente accettato come termine, ma deve essere un modo per adattarsi in maniera positiva al cambiamento. Il cambiamento inteso come il Gestalt switch del filosofo della scienza Thomas Kuhn. Un adattarsi al vecchio paradigma per poi superarlo con un altro paradigma più forte e legato al contesto. Questo nuovo paradigma avvicinato alla resilienza è quello che chiamerei una “teoria della prudenza”. Serve più cautela, prevenzione organizzata e quindi predizione. La resilienza non soddisfa senza, appunto, una teoria della prudenza. Se si denota una sorta di adattabilità dell’uomo e delle cose agli eventi non previsti, deve diventare importante anche la sua capacità di riconoscere le troppe anomalie esistenti, per citare sempre Kuhn, superarle e risolverle. Tutto questo proprio per non far diventare quegli eventi delle “fatalità” drammatiche. Come pretendiamo di adattarci a qualcosa che ci “uccide”? Dobbiamo lavorare sulla qualità, sull’incrocio di possibilità e sulla storicità degli eventi stessi. Non basta avere una buona gestione del post-crisi. Controllare il calcestruzzo spesso, come visto prima, è già una soluzione. Ma anche qui, occorre cambiare il paradigma: ovvero il tempo del controllo. A questo va aggiunta tutta una letteratura scientifica per scovare altre soluzioni.
Ci sono infatti i cosiddetti strumenti predittivi, che vengono già usati in istituti internazionali di ricerca che permettono, tramite l’analisi dei materiali esistenti, per quanto riguarda le opere civili e infrastrutturali, e l’analisi della storicità di determinati eventi (per terremoti e blackout), di prevedere cosa può accadere e perché determinate cose accadono. Ad esempio, uno strumento che permette di fare certe analisi è il MATLAB (software a più livelli) sezione avanzata. In questo sistema (dimenticato dai più dopo i percorsi universitari) si immettono dati selezionati a monte, si elaborano attraverso algoritmi specifici e i dati elaborati possono rappresentare un valido strumento per anticipare i problemi. Quei problemi, dando per assodata una migliore competenza sulle cose, che devono prevedere anche un costante coinvolgimento dei geologi. È di quest’anno il manifesto della categoria attraverso il quale i geologi chiedono di poter fornire sistematicamente il loro contributo sia per la realizzazione di nuove strutture sia per il monitoraggio di realtà già esistenti. Coinvolgerli di più e sempre sulle nuove norme tecniche per le costruzioni (NTC) che sono state pubblicate in Gazzetta Ufficiale e sono entrate in vigore il 22 marzo 2018. Tali norme rappresentano un aggiornamento delle precedenti NTC 2008 e prevedono sia cambiamenti sostanziali per quanto riguarda i materiali sia alcuni cambiamenti specifici in merito ad alcune formule di calcolo. Le NTC 2018 stabiliscono inoltre nuovi indici minimi di vulnerabilità sismica nel caso di lavori su edifici storici e negli interventi di adeguamento degli edifici scolastici, ponti o altre costruzioni “sensibili”, eppure nessuno ne parla o, per opere realizzate prima di questa data, si continua a far valere la vecchia norma. «Purtroppo per le opere di pubblica amministrazione a progetti affidati e contratti firmati ante 2018 sono ancora applicabili le vecchie NTC del 2008» commenta Davide Tullii, Ingegnere Edile che dal 2012 lavora nell’ambito della sicurezza ed è referente nella ricostruzione post sisma 2009 a L’Aquila. «Anche per quanto riguarda i lavori privati, le cui parti strutturali sono ancora in corso di esecuzione o per le quali, prima della data di entrata in vigore delle nuove norme tecniche per le costruzioni, è stato depositato il progetto esecutivo presso gli uffici competenti, si possono continuare ad applicare le vecchie norme tecniche per le costruzioni del 2008 – aggiunge Marco David di Ecoservizigroup, società che si occupa di sicurezza da oltre 20 anni – Per tutti i progetti presentati dal 23 marzo 2018 in poi invece valgono esclusivamente le nuove NTC»
Un altro importante passo da compiere riguarda l’elaborazione di un modello in grado di comprendere tutte le criticità di un luogo attraverso un approccio globale e non più settoriale. Primi importanti passi in questa direzione sono stati fatti due anni fa a Roma, quando nella Poster Session del 3rd International CBRNe Workshop 2016 di Roma ho iniziato a parlarne con esperti e organizzazioni mondiali attraverso il paper “The Sensitive Future”. In quell’occasione abbiamo ragionato (ma tanto ancora si può ragionare) concretamente su nuovi algoritmi, che possono essere applicati in un black-out come in un potenziale attacco terroristico, passando anche dal contesto costruttivo. Abbiamo ipotizzato “un’intelligenza” che, partendo sempre dal contesto, prenda in visione un sistema e che nel suo approccio sia replicabile su vasta scala, anche quando le condizioni di riferimento sono diverse.
L’approccio è generare attenzione trasversale verso un fattore di rischio alto, ovvero validare tutte le ipotesi di ogni singola analisi valutando anche l’imponderabile. O almeno farne una classificazione. Quindi iniziare a calcolare il rischio (R) che potremmo correre, cioè il rischio connesso con un particolare evento in un determinato luogo, in determinate condizioni che variano (S) nel tempo e nello spazio, con la formazione degli eventi storici locali e globali del momento, ovvero politica locale e nazionale, geopolitica, territorio, etc. Il rischio va poi moltiplicato per una lista di minacce (M), che rappresentano gli indici di probabilità che vengono a manifestarsi in un particolare evento o che si manifesti un nuovo evento in quel determinato luogo (N). La minaccia intravista va applicata alle diverse condizioni sia geografiche sia idrogeologiche, sia dipendenti da altri fattori. Da qui deriva la vulnerabilità (V) di un sistema. Quest’ultima rappresenta la probabilità che un evento possa avvenire di nuovo generando una catastrofe a causa di una debolezza che si innesta nella mancanza di monitoraggio costante delle strutture o per delle condizioni mutate nelle strutture stesse. A corredo di ciò si potrebbe calcolare anche l’esposizione (E) al rischio che è rappresentata, a sua volta, dal potenziale danno arrecato dall’evento.
A sostegno della predizione oggi è possibile avvalersi anche delle tecnologie che chiamiamo Internet delle cose (Internet of Things o IoT) o Internet del Tutto, realtà modificate che restituiscono dati “in e da” dispositivi sempre connessi, in grado di registrare movimenti e vibrazioni e di segnalare se la struttura ha difetti o meno. I dati sono poi inviati a un server o a un luogo in cui vengono conservati e subito dopo elaborati per determinare lo stato di salute di ciò che si sta controllando e all’occorrenza intervenire immediatamente. Un check-up utile, spinto molto ultimamente anche dal MIT, Massachusetts Institute of Technology, che aiuta questa prima fase di prevenzione e l’applicazione di correttivi. Ma non solo: di questi temi si parlerà anche durante la tredicesima edizione del CRITIS (International Conference on Critical Information Infrastructures Security), l’incontro annuale tra fisici e centri di ricerca internazionali, che quest’anno si terrà a Kaunas, in Lithuania dal 24 al 26 settembre. Un appuntamento importante per discutere soluzioni adatte alla gestione delle infrastrutture critiche. La scienza, con il consenso e la fiducia che sa generare, può fare molto. Essa ha oggi un’opportunità epocale e può riprendersi il ruolo che meglio le compete, ovvero quello di regina delle speranze e di madre dell’immaginazione per risolvere i problemi. Per permettere che questo accada occorre però lasciarle il posto che merita non solo all’interno dei laboratori, ma anche sul campo.
Nessun commento
Devi fare per commentare, è semplice e veloce.