Oggi:

2019-05-23 03:32

La modellazione dei fenomeni naturali

L'ASTROLABIO SCIENZE

di: 
Fabio Brunamonte* e Leonello Serva

Due degli scopi fondamentali della geologia sono la valutazione dei rischi naturali (es. terremoti, frane, vulcanismo) e le georisorse (es. minerali, petrolio, materiali da costruzione).

In tema di georisorse, sappiamo che la terra e limitata ma avendo la forma sferica siamo di fronte ad un finito illimitato; in altre parole la sfera: ha un’area finita, cioè esprimibile con un determinato numero, ma non ha limiti geometrici, non ha confini definiti. È appunto finita, ma illimitata. Questo dovrebbe farci riflettere quando diciamo che una certa risorsa sta per finire, sappiamo troppo poco delle caratteristiche della sfera terra per fare queste affermazioni. Un esempio per tutti è quello della materia organica sepolta nelle rocce della crosta terrestre di cui ho parlato in un mio precedente articolo.

Per quanto attiene ai fenomeni della terra, molti dei quali definibili anche rischi naturali, possiamo dire che un serio approccio scientifico nei confronti di un qualsiasi fenomeno non solo deve cercare di rappresentare nel modo più fedele possibile la realtà e capire i processi, e i nessi di causa ed effetto che regolano il fluire della natura, ma anche definire tutte le deformazioni che inevitabilmente scostano i fatti reali dalla loro rappresentazione ed interpretazione. Innanzitutto è da tenere sempre presente che l’ ambiente naturale non è un oggetto o una serie di oggetti statici ma qualcosa che evolve a partire da un più o meno lungo passato. I processi naturali del passato pongono vincoli, fisici e non, agli assetti presenti e futuri. I tempi ed i ritmi dei processi naturali sono molto diversificati; vi sono tempi lunghi e tempi molto brevi, ritmi lenti e veloci. E’ il loro intreccio che si deve districare: le interazioni positive e negative, i meccanismi di amplificazione o smorzamento. Per analizzare tali problemi occorre passare continuamente da una scala temporale ad un’altra, da un ordine di grandezza ad un altro. L’ambiente naturale, infatti, è fortemente anisotropo ed eterogeneo, sia a piccola che a grande scala; da tale carattere deriva per gran parte la genesi dei suoi fenomeni, l’estrema variabilità della loro entità e quindi anche dei parametri che li descrivono (es., la magnitudo dei terremoti, la permeabilità dei terreni, le portate dei corsi d’acqua). Il campo di variabilità dei parametri che descrivono i fenomeni naturali non di rado supera i 10 ordini di grandezza. A riprova, nelle quattro tabelle sottostanti sono riportati i campi di variabilità di molti parametri naturali.

Fig1. Campo di variabilità dei fenomeni gravitativi

Fig2. Campo di variabilità dei fenomeni idrogeologici

Fig3 e4. Campo di variabilità dei fenomeni erosivi e e posizionali

A queste difficoltà della scienza in se, spesso se ne aggiungono altre  legate all’inclinazione del singolo scienziato: background culturale s.l. (dal curriculum accademico al suo tipo di lavoro, alla gente che frequenta). Infine c’è da ricordare che anche la scienza può subire il fascino delle mode, soprattutto quando cavalcare la teoria del momento può significare ottenere fondi per il proprio gruppo di ricerca.

A tal proposito si riportano due brani entrambi contenuti nel libro di Petr Skrabanek e James McCormick: Follie ed inganni della medicina. Tascabili Marsilio. Titolo originale: Follies and fallacies in Medicine. Il primo riguarda l’errore del pregiudizio nascosto.

Quando si leggono attentamente gli articoli scientifici è relativamente facile scoprire in quale direzione gli autori avrebbero voluto vedere andare i risultati. Ed è quindi abbastanza semplice stare in guardia rispetto alla possibilità che i risultati siano stati spinti in quella direzione. Ulteriori prove sono ricavabili dalle fonti citate – uso selettivo delle prove -  e dal tipo di dati e bibliografia non citati – uso selettivo dei risultati – dalla scelta delle parole, dal modo in cui i dati contraddittori, quelli dell’autore e quelli di altri, sono discussi e scartati e, infine, dalla fonte di finanziamento. Martin ha paragonato le frasi usate in due articoli sugli effetti del trasporto supersonico sull’ozonosfera.

Johnson (“Science”)                               

Goldsmith et al (“Nature”)

scudo di ozono                                    

strato di ozono

carico di protossido di azoto                                                                               

quantità di protossido  di azoto

minaccia per l’ozonosfera                      

interazione e attenuazione

possibilità per le radiazioni  dannose di penetrare negli strati più bassi dell’atmo sfera          

le radiazioni possono raggiungere la superficie del pianeta

E’ chiaro da questi pochi esempi messi a confronto che Johnson crede che il problema in questione rappresenti una minaccia, mentre Goldsmith è neutrale.

Martin suggerisce la seguente lista di possibili strategie adottate dagli scienziati quando si trovano di fronte a dati che non concordano con le loro teorie preconcette:

1) si limitano a negarli

2) mostrano scetticismo sulla fonte

3) attribuiscono alla fonte un motivo ulteriore e nascosto

4) isolano l’oggetto di discussione dal contesto

5) minimizzano l’importanza della questione

6) interpretano la cosa in modo per loro opportuno

7) non capiscono

8) divagano o dimenticano la cosa.

Come ha fatto notare Bertrand Russel: “Perfino un dotto articolo scientifico sugli effetti dell’alcol sul sistema nervoso farà trapelare, per lo più per il modo stesso in cui è costruito, se l’autore è astemio oppure no; in tutti i casi l’autore tenderà a vedere i fatti in una chiave che giustifichi le sue abitudini”. E di questo ci rendiamo tutti inevitabilmente colpevoli. Chi sa leggere fra le righe può finire per conoscerci meglio di quanto noi stessi ci conosciamo.

Il secondo è il cosiddetto “Effetto Gold”.

Attenzione all’ “effetto Gold”, descritto nel 1979 dal professor T. Gold. Inizia così: un gruppo di persone arriva quasi a convincersi di una nuova idea. Viene indetto un incontro per discutere le posizioni a favore e quelle contrarie; all’incontro partecipano più persone a favore che contrarie. Viene eletto un comitato per preparare un volume che diffonderà l’idea. L’insieme degli articoli su quel tema darà l’impressione di un consenso crescente. Allora verrà lanciata una rivista specializzata dove direttore e comitato scientifico tenderanno ad accettare e pubblicare solo gli articoli ortodossi o quasi.

Questo fenomeno si verificherebbe anche in assenza di una selezione deliberata delle persone a favore nelle varie fasi. Poi la debolezza umana degli scienziati accentua tutto il processo. Una volta che l’idea è sbarcata nelle “riviste serie” è difficile sradicarla, poiché la maggior parte dei lettori è ingenua e trova innaturale mettere in dubbio il parere delle autorità. “La assorbono in buona fede al loro livello e la diffondono fra gli altri come fosse un vangelo”. L’istinto gregario a sua volta tenderà a far raccogliere insieme le persone che condividono le stesse convinzioni e che hanno bisogno di far parte di qualcosa. Gli articoli su quell’idea, che prima cominciavano con “è stato accumulato un certo numero di prove”, ben presto si apriranno con la frase “l’idea diffusamente accettata” e poi “è ampiamente dimostrato”, per finire con “è ovvio che”.

Il club degli assertori rifiuta di intavolare discussioni con i detrattori, che vengono per lo più stigmatizzati come paranoici ipercritici, ottusi pignoli e irrazionalisti. L’effetto Gold viene poi accelerato da una pioggia di pubblicazioni che “confermano” quell’idea, poiché i giovani ricercatori ansiosi di pubblicare per arricchire il curriculum vengono incoraggiati a scrivere articoli elogiativi del nuovo dogma, più facilmente accettati dalle riviste del gruppo di quelli che discutono la teoria, mostrandone le eventuali contraddizioni o prendendola di petto. L’effetto Gold è avvertibile nelle affermazioni che traggono consistenza per l’appunto dal consenso degli esperti, come per esempio quelle relative al rapporto fra alimentazione e malattie circolatorie ischemiche. Tali affermazioni sorvolano sui dati contrastanti e sul fatto che manca il supporto di serie verifiche sperimentali.

Quindi nell’elaborare modelli della realtà naturale , sia pure costruiti con tutte le informazioni disponibili (condizione essenziale), bisogna esser consci che non è da confondere il modello con la realtà naturale; in altre parole occorre essere consci che i margini di incertezza del modello sono in funzione della qualità e quantità dei dati di cui il modello stesso dispone.

Quanto detto sin qui mette chiaramente in luce la complessità della modellazione dei fenomeni naturali. Questo non significa, però, che la modellazione degli stessi sia una cosa poco seria. Significa solo che chi si occupa di questi temi deve prima di tutto capire: a) la complessità dei fenomeni che sta studiando; b) che basta un elemento non considerato abbastanza per far saltare il modello elaborato e che questo può far sorgere, nell’opinione pubblica, il dubbio che si tratti di cose poco serie.

Nelle tabelle che seguono vengono riportati, a titolo di esempio, i periodi di dati che sono necessari per fare delle analisi significative sulla fenomenologia in studio. Chiaramente se i dati disponibili non coprono gli intervalli riportati sotto, giocoforza viene più o meno inficiata la modellazione ed i suoi risultati.

A questi concetti se ne lega un altro già citato sopra: l’importanza nell’evoluzione della terra di processi episodici “eccezionali” rispetto ai processi continui, quello che nella storia del pensiero geologico è passato come conflitto (di idee) tra catastrofismo e attualismo. Alcuni autori preferiscono, rispetto al termine “catastrofismo”, utilizzare espressioni più neutre quali processi “discontinui” o “episodici”; questi processi potrebbero coincidere dal punto di vista umano con fenomeni quali grandi frane, alluvioni, forti terremoti ecc. . In funzione della frequenza di questi episodi parossistici su scala geologica questi eventi simulano dei processi continui  proprio perché fenomeni parossistici molto  frequenti  non sono risolvibili come tali nei records geologici. Questo significa che l’innalzamento di una catena montuosa formatasi attraverso migliaia di migliaia di terremoti che hanno rialzato la crosta di migliaia di metri, nei records geologici probabilmente sarà visto come una deformazione continua sviluppatasi in 10 milioni di anni (considerando ad esempio un tempo di ritorno medio di terremoti con queste caratteristiche pari a 5000 anni).

Il concetto di relatività non solo si applica alla frequenza dei fenomeni ma anche alla loro durata. L’assestamento isostatico (l’innalzamento della terra non più caricata al peso dei ghiacci) che ha interessato e tutt’ora interessa le aree coinvolte nell’ultima glaciazione (es. Scandinavia, Canada) è un processo che ha sempre accompagnato l’uomo nella sua fase “storica” ed è ovviamente percepito (a volerlo misurare apposta, altrimenti difficilmente ce ne accorgeremmo) come un processo graduale la cui durata è di 15-20.000 anni ma che alla scala di tempi della terra diviene un evento parossistico “immediato.

La perdita di risoluzione via via che fronteggiamo fenomeni sempre più lontani nel tempo è cosa abbastanza ovvia, anche se non si può dimenticare che da questa nebbia sempre più fitta possono uscire fuori non solo delle “omissioni” ma anche delle conclusioni false. Il classico caso è lo studio dell’inversione del campo magnetico. Il rinvenimento di inversioni molto più frequenti nei tempi “recenti” rispetto alle ere più antiche è realmente un indice di un campo magnetico più attivo oppure semplicemente deriva da una perdita di inversioni nelle ere più antiche?

* Geologo professionista