lunedì 15 novembre 2021

Ambientalismo e globalismo: nuove ideologie politiche

 



VORREI FARE UNA DOMANDA ALLA COP 26. 


Di Stefano Fontana, 15 novembre 2021

Si è conclusa la COP 26 di Glasgow e io vorrei fare una domanda a quanti là si sono riuniti, a quanti hanno plaudito alle decisioni prese, a quanti le hanno ritenute addirittura troppo moderate. 

La domanda è questa: se non esiste collegamento tra emissioni umane e riscaldamento globale, perché la COP 26 e i suoi sostenitori hanno proposto il dogma che “il tempo è scaduto” e hanno preso delle decisioni per ridurre le emissioni e rivoluzionare l’uso delle fonti energetiche che peseranno su tutti allo scopo di evitare il rischio del riscaldamento globale che non dipende da tutto ciò? 

Mi chiederete: e chi dice che quel collegamento non ci sia? Lo ha ben dimostrato il prof. Luiz Carlos Molion nel 12mo Rapporto del nostro Osservatorio dal titolo “Globalismo e ambientalismo nuove ideologie politiche” (Cantagalli, Siena 2020, euro 16).


***

Pubblichiamo qui sotto il saggio del Prof. Molion, mentre invitiamo ad acquistare il Rapporto 12 [QUI] e il Rapporto 13 [QUI], appena uscito.



Il Problema dell’Anno

RISCALDAMENTO GLOBALE ANTROPICO: RALTÀ O TRUFFA?




Luiz Carlos Molion[1]


Breve storia del clima

Il clima della Terra varia naturalmente a causa delle mutazioni nella sua orbita attorno al sole, oltre a fattori interni ed esterni, e in passato la sua temperatura è già stata più alta di quella attuale. In effetti, in quest’ultimo milione di anni il pianeta terra ha subito nove glaciazioni.

Considerando che ogni glaciazione dura circa 100 mila anni, secondo i dati geologici, e che è interrotta da periodi caldi chiamati interglaciali di circa 10.000 anni, ci sono nove glaciazioni della durata di 100 mila anni ciascuna, per un totale di 900 mila anni. Questo totale rappresenta, quindi, il 90% dell’ultimo milione di anni, quando le temperature della terra sono state più basse di quelle attuali. In altre parole, il clima del nostro pianeta è stato, quasi sempre, più freddo di quello attuale.

Nel 2009, i paleoclimatologi Louise C. Sime e i suoi colleghi sono riusciti, attraverso carotaggi nei ghiacci (ice cores) della stazione di Vostok, in Antartide, a ricostruire qualitativamente il clima degli ultimi 420.000 anni, concludendo che le temperature degli ultimi tre interglaciali, quelli di 130 mila, 240 mila e 320 mila anni fa, erano tra 6°C e 10°C più alti di oggi.

In altre parole, il clima della terra è stato molto più caldo di quello attuale e l’homo sapiens, la cui esistenza è stimata a 150 mila anni, è già sopravvissuto al picco di due ere glaciali e a quello di una interglaciale, senza avere le tecnologie che abbiamo oggi. In questo periodo interglaciale [Olocene] in cui viviamo, le temperature sono già state di circa 4°C superiori rispetto alle attuali intorno a sette/ottomila anni fa, secondo quanto afferma l’articolo di Shaun Marcott e colleghi nel 2013, un periodo noto come l’optimum climatico dell’Olocene.

Più tardi, vi furono periodi caldi come il Minoico [1500 a.C.], il Romano [400 a.C.- 300 d.C.] e il Medievale [900 d.C.-1300 d.C.]. In quest’ultimo periodo, provvisto di grande ricchezza e abbondanza di risorse e cibo, fiorirono le arti [stili romanico, gotico e arabo] e iniziò la costruzione delle grandi cattedrali europee. Dal 1300 d.C. circa all’inizio del XX secolo [ca. 1915], il clima si raffreddò, in un periodo noto come la Piccola Era Glaciale [PEG], che fu disastrosa per l’umanità. Oltre ai continui mancati raccolti agricoli dovute agli inverni più lunghi, malattie e parassiti – come la Peste Nera [Yersinia pestis] che si stima abbia ucciso più di 70 milioni di persone nella sola Europa – imperversarono in tutti i continenti, affamando la popolazione. Una tale situazione generò grandi disordini sociali, di cui un eccellente esempio fu la Rivoluzione francese del 1789 che, sulla sua scia, scatenò una serie di rivoluzioni, come l’indipendenza dei Paesi latinoamericani all’inizio del XIX secolo.

Dopo il 1915, le temperature ripresero a salire. Il riscaldamento tra il 1916 e il 1945, quando la concentrazione e le emissioni di anidride carbonica [CO2] erano basse, fu naturale e causato dalla più grande attività solare mai registrata negli ultimi 400 anni, oltre alla riduzione della copertura nuvolosa. Nell’emisfero settentrionale, le osservazioni indicano che le temperature degli anni ’30 rimangono i valori più alti registrati negli ultimi 130 anni.

Tuttavia, tra il 1946 e il 1975 vi fu un leggero raffreddamento globale, caratterizzato da inverni più rigorosi di quelli attuali. A quel tempo, alcuni climatologi e media sostenevano che “una nuova era glaciale era imminente”. A partire dal 1976, per cause ancora non ben note, l’Oceano Pacifico ha iniziato a riscaldarsi e con esso il clima.

Nel 1988, James E. Hansen, ex direttore del Goddard Institute for Space Science [GISS/NASA/USA], testimoniò davanti al Congresso americano che il riscaldamento globale osservato negli ultimi anni era stato causato dalle emissioni di CO2 dovute all’impiego di combustibili fossili [carbone minerale, petrolio e gas naturale] a seguito di attività umane. Nello stesso anno fu creato il Gruppo Intergovernativo sul Cambiamento Climatico [IPCC] e l’isteria del riscaldamento globale antropico [AGW] si diffuse a livello globale. In realtà, questo movimento nacque nel 1972 con la Conferenza delle Nazioni Unite sull’ambiente, la Conferenza di Stoccolma [Svezia], la quale non fu molto rilevante per i media a causa del periodo freddo che persisteva dal 1946.

Pertanto, da questa breve storia, è possibile concludere che i periodi caldi sono benefici mentre i periodi freddi fanno male all’umanità.


L’effetto serra

L’IPCC è stato creato con lo scopo specifico di dimostrare che le attività umane hanno un’influenza significativa sul clima globale anziché determinare in modo trasparente le cause fisiche naturali del riscaldamento tra il 1976-2005. In altre parole, l’organo è nato con un grave pregiudizio. Il pilastro principale della teoria AGW è l’effetto serra. Secondo la definizione utilizzata dall’IPCC, l’effetto serra è simile al processo che si svolge in una serra per orto.

I pannelli di vetro della serra consentono il passaggio della radiazione solare, che è composta da radiazione ultravioletta [UV], radiazione visibile ai nostri occhi e radiazione infrarossa [IR], di lunghezza d’onda corta [fino a 4 micrometri]. La radiazione solare riscalda le superfici interne della serra e queste riscaldano l’aria emettendo IR termico [lunghezze d’onda superiori a 4 micrometri]. Il vetro è opaco all’IR termico sopra 3 micrometri e lo intrappola all’IR termico all’interno della serra. Molti credevano che questo processo fosse responsabile del fatto che la temperatura dell’aria all’interno della serra fosse superiore alla temperatura dell’aria esterna alla serra.

Poiché era già noto che le temperature dell’aria vicine alla superficie terrestre sono più elevate di quelle che si trovano nei livelli più alti dell’atmosfera, si è iniziato a fare un’analogia con quello che succede nella serra, dopo che il ricercatore britannico John Tyndall, nel 1859, scoprì che i gas come il vapore acqueo [H2O], l’anidride carbonica [CO2] e il metano [CH4] assorbono IR termico. La superficie terrestre, riscaldata dalla radiazione solare, emette IR termico che viene assorbito dalle componenti di minoranza dell’atmosfera, come CO2 e CH4, i cosiddetti gas ad effetto serra [GHG].

Questi riemetterebbero l’IR termico in tutte le direzioni, incluso il ritorno in superficie, e ridurrebbero la perdita dell’IR termico nello spazio. I GHG, principalmente il CO2, fungerebbero da pannelli di vetro della serra, “intrappolando” l’IR termico. Questa sarebbe la spiegazione per cui la temperatura dell’aria vicina alla superficie terrestre è più alta che negli strati superiori dell’atmosfera.

E l’ovvia conclusione che deriva da questa definizione è che se aumentiamo le concentrazioni di CO2, bruciando combustibili fossili e di metano, aumentando il numero di bovini ruminanti [ad es. mucca, pecora, capra], più IR viene assorbito dai gas serra [GHG], meno IR termico fuoriesce nello spazio e il clima del pianeta si riscalda!


Questa definizione dell’effetto serra è altamente discutibile e ciò può essere dimostrato da almeno tre argomenti.


1) Robert W. Wood, nel 1909 [111 anni fa], dimostrò che la temperatura dell’aria all’interno della serra non dipendeva dall’intrappolamento dell’IR termico emesso dalla sua superficie e dalle pareti interne. Egli costruì due modelli di serra, uno con una copertura di vetro e l’altro con una copertura di salgemma [halite = rock salt]. A differenza del vetro, la salgemma è trasparente alla radiazione IR termica.

Espose entrambi i modelli al sole, misurando le loro temperature interne, e verificò che le temperature finali delle due serre erano praticamente le stesse, con una piccola differenza di circa 1°C tra di loro. La sua conclusione fu che la temperatura dell’aria all’interno della serra era superiore a quella dell’aria all’esterno della serra non a causa dell’intrappolamento dell’IR termico da parte della copertura di vetro, ma perché l’aria era confinata all’interno della serra. Nell’atmosfera libera, quando l’aria viene riscaldata, diventa meno densa, acquisisce fluttuabilità e sale [convezione = trasporto di calore tramite trasporto di massa], sostituita da aria più fresca proveniente dall’ambiente circostante e/o dagli strati atmosferici superiori. Pertanto, l’effetto serra da orto non può essere paragonato a ciò che si verifica nell’atmosfera terrestre.

2) Tra il 1916 e il 1945 si verificò un riscaldamento globale, osservato e ben documentato, e non è possibile utilizzare la definizione di effetto serra dell’IPCC per spiegare questo riscaldamento, poiché la concentrazione e le emissioni antropiche di CO2 erano ridotte in quel momento rispetto a quelle attuali. Le temperature degli anni ’30 sono ancora le più alte mai registrate negli ultimi 130 anni nell’emisfero settentrionale. È molto più probabile che il riscaldamento del 1916-1945 sia stato naturale e causato dall’aumento dell’attività solare e dalla riduzione della copertura nuvolosa. La parte superiore delle nuvole riflette la radiazione solare nello spazio. Quando la copertura nuvolosa si riduce a livello globale, come avvenne tra il 1976 e il 2000, più radiazioni solari entrano nel sistema climatico e il pianeta si riscalda.

3) La legge Beer-Bouguer-Lambert afferma che l’assorbimento delle radiazioni da parte di un gas diminuisce logaritmicamente con l’aumento della sua concentrazione. Questa conoscenza scientifica viene convenientemente ignorata dai sostenitori dell’IPCC e dell’AGW. Con l’attuale concentrazione di 400 parti per milione per volume [ppmV], il CO2 assorbe già l’87% dell’IR termico nella sua linea spettrale principale o banda di assorbimento centrata sulla lunghezza d’onda di 15 micrometri.

Ossia, il contributo residuo all’assorbimento dell’IR termico da parte di questa banda sarebbe, al massimo, del 13% anche se la concentrazione di CO2 supera 1200 ppmV, il peggiore dei futuri scenari di concentrazione di GHG (gas di effetto serra) ipotizzato dall’IPCC, il RCP 8.5 [Rappresentative Concentration Pathway 8.5], che molti concordano sia impossibile raggiungere con l’attuale tasso di crescita della loro concentrazione.

Nel 2013, Murry L. Salby ha stimato che aumentando le emissioni di CO2, diciamo a 1.000 ppmV, ovvero 2,5 volte quelle attuali, l’effetto sulla temperatura globale sarebbe solo di 0,14°C. L’aumento della temperatura media stimato da alcuni altri ricercatori, come Richard Lindzen, Ian Plimer, Robert Carter, Timothy Ball e David Archibald, non supera i 0,5°C. Un’analogia per comprendere la riduzione dell’assorbimento della radiazione IR termica con l’aumento della concentrazione di CO2 sarebbe la verniciatura di una finestra di vetro con successive mani di vernice bianca. Dopo aver applicato la prima mano di vernice, il vetro lascia ancora passare la luce. Una nuova mano sulla prima riduce ulteriormente il passaggio della luce, e così successivamente fin quando il vetro non diventa opaco e ulteriori mani di vernice non avranno alcun effetto, poiché il vetro ormai non permette il passaggio della luce.

Infine, è la spiegazione che la Meccanica Quantistica presenta riguardo all’assorbimento dell’IR termico da parte della CO2. L’atmosfera terrestre è composta da azoto [N2 = 78%], ossigeno {[O2 = 21%} e argon [Ar = 0,9%, un gas nobile]; questi tre gas costituiscono il 99,9% dell’aria, mentre la CO2 solo lo 0,04%. Esistono quindi circa 2.500 molecole di questi gas per ogni molecola di CO2.

La molecola di CO2 è poliatomica e senza polarità e assorbe la radiazione IR termica attraverso la sua rotazione o vibrando i suoi atomi. Quando assorbe un quantum di radiazione IR termica, la molecola di CO2 passa dal suo stato base a uno stato energetico superiore, vibra/ruota e si scontra con alcune delle 2.500 molecole attorno ad essa, trasferendo l’energia IR assorbita attraverso la collisione e tornando al suo stato base.

La meccanica quantistica afferma che le collisioni anelastiche sono 10.000 volte più efficienti nel riportare la molecola di CO2 al suo stato base rispetto all’emissione IR termica. Pertanto, se la molecola di CO2 perde normalmente l’energia assorbita mediante le collisioni, non può emettere radiazioni IR termiche e riscaldare la superficie terrestre come spiegato dalla teoria AGW sostenuta dall’IPCC.

Non c’è dubbio che la CO2 riscalda l’atmosfera. Ma la sua attuale concentrazione è così piccola, con una massa molto ridotta, 400 ppmV [= 0,04%], che è impossibile misurare il suo contributo al riscaldamento dell’aria. È l’aria [miscela di gas, principalmente N2 + O2 + aria] che si riscalda nel suo insieme e irradia IV termica verso la superficie terrestre.

Come detto sopra, se la concentrazione di CO2 raddoppia entro la fine di questo secolo come proclama l’IPCC [scenario RCP8.5], il suo effetto sarà comunque trascurabile. In altre parole, nell’ipotesi [ridicola] di rimuovere tutta la CO2 dall’atmosfera, le temperature dell’aria sulla superficie terrestre sarebbero simili a quelle di oggi.

Inoltre, la CO2 non è un gas tossico o velenoso, la CO2 è il gas della vita. Le piante hanno bisogno di CO2 per fare la fotosintesi e con concentrazioni inferiori a 200 ppmV, la maggior parte delle piante non riesce a farla e muore. Pertanto, più grande è la concentrazione di CO2, maggiore è il beneficio per la Terra e i suoi abitanti.

La frase che spesso si ascolta da politici, burocrati e aspiranti ambientalisti “dobbiamo ridurre le emissioni di CO2 entro l’anno per impedire che il mondo si riscaldi oltre 2°C”, non ha senso. Il “limite di 2°C” è stato inventato da Hans “John” Schellenhuber, direttore dell’Institute for Climate Impacts [IPK], Potsdam, Germania, senza alcuna prova scientifica. Egli ha tirato fuori questo valore dal “cappello a cilindro”!

Come accennato in precedenza, il clima globale è già stato nel passato più caldo e non è successo nulla di catastrofico. Purtroppo, il menzionato ricercatore è stato consulente di Papa Francesco per le questioni climatiche nell’elaborazione dell’enciclica Laudato Si’, che contiene diversi paragrafi in cui si afferma che l’uomo sta riscaldando il mondo con le sue emissioni di CO2, causando l’innalzamento del livello del mare, lo scioglimento dei poli, l’aumento di eventi atmosferici estremi, e tutto ciò senza prove scientifiche [vedi Laudato Si, capitolo 1, “Il clima come bene comune”, paragrafi da 23 a 26].

Dichiarazioni simili si trovano anche nell’Instrumentum Laboris del Sinodo Pan-amazzonico, in particolare nei punti 9, 16 e 54. Questi documenti forniscono altre munizioni agli allarmisti climatici e ambientalisti fanatici.

In breve, la concentrazione di CO2 nell’atmosfera non determina il clima globale. L’atmosfera non “crea” energia per riscaldare il pianeta, ma solo rallenta la perdita di IR termico, emesso dalla superficie nello spazio. Ridurre le emissioni antropiche di CO2 sarebbe inutile in quanto non avrebbe alcun effetto sul clima.

Il Covid-19 ne è un esempio. C’è stata una significativa riduzione delle attività industriali e di trasporto a causa della ridotta mobilità delle persone durante la pandemia, che ha comportato una riduzione delle emissioni, eppure ancora non si è verificato alcun impatto sulla concentrazione di CO2. Allo stesso tempo, i protocolli volti a ridurre le emissioni antropiche di CO2, come il protocollo di Kyoto [1997] e l’accordo sul clima di Parigi [2015], non avranno alcun effetto, poiché la CO2 non determina il clima globale.

Poco dopo la promulgazione dell’ultimo accordo, Bjorn Lomborg ha dichiarato che se tutti i contributi nazionali promessi saranno mantenuti fedelmente fino al 2030 e continueranno per altri 70 anni dopo il 2030, la riduzione totale della temperatura globale ottenuta dall’Accordo di Parigi sarà 0,17°C nel 2100.

D’altro canto, i combustibili fossili [petrolio, carbone, gas naturale] sono responsabili dell’85% della produzione mondiale di elettricità. Ridurre le emissioni antropiche di CO2 significa generare meno elettricità e ostacolare lo sviluppo dei Paesi sottosviluppati, aumentando la povertà e la disuguaglianza sociale nel mondo.



Le previsioni climatiche dell’IPCC


Nel Sommario per Formulatori di Politiche [p. 20 SPM, 2013], l’IPCC afferma che l’aumento della temperatura globale media [TGM] per il periodo 2016-2035 rispetto al periodo 1986-2005 probabilmente fluttuerà tra 0,3°C e 0,7°C, e che l’aumento per il periodo 2081-2100, derivante dalle simulazioni dei modelli climatici globali [GCM], si prevede che possa probabilmente essere tra 0,3° C e 1,7° C [RCP 2,6], 1,1°C e 2,6°C [RCP 4.5], 1,4°C e 3,1°C [RCP 6.0] e 2,6°C e 4,8°C [RCP 8.5].

Queste “proiezioni” fatte con GCM sono affidabili? Spetterà al lettore decidere dopo aver letto ciò che segue. Un GCM è un codice di computer molto complesso, con migliaia di righe d’istruzioni e che dipende da un mega-computer per risolvere una determinata ipotesi di lavoro o un test di sensibilità; in questo caso, l’impatto dell’aumento della concentrazione di CO2 nella Temperatura Globale Media (TGM ). Il computer, tuttavia, non possiede il concetto di “continuum”. I dati di input per GCM devono essere discretizzati. In altre parole, l’assimilazione dei dati in un GCM viene eseguita in punti della griglia, sia in orizzontale che in altitudine (griglia tridimensionale).

I migliori GCM hanno una risoluzione spaziale tra i punti della griglia, cioè, una spaziatura orizzontale di 1° di latitudine di 1° di longitudine, che rappresenta 110 km x 110 km ai tropici ed è integrata con una risoluzione temporale di 30 minuti. I dati delle variabili meteorologiche [temperatura, umidità, vento, ecc …], per l’inizio della simulazione vengono forniti al GCM in ciascun punto della griglia distante, per la maggior parte, a 110 km l’uno dall’altro. Ciò significa che il GCM non ha “informazioni” o dati su quanto accade tra un punto della griglia e un altro.

Quindi, viene utilizzata la “parametrizzazione” della fenomenologia, che è un metodo per simulare processi fisici che hanno una scala molto piccola o che sono troppo complessi per essere rappresentati da un processo fisico semplificato nel modello. Cioè, tutti i processi fisici con una scala spaziale al di sotto della distanza tra i punti della griglia [processi sub grade, sotto-griglia], come il ciclo idrologico [formazione e tipi di nuvole, pioggia, tasso di precipitazione], vegetazione [albedo, evapotraspirazione e emissione di CO2], proprietà del suolo, topografia, devono essere “parametrizzati”.

In particolare, i processi fisici di turbolenza di aria verticale, convezione [movimento verso l’alto dell’aria umida], necessari per la formazione di nuvole e pioggia, sono processi in scala dell’ordine da 100 metri a 1.000 metri e, quindi, non sono “percepiti” dal modello. Un esempio potrebbe essere una nuvola cumulonembo di 20 km di diametro, equivalente e 12 km di altezza, situata tra due punti della griglia – che può produrre un volume di pioggia superiore a 50 mm e raffiche locali di vento superiore a 50 km/h – la quale non sarebbe simulata dal modello, semplicemente perché non ha le informazioni sulla presenza di quella nuvola.

Nel tentativo di riprodurre processi fisici reali, si devono quindi creare algoritmi matematici semplificati, empirici o basati sull’osservazione. Pertanto, le equazioni parametriche utilizzate nei codici GCM sono solo approssimazioni dei processi fisici reali che si verificano nel sistema climatico. Alcune di esse possono essere ben riuscite; altre, tuttavia, possono essere grossolane, sia perché i processi fisici rappresentati non sono ben compresi sia perché sono troppo complessi per essere inclusi nel codice a causa delle restrizioni computazionali. Tra le parametrizzazioni, merita di essere rilevata la formazione di nuvole e pioggia [ciclo idrologico], in quanto rimane una delle sfide più importanti, se non la più grande, che cagiona la grande differenza nei risultati tra GCM. E, secondo il Teorema di Campionamento di Nyquist-Shannon, la distanza tra i punti della griglia è un filtro per i processi fisici inferiori al doppio della distanza tra i punti della griglia. Nella regione tropicale, tutti i processi fisici con una scala spaziale inferiore a 220 km vengono filtrati, non “percepiti” dai GCM.

Inoltre, queste parametrizzazioni devono essere “calibrate” o “sintonizzate”, in modo che i risultati del modello si avvicinino alla realtà osservata. A questo proposito, ci sono due punti da notare. In primo luogo, la maggior parte degli GCM sono stati “calibrati” con i dati osservati tra il 1975 e il 2000, un periodo in cui, come è noto, il clima globale era riscaldato. Pertanto, questa pratica è tendenziosa giacché “sintonizza” gli GCM nella fase calda della naturale variabilità interna del sistema climatico e rende gli GCM esageratamente sensibili alle variazioni di CO2. Il secondo punto è che gli GCM sono stati progettati specificamente per rispondere all’aumento della concentrazione di CO2 nell’atmosfera, al punto che, secondo i rapporti dell’IPCC, se si mantiene fissa la concentrazione di CO2 gli GCM non mostrano un significativo riscaldamento globale, alcuni persino mostrano un raffreddamento.

Per giunta, gli scenari futuri di concentrazioni di CO2 [RCP] sono fittizi, creati dalla mente umana, e alcuni di essi sono impossibili da realizzare, come nel caso del RCP8.5 che prevede una concentrazione di CO2 tre volte superiore a quella attuale per il 2100.

La discussione che qui concludiamo è stata semplificata, ristretta e non esaurisce in alcun modo i problemi e le difficoltà che si incontrano nella modellistica della temperatura atmosferica e del clima. Riassumendo, c’è un acceso dibattito nella comunità scientifica sulla fedeltà dei risultati dei GCM sia nei test di sensibilità che sulla loro utilità per la previsione dei climi futuri. I risultati della simulazione del clima futuro sembrano essere altamente discutibili e, pertanto, non sono appropriati né raccomandabili allo scopo di servire come base per la formulazione di politiche pubbliche volte allo sviluppo socioeconomico globale in equilibrio con l’ambiente.



Il clima dei prossimi due decenni


Conviene ricordare ancora che l’IPCC ha dichiarato [p.20 SPM, 2013] che la temperatura globale media [TGM], se esiste una cosa del genere, aumenterà molto probabilmente tra 0,3°C e 0,7° C nel periodo 2016-2035 rispetto al periodo 1986-2005.

Esistono controllori climatici a lungo termine, di migliaia di anni, come, ad esempio, i parametri orbitali del Pianeta Terra [Cicli di Milankovitch]. Non siamo in grado di valutare o quantificare l’impatto di queste variazioni a lungo termine sull’attuale TGM perché si processano lentamente e sono nascoste da variazioni derivanti da fenomeni di scala temporale rapida e, talvolta, imprevedibili, come le grandi eruzioni vulcaniche ed eventi d’impatto globale come El Niño.

Qui esploreremo i principali controllori del clima globale di termine relativamente brevi, decenni, ragionevolmente “ben comportati”, che sono il flusso di radiazione solare assorbito dal Pianeta, la copertura nuvolosa globale e la temperatura della superficie degli oceani. Contrariamente alle previsioni IPCC, questi controllori indicano che la tendenza climatica nei prossimi 10-12 anni – e alcuni dicono nei prossimi 22-24 anni – sarà di leggero raffreddamento globale, non di riscaldamento, simile a quella del periodo 1946-1975, derivante da una maggiore frequenza di inverni più rigidi.

L’intensità dell’attività solare ha cicli di intervalli di tempo variabili. Qui siamo particolarmente interessati al ciclo di Macchie Solari (ciclo undecennale dell’attività solare) – che dura circa 11 anni e la cui numerazione fu iniziata nel 1749 [ciclo 1] – e al ciclo di Gleissberg, di circa 100 anni. Nel ciclo undecennale, il numero di macchie – che è una misura dell’attività solare – inizia con quasi zero punti, raggiunge un suo apice in circa quattro anni e diminuisce nuovamente a zero nei successivi sette anni.

Sia all’inizio che alla fine di un ciclo di Gleissberg [100 anni], accadono 2-3 cicli undecennali di macchie solari con una media mensile massima relativamente bassa. Tra il 1796 e il 1820 [punto minimo del ciclo di Gleissberg], i cicli 5 e 6 di macchie solari avevano una media mensile massima molto bassa, pari a 79 macchie nel 1804 e 78 macchie nel 1816. Questo periodo chiamato “Minimo di Dalton” fu un periodo freddo.

All’inizio del XX secolo, ci fu un altro minimo del Ciclo di Gleissberg, anch’esso un periodo freddo, e il suo massimo si verificò nel Ciclo 18 di macchie solari [1957], con una media mensile massima di 269 macchie. A partire dal 1957, i punti massimi di macchie in ciascun ciclo undecennale iniziarono a diminuire, indicando che l’attività solare stava diminuendo.

In questo anno 2020, inizia il Ciclo 25 di macchie solari che inaugura un nuovo punto minimo del Ciclo di Gleissberg. I fisici solari prevedono che il Ciclo 25 [2020-2030] e possibilmente il Ciclo 26 [2031-2042], presenteranno una attività inferiore al Minimo di Dalton. Il fisico danese Henrik Svensmark ha formulato una teoria secondo cui la bassa attività solare indebolisce il campo magnetico solare che protegge i pianeti dalla “pioggia” dei raggi cosmici galattici [RCG] prevenienti dalle esplosioni di stelle supernova.

L’indebolimento del campo magnetico solare consente un aumento del flusso di RCG che entra nell’atmosfera terrestre, che a sua volta provoca un aumento della copertura nuvolosa a livello globale. Questo aumento comporterà una riduzione dell’afflusso di radiazioni solari sul pianeta che raffredderanno gli oceani e, questi, il clima globale. In altre parole, i principali controllori climatici globali su scala decennale indicano un raffreddamento globale tra il 2020 e il 2040 anziché un riscaldamento, come prevede l’IPCC.

In sintesi, sarebbe una grande pretesa dell’uomo voler modificare il clima globale con le sue emissioni di CO2, che sono meno del 5% delle emissioni naturali degli oceani, della vegetazione, dei suoli e dei vulcani. Le previsioni di un aumento della temperatura globale media [tra 1,7°C e 4,8° C per 2100] pubblicate dall’IPCC si basano su modelli climatici globali [GCM] che hanno gravi limitazioni, non riuscendo a replicare il clima del passato osservato e sono oggetto di gravi critiche da parte della comunità scientifica. Tali proiezioni climatiche sono fittizie, semplici esercizi accademici non adatti alla formulazione di politiche pubbliche per lo sviluppo socioeconomico in armonia con l’ambiente. La CO2 non controlla il clima globale!

La riduzione delle emissioni antropogeniche non avrà alcun effetto sul clima e i protocolli, come quelli di Kyoto [1997], o l’Accordo sul Clima di Parigi [2015], sono inutili. Ma, se verrà provata, oltre a spendere trilioni di dollari, la riduzione delle emissioni porterà grandi danni all’umanità. Primo, perché l’85% dell’elettricità generata a livello globale dipende dai cosiddetti combustibili fossili. Ridurre le emissioni significa generare meno elettricità e ciò avrà un impatto più grave sui paesi in via di sviluppo, aumentando le disuguaglianze sociali nel mondo. Secondo, poiché le piante fanno fotosintesi con CO2 e la riduzione della sua concentrazione comporterebbe una diminuzione della produttività delle piante in un mondo che tra 20 anni, si stima, avrà una popolazione di nove miliardi di esseri umani da nutrire.

Le parole di Francis Bacon contraddicono in modo succinto la credenza nei cambiamenti climatici causati dall’uomo: “Natura enim non imperatur, nisi parendi”. Tradotto: “Alla natura non si comanda, se non obbedendole”.

*****




Fonte 



[1] Ha un Dottorato di ricerca in Fisica presso l’Università di San Paolo (1969), PhD in Meteorologia presso l’Università del Wisconsin a Madison (1975), ed è assegnista di ricerca in Idrologia delle foreste presso l’Institute of Hydrology, a Wallingford, nel Regno Unito (1982). È stato membro del Wissenschaftskolleg di Berlino, Germania (1989-1990). Per molti anni è stato ricercatore presso il National Institute for Space Research del Brasile, direttore delle scienze dello spazio e dell’atmosfera nel 1985 e direttore associato nel 1986, anno in cui ha co-coordinato un progetto di ricerca sull’Amazzonia in collaborazione con gli scienziati della NASA. È Professore Associato presso l’Università Federale di Alagoas (Brasile).

Nessun commento:

Posta un commento