Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

La Transizione Energetica: Fonti di Energia Fossile e Rinnovabili, Dispense di Energia per l'ambiente

Una panoramica della situazione attuale dell'energia, dai principali sorgenti utilizzate, dalla storia dell'energia nucleare al consumo mondiale di energia. Viene discusso il declino dell'uso di petrolio, la crescita dell'uso di gas naturale e la transizione verso le fonti di energia rinnovabili. Il documento illustra anche le implicazioni ambientali e economiche di queste tendenze.

Tipologia: Dispense

2020/2021

Caricato il 15/01/2024

zakaria-garnaoui
zakaria-garnaoui 🇮🇹

1 / 77

Toggle sidebar

Documenti correlati


Anteprima parziale del testo

Scarica La Transizione Energetica: Fonti di Energia Fossile e Rinnovabili e più Dispense in PDF di Energia per l'ambiente solo su Docsity! ENERGIA E AMBIENTE LIBRO GRANDE L’energia non è uno dei tanti settori; senza energia non c’è vita e determina la composizione del mondo solido (basti pensare che le composizioni di molecole presentano anche molecole di energia). Descrive la storia dell’umanità. In ambito economico, il comparto energy, costituisce quasi la totalità del PIL o GDP di ogni collettività/Paese. LE FONTI DI ENERGIA Le fonti di energia possono essere classificate in: • PRIMARIE, se sono utilizzabili direttamente così come si trovano in natura (vento, geotermico, biomasse, rifiuti, gas naturale…); • SECONDARIE, se derivano dalla trasformazione delle fonti primarie (prodotti della filiera petrolifera, i combustibili, energia elettrica, calore...). Si passa dall’una all’altra tramite una trasformazione; è importante sapere che nulla si crea e nulla si distrugge ma tutto si trasforma. Le principali fonti di energia attualmente utilizzate sono: ❖ Fonti di energia fossile; come carbone, petrolio, gas naturale. Sono risorse energetiche formatesi nel corso delle aree geologiche. Sono fonti di energia esauribili a causa del lungo periodo di tempo del processo di formazione e sono concentrati in riserve. ❖ Fonti di energia fissile; sono frutto di una scoperta più recente dell'uomo, l'energia nucleare. Anche questa è una fonte di energia esauribile perché dipende dall'utilizzo di una specifica materia prima ovvero l'uranio. ❖ Fonti di energia rinnovabile (FER): hanno la caratteristica di rinnovare l'offerta di energia ad ogni ciclo senza alcun rischio di esaurimento. Le più importanti fonti di energia rinnovabili sono il solare, l'eolico, la geotermia, le biomasse, le agroenergie, idrogeno (in qualche modo anche il nucleare). La più importante in Italia è l’idroelettrico. ❖ Fonti di energia alternative; solitamente queste vengono erroneamente assimilate alle fonti rinnovabili, ma non sono affatto sinonimi. Comprendono tutte le tipologie di produzione di energia che non utilizzano combustibili fossili. Alcuni esempi sono l'energia solare, con il fotovoltaico o il solare termico, l'energia idraulica, l'energia Marina (come le maree), l'energia eolica, l'energia geotermica, l'energia da biomassa (prodotta da legno, biodiesel, biogas...) e l'energia nucleare. DIVERSE FORME DI ENERGIA La generale funzione di produzione parte con Y= (K, L), dove K è il capitale e L il lavoro. In questa semplificazione vengono omesse alcune parti, come le RN = risorse naturali disponibili, l’energia E che è un elemento essenziale, l’insieme di know-how e tecnologie disponibili e l’effort, ovvero la voglia, lo stimolo all’efficienza. ENERGIA DEL CIBO: La prima forma di energia usata dall’uomo per compiere lavoro è stata quella del cibo, che è energia chimica. Questa era la sola energia inizialmente utilizzata dall'uomo sapiens nel paleolitico. Fu la rivoluzione agricola che fece modificare il modo di vivere degli umani, ed entrò in campo un'altra energia ovvero quella degli animali, a cui poi è seguita nei secoli successivi quella dei combustibili fossili, quella eolica, idrica, nucleare, geotermica e quella solare. Il lavoro fisico che l'uomo compie si genera, quindi, dalla energia che gli acquisisce dal cibo, nel quale sono presenti dei nutrienti, come carboidrati, proteine, grassi. L'energia del cibo è garantita dal sistema Terra-Sole, dai raggi solari che consentono, attraverso la fotosintesi clorofilliana, di garantire il ciclo alimentare. L'energia generata dal sole, dalle reazioni di fusione nucleare degli atomi di elio e di idrogeno, si trasforma in radiazioni il cui contenuto energetico arriva sulla terra. Questa energia si trasforma, per il processo di fotosintesi clorofilliana, in una nuova energia: la biomassa, ossia il cibo. BIOMASSA: Anche i combustibili fossili sono il risultato di processi durati centinaia di migliaia di anni di decomposizione sotto terra di materiale organico vegetale e animale alla cui base vi è il processo di fotosintesi. E’ infatti il glucosio prodotto della fotosintesi, che alla morte della pianta sotto terra subisce in centinaia di migliaia di anni vari processi di decomposizione, e alla fine diventa un combustibile fossile sotto forma di gas naturale, carbone o petrolio. Di giorno le piante assorbono dall'atmosfera anidride carbonica e utilizzano l'energia del sole per farla reagire con l'acqua, rilasciando ossigeno nell'atmosfera e fissando così parte dell'energia solare incidente sulla terra nella molecola di glucosio. E’ una delle reazioni più importanti del pianeta perché la fonte di quasi tutto l'ossigeno del mondo. ENERGIA DEL VENTO E DELL’ACQUA: Il vento come forma energetica è stato utilizzato per lunghissimo tempo solamente per la navigazione a vela. La possibilità di utilizzare l'energia del vento per altri scopi era già stata descritta nel I sec. a.C., ma i primi mulini mossi dal vento compaiono in Oriente. L'acqua inizia ad essere utilizzata come forma energetica nell'antichità classica. Appare anche in epoca romana dove si utilizzava l'energia posseduta dai corsi d'acqua, dando origine a una rivoluzione tecnica il cui impatto fu inizialmente trascurato a causa della poca forza della corrente, o l'impetuosità e la violenza dei corsi d'acqua, a causa dell'ampiezza dei grandi fiumi. La grande innovazione introdotta nel medioevo e l'impiego, su larga scala, dell'energia idraulica, utilizzata in aggiunta quella del vento. ENERGIA TERMICA (CALORE): L'energia termica, definita anche calore, è dovuta all'agitazione delle molecole che compongono un corpo. ES: quando scaldiamo una pentola piena d'acqua, il calore della fiamma scalda il recipiente d'acciaio, mettendo in agitazione molecole che lo formano; siccome l'acciaio è un solido che conduce bene il calore e le cui molecole sono agganciate tra loro con legami molto origini, l'agitazione delle molecole che lo formano non determina la deformazione del recipiente, ma si trasmette alle molecole dell'acqua in esso contenuta virgola che entrano loro volte in movimento facendo bollire l'acqua. Inizialmente l'energia termica non fu impiegata per produrre energia meccanica; bisognerà attendere un secolo successivo per vedere comparire la macchina a vapore costruita da James watt. Questa fu essenzialmente utilizzata come fonte di calore per cuocere i cibi, per riscaldare e per l'esercizio dei forni. Con la macchina a vapore di watt si inaugura di fatto la stagione dell’impiego dell'energia termica per la produzione di lavoro. ENERGIA ELETTRICA: Questa è una delle forme d'energia più comunemente e diffusamente utilizzate: basti pensare alla luce artificiale e agli elettrodomestici. Questa forma di energia discende dalle prime ricerche di elettrologia effettuate nel 1706 con le macchine elettrostatiche a strofinio; queste erano apparecchiature che caricavano con elettricità due conduttori stabilendo fra questi una notevole differenza di potenziale, permettendo agli scienziati di produrre l'elettricità in laboratorio. Un altro passo molto importante fu l'invenzione della pila di Alessandro Volta, e fornì una discreta quantità di potenza elettrica a bassa tensione permettendo di ottenere elettricità in modo semplice e sicuro. ENERGIA NUCLEARE: per energia nucleare si intendono tutti quei fenomeni in cui si ha produzione di energia in seguito a trasformazioni nei nuclei atomici: queste trasformazioni sono dette reazioni nucleari. La storia dell'energia nucleare ha inizio con le scoperte sulla radioattività sul finire del diciannovesimo secolo soprattutto con la scoperta di Albert Einstein nel 1905 che intuì la possibilità di ricavare energia dal nucleo di un atomo. Si distinguono due procedimenti con il quale si può ottenere energia nucleare: - Fissione: il nucleo atomico dell'uranio 235 viene colpito da un neutrone, scindendosi in due nuclei più piccoli. La massa di questi due non è uguale a quella dell'atomo originale, la differenza si è trasformata in energia. - Fusione: questo processo è l'opposto della fissione. Due nuclei più piccoli vengono saldati insieme per ottenere un nucleo più grande; la massa che manca nel conto si è trasformata in energia. questo è il meccanismo di produzione dell'energia irraggiata dal sole e dalle altre stelle; svolgendosi a temperatura in molto elevate non può essere utilizzata in modo pratico sulla terra. ENERGIA SOLARE: il sole è stato sfruttato per le sue proprietà termiche fin dall'antichità, da, e trova oggi molte applicazioni, dalla produzione dell'energia elettrica (fotovoltaico) al riscaldamento e produzione di acqua calda per gli edifici e gli impianti produttivi, all'impiego in agricoltura per la produzione agricola in serra. L'energia solare trae origine dalle reazioni di fusione nucleare che si verificano nel sole. E’ anche grazie ai raggi solari se si può ottenere l'effetto serra che, contenuto nei giusti limiti, è il fenomeno che consente la vita sulla terra. La superficie terrestre riscaldata dalle radiazioni solari si comporta come una piastra calda per cui l'atmosfera a contatto con essa si riscalda assorbendo queste radiazioni. COMBUSTIBILI FOSSILI: Sul finire del diciottesimo secolo è iniziato l'utilizzo del calore come forma di energia per alimentare i motori termici. La conseguenza dell'utilizzazione di questa forma di energia è stata la corsa ad uno sfruttamento sempre più intensivo dei combustibili fossili. Nel periodo dal diciottesimo secolo ad L’Italia, rispetto agli altri paesi europei e del mondo, è in una posizione di basso impiego di carbone per la generazione di energia elettrica, posizionandosi nei mix energetici più green al mondo, con conseguente, però, bassa competitività. IL PETROLIO E’ un liquido denso e oleoso. E’ formato da un miscuglio di idrocarburi, ovvero di sostanze formate da idrogeno e carbonio che si sono originate negli strati profondi della crosta terrestre a seguito della decomposizione di piccoli organismi animali e vegetali. Il petrolio fu la principale fonte energetica dalla seconda metà del 900 ed ancor oggi primeggia nei mix energetici di molti paesi. È il simbolo della seconda rivoluzione industriale con l’affermazione della Petrolchimica e costituisce una fonte primaria di energia. L’impiego del petrolio su larga scala risale alla metà del 19esimo secolo quando si diede ufficialmente inizio alla sua coltivazione. Ad oggi è ancora uno degli idrocarburi maggiormente utilizzati. Era già conosciuto nell’antichità, e veniva usato per vari scopi, come produrre medicinali e bitume, per l’alimentazione delle lampade o per rendere stagne le imbarcazioni. Il petrolio greggio è un miscuglio di idrocarburi, costituiti soprattutto da carbonio (80-90%) e, in parte, da idrogeno (9-15%) e la differente composizione chimica definisce il suo potere calorifero e sulla resa delle diverse frazioni ottenibili dal processo di trasformazione. Viene, spesso, suddiviso nei suoi componenti, ovvero benzina, gasolio, kerosene, gas… In generale un greggio è tanto più pregiato quanto più bassa è la sua densità e quanto minore è il suo contenuto in zolfo. Il giacimento di petrolio è un sistema definito “trappola” composto da 2 elementi:  Roccia serbatoio: permeabile e porosa che contiene il petrolio ed è posizionata in basso;  Roccia di copertura: che si trova al di sopra della roccia serbatoio, impermeabile, e che contiene gli idrocarburi. Sui mercati internazionali viene monitorato l’andamento delle quotazioni del petrolio attraverso due differenti tipologie di questo:  Brent: il nome deriva da un giacimento collocato nel Mare del Nord scoperto negli anni ’70 ed esso definisce oggigiorno la produzione di 19 campi petroliferi.  WTI: acronimo di West Texas Intermediate, e viene considerato di alta qualità e decisamente pregiato. Il consumo di petrolio è correlabile all’andamento dell’attività economica di ogni paese industrializzato. TEP: Tonnellata Equivalente di Petrolio; è questa l’unità di misura delle fonti primarie, che vengono equiparate al petrolio. Ricerca e sfruttamento La ricerca di un giacimento petrolifero è molto costosa; innanzitutto i bacini petroliferi non sono uniformemente distribuiti nel mondo ma la loro localizzazione non è casuale perché sono necessarie precise condizioni geologiche affinché questi si formino. Possiamo innanzitutto dividere in 3 fasi: - UPSTREAM: dove abbiamo le fasi di esplorazione, perforazione ed estrazione; Le perforazioni per ottenere il petrolio possono essere essenzialmente di due tipi: ➢ OFF-SHORE: di mare. In questo caso le operazioni vengono svolte al di sopra di una piattaforma petrolifera. ➢ ON-SHORE: di terra. In questo caso le operazioni sono svolte sulla terraferma al di sopra del giacimento petrolifero. La fase di perforazione è una delle più critiche e delicate del ciclo di estrazione del petrolio e può comportare forti impatti ambientali. A causa degli elevati Capex e dell’elevata incertezza di trovare petrolio, c’è un’elevata concentrazione di imprese a livello mondiale, - MIDSTREAM: liquefazione del gas naturale, trasporto e stoccaggio; Durante la fase di produzione del petrolio, il greggio (petrolio grezzo) deve essere sottoposto ad una serie di trattamenti preliminari, come la separazione dall’acqua; le acque di produzione vengono estratte insieme agli idrocarburi e sono caratterizzate da un’elevata salinità oltre che contenere composti organici e inorganici spesso tossici, per questo vanno eliminate. Dopo essere stato trattato il greggio viene stoccato. Il trasporto può essere effettuato tramite gasiere (oleodotti) o con navi petroliere. Le gasiere sono un complesso di condotte costituite dove, con grandi pompe disposte lungo il percorso, si assicura il deflusso del greggio nelle condotte (lungo il percorso sono presenti anche apposite stazioni di controllo). Queste vengono utilizzate per trasportare il gas liquefatto (quindi ad alta pressione) verso i depositi costieri. Con le navi petroliere il traporto è molto delicato, perché un eventuale incidente può causare un disastro ecologico inquinando le acque. Sono utilizzate per il trasporto del greggio dall’impianto di estrazione alle raffinerie. - DOWNSTREAM: inizia con lo stoccaggio del petrolio, raffinazione e distribuzione e vendita. La raffinazione è un turning point, è un elemento di svolta, trasformando il petrolio nei principali prodotti petroliferi, che si sta spostando sempre di più verso il medio oriente. Questa concentrazione aumenta le emissioni in Medio Oriente, facendo sembrare la way of life più sostenibile quando non è così. Dalla sua raffinazione, il petrolio viene impiegato in due macro-famiglie: generazione di combustibili e per le materie plastiche, portando all’unione tra le industrie di raffinazione e quelle petrolchimiche. Il petrolio viene diviso in categorie, ognuna delle quali lo utilizza in modi differenti: • Carburanti: formati da una miscela di aria e combustibile (benzina, gasolio…) che servono a far funzionare i motori e comprendono la benzina, il gasolio, il kerosene, il GPL e l’olio pesante. Al di fuori della benzina, questi possono essere definiti anche combustibili, perché possono essere utilizzati anche per la produzione di energia termica. • Lubrificanti: servono a ridurre l’attrito delle parti in movimento di motori e macchine; • Combustibili: vengono utilizzati per produrre energia termica per il riscaldamento domestico, gli impianti industriali e per la produzione di energia elettrica; • Derivati: di cui fanno parte la vaselina (farmaceutica e cosmetici), la paraffina (cere e lucidi), l’asfalto, il bitume (rivestimenti stradali), ecc. La produzione di questi rientra nella branca della petrolchimica. • Materie plastiche: sono adatte per essere lavorate e trasformate in manufatti. L’industria petrolchimica è incentrata principalmente sulla produzione di plastica, permettendo di avere più materiali e servizi per soddisfare quella domanda crescente ed evitare lo sfruttamento di determinate materie prime. I 4 idrocarburi più utilizzati per l’industria petrolchimica sono: etilene, propilene, butadiene, benzene. Presentano molecole che si ricompongono in lunghe catene molecolari. IDROCARBURI NON CONVENZIONALI Sono sia gli idrocarburi accumulati nel sottosuolo con modalità diverse dai convenzionali, di cui però hanno le stesse caratteristiche chimico fisiche, sia quelli, nel caso del petrolio, contenuti in depositi particolari sotto forma di materia organica immatura (kerogene, precursore del petrolio) o come bitumi misti a sabbia o come oli pesanti. 1. Shale oil (and gas) = idrocarburi contenuti in alcuni tipi di rocce, quali gli scisti bituminosi (in inglese “oil shale”), rocce sedimentarie facilmente sfaldabili. 2. Tar sands = idrocarburi presenti in depositi di sabbie bituminose, miscele di sabbia e argilla, contenenti oli viscosi, che si trovano a profondità diverse, talora anche in superficie. più grande accumulo conosciuto si trova nella regione di Alberta (Canada). 3. Light tight oil (and gas) – LTO: idrocarburi contenuti in piccole fessure di rocce porose, non collegate tra loro, recuperabili procedendo ad una frattura della roccia, al fine di creare collegamenti fra le fessure e determinare, per pressione, la fuoriuscita. 4. Idrati di metano: che sono 5 volte la quantità di idrocarburi accertati al mondo. Il permafrost rientra in questa categoria, perché contiene metano ghiacciato. GAS NATURALE E’ composto per circa il 90% da metano, che è l’idrocarburo gassoso più pregiato e più leggo leggero grazie alla sua molecola più piccola; si trova in natura all’interno di giacimenti sotterranei, spesso vicino a quelli petroliferi. Può derivare anche da attività batteriche (paludi), discariche organiche, dai vulcani, ecc. Ricerca e sfruttamento Come detto prima è associato, prevalentemente, alle rocce serbatoio del petrolio. Più precisamente si fissa sopra il petrolio, intrappolato in rocce arenarie o porose e immediatamente sotto ad uno strato di roccia impermeabile. Perciò viene ricercato in maniera congiunta al petrolio. Fu scoperto nel 1976 da Alessandro Volta il quale osservò l’accensione di una fiammella di color azzurro sulla superficie dell’acqua di un’ansa stagnante del fiume alla quale si era avvicinata una fiamma. Nonostante si fosse al corrente della sua presenza veniva poco utilizzato perché ritenuto scomodo; era più semplice utilizzare carbone e petrolio piuttosto che un’energia fossile gassosa. I primi ad utilizzare il gas e a costruire reti furono i cinesi. Il suo utilizzo si diffuse in Europa nell’immediato dopoguerra, soprattutto in Olanda, Russia e Romania. Questi paesi sono ancora oggi i principali paesi produttori di gas naturale insieme agli Stati Uniti e al Canada. La presenza dell’anidride carbonica e dell’azoto rendono il gas naturale meno infiammabile e quindi un cattivo combustibile. Per questo motivo, dopo l’estrazione, viene sottoposto ad un processo di lavorazione al fine di aumentare la componente degli idrocarburi e di ridurre quella delle altre sostanze gassose. Inoltre è importante eliminare l’idrogeno solforato perché è tossico e corrosivo; dopo il processo di lavorazione si ottiene un combustibile definito “gas naturale puro”. Anche la filiera del gas naturale si divide in Upstream, Midstream e Downstream. - UP-STREAM: estrazione, produzione o importazione di GNL (gas naturale liquefatto). - MID-STREAM: distribuzione a medio bassa pressione; - DOWN-STREAM: vendita agli utenti finali. L’estrazione avviene quasi nella stessa maniera del petrolio; up-stream e down-stream sono liberalizzati, mentre mid-stream vede un controllo da parte delle autorità. Stoccaggio: poter stoccare questo idrocarburo è una cosa molto importante, per mettere in atto strategie di vendita/acquisto. Essendo un idrocarburo che si vende in maniera stagionale, è importante acquistare e poter stoccare buone quantità di questo, per poi poterlo vendere ad un ottimo prezzo nel momento di crescita della domanda (ad esempio vero il periodo invernale) e massimizzare il profitto. Il trasporto del gas naturale può avvenire tramite gasdotti dai paesi produttori agli utilizzatori, oppure liquefatto, trasportato via nave e rigassificato. Nei gasdotti sono presenti anche delle stazioni di stoccaggio nelle quali parte del metano viene tenuto a disposizione per eventuali situazioni di emergenza. Come depositi vengono utilizzati i giacimenti esauriti che si trovano nelle aree di maggior consumo. Le stesse caratteristiche geologiche garantiscono molta più sicurezza; di fatti il gas naturale viene iniettato nella roccia porosa di un giacimento esaurito che già lo conteneva. Il trasporto via nave impone di trasformare, tramite liquefazione, il gas naturale in gas liquefatto (GNL). Questo è un processo che raffredda il gas a -160°; questo cambiamento di stato da gassoso a liquido diminuisce di molto il suo volume e consente quindi di poterlo stoccare in un serbatoio criogenico, che è costituito all’esterno da un involucro in acciaio e all’interno è formato di un materiale resistente alle basse riscaldamento del carbone, che fu subito usato per illuminare le fabbriche, le case e le strade. Anche nei settori siderurgici il carbone ebbe un grande successo, in particolare con il coke; è un combustibile solido e compatto prodotto da processo di degradazione in assenza di ossigeno che viene effettuato sul litantrace, un tipo di carbone. L’utilizzo del carbone portò ad una esplosione della supply-side (teoria macroeconomica che enfatizza il ruolo dell’offerta nello stimolare la crescita economica), con enormi possibilità di sfruttamento delle economie di scala e dei capitali finanziari necessari. Questo incremento di offerta soprattutto a prezzi bassi al crescere della produttività, indusse ad una crescente domanda di beni di consumo che portarono ad una continua evoluzione dei prodotti offerti. Ma, sia chiaro, il carbone non è solo un ricordo del passato: ancora oggi i paesi in via di sviluppo utilizzano grandi quantità di carbone; anche in Europa fino agli anni 60/70 del 20esimo secolo si utilizzava maggiormente il carbone come fonte primaria di energia e ancora nel primo decennio del 21esimo secolo la Cina ha contribuito quasi per il 70% nella domanda mondiale di carbone, perché essendo il più ampio e forte sistema produttivo mondiale, necessita di fonti primarie di energia di sicuro e affidabile reperimento. (Per misurare il carbone si utilizza TEP, tonnellate equivalenti di petrolio). Lo sviluppo tecnologico che stiamo avendo ora potrebbe tornare a rivalutare l’elevatissimo rendimento degli impianti di generazione elettrica a carbone, soprattutto con l’implementazione delle Carbon Capture and Storage (CCS), che sono in grado di catturare le emissioni di CO2 e quindi di rendere più efficiente e accettabile per il pianeta la generazione di energia elettrica ad alto rendimento, piuttosto che ricorrere ad energie rinnovabili che sono poco programmabili, di bassissimo rendimento energetico e non sostenibili nella produzione e smaltimento dei device necessari. Per la seconda rivoluzione industriale, invece, si vede l’affermarsi della petrolchimica: dal secondo dopoguerra, cresce moltissimo l’impiego di petrolio e dopo gli anni 70 quello del gas naturale, con lo sviluppo dell’industria della raffinazione petrolifera. Anche la seconda rivoluzione industriale ha mutato ogni aspetto della vita dell’uomo, oltre che del mix energetico (dove prima primeggiava il carbone e ora primeggia il petrolio), che ha indotto dei cambiamenti nelle politiche nazionali e nelle strategie imprenditoriali, poiché il petrolio non è distribuito naturalmente in modo omogeneo sulla terra; quindi ne sono conseguiti mutamenti anche negli scambi e nei conflitti internazionali. Nelle società più evolute i prodotti petrolchimici hanno prima accontentato una crescente domanda di beni di largo consumo (soprattutto a basso costo) fino ad arrivare all’esplosione del “modello consumistico”, accompagnato da una crescita demografica. I composti chimici, poi, hanno anche moltiplicato la capacità di trasformazione delle risorse naturali, arrivando anche a sostituirle con risorse manufatte: ovvero, le nuove molecole di sintesi vengono utilizzate con una maggiore efficienza nei processi industriali e negli impieghi civili fino ad essere percepite come indistinguibili da quelle originali. Un esempio è la saccarina, che ha un potere dolcificante molto più elevato del saccarosio ma a livello chimico non ha niente a che fare con gli zuccheri naturali. L’80% dei prodotti della chimica organica moderna (dai farmaceutici ai fertilizzanti) richiede petrolio, da ciò deriva “petrolchimica”; cominciarono, quindi, ad affermarsi i grandi colossi imprenditoriali (che lo sono tutt’ora). Uno di questi furono (e sono) le raffinerie di petrolio, che fino ai primi anni del 900 dovevano solo distillare il greggio per separare le varie frazioni di idrocarburi e commercializzarle per i diversi usi, ma più avanti divennero grandi entità economiche e industriali, soprattutto con il primo processo di cracking termico realizzato negli Stati Uniti, che è un processo di scomposizione di composti di grandi dimensioni in piccoli composti ad alte temperature e alte pressioni, oltre che per la creazione di oleodotti e nuove navi petroliere, utilizzati per far fronte alle esigenze industriali scaturite dalla prima guerra mondiale. La distillazione del petrolio apre le porte ad una miriade di usi e impieghi plurisettoriali dei vari prodotti: dai carburanti alle benzine per i motori a scoppio, dal gasolio per i diesel, il kerosene per gli arei, il gasolio per il riscaldamento, ma anche per la Virginafta, importante materia prima per l’industria petrolchimica che produce materie plastiche, gomme sintetiche, fertilizzanti artificiali, la vaselina, asfalti… Il petrolio ha caratteristiche energetiche e potenzialità applicative straordinarie: è una fonte primaria di energia dagli alti rendimenti potenziali, con riserve mondiali in aumento a quel tempo, facilmente trasportabile, ben gestibile, stoccabile e dagli usi e trasformazioni più varie; non c’è da stupirsi se soppiantò il carbone. A questo punto, la leadership economica e politica spetta a chi ha la capacità di controllare e creare con la massima efficienza nuovi materiali e nuovi input, essenziali per i diversi cicli produttivi su cui, oramai, si fonda la vita della collettività. Tutt’oggi la leadership spetta al petrolio, che primeggia nei mix energetici di molti paesi perché, grazie anche al metodo del cracking, si è anche affermata la produzione di massa di materie plastiche. I quattro idrocarburi più usati dall’avvento della seconda rivoluzione industriale solo: • Etilene: è la sostanza di partenza più utilizzata al mondo, non solo per produrre detergenti, ma anche per la creazione del polietilene con la sua polimerizzazione, che è presente in molti imballaggi, oggetti stampati e rivestimenti. Se lo si combina con acqua si ottiene l’alcool etilico, solventi, cosmetici e combinandolo con il benzene si ottiene il polistirolo. • Propilene: usato per produrre glicerina e acetone. Si ottiene anche il polipropilene, ideale per imballaggi. • Butadiene: usato soprattutto nella preparazione di gomme sintetiche. • Benzene: si ricavano molti prodotti intermedi utilizzati per coloranti, fibre, resine, materie plastiche… Questi sono tutti derivati del petrolio. Quando fu chiaro che la crescente domanda di idrocarburi, e in particolare di petrolio, imponeva degli allargamenti della sfera di controllo su aree dove questi abbondavano, le policy di controllo degli approvvigionamenti primari indussero “allargamenti delle sfere d’influenza”, per garantire abbondanza, sicurezza e affidabilità degli idrocarburi. Una di queste sfere fu la Persia, paese militarmente debole oltre che povera economicamente e che, non sapendo come sfruttare e trarre profitto dal petrolio, subì la colonizzazione delle proprie risorse da parte dei paesi in grado di investire in tecnologia e finanziariamente. Oggi si potrebbe parlare anche di uno scambio: know-how, tecnologie, investimenti e mercati di sbocco in cambio di sviluppo industriale locale (nei primi del novecento fu proprio il governo persiano a sollecitare l’attenzione delle società petrolifere occidentali offrendo loro le concessioni di ricerca e prospezione). Il Medio Oriente viene subito considerato come terreno di conquista da parte della Gran Bretagna e dalla Russia, per vincere anche la concorrenza statunitense della Standard Oil. All’epoca il trasporto del petrolio nord americano era realizzato ancora tramite i barili caricati su delle navi, senza grandi infrastrutture per il trasporto internazionale e quel sistema era diventato obsoleto. L’apertura del Canale di Suez avvenne a vantaggio delle petroliere inglesi; questo perché i Rothschild (famiglia originaria della Germania che ha fondato istituti monetari e bancari in Europa) trovarono un’intesa con Marcus Samuel, un’abile commerciante londinese che aveva instaurato fiorenti rapporti commerciali con l’estremo Oriente. L’intesa fu fatta perché l’uso del canale era stato proibito alle petroliere per ragioni di sicurezza e quindi la via delle indie per il petrolio sembrava chiusa a tutte le compagnie. Questo accordo tra Samuel e i Rothschild riuscì, però, ad aprire le porte del canale alle sole petroliere inglesi ed il governo inglese comprese immediatamente il vantaggio economico della decisione; così nel 1892 le petroliere di Samuel solcano il canale per commerciare il petrolio russo nei lontani mercati dell’estremo Oriente, soprattutto in una posizione competitiva rispetto agli americani. Il porto russo di Batum, mediante l’uso del canale di Suez distava da Singapore molto meno rispetto al porto americano di Philadelphia; questo è importante perché i mercati asiatici garantivano alle compagnie russe un’importante fonte di entrata per affrontare la feroce concorrenza della Standard Oil sui mercati europei. Si assiste, quindi, a una “lotta fra settori”; l’impetuosa crescita della petrolchimica sotto la spinta di innovazione tecnologica e della domanda nascente della società consumistica portava ad una concorrenza nelle forniture: es. la diffusione dell’elettricità rende obsoleto il vecchio sistema d’illuminazione delle città a gas o petrolio o le prime automobili con il motore a scoppio che portano ad uno scoppio della domanda di carburanti. Inoltre le istituzioni cominciano a capire che avere disponibile il petrolio li avvantaggiava nel settore militare in caso di guerra; così, da business privato, il petrolio diviene affare di Stato da proteggere e conquistare anche con l’intervento militare. Il primo stato a conferire un’importanza strategico-militare la petrolio fu la Gran Bretagna nel 1912, che venendo dalla situazione di esaurimento delle riserve di carbone diventate insufficienti per rifornire la flotta in caso di conflitti bellici, cercò di adeguarsi a questa nuova potenza del petrolio, attuando un piano di ammodernamento rapido della flotta britannica, dotando le navi di motore a nafta, che gli davano anche un vantaggio nelle guerre perché rendeva le imbarcazioni più veloci e più facili da spostare oltre che poco avvistabili al largo (il carbone produceva un fumo nero in grado di essere avvistato a maggiori distanze). Negli Usa invece la Standard Oil cominciò ad essere considerata un problema per lo sviluppo dell’industria petrolchimica e quindi il suo smembramento era inevitabile. Questo gesto passò alla storia come PRIMA AZIONE ANTITRUST STATUNITENSE: il rapido sviluppo economico negli Stati Uniti stava modificando bruscamente il tessuto industriale micro-concorrenziale americano, soppiantato dalla nascita di grandi monopoli o trust in quasi tutti settori economici. Era il segno di un mondo che cambiava in fretta senza dare il tempo e il modo alle altre generazioni americane di adattarsi; per questo motivo l’antitrust divenne un obiettivo molto sentito dalla classe politica americana. Anche se la Standard Oil venne smembrata in diverse società (precisamente in 7), queste diedero luogo ad un cartello de-facto, che ancora condiziona la geopolitica del petrolio. Più precisamente, dalla divisione di questa società nacquero le compagnie petrolifere che ancora oggi riempiono di benzina i serbatoi di mezzo mondo come la Exxon (adesso la Esso), la Mobil, la Chevron, la Amoco e la Comoco. I legami della Standard Oil sopravvissero, però, allo smembramento: se la divisione elimino il legame di dipendenza non mutarono, però, le strategie aziendali di ogni singola impresa; ognuna continua a praticare le vecchie politiche commerciali vendendo nei rispettivi mercati territoriali americani e senza interferire negli affari dell’ex società del gruppo. In poche parole, queste società non si sentono concorrenti; il valore azionario delle compagnie raddoppia immediatamente e alla fine prevalse la logica di Rockefeller: lo smembramento della standard oil determinò un ulteriore arricchimento patrimoniale degli azionisti di maggioranza. Successivamente, la fine della prima guerra mondiale disegna nuovi equilibri geopolitici e il petrolio diventa la principale fonte di energia strategica oltre che elemento cruciale e determinante della geopolitica internazionale. La Germania e la Turchia, che uscirono sconfitte dal conflitto, persero completamente ogni diritto sui giacimenti petroliferi e scomparve anche la Russia. Le potenze vincitrici, invece, si divisero il mondo in un’ottica ancora coloniale. Le zone aride del Medio Oriente divennero strategicamente importanti per le riserve petrolifere. Il vero turning- point fu la spartizione delle concessioni petrolifere in Medio Oriente tra Inghilterra, Francia e Stati Uniti; il coinvolgimento americano allo sfruttamento delle riserve petrolifere fu un atto dovuto soprattutto perché l’arrivo dei capitali americani avrebbe accelerato le attività di ricerca e prospezione. Fu precisamente in questo momento che si formò il cartello di sette società statunitensi che ha controllato il business mondiale del petrolio e del gas per gran parte del ventesimo secolo. Qui entriamo in una parentesi tecnica; siccome giacimenti di petrolio appartengono in genere al governo del paese che li ospita, le imprese esploratrici ed estrattrici devono concludere contratti di concessioni pluriennali con i governi di riferimento punto i principali modelli di accordo sono: • Concessione mineraria: la oil company si assume l’intero rischio minerario e paga un’imposta di fabbricazione insieme ad un’imposta sul reddito; • Production sharing: i costi di esplorazioni vengono condivisi con il paese se l’esplorazione ha avuto successo, altrimenti restano a carico della oil company. • Prestazione di servizi: la oil company fornisce appunto i servizi che sono di esplorazione e di sfruttamento, ma il rischio di esplorazione prima e di commercializzazione poi è in capo al paese proprietario; • Joint venture: è una collaborazione tra più imprese per suddividere il rischio. Questi accordi costituiscono ancora l’insieme delle regole di riferimento del mercato internazionale del greggio. luogo, il modo in cui questa ricchezza va a trasformare queste istituzioni e va ricordato che tutte le riserve di petrolio si trovano nei paesi meno sviluppati, dove le istituzioni tendono ad essere deboli. In Europa, ciò che determina un danno solo le difficoltà economiche, che si accompagnano alla scelta di percorrere da sola la strada della decarbonizzazione dei sistemi energetici, che sembra però essere inefficace dato che lo spostamento dell’attività manifatturiera al di fuori dell’area europea e statunitense che è in atto da decenni ha indotto anche uno spostamento dei luoghi di produzione della CO2 e quindi l’intenzionale abbattimento delle emissioni sarebbe sprecato dato che la generazione di CO2 è solo spostata graficamente. Piaccia o no non possiamo immaginare un abbandono delle fonti fossili senza conseguenze difficili da sostenere a livello economico per tutto il mondo. Nel caso nord- americano si è avviata la rivoluzione del “non convenzionale” che nel giro di pochi anni ha fatto tornare a crescere la produzione statunitense e canadese. Tutto ciò si traduce in chiare indicazioni evolutive della mappa geografica del mix energetico: - Cresce la quota di fonti rinnovabili di energia, ma i loro rendimenti energetici sono molto distanti da quelli determinati dalle tecnologie alimentate ad idrocarburi; - Rimane una crescita di impiego di petrolio e gas naturale soprattutto nei paesi di recente industrializzazione e forte sviluppo economico come la Cina a l’India; - L’impiego di gas naturale supera quello del carbone soprattutto dall’inizio dell’applicazione del fracking; - Si evidenzia soprattutto una diminuzione della domanda di petrolio in Europa e Giappone, sia per l’incremento dei livelli di efficienza energetica raggiunti sia per una generale debolezza dei processi di crescita industriale. Quali sono le principali proiezioni future? Queste convergono verso scenari mondiali di mix energetico che nel 2030 vedranno ancora gli idrocarburi come principale fonte primaria di energia, ma le differenze tra i vari paesi saranno importanti: • In Europa il settore delle FER dovrebbe arrivare a superare il 25% con una forte concentrazione del carbone ma che è superato dal nucleare e dal gas naturale, che dovrebbe diventare la fonte d’energia primaria più importante, con il petrolio ancora presente a ¼ degli impieghi europei; • In Cina e India il carbone la farebbe da padrone e le FER (per lo più del settore idroelettrico) dovrebbero oscillare tra il 12 e il 20% mentre il resto dovrebbe essere petrolio; • Negli Usa il gas naturale diventerebbe la prima fonte di energia impiegata, seguita dal petrolio e carbone però in calo, per una crescita delle FER (sempre idroelettrico principalmente); • Il Giappone, pur con un’alta quota di nucleare vedrebbe ancora la leadership del carbone e del petrolio. Guardando al 2040, nonostante l’incremento delle FER, si vedrà comunque un aumento degli idrocarburi, ciò a fronte di una dinamica demografica ed economica che vedrà il peso delle aree asiatiche, africane e mediorientali crescere a tal punto da assorbire più del 60% della domanda mondiale di consumi di energia, diventando i driver degli orientamenti energetici mondiali. Tornando all’attualità, nei decenni più recenti l’Europa ha effettuato dei picchi di consumi di fonti primarie fra il 2005 e il 2008 e delle progressive diminuzioni dopo il 2010; dopo il picco si è assistito ad un cambio dei livelli di consumi, a causa dell’incremento di efficienza energetica che ha caratterizzato la progressiva implementazione di strategie di innovazione degli impianti di produzione e impieghi di energia, ma anche un progressivo decremento dell’attività manifatturiera dato da uno sviluppo terziario avanzato e per una crisi economica, oltre che ad un cambiamento della composizione interna di questi consumi, che nel 1990 vedeva il petrolio in vetta all’utilizzo, seguito da carbone e gas naturale, creando un 83% di mix energetico di idrocarburi, mentre quasi 30 anni dopo la quota del petrolio è scesa (anche se in minima parte), seguito poi dal gas naturale, le FER, poi carbone e lignite e per ultimo il nucleare. In questi 30 anni il gas naturale ha superato l’utilizzo del carbone grazie all’incremento di impiego dei turbogas, ovvero centrali elettriche ad alto rendimento. In passato gli impianti turbogas funzionavano continuamente e garantivano il carico di base della rete nazionale, poi furono ridotti a funzionare più spesso solo durante i periodi di carico di punta in ragione sia della stagnazione della domanda di elettricità per la crisi economica del 2008, sia per il rapido aumento di produzione di elettricità da parte delle FER. Tuttavia, dal 2015 le centrali elettriche e gas hanno riacquistato la loro competitività rispetto alle centrali a carbone a causa di politiche nazionali come la tariffazione del carbonio per la produzione di elettricità e l’aumento dei prezzi del carbone. Il sorpasso del gas naturale sul carbone, è un fenomeno importante per due importanti effetti: • Mutamenti nei mercati energetici mondiali, sia negli scambi che nei prezzi. I prezzi sono però mitigati grazie ad un eccesso di offerta causato dalle innovazioni di estrazione e coltivazione del gas naturale; • Una relativa mitigazione delle emissioni di gas serra nell’atmosfera, in ragione delle minori emissioni associabili all’impiego di gas naturale al posto del carbone. Infatti il maggior limite del carbone è sempre stato quello di essere la fonte di energia che più inquina e più incide negativamente sullo stato del clima; questo non ha impedito ai paesi col maggior tasso di crescita economica e industriale di continuare ad utilizzarlo intensivamente. Però se non si considerassero gli impatti ambientali e il costo della CO2, allora emergerebbe la competitività del carbone, soprattutto perché il costo di generazione di elettricità è minore rispetto ai tradizionali cicli combinati a gas. L'energia nucleare dopo essere cresciuta costantemente fino al 2005, è progressivamente diminuita perché diverse centrali nucleari sono state chiuse negli ultimi anni, in ragione dell'affermazione dei sistemi di dispacciamento dell'energia elettrica che vanno a premiare gli impianti flessibili di generazione. Le energie rinnovabili europee, invece, sono un trend in costante aumento. L’aumento è stato stimolato dalle politiche nazionali ed europee; un esempio sono le tariffe e i premi feed in, obblighi per i produttori di elettricità e obblighi ad utilizzare energie rinnovabili nel carburante per i trasporti. Per ultimo vediamo l’analisi del mix energetico in Italia. Nel corso del 2019 il fabbisogno di energia primaria è stato di poco inferiore rispetto a quelle del 2018; il risultato del 2019 avviene dopo un periodo di moderata crescita dopo il lungo periodo di riduzioni costanti; il picco di domanda di energia c’è stato nel 2005 ma ad oggi il fabbisogno di energia si mantiene ancora al di sotto di quel picco. La riduzione della domanda di energia deriva anche dalla bassissima crescita del PIL e dal forte calo della produzione industriale. INDUSTRIA DELL’ENERGIA ELETTRICA E MIX DELLE FONTI GENERATIVE L’energia elettrica è l’input più importante dell’attuale sistema economico produttivo e sociale; l’impiego di fonti primarie per generare questa essenziale fonte secondaria è cruciale. Per quanto il fabbisogno di energia elettrica sia cresciuto nel tempo, grazie anche agli interventi di incremento dell'efficienza energetica degli impianti, si assiste però ad una crescita dei consumi elettrici meno che proporzionale dall'impiego di fonti primarie e della dinamica del PIL. Ciò vuol dire che all’ aumento del consumo di energia elettrica aumenta meno che proporzionalmente la domanda di idrocarburi, mentre aumentano più che proporzionalmente le pressioni per vedere all’opera quanti più possibili impianti alimentati da FER. L’industria elettrica è composta da un complesso sistema di generazione, modulazione, trasmissione, dispacciamento, distribuzione e vendita di energia elettrica, dall’impianto di generazione al punto di prelievo. E’ un sistema articolato e complesso di tecnologie interconnesse in reti e impianti che devono sempre garantire un equilibrio fra energia elettrica immessa nel sistema e quella prelevata dagli utenti finali. L’equilibrio deve essere:  Costante, perché lo stoccaggio è difficile e ancora oggi marginale;  Puntuale, poiché la generazione di flussi di elettroni, una volta entrati nelle reti di trasmissione e distribuzione, rappresentano l’offerta di energia e devono trovare subito un equilibrio con la domanda. Ci sono poi dei vincoli tecnici che influenzano l’organizzazione, la gestione e l’economicità del servizio di produzione dell’elettricità: 1. Le infrastrutture a rete (come trasmissione e distribuzione) sono elementi strutturalmente sunk ovvero costi non recuperabili a causa di forti specificità tecniche; 2. La massima efficienza tecnica la si potrebbe ottenere con la perfezione nella gestione di questo modello; il problema che si pone è che si pensa che la massima efficienza possa essere perseguita con logiche di de-verticalizzazione, ovvero l’impresa trasferisce la produzione tecnica di beni o di altre funzioni all’esterno (la fa quindi fare ad altri) oppure aprendosi a logiche di concorrenza in alcuni segmenti di questa filiera industriale elettrica; 3. L’industria o sistema elettrico presentano degli spill-over effect: - Esternalità negative sull’ambiente naturale; - Sicurezza nella generazione ed erogazione; - Esternalità positive per lo sviluppo economico dei territori interconnessi. Ogni fase produttiva è sia tecnologicamente che strettamente correlata a quella dopo e l’efficacia e l’efficienza dell’input finale dipendono dal controllo, e dal perfetto svolgimento e coordinamento di tutte queste fasi. Nel 1962 una legge istituì l’ente nazionale per l’energia elettrica (ENEL), rendendo nazionali la gran parte delle imprese del settore elettrico, per creare un ente pubblico in grado di risistemare dal punto di vista elettrico un Paese distrutto dalla guerra e in piena crescita economica e quindi di offrire l’essenziale elettricità alle imprese e ai cittadini, a condizioni diffuse ed economicamente sostenibili → questo allocando gli oneri di investimento in capo al bilancio dello Stato e al blocco di ogni concorrenza distruttiva. Il sistema elettrico nazionale viene impersonato da ENEL dove convivevano tutte le fasi operative riguardanti l’energia elettrica (produzione, trasmissione, e distribuzione): ➢ La pianificazione pubblica era espressa con forza di legge, così da rendere indiscutibile l’orientamento delle azioni dell’impresa; ➢ Il capitale pubblico necessario derivava dalle tasse (imposizione fiscale) e quindi il costo di raccolta del denaro era quasi nullo (costo di funding); ➢ Il rischio era molto minimo o nullo, dato sia dall’assenza di concorrenza, sia dall’eliminazione con la forza di legge delle azioni di terzi; ➢ Le tariffe erano espresse in modo trasparente; In Francia Edf e in Italia Enel, il sistema dell’Impresa pubblica verticalmente integrata ha oggettivamente consentito l’ammodernamento del Paese e la diffusione del servizio elettrico efficiente e affidabile → dal 1962 l’ENEL ha sviluppato una pianificazione nazionale dell’intera filiera elettrica, dalla progettazione ed esecuzione degli impianti e infrastrutture necessarie alla generazione di energia elettrica. Questa pianificazione nazionale prevedeva delle linee di indirizzo che lo Stato impartiva agli esecutori. I problemi cominciarono ad arrivare perché il processo d’integrazione europea si fondava (e si fonda) sulla superiorità della legge del mercato e anche il settore elettrico non ne fu esente. Il presidente della Commissione Europea Jacques Delor si pose l’obiettivo di completare un mercato unico in ogni settore di attività economica, anche nelle utilities (e quindi anche nell’industria elettrica), passando attraverso lo sviluppo della concorrenzialità dei mercati europei (libro bianco) = dieci anni dopo vide luce una politica energetica che impose l’apertura delle industrie nazionali alla concorrenza. Questa concorrenza si creò DEVERTICALIZZANDO, creando cioè dei segmenti di attività correlati comunque l’un l’altro, ma che potevano accogliere delle forme di concorrenza. Tutto ciò che non era legato ad un asset fisico inscindibile (tipicamente trasmissione e distribuzione di energia) doveva essere reso accessibile a tutti i potenziali concorrenti, sia nazionali che europei. Tutto questo perché si riteneva che si sarebbe ottenuto un incremento dell’efficienza allocativa in grado di distruggere quelle situazioni di inefficienza delle imprese pubbliche. LIBERALIZZAZIONE DEI MERCATI di acquisto e vendita di energia elettrica per il giorno successivo e il prezzo è determinato dall’intersezione delle curve di domanda e offerta. - MERCATO INFRAGIORNALIERO e che permette ai produttori, grossisti ai clienti finali idonei di modificare i programmi di immissione o prelievo attraverso ulteriori offerte di acquisto o vendita. Si svolge in quattro sessioni nella forma di aste implicite di energia, attraverso le quali gli operatori possono effettuare sia un miglior controllo dello stato degli impianti di produzione sia aggiornare i programmi di prelievo delle unità di consumo. - MERCATO DEL SERVIZIO DI DISPACCIAMENTO che è lo strumento attraverso il quale Terna si approvvigiona delle risorse necessarie alla gestione al controllo del sistema elettrico. MERCATO A TERMINE DELL’ENERGIA Questo è un mercato organizzato dove gli operatori possono vendere/acquistare contratti a termine sull’energia elettrica con obbligo di consegna e ritiro. EFFICIENZA, SICUREZZA CERTEZZA DEGLI APPROVVIGIONAMENTI L’Europa e l’Italia hanno un altro aspetto problematico nell’evoluzione del mix energetico: la notevole dipendenza dell’unione europea dall’energia importata. Ma purtroppo in un’Europa che produce energia primaria in modo insufficiente per i propri consumi la dipendenza dalle importazioni di energia, in particolare dagli idrocarburi, cresce moltissimo. La produzione di energia primaria dell’unione europea proviene da fonti molto diverse fonti di energia: nel comparto elettrico le fonti di energia rinnovabili si stanno affermando e oggi arrivano rappresentare circa il 30% della produzione totale di energia, mentre quando l’energia elettrica era generata e gestita da imprese per lo più pubbliche e verticalmente integrate era molto più incidente l’energia nucleare. La quota di combustibili fossili coltivati in Europa è meno di 1/5 di quanto consumato mentre la crescita della produzione di energia primaria da FER è stata superiore a quella di tutte le altre forme di energia. Occorre però fare della chiarezza: la quota più rilevante di FER in Europa è rappresentata dall’energia prodotta da impianti di combustione dei rifiuti e dal settore idroelettrico, entrambi settori non certo privi di impatto ambientali ma che vanno a generare una serie di esternalità negative e problematiche di insostenibilità ambientale. La dipendenza dall’estero nell’approvvigionamento di energia primaria è differente in senso geografico; Germania, Italia, Spagna e Belgio rappresentano solo alcuni dei paesi più dipendenti mentre Islanda, Danimarca e Romania dedicano la propria produzione di idrocarburi alla generazione di rendite rendendo questi paesi molto meno dipendenti dall’estero per l’approvvigionamento. La fattura energetica italiana oscilla attorno ai 60 miliardi di euro e dipende sia dai consumi, che possono essere in contrazione o stabili, sia dalle quotazioni internazionali di gas e petrolio. Attualmente in Italia sono in funzione nove centrali a carbone e alcuni di questi impianti nel 2015 hanno contribuito a soddisfare il 13,2% del consumo interno lordo di energia elettrica, producendo quasi 39 milioni di tonnellate di CO2 annue. Il carbone utilizzato da questi impianti è tutto di importazione, dal momento che il nostro paese non dispone di risorse carbonifere adeguate allo sfruttamento, sia in termini quantitativi che qualitativi; ad esempio il pochissimo carbone presente nel Sulcis in Sardegna ha un tenore troppo alto di zolfo, perciò deve essere miscelato con altre percentuali di carbone che contengono meno zolfo, portandolo ad avere un bassissimo valore economico che, insieme ad un’altra serie di fattori, hanno portato al suo progressivo abbandono. La dipendenza europea dall’estero significa dipendere da paesi terzi, lontani e la gestione del rischio diventa rilevante anche dal punto di vista economico; inoltre si aggiunge il problema che se si dipende da pochi paesi nell’approvvigionamento c’è un maggiore rischio, poiché da essi dipenderebbe l’alimentazione dei settori produttivi. Dalla Russia l’Europa importa la maggior parte di carbone, petrolio e gas naturale mentre il nostro secondo fornitore è la Norvegia, con il 22% di carbone e il 28% di gas naturale del nostro fabbisogno. Sono cresciute rapidamente anche le quote di fornitura di petrolio greggio dall’Iraq e dal Kazakistan, rendendo questi paesi il terzo e quarto maggiore fornitore di petrolio greggio. La Comunità europea ha optato per un’articolata strategia energetica di transizione: sostenere le FER cercando di superare i problemi gestionali e stimolare l’efficienza energetica nella demand-side e anche nelle nuove tecnologie generative. Rimane però il problema della dipendenza energetica → si è cercato di dare una risposta fornendo una strategia per garantirsi una certa sicurezza energetica, con la COM del 2014, andando ad identificare 8 linee d’azione cooperative fra gli Stati Membri: 1. Queste azioni sono volte ad aumentare la capacità di riserva condivisibile dentro l’UE per superare un eventuale interruzione delle forniture; 2. Rafforzare i meccanismi di emergenza/solidarietà; 3. Moderare la domanda di energia; 4. Integrare la rete del mercato interno questo cercando di 5. Aumentare la produzione interna dell’energia oltre che 6. Implementare tecnologie ad alta efficienza energetica 7. Per differenziare le fonti primarie e 8. Migliorare il coordinamento delle politiche energetiche nazionali. Ci sono altri fattori che possono incidere sull’evoluzione del mix energetico e sugli impatti ambientali, come: l’affidabilità della fonte, la continuità dell’impiegabilità o la sua programmabilità, la sua disponibilità ed economicità d’approvvigionamento, la sua accessibilità e sicurezza per gli approvvigionamenti nazionali (un’opzione energetica può essere anche ottimale per l’ambiente ma se non riesce ad essere affidabile nella sua disponibilità, continuità, ecc. rimane solo un’idea più che una soluzione). Fra le motivazioni che sostengono la campagna di incentivazione delle FER c’è la penalizzazione degli idrocarburi ma le riserve di questi non sono prossime ad esaurirsi; un esempio è il Medio Oriente che produce meno di quanto consentono le sue potenzialità. Anche la Cina continua ad utilizzare idrocarburi soprattutto quando questo è presente in quantità adeguate in patria e il tasso di sviluppo industriale ha bisogno di fonti di energia ad alto rendimento e affidabili. Il sorpasso del gas sul carbone è stato determinato anche dai costi delle emissioni di anidride carbonica (CO2); il prezzo dei titoli per le emissioni inizio a salire mentre il prezzo del gas naturale crollò, a causa dell’ over-supply mondiale derivante da numerosi resevoir (rocce serbatoio) scoperti ed alla grande presenza del gas derivato dal fracking, processo svolto dagli Stati Uniti, che ha fatto crollare le sue valutazioni = le centrali a gas sono diventate più competitive di quelle a carbone, rendendo la generazione di elettricità col carbone più svantaggiosa. Questo passaggio equivale ad un taglio della CO2 di ben 42 milioni di tonnellate pari quasi alla metà delle emissioni dell’Italia. Anche se si trattano sempre di risorse naturali definite e limitate o date in natura, al ritmo attuale di consumo e in assenza di nuove scoperte o della messa in esercizio di giacimenti che non sono sfruttati in questo momento perché definiti troppo costosi, le riserve che rimangono di carbone si stima che possano durare per addirittura altri 160 anni, quelle di gas naturale 59 anni 52 per il petrolio. Sembrerebbe quindi che la transizione energetica dagli idrocarburi alle fonti rinnovabili sia necessaria più che altro per motivazioni ambientali più che per il rischio della scarsità nel breve/medio termine. L’IMPATTO AMBIENTALE DELLA CRESCITA ECONOMICA E DEI CONSUMI ENERGETICI La domanda complessiva d’energia nel mondo è in continua crescita e le evoluzioni tecnologiche che hanno caratterizzato il passato e che sembra che caratterizzeranno il nostro presente e futuro sono Energy intensive. Di energia avremo sempre più bisogno ma ciò ha il suo prezzo da pagare: dall’estrazione delle fonti primarie alla trasformazione delle forme di energia, fino all’impiego dei device, dalle tecnologie che determinano quelle trasformazioni di energia, tutto finisce col determinare un impatto ambientale. Questo prezzo è stato e potrà essere ECONOMICO o AMBIENTALE: ECONOMICO: impattare nella vita economica della società, soprattutto per le più evolute o più prosperose. Un esempio: nel 1973 quando le nazioni arabe, produttrici di petrolio, cessarono di fornirlo ai paesi occidentali per motivi politici, nel giro di una notte, il prezzo del petrolio triplico. Questo portò una grande crisi energetica durante la quale le auto facevano la fila al distributore per acquistare benzina. L’umanità capì forse per la prima volta, quanto dipendente fosse dall’energia e quanto fosse importante usarla in modo saggio. AMBIENTALE: generare fenomeni di esternalità negative sulla salute e l’ambiente in cui vive l’uomo. L’evoluzione del mix energetico tra la prima e la seconda guerra mondiale si è basato su fonti fossili; questo ha portato sicuramente a vantaggi ed emancipazioni, ad esempio producendo diversi beni e servizi, ma ha anche portato ad un impatto ambientale da cui vorremmo fuggire: dannosissime polveri nella biosfera, gas che hanno determinato l’effetto serra che, in eccesso, ora ha finito per creare quella gigantesca “coperta attorno alla terra” a cui attribuiamo le responsabilità del Global warming. Tipicamente, quando si affronta il tema dell’impatto ambientale, ci si concentra soprattutto sul tema dell’emissione di sostanze gassose, che vanno a determinare l’effetto serra. Queste sono denominate Green house Gases o GHG, oppure semplicemente CO2 →il biossido di carbonio o anidride carbonica è un gas normalmente presente nell’atmosfera che deriva dalla combustione di materiale organico in presenza di ossigeno. Viene inoltre prodotta da numerosi microrganismi attraverso la fermentazione e anche le piante la utilizzano durante la fotosintesi. Si sospetta che la velocità della fotosintesi aumenti all’aumentare del livello di idee carbonica e della temperatura dell’aria; l’aumento della biomassa delle foreste delle zone nordiche temperate potrebbe rappresentare la forma più efficiente di diminuzione ciclica di concentrazione di anidride carbonica, soprattutto perché le immissioni di anidride carbonica collegate alle attività umane rappresentano solo il 4% della totalità del gas prodotto in natura. La nascita delle GHG si deve all’aumento dell’attività economica dopo la prima rivoluzione industriale, aumentate poi progressivamente fino ad oggi. Questo aumento progressivo è il derivato di una naturale ciclicità terrestre oltre che dello stratificarsi di uno sviluppo carbon intensive; da alcuni anni però con l’efficientamento tecnologico, l’efficacia di alcune azione di contenimento delle emissioni, gli effetti delle crisi economico-produttive più o meno generalizzate e la terziarizzazione dei sistemi economici più avanzati stanno lentamente allentando il legame tra sviluppo industriale-economico ed emissioni inquinanti. Ciò è il risultato di un paio di macro-fattori: a. Il minor consumo di carbone, dovuto al passaggio di combustibile a gas naturale e di una maggiore produzione di energia rinnovabile; b. La diminuzione dell’intensità energetica, riconducibile allo sviluppo tecnologico che ha incrementato l’efficienza energetica degli impieghi. Dai primi anni del 2000 è la Cina a risultare il paese industrializzato più responsabile delle emissioni mentre prima la leadership era degli USA e dell’Europa: è da precisare, però, che il blocco Usa-Europa non ha abbattuto le proprie emissioni per chissà quale innovazione tecnologica o policy ambientalista, ma perché ha progressivamente deciso di consumare beni prodotti in Cina, lasciando quindi lontano dalla vista le emissioni correlate. E’ importante anche analizzare cosa succede al consumo di energia in seguito agli effetti dello sviluppo economico sulle vite delle classi sociali. In particolare, in Cina ed India si è notato un’evoluzione della domanda di energia più che proporzionale nelle classi sociali che avevano un aumento del loro potere di acquisto → cosa succederebbe se l’impatto della crescita che da anni si registra nell’economia cinese e indiana portasse anche questa classe media a copiare il consumo energetico pro capite degli Stati Uniti? (ricordiamo che questo è di circa 97,4 quadrilioni di BTU (unità di misura dell’energia usata in USA e UK). Se davvero si dovesse copiare questo consumo energetico, tenendo conto che la popolazione cinese e indiana dovrebbe aumentare di un miliardo, si può benissimo vedere come il consumo di energia solo per le classi medie sarebbe davvero elevato; la fortuna è che questa transizione avviene nel tempo. Un ecosistema è un’unità ecologica costituita da una comunità di organismi viventi di specie diverse, che vivono in un particolare luogo, definito componente biotica, e in un ambiente fisico definito biotopo. Il concetto di ecosistema come un tutt’uno di organismi e ambiente risale ai tempi antichi: oggi lo definiamo come uno specifico insieme di esseri viventi con relazioni chimiche fisiche con l’ambiente, che vivono in uno spazio determinato e attraversato da un flusso di energia (ad origine dal sole) e che grazie all’azione di organismi fotosintetici (definiti autotrofi), porta a una struttura trofica ben definita e da qui a una diversità biotica e alla formazione di un ciclo all’interno del sistema → in parole povere, tra gli organismi dell’ecosistema in ambiente si innescano delle relazioni che inducono a un continuo scambio di materia ed energia. Il nostro sistema viene definito chiuso e isolato, ovvero che non può scambiare energia calorica con l’ambiente esterno né materia e il primo principio della termodinamica ci dicono che l’energia non si può né creare, né distruggere ma non la si può nemmeno trasformare da una forma in un’altra senza che una parte venga dissipata sotto forma di calore. Per il secondo principio della termodinamica, poi, ogni trasformazione farà aumentare il livello di entropia (stato di un sistema la cui variazione viene calcolata sommando le quantità di calore scambiate dal sistema in una qualsiasi trasformazione reversibile) che sarà in continuo aumento fino al raggiungimento di un nuovo equilibrio. Gli ecosistemi quindi sono entità che vivono in equilibri temporanei, quindi dinamici, condizionati sia da fattori esterni che interni. L’analisi dell’ecosistema in chiave dinamica e quindi volto all’entropia, serve a far comprendere come pure l’intervento dell’uomo sugli equilibri naturali costituisce un fattore di evoluzione. LE RISORSE NATURALI PER IL BENESSERE UMANO: ANALISI ECONOMICA L’enfasi sulle politiche ambientali, la ricerca della miglior configurazione sostenibile della nostra vita sulla terra, la volontà di continuare a godere dei beni e servizi di cui ci circondiamo con uno sviluppo che non impatti sulle risorse naturali della terra sono solo alcuni degli obiettivi dell’uomo davanti alla consapevolezza che la sua vita intacca e consuma le risorse naturali. Il nostro obiettivo ora è diventato quello di studiare come l’uomo usa e impatta sui flussi e sullo stock delle risorse naturali del pianeta. Perché l’uomo lo fa? Perché l’impiego di risorse naturali è funzionale alla massimizzazione del benessere dell’uomo così come lo è l’impiego di quelle risorse manufatte create dall’uomo impiegando le risorse naturali e l’energia come anche importante la minimizzazione dello sforzo e quindi della dispersione dell’energia umana. Il concetto di sostenibilità dello sviluppo economico e quindi delle collettività è da sempre legato alla disponibilità delle Risorse Naturali. Così fu anche per il pensiero economico, che solo di recente ha considerato l’insieme delle RN e l’ambiente come qualcosa di diverso dall’essere solo un necessario input del processo produttivo. Nel XIX secolo l’ambiente è indicato prevalentemente come un insieme di risorse naturali che l’uomo estrae e trasforma per produrre i beni economici e per soddisfare i propri bisogni. L’avvento del pensiero neoclassico affrontò la tematica delle RN in chiave statica, senza preoccuparsi degli aspetti intertemporali o di flusso delle RN stesse: nel momento in cui le RN fossero considerabili come uno stock, ovvero una “dotazione della natura”, allora queste potevano e dovevano essere trattate alla stessa maniera di ogni altro oggetto avente valore economico, ovvero dovevano essere valorizzabili sulla base della loro scarsità rispetto al mercato di riferimento. Tutte le risorse hanno un valore ma a volte il prezzo (se presente) di mercato non lo rispecchia e porta gli agenti economici a prendere decisioni non ottimali per la società; un bene libero, che non ha proprietà, facilmente consumabile, non potrà mai avere un prezzo di mercato. L’AZIONE ANTROPICA SULL’AMBIENTE: LE ESTERNALITA’ Dalla seconda metà del XX secolo, con il manifestarsi delle conseguenze ambientali e dell’inquinamento, l’ambiente diventa un valore, così come la sua cura diventa obiettivo etico che motiva e orienta scelte individuali. Seppur con modalità ampiamente diversificate, la valutazione dell’impatto dell’azione dell’uomo sulla natura fa capolino nella sensibilità sociale e ciò ha prodotto orientamenti di policy volte a raccogliere consenso di tale nuova sensibilità sociale. L’analisi economica tradizionale ha cominciato a trattare le tematiche ambientali e i problemi legati all’impatto delle attività umane sull’ambiente attraverso il concetto di esternalità. Si definisce ESTERNALITÀ l’effetto (negativo o positivo) che l’azione di un individuo genera su un altro soggetto senza che avvenga una transizione monetaria compensativa. Distinguiamo in esternalità: ❖ NEGATIVA: quando un soggetto impone un costo ad altri individui senza indennizzarli, ovvero senza che ciò impatti sulla propria struttura dei costi privati. Es: l’inquinamento a beni di terzi per svolgere la propria attività principale, la congestione stradale nelle scelte di spostamento. ❖ POSITIVA: quando un individuo apporta agli altri un beneficio senza ottenere un indennizzo (giardino fiorito, la luce del vicino…). L’esternalità influenza l’attività economica quando un soggetto esercita degli effetti sulla produzione o sul benessere di un’altra persona in modo positivo o negativo. Tipicamente l’analisi economica si interessa delle esternalità negative. Si sviluppano delle esternalità positive quando gli effetti dell’azione di un insieme di individui producono dei benefici a terzi; precisamente, il beneficio sociale marginale supera il beneficio privato marginale e la differenza rappresenta quel beneficio esterno = - costi per il sociale. Un’esternalità negativa si manifesta quando un agente o un gruppo di agenti impone, attraverso lo svolgimento di un’attività di produzione o di consumo, un danno una terza parte senza sostenere alcun costo per tale effetto prodotto. In questo caso il beneficio privato è maggiore del beneficio sociale = + costi per il sociale. Un esempio di esternalità negativa sono i danni che un impianto industriale, in assenza di regolamentazione, provoca all’ambiente e alla salute delle persone che vivono nell’area circostante. L’analisi delle esternalità è molto complicata poiché ci sono dei problemi di quantificazione, di verifica, di distribuzione temporale dell’esternalità, oltre che al serio problema delle asimmetrie informative in materia, quindi come sono e se sono percepite. ANALISI ECONOMICA DELLE RISORSE AMBIENTALI Il focus principale di questo argomento è posto sulle modalità di impiego e gestione degli elementi costituenti la biosfera, l’aria, l’acqua, la terra, le sue risorse minerarie, eccetera, dall’estrazione o coltivazione fino al loro smaltimento o riuso. Nella prospettiva concettuale dell’economia dell’ambiente, il nostro benessere, la nostra crescita, il nostro sviluppo dipenderebbero da: - L’estrazione di risorse non rinnovabili e la raccolta di risorse rinnovabili; - La capacità e possibilità di smaltire e magari riciclare i rifiuti; - Il consumo del paesaggio e delle risorse dell’ambiente. L’economia ambientale, quindi, si occupa delle relazioni tra l’ambiente, la crescita economica e il sistema economico, utilizzando gli stessi strumenti concettuali dell’economia politica oltre che le conoscenze tecnico scientifiche fondamentali. Il suo scopo e quindi la gestione ottimale e sostenibile delle risorse. La circolarità del sistema economico finisce con l’essere rappresentata sia dalla prima che dalla seconda legge della termodinamica. La PRIMA è la legge della conservazione dell’energia, in base alla quale non è possibile né creare, né distruggere nulla, poiché su tutto si trasforma. Schematicamente l’ambiente fornisce risorse naturali al sistema economico; queste sono distinguibili in: 1. Risorse rinnovabili (RR) che si rigenerano in breve tempo (ad esempio la foresta). In questa categoria troviamo anche risorse che si rigenerano indipendentemente dallo sfruttamento da parte dell’uomo, come ad esempio l’energia solare, eolica, geotermia, eccetera. 2. Le risorse esauribili (RNR) che si rigenerano in tempi molto lunghi (ad esempio gli idrocarburi o fonti fossili di energia primaria). Lo stock delle risorse rinnovabili può mantenersi inalterato nel tempo se il tasso di utilizzo è inferiore al tasso di rigenerazione. Diverso è il caso delle rinnovabili esauribili dove lo sfruttamento eccessivo, come ad esempio nelle biomasse, bosco, terra, può danneggiare lo stock delle risorse e il flusso di rigenerazione fino ad esaurirle completamente. La SECONDA è la legge della termodinamica che guarda ai processi trasformativi che si sviluppano in equilibri con entropia crescente; nei processi trasformativi una parte dell’energia si disperde e si trasforma in modo irreversibile, ovvero il maggiore entropia → perciò lo sviluppo dell’attività economica crea inevitabilmente inquinamento, rifiuti e sfruttamento delle RN. Possiamo distinguere, durante lo svolgimento dell’analisi economia dell’ambiente e delle interazioni che intervengono, due diversi approcci: ANALISI POSITIVA e ANALISI NORMATIVA. L’approccio POSITIVO analizza e studia i metodi migliori per comprendere tutti i fenomeni e le relazioni che avvengono tra i sistemi economici e le risorse naturali; risponde alla domanda che cos’è e cosa sarà. L’approccio NORMATIVO si concentra sul valore principale di ciò che ci è registrato e cerca di individuare il programma di sviluppo più adatto alla situazione corrente, chiedendosi cosa dovrebbe essere. Quando studiamo la relazione di causa-effetto utilizziamo l’analisi positiva; se il problema è legato a misure politiche allora utilizziamo l’approccio normativo. Pertanto, l’economia ambientale è una scienza normativa perché prescrive gli obiettivi della politica ambientale. LE TRASFORMAZIONI E L’ENERGIA Ogni processo di sviluppo, desiderato o meno, di successo o meno, ha sempre a che fare con processi trasformativi. L’essere umano interagisce con trasformazioni, rielaborazioni delle RN che vanno a formare il set di beni e servizi che dovrebbero soddisfare i bisogni della collettività, diventando la domanda che viene espressa sui mercati. Ma solo l’impiego di differenti forme di energia consente queste trasformazioni. Come abbiamo visto in precedenza, l’energia deriva da fonti primarie naturali e forma tutta la filiera di trasformazione utile al soddisfacimento dei bisogni (quindi della domanda) che sono indotti dalla way-of- life. Siccome l’energia è l’alimento di queste trasformazioni da RN a RM (risorse naturali a manufatte) ne derivano delle considerazioni in merito al “concetto di efficienza”: - EFFICIENZA TECNICA O DI PRODUZIONE: che riguarda i processi di trasformazione delle RN in RM; - EFFICIENZA D’USO O TRASFORMAZIONE: si riferisce a tutte le trasformazioni che si effettuano sulle RN per farle diventare RM; - EFFICIENZA DELLA DEMAND-SIDE: che ha a che fare con le modalità d’uso di tipo tecnico o produttivo dell’energia. Lo sviluppo economico, sociale e culturale di molte aree della terra sono state e sono tutt’ora fondate sull’impiego crescente di energia attraverso le diverse tipologie di efficienza, che hanno portato nel tempo a mutazioni nel mix energetico ma anche nei modelli di consumo, nelle dinamiche demografiche e nell’impatto ambientale. Il consumo di energia crescerà nel futuro, in quanto: • La popolazione continuerà a crescere; • Miliardi di persone nei paesi in via di sviluppo aspirano ad una vita migliore; • Le attuali disparità tenderanno ad attenuarsi. La popolazione mondiale ha superato, a inizio del decennio che stiamo vivendo, i 7 miliardi di abitanti. Il massimo livello della crescita demografica mondiale si è verificata poco dopo la seconda guerra mondiale, quando si è manifestato globalmente il boom della seconda rivoluzione industriale. Fino agli anni ’60 dello scorso secolo la popolazione mondiale era divisa nettamente in due parti: da una parte c’era il mondo occidentale industrializzato ricco, longevo e poco prolifico, mentre dall’altra c’era l’altra parte del mondo con i paesi in via di sviluppo, quindi poveri, poco longevi ma molto prolifici. Dagli anni ’60 è cominciato un PROCESSO DI “CONVERGENZA” MONDIALE, verso minori livelli di fertilità e maggiori livelli nell’atmosfera di alcuni gas detti gas serra, che intrappolano la radiazione termica che viene emessa dalla superficie terrestre riscaldata dal sole. Queste radiazioni, accumulatesi nei decenni scorsi, hanno determinato il surriscaldamento della biosfera terrestre portando ad effetti a catena solo in parte noti. In realtà nella lunga storia della nostra biosfera si sono alternate continue oscillazioni, che l’hanno modificata e condizionato la vita degli organismi che la che la abitano ma ad ogni sua variazione piante, animali e uomini hanno dovuto trovare nuove forme di adattamento spesso migrando in cerca di ambienti più ospitali. Ma è stato proprio grazie a queste variazioni che l’uomo si è diffuso sulla terra, grazie ai corridoi di terre emerse a causa dell’abbassamento del livello del mare. Da questo momento in poi sono avvenuti tanti cambiamenti climatici, come ad esempio attorno al 6000 a.C. dove sulla regione del Sahara si sono rovesciate così tante piogge da andare a formare dei grandi fiumi ed intorno al 3000 a.C. tornare ad essere una regione arida ed inospitale; i primi secoli dell’area cristiana sembrano essere caratterizzati da un clima mite ma arido mentre il medioevo appare come un periodo caldo mentre attorno al 1000-1200 il clima tende a raffreddarsi cominciando quella che viene denominata la “piccola età glaciale”, durata dal 1600 al 1816, passando come l’anno senza estate. Da metà 800 le temperature tornano ad aumentare, inaugurando quel periodo caldo che dura ancora oggi. Perciò la maggior parte degli scienziati attribuisce la colpa del riscaldamento globale anche alle attività umane, e sulla base dei più recenti studi del IPCC (che sarebbe l’Intergovernémental panel on Climate change, ovvero il comitato di esperti delle Nazioni unite che è incaricato di studiare i cambiamenti climatici) la maggior parte degli esperti concorda che nel prossimo futuro potremmo aspettarci i seguenti fenomeni: - AUMENTO DELLA TEMPERATURA DEL PIANETA: questo fenomeno è attribuito agli effetti della prima rivoluzione industriale che era carbon intensive; - AUMENTO DELLE PRECIPITAZIONI mentre una diminuzione delle piogge nelle regioni tropicali e subtropicali; - AUMENTO DEL RISCHIO DI DESERTIFICAZIONE IN ALCUNE ZONE; - DIMINUZIONE DEI GHIACCIAI; - CRESCITA DEL LIVELLO DEL MARE. Tutto ciò a causa dell’aumento delle concentrazioni di gas serra nell’atmosfera, ovvero le GHG, indicate come il principale fattore determinante del riscaldamento globale. È un’opinione molto condivisa che la CO2 sia il principale gas a effetto serra, per cui quando si parla di riduzione missiva si fa sempre riferimento a valori espressi in termini di CO2, ma non è l’unico gas a generare l’effetto serra; il vapore acqueo, ad esempio, è uno dei gas responsabili dell’effetto serra. Inoltre, se valutiamo l’indicatore di Global Warming Potential GWP (è una misura relativa di quanto calore intrappola una determinata massa di gas appartenente alle GHG in confronto al calore intrappolato dalla stessa massa di CO2) si deve sapere che non tutti i gas che fanno parte della GHG hanno lo stesso effetto serra. Troviamo, ad esempio, metano, protossido di azoto, trifluoruro di azoto, ecc. Quest’ultimo, soprattutto, era stato molto sottovalutato perché utilizzato da industrie definite “di nicchia”, quindi poco utilizzate all’epoca, come quella dei laser o dei missili, ma anche dall’industria micro elettronica, per esempio nella produzione delle celle dei monitor a schermo piatto, per la creazione di celle fotovoltaiche di nuova generazione o per la realizzazione dei film sottili al plasma, e quindi all’epoca della firma del protocollo di Kyoto firmato dai paesi per ridurre i gas serra, non fu considerato rilevante per la sua scarsa quantità di emissioni rilasciate nell’atmosfera e non è stato considerato come un significativo contributo al riscaldamento globale. Secondo opinioni diffuse l’anidride carbonica, il metano e il vapore acqueo sono i gas serra più rilevanti, ovvero quelli che hanno avuto maggior effetto sul bilancio energetico del sistema terra, nonostante costituiscano solo una frazione di tutti i gas atmosferici. Da qui si capisce che per quanto le concentrazioni di GHG siano state e sono molto varie, l’attenzione principale di adesso è incentrata sulle strategie atte a controllare le emissioni di CO2; da ciò deriva la progressiva formazione di consenso attorno alle politiche ambientali che ne derivano. I principali settori causanti emissioni sono: - Energia elettrica; - Riscaldamento; - Trasporti: i cui principali sono gli aerei, le navi; - Gli allevamenti degli animali; - Filiera delle costruzioni; - Utilizzo della terra: a seconda di come viene utilizzata si possono avere più o meno assorbimento delle emissioni con le piante. Qual è la gamma attesa degli effetti portati dalle emissioni di GHG? Le più rilevanti conseguenze dei cambiamenti climatici riguardano i sistemi naturali, gli ecosistemi terrestri e acquatici e i sistemi antropici come l’agricoltura, le risorse idriche, l’ambiente marino-costiero, e la salute umana. Uno degli effetti più immediati ed evidenti del riscaldamento globale è l’aumento delle temperature del mondo, con forti problematiche legate alla riduzione del ghiaccio artico e lo scioglimento del permafrost, che comporta la liberazione degli idrocarburi gassosi presenti al suo interno, aumentando ulteriormente i GHG dispersi nell’atmosfera. Ci sono effetti legati ai sistemi forestali: la superficie attuale forestale subirebbe consistenti variazioni delle principali tipologie di vegetazione, con cambiamenti nella composizione della specie; potrebbero scomparire interi tipi di foreste e insediarsi nuove specie vegetali portando alla creazione di nuovi ecosistemi. Sull’agricoltura: si avranno variazioni consistenti nella produttività e nelle rese agricole. Siccità, condizioni meteorologiche estreme, maggior numero e diversità di parassiti, porterebbero a una perdita di terra arabile oltre che a causare gravi fallimenti nelle colture e carenza di bestiame in tutto il mondo. Sulla salute umana: si avrà un aumento della diffusione di malattie infettive trasmesse da microrganismi, insetti o altri ospiti intermedi come malaria, tenia, febbre gialla, a causa di una maggiore distribuzione geografica e di migliori condizioni di sopravvivenza per questi organismi. Sulle risorse idriche: riduzione dell’estensione dei ghiacciai e del loro spessore influirebbe sulla distribuzione stagionale dei flussi idrici e quindi sulla disponibilità di acqua per gli usi civili, industriali, per la produzione idroelettrica e per l’agricoltura. Anche il livello e l’acqua del mare saranno intaccati; i gas rilasciati dallo scioglimento del permafrost vengono assorbiti dal mare portando così all’aumento dell’acidità dell’acqua. Siccome il problema del riscaldamento della biosfera è globale anche le scelte atte a contrastare questo fenomeno dovrebbero essere mondiali. Nel 1992 è stata firmata la Convenzione Quadro delle Nazioni Unite il cui scopo è quello di stabilizzare le concentrazioni di gas a effetto serra a un livello tale da evitare o prevenire qualsiasi interferenza umana pericolosa per il sistema climatico; nel 1997 è stato approvato il protocollo di Kyoto che ha stabilito misure e introdotto dei valori e obiettivi vincolanti per ridurre le emissioni. Successivamente l’accordo di Parigi del 2015 consisteva nel contenere l’aumento della temperatura media mondiale ben al di sotto dei 2° e promuoveva sforzi per limitarne un ulteriore aumento, dando dei contributi (dando dei soldi) stabiliti a livello nazionale per incentivare la riduzione delle emissioni. L’Europa ha progressivamente prospettato l’adozione di una strategia definita il New Green Deal. URBANESIMO E INQUINAMENTO DELL’ARIA Urbanesimo: fenomeno storico e sociologico che ha determinato (e ancora oggi determina) l’immigrazione dalle campagne e dai piccoli centri alle grandi città. La storia dell’urbanesimo nasce con l’affermazione dei mercati: con la grande disponibilità di prodotti agricoli nasce, così, un’esigenza di valorizzare questi prodotti attraverso gli scambi e quindi affermando e sviluppando dei mercati allargati aree di consumo sempre più ampie. L’urbanesimo vero e proprio, invece, si è sviluppato a partire dal diciannovesimo secolo come conseguenza della rivoluzione industriale: si è cominciato con piccole agglomerazioni di persone che dalle campagne si trasferivano per avvicinarsi ai giacimenti di materie prime; poi con lo sviluppo dei trasporti marittimi e terrestri si è effettuata un’intensificazione degli scambi e col fenomeno della colonizzazione l’urbanesimo si allarga ai paesi che giungevano al decollo industriale, primo fra tutti gli Stati Uniti. Con l’arrivo poi dell’economia avanzata si vanno affermando le megalopoli, città molto grandi che sono il risultato di un’unione di diverse città vicine caratterizzate da un grande sviluppo e un’altra densità di popolazione; un esempio tipico è Tokyo. La concentrazione di gente, mezzi di produzione e di trasporto, di abitazioni, di mezzi di riscaldamento, vita quotidiana, ecc. hanno determinato un’altra tipologia di impatto ambientale: l’inquinamento, che può essere più o meno localizzato nei bassi strati conseguenza dell’insalubrità delle città moderne. L’inquinamento nell’area delle città, detto quindi urbano, è un fenomeno che si è stratificato nei decenni, e ci sono tutta una serie di fattori che possono influire in maniera particolare sull’esposizione dell’uomo all’inquinamento, come l’altezza a cui avvengono queste emissioni, la formazione di un particolare secondario, la ripartizione temporale, le condizioni meteo, ecc. Questo, però, NON E’ IL PRINCIPALE FATTO DEL GLOBAL WARMING, è uno dei fattori che incide. In passato fra tutti gli inquinanti quello che spiccava di più era la presenza di zolfo derivato da inquinamento industriale, dal riscaldamento domestico spesso a gasolio e nafta e dal traffico veicolare privo di alcun filtro. La principale conseguenza dell’inquinamento urbano sono le POLVERI SOTTILI, precisamente il particolato fine. Il particolato fine è costituito da un mix di particelle solide e liquide in sospensione nell’aria, prodotte da combustioni, attriti (ovvero il polverino nero degli pneumatici che deriva dalle frenate di mezzi di trasporto) ed altre centinaia di sostanze in sospensione nell’aria, molte delle quali cancerogene. L’inquinamento dell’aria e in particolare quello da particolato fine determina un aumento della mortalità e della morbosità. A fronte di queste problematiche si è puntato il dito quasi esclusivamente verso il traffico privato ma non è solo questo a causare inquinamento; un esempio è il riscaldamento delle abitazioni. Si deve osservare che dal 2003 a fronte di una progressiva diminuzione delle emissioni delle auto sono aumentate le emissioni prodotte dal riscaldamento dai servizi e degli usi civili; soprattutto il consumo da biomasse conosce un’accelerazione. Purtroppo l’utilizzo di questo combustibile ha portato ad un aumento delle polveri sottili, perché queste ne producono di più rispetto ai combustibili liquidi. L’inconsapevole utilizzo di una stufa a pellet, pensando di risparmiare e di diminuire l’inquinamento, genera invece un altissimo impatto di emissioni. GLI EFFETTI SULLA SALUTE UMANA Gli studi epidemiologici hanno evidenziato una relazione lineare fra l’esposizione a particelle di particolato fine ed effetti negativi sulla salute. Vale a dire che più è alta la concentrazione di particelle nell’aria maggiore sarà l’effetto sulla salute della popolazione. Secondo l’OMS non è possibile fissare una soglia di esposizione al di sotto della quale non si verificano degli effetti avversi sulla salute, per questo motivo l’OMS indica solo delle funzioni di rischio. L’80% delle aree urbane del mondo ha un inquinamento dell’aria oltre i limiti posti dall’OMS; la banca dati di questo ente evidenzia quanto la situazione sia particolarmente allarmante nei paesi in via di sviluppo. Molte città del mondo occidentale cercano di attuare delle politiche di contenimento di queste emissioni, ma la situazione globale delle aree urbane continua a peggiorare. Gli impatti negativi dell’inquinamento atmosferico possono essere classificati in due macro categorie: 1. MINACCE ALLA SALUTE: il rischio di morte o di malattia aumenta significativamente soprattutto nelle persone più vulnerabili; 2. CONSEGUENZE AMBIENTALI: l’incremento medio delle temperature (che ha molti effetti a catena sugli ecosistemi e sulle economie locali, basta pensare alla riduzione delle precipitazioni di neve nelle aree sciistiche causate da un aumento della temperatura), l’aumento del livello medio del mare nelle zone costiere, oltre che e l’acidificazione delle piogge. L'inquinamento è ormai un problema globale e i principali stati che presentano il più alto tasso di inquinamento si trovano in Asia, precisamente l'India. Anche l'Italia compare nella triste classifica mondiale dei paesi con le città più inquinate. VISIONE STATICA E QUELLA DINAMICA Per misurare la sostenibilità ambientale delle città, o di altre realtà territoriali, è necessario mettere in relazione gli andamenti nella pressione delle attività e la capacità dell'ambiente di assorbire queste variazioni. Di ciò trattano degli indicatori come il cosiddetto “zaino ecologico”, con cui si vorrebbe rappresentare con un numero quanto pesa il consumo di un certo bene sull'ambiente quindi sulle sue risorse naturali. E pensato ed elaborato dal Wuppertal institut per il clima. E’ evidente che ogni prodotto che acquistiamo ha un proprio ciclo di vita lungo il quale si utilizzano sia risorse naturali che energia fino al suo smaltimento. Un esempio può essere il quaderno di carta, che non vale solo per il suo utilizzo, ma anche per tutto ciò che c'è dietro, o meglio a monte, come l'industria cartiera, il taglio di alberi per il legno, il carburante per i trasporti, ecc. Questi sono definiti flussi nascosti, ovvero dei quantitativi di materiale che non formano direttamente il bene o servizio ma che sono utilizzati indirettamente per poterli costruire o erogare. È possibile calcolare il peso dello zaino ecologico dei singoli prodotti sommando la stima di tutte le risorse utilizzate per la produzione, il trasporto tra le fabbriche e dalla fabbrica al consumatore, comprende anche il materiale l'energia utilizzata dall'esercizio commerciale per venderlo, eccetera oltre che tutto ciò che è richiesto per il suo smontaggio, riciclo e smaltimento appunto Lo zaino ecologico aggrega tipicamente i seguenti componenti: • Materiali abiotici: pietre, ghiaia, sabbia, combustibili fossili; • Materiali biotici: biomassa vegetale e animale. • Terreno per produzioni agricole e forestali: quantità di terreno fertile perso per erosione; • Acqua: prelevata per usi industriali o agricoli; • Aria: prelevata per trasformazioni fisiche o chimiche. Il Material Flow Accounting è il metodo di misura quantitativo e di classificazione dei materiali necessari per produrre un prodotto o un servizio, tenendo conto anche di flussi nascosti. Il ricercatore del Wuppertal institut hanno definito un indicatore, il MIPS, che considera anche i materiali utilizzati indirettamente di cui il bene non è composto; ad esempio una collana d'oro ha come input indiretti le tonnellate di terra scavate per la ricerca dell'oro. LE MISURAZIONI DELL’IMPRONTA ECOLOGICA In questi ultimi anni ci si sta avvicinando verso la famiglia degli indicatori di impronta ecologica. Questa trae origine dall'esigenza di quantificare la domanda di risorse naturali per l'unità di beni e servizi richiesti dall'uomo, focalizzando dove è possibile l'insieme di queste risorse naturali in un unico elemento simbolico: acqua, terra e CO2 emessa. E’ stata concepita nel 1990 da Mathis Wackernagel e William Rees. Misura il consumo di risorse naturali o di prestazioni naturali finite in ettari globali ed è un indicatore che fornisce informazioni per descrivere il carattere sostenibile o meno e l'utilizzazione delle risorse naturali. In parole povere, viene utilizzato per rispondere alla domanda: quanto tempo impiega il nostro pianeta per rigenerare le risorse che l'umanità consuma in un arco di tempo? Ad oggi si stima che la terra impieghi un anno e quattro mesi per rigenerare quello che l'umanità utilizza nell'arco di un anno; è una stima molto grossolana ma che si traduce in un messaggio forte: da qualche decennio l'umanità vive in una situazione tale che la domanda annuale di risorse naturali utilizzate è oltre a quanto la terra riesca a generare ogni anno. Misurando l'impronta di un individuo, di una popolazione, o di una città, ecc. possiamo valutare la pressione che esercitiamo sul nostro pianeta per aiutarci a gestire le risorse naturali con criterio, in modo tale da non esaurirle su breve scala temporale. L'impronta ecologica della way of Life europea, ad esempio, evidenzia l'incidenza attorno al 60% di consumo diretto o indiretto di fonte fossile. Questa impronta ecologica va poi rapportata (va quindi effettuata una divisione) con la biocapacità del sistema di riferimento, per verificarne lo squilibrio, quindi l’insostenibilità ambientale. In caso di squilibrio si conclude che quella particolare way of Life è possibile soltanto con l'importazione di risorse naturali; lo squilibrio può essere rappresentato anche matematicamente, se si ottiene un rapporto superiore a 1. Questa metodologia presenta, però, degli SVANTAGGI E LACUNE; lo svantaggio è che, in conseguenza di questi risultati che sono molto più comprensibili, si possono generare delle incongruenze comunicative. Se ad esempio si dice che continuando questi consumi attuali sarebbe necessario un 20% di pianeta terra in più molte persone potrebbero pensare a un errore o a una esagerazione, in quanto appare contraddittorio e insensato sostenere di stare consumando più di quello che si ha già. A questa obiezione si dovrebbe rispondere che le porzioni di territorio in eccesso che si stanno consumando corrispondono a territori avanzati o risparmiati dal passato; ad esempio l'uso di idrocarburi corrisponde al consumo di risorse territoriali accumulate dal pianeta al tempo della scomparsa dei dinosauri. In altri termini: lo spazio della terra non andrebbe letto come una superficie unica ma come stratificata e intertemporale; lo spazio in più corrisponde a uno spazio/ tempo che le generazioni di oggi starebbero intaccando attingendo dalle risorse stoccate in profondità, ovvero ereditate dalle generazioni precedenti o a scapito di quelle future. Le lacune metodologiche, invece, si riscontrano nell'approccio analitico di questa impronta ecologica: questa non misura tutto, poiché considera solamente una parte della dimensione ambientale della sostenibilità, senza tenere conto della dimensione sociale e di quella economica; alcuni aspetti non considerati sono la distruzione di ecosistemi o di risorse naturali rinnovabili e non rinnovabili, la perdita di biodiversità, il consumo di acqua dolce All'inquinamento dovuto ai metalli pesanti. Se i metodi di misurazione vengono ricondotti tutti all'unità di misura e del biossido di carbonio possiamo distinguere la Carbon Footprint o impronta di carbonio (IC) e indica la quantità di area forestale necessaria ad assorbire le emissioni di anidride carbonica generate dalle attività umane in analisi. Nel calcolo di questa devono essere considerate le emissioni di tutti i GHG. Questa conta le emissioni che provengono da tutte le categorie, non solo dei trasporti, ma anche del cibo, produzione di magliette, case, viaggi, ecc. CENNI SULLA CONTABILIZZAZIONE DEGLI IMPATTI SOCIO-AMBIENTALI Ogni indicatore che si rispetti deve avere un adeguato dataset (dati statistici) dal quale attingere per le varie stime che si vogliono produrre che deriva da una forma e diffusione di sistemi di contabilizzazione degli impatti ambientali e sociali, oltre che economici, di ogni atto della nostra vita. La contabilità di sostenibilità, nota anche come contabilità sociale, è stata originata circa 20 anni fa ed è considerata una sotto categoria della contabilità finanziaria; rappresenta quelle attività che hanno un impatto diretto sulla società, l'ambiente e le prestazioni economiche di un'organizzazione. In ambito aziendale viene presentata come elemento funzionale per la creazione di valore di un'organizzazione ed è diventata sempre più popolare negli ultimi due decenni. Svolge un ruolo analitico all'interno dell'azienda ed è sempre più fondamentale nella progettazione di strategie in un quadro sostenibile diventato ormai obbligatorio. Tipicamente, per misurare la sostenibilità di un'azienda, si ricorre a famiglie di indicatori o KPI (key performance indicators) per valutare l'impatto ambientale, sociale, ed economico della medesima. I principali sono: - CONFORMITÀ, quindi il rispetto delle leggi e degli standard nazionali e internazionali. Un esempio può essere la quantità di infrazioni e segnalazioni rilevate. - USO DEI MATERIALI E PERFORMANCE, è un indicatore che valuta sia la parte ambientale che quella economica dell'azienda per poter definire veramente sostenibile. Ad esempio misura le quantità di risorse materie prime utilizzate, la quantità di rifiuti e le emissioni che ne derivano di conseguenza. - EFFETTI: questo indicatore permette di rispondere alle domande “quali sono gli effetti che la tua azienda produce? Qual è il suo impatto ambientale totale?” - CICLO DI VITA DEL PRODOTTO: per definire un'azienda sostenibile bisogna prendere in considerazione l'intero ciclo di vita del prodotto, dal reperimento delle materie prime fino allo smaltimento finale. Ad esempio se i fornitori utilizzano fonti di energia rinnovabile, oppure la quantità dell’anidride carbonica emessa per il trasporto del prodotto, eccetera. - SISTEMA SOSTENIBILE: rappresenta come l'azienda si inserisca nel contesto sociale e valuto i rapporti nazionali e internazionali e l'impatto sul territorio locale. CARBON FOOTPRINT E IL SISTEMA ICT In materia di Carbon Footprint è importante nominare il sistema ICT e le sue conseguenze; Information Communication Technology comprende l'insieme delle nuove tecnologie che consentono di trattare scambiare le informazioni. Si parla spesso di quanto la salvezza del pianeta debba passare attraverso la diffusione di innovazione tecnologica. Con il lockdown della pandemia si è cercato di effettuare il trasporto su Internet di ogni necessità umana, ma associare il concetto di smart a quello di green è fuori discussione. Lo sviluppo delle ICT, della robotizzazione, la guida assistita, ecc. sono tutti processi molto delicati e molto complessi che richiedono totale certezza delle forniture energetiche necessarie per il loro funzionamento. Il flusso di energia deve essere sicuro, continuo, rilevante, sia sul piano quantitativo che qualitativo ed essendo questa domanda di energia del sistema Internet enorme si preclude l'impiego delle FER, per ragioni attribuibili loro discontinuità e spesso insufficienza generativa. Per fare un esempio, basti pensare alla comunicazione via email; nonostante questa sia una comunicazione banale e frequente alcuni studi hanno dimostrato che un'email consuma come una lampadina accesa per due ore disperdendo nell'atmosfera circa quattro grammi di anidride carbonica, in assenza di allegati. Questo fa capire come l'impatto ambientale della posta elettronica è molto più negativo di quanto possiamo pensare; perciò la digitalizzazione inquina davvero molto. Ora è più semplice capire perché sempre più spesso si inizia a parlare delle email a effetto serra a causa del consumo di energia, l'inquinamento e di emissioni legate all'uso della posta elettronica. Per quanto una mail determini solo una piccola parte dell'anidride carbonica riconducibile a una lettera cartacea, occorre sottolineare che non si inviano così tante lettere cartacee. Il problema è che questa è una tecnologia a basse emissioni di carbonio ma si traduce in un alto impatto di queste emissioni semplicemente perché la usiamo di più. Si arriva a stimare che l'impatto ambientale di una giornata di email di una persona sia pari a quello di una busta di plastica. Parte del motivo di questo inaspettato e sconosciuto impatto ambientale del sistema Internet, ICT&smart si può ricondurre al cosiddetto EFFETTO RIMBALZO: un fenomeno per cui quando qualcosa diventa più economica ed efficiente dal punto di vista energetico (in questo caso l'archiviazione e l'interrogazione dei dati) spesso finiamo per farne un uso eccessivo rispetto alle effettive esigenze, con il risultato che non ci sia nessuna riduzione, o portando addirittura un aumento dei costi o dell'impatto ambientale. Sappiamo che non possiamo fare a meno di internet e della casella di posta elettronica, basterebbe usarla meno. CAPITOLO 4: GLI STRUMENTI DI INTERVENTO PER INTERNALIZZARE LE ESTERNALITÀ. L'AFFERMAZIONE DELLE POLITICHE AMBIENTALISTE NEL LIBERO MERCATO DEL CONSENSO. Negli ultimi decenni si sta assistendo al progressivo affermarsi di sempre più ambiziosi progetti di affermazione dei principi della sostenibilità. Genuina o indotta che sia, assistiamo alla diffusione della sensibilità verso ogni azione etichettabile come sostenibile, che ha portato al nascere di importanti iniziative, anche al cospetto delle più importanti istituzioni del pianeta: da parte delle Nazioni Unite, della Comunità Europea e dei singoli Stati. Non c'è programma politico che non rimarchi la sua vocazione verde o sostenibile. Questa predominante ideologia è diventata un dogma e mainstream culturale, che richiede comunque concrete applicazioni; finora si è visto solo un'affermazione di slogan, si pensi al devastante impatto ambientale sia di Internet in sé, dei progetti di smart City, ma anche all'affermazione del fotovoltaico in ogni posto in ogni luogo del paese tramite ingenti sussidi, contributi e incentivi, nonostante il devastante impatto ambientale della sua filiera produttiva. Facciamo prima una piccola riflessione: l'affermazione, ad esempio, del New Green Deal non è avvenuta principalmente dagli elettori; basti pensare che in USA la protezione dell'ambiente occupava l'ottavo posto, In questa forma di approccio troviamo: • Norme di qualità ambientale: specificano le caratteristiche che devono possedere le risorse ambientali (aria, acqua, suolo). ES. definiscono la concentrazione di anidride solforosa per metro cubo d'aria. • Norme di emissione: fissano la quantità massima di sostanze inquinanti che è possibile mettere nell'ambiente; possono essere un divieto totale o solo una limitazione. • Norme di processo: specificano le caratteristiche del processo di produzione e le tecnologie di disinquinamento da utilizzare. • Norme di prodotto: fissano le caratteristiche che devono possedere i prodotti che possono causare danni all'ambiente. ES. Il contenuto di zolfo degli oli combustibili. • Norme di localizzazione: agiscono sulla localizzazione degli interventi sul territorio indirizzandone la destinazione d'uso. La caratteristica di questo metodo di regolazione e che cerca di uguagliare il livello di abbattimento per tutte le imprese, indipendentemente dal loro costo di abbattimento. Ciò espone questo strumento ad alcune critiche perché, ad esempio, il costo di abbattimento dell'inquinamento può variare molto tra imprese diverse. Spingere le imprese che hanno diversi costi di abbattimento ad abbassarli nella stessa maniera e misura introduce una rigidità nel sistema oltre che un'inefficienza, andando magari a colpire quelle imprese che cercano già di essere Environmental friendly, quando queste dovrebbero essere promosse invece che penalizzate. Inoltre, una volta che l'impresa ha rispettato lo standard e quindi viene considerata in regola per l'autorità pubblica, questa non ha alcun incentivo a sviluppare tecnologie che diano luogo a ulteriori livelli di abbattimento dell'inquinamento. GLI STRUMENTI ECONOMICI DI INTERVENTO -> IL PRINCIPIO DI “CHI INQUINA PAGA” Il principio “chi inquina paga” deve il suo contenuto alla tradizione giuridica che collega gli effetti dannosi di un comportamento all'autore di questo; in realtà determinare il danno ambientale e, a volte, chi l'ha causato non è così semplice. La politica ambientale e di bilancio dell'Unione Europea, ovviamente, non poteva sottrarsi all' implementazione di questo slogan e ha fatto fiorire e diffondersi direttive e regolamenti. Sempre sulla base di questo principio venne approvata la direttiva 2004/ 35/ CE sulla responsabilità ambientale in materia di prevenzione e riparazione del danno ambientale → significa che un'azienda, che ad esempio provoca un danno ambientale, ne è responsabile e deve farsi carico di intraprendere le azioni di prevenzione o riparazione necessarie e di sostenere tutti i costi relativi. Il punto chiave di questa direttiva si ricava nella definizione del danno ambientale che viene ricondotto a tre tipologie, ognuna delle quali normate da altri provvedimenti e direttive: 1. Danno che incide significativamente sullo stato ambientale; 2. Danno che incide in aree che crei un rischio significativo per la salute umana; 3. Danno che incide in modo negativo sulla conservazione degli habitat naturali. La direttiva, poi, definisce il proprio campo d'azione lungo due linee: - Perseguimento delle responsabilità: si vanno a ricercare i casi in cui il danno deriva da attività colpose o i casi in cui questi danni siano stati effettuati su specie protette e habitat naturali; - Azioni di prevenzione e riparazione: l'azienda che ha causato il danno deve adottare le misure di prevenzione necessarie e successivamente informare le autorità e riparare al danno; l'azienda dovrà, quindi, pagare per le azioni di prevenzione e di riparazione. Occorre fare una riflessione: l'ipotesi dell'inquinamento circoscritto in un contesto spazio- temporale preciso e collegabile ad un'unica causa genera i casi di minor gravità del fenomeno, mentre sono ben più gravi i casi in cui i luoghi contaminati sono stati oggetto di un prolungato utilizzo industriale, svolto in epoca differente da soggetti diversi. In questi ultimi casi è importante individuare i singoli soggetti responsabili del fatto, soprattutto per verificare se sia stata colpa esclusiva di uno di essi oppure se sia frutto di processi produttivi diversi, che possono avere concorso all' alterazione dell'ambiente. Per questo ultimo caso non è possibile utilizzare le tecniche e gli strumenti visti, perché non si può determinare con certezza di chi sia la colpa; si deve allora far ricorso da altri metodi, tutti basati sul COSTO OPPORTUNITÀ PER LA COLLETTIVITÀ, che è il costo di ricostruzione dell'ambiente totale oppure parziale. Quella parziale è la più usata dato che nei casi di grande sfruttamento è impossibile ricostruire l'ambiente allo stato di natura siccome anche solo l'attività di riconoscimento del danno altera, sia pure in minima parte, l'ambiente. Ciò porta a dover dare un giudizio di valore per sopportare il danno, che deve tener conto sia dalla conoscenza del danno sia del costo di ricostruzione → questi casi sono molto frequenti; basti pensare al caso della centrale elettrica che, cambiando combustibile, abbatte i danni ambientali derivanti dal combustibile precedente, ma anche il secondo inquina anche se in modo minore. La collettività accetta il danno del secondo combustibile e dunque non ripara tutto il danno del primo. Esistono quattro vie per affrontare il problema: 1. Assicurazione obbligatoria a carico di coloro i cui comportamenti possono determinare un danno ambientale collettivo; 2. Tassa o imposta Pigouviana, che consiste nell'internalizzazione del danno ambientale nel costo del soggetto che l'ha causato; 3. Regole di comportamento, il cui mancato rispetto comporta una sanzione; 4. Sussidio riparatore o compensativo, qualora non si possa impedire il danno. In genere gli Stati seguono tutte e quattro queste vie, anche indipendentemente dalla natura meritoria del danno da evitare; il risultato è che l'inquinatore si confronta con una varietà di sistemi pubblici che non producono gli stessi risultati sul danno; per quanto si cerchi di associare il danno a chi l'ha provocato, quando il danno è collettivo c'è sempre una parte di costo di ricostituzione o rinaturalizzazione che resta a carico della collettività. Si tratta del rischio e del danno di natura “meritoria”, ovvero del rischio del danno che ciascun singolo individuo non è in grado di calcolare o per se stesso o attraverso se stesso sul resto della collettività. In linea generale gli strumenti economici sono appropriati per il controllo dell'inquinamento su larga scala, determinato soprattutto dall'attività di una miriade di soggetti, mentre la strategia di comando e controllo sembra appropriata per fronteggiare fenomeni di inquinamento circoscritti, con effetti di una certa pericolosità e con un ristretto numero di interlocutori. I due principali strumenti economici sono: le tasse ambientali e i permessi di inquinamento negoziabili. TASSE AMBIENTALI Se l’esternalità arreca un danno, quel danno deve tradursi in un costo sul colpevole di ciò: le politiche fiscali ambientali si basano proprio su questo approccio sanzionatorio. Si fondano sul concetto di imposta, imponendosi e affermando si con la forza della legge. E’ una politica fiscale che richiede, però, che possa essere stimato il danno, individuato il colpevole, regolare le imposte in base al danno... La tassa ambientale si fonda sul principio della tassa pigouviana, ovvero di andare a distorcere l'attività del soggetto che inquina che la svolge principalmente per massimizzare i suoi benefici marginali; può essere definita in varie forme colpendo: • L'IMPRESA, in base a quanto inquinamento ha generato; • GLI INPUT DI PRODUZIONE, es. diversi tipi di combustibili; • IL PRODOTTO FINALE. e deve essere definita in modo tale da massimizzare il benessere totale. ASPETTI POSITIVI: • L'impresa - per il proprio calcolo economico - è incentivata a ridurre le emissioni laddove questa opzione si riveli quella meno costosa, altrimenti pagherà la tassa. Le imprese che vogliono avere meno costi di contenimento delle emissioni cercheranno di migliorarli piuttosto che pagare la tassa o la sanzione. Questo, inoltre, le farà spiccare nell'ottica green etica affermatasi, creando una sorta di selezione naturale sul mercato. • Poiché le imprese, in proporzione all'ammontare di inquinamento prodotto, continuerebbero a pagare quella tassa per unità di prodotto anche dopo aver cercato di abbattere le emissioni correlate, avranno un continuo incentivo a implementare le tecnologie innovative che possano continuare ad abbattere quelle esternalità; • Queste tasse ambientali, infine, generano un flusso finanziario dal soggetto che deve pagare questa imposta (quindi il soggetto che ha arrecato il danno) verso l'esattore pubblico e questo gettito potrà essere utilizzato in vari modi. ASPETTI NEGATIVI:  Definire l’entità di questa tassa ambientale non è facile, poiché si dovrebbe fissare un livello giusto di tassa che porti gli inquinatori, in maniera spontanea, a calibrarsi su un accettabile livello di inquinamento; se si fissa un livello troppo alto si vanno a creare eccessive restrizioni alla produzione o nei casi più brutti ad abbandoni localizzati delle imprese, mentre se si fissa un livello troppo basso, non si porta nessun beneficio ambientale.  La gestione di questa imposizione fiscale comporta costi di amministrazione, monitoraggio, ecc. a volte più alti del loro stesso gettito, andando a minare la ragione dello strumento stesso.  Solleva un problema di equità, qualora il bene colpito maggiormente sia un bene di ampio consumo tra le fasce di reddito più basso;  Può generare effetti negativi sulla competitività dell'industria nazionale o incentivi all'uscita degli impianti produttivi. IL DOPPIO DIVIDENDO Sempre più popolare è l'idea che debbano essere promosse riforme fiscali ambientali, nelle quali andare a introdurre nuove tasse ambientali, così da far pagare chi inquina, ottenendo un doppio dividendo: il primo consiste nell'ottenere il guadagno di benessere sociale associato a un ambiente più pulito, il secondo consiste nel gettito fiscale che potrebbe essere impiegato o per rafforzare il primo obiettivo ambientalista o per sviluppare nuova occupazione. L'idea del doppio dividendo delle riforme fiscali ambientali, soprattutto se il secondo dividendo e quello occupazionale, sta acquisendo un consenso crescente nei movimenti ambientalisti; nel 1993 la Commissione Europea proponeva di affrontare insieme la doppia sfida della disoccupazione e dell'inquinamento, immaginando uno scambio tra la riduzione dei costi di lavoro e l'aumento dei carichi fiscali sull'inquinamento. Dopo la proposta della commissione europea sono state avviate numerose ricerche per vedere se fosse possibile conseguire il doppio dividendo: la tassazione considerata è stata soprattutto quella sull'energia e sul contenuto di carbonio delle emissioni. L’EFFICACIA L'utilizzo delle tasse ambientali per internalizzare il danno indotto all'ambiente causato dalla filiera produttiva di un determinato bene un servizio (si pensi alle carbon tax, ovvero le accise sui carburanti) dovrebbe avere la finalità di ridimensionare la domanda finale di questo bene, ovvero il colpevole del danno ambientale, fino al punto di equilibrio di mercato, cioè il punto in cui il danno ambientale possa essere definito come socialmente accettabile. In realtà l'imposizione di una tassa ambientale presenta una problematica che ha una doppia interpretazione: innanzitutto una tassa ambientale efficace dovrebbe essere poi rimossa nel tempo per risolvere il problema per la quale è stata progettata e imposta; in realtà le evidenze empiriche ci dicono chiaramente quanto sia improbabile e scarsamente verificato tutto ciò. ES. della carbon tax --> dopo aver inserito più accise sui carburanti non si è assistito ad alcuna modifica rilevante nei livelli di consumi dei carburanti, mentre queste accise compongono, ancora oggi, una voce di entrata corrente del bilancio dello Stato di una certa entità. In quest'ottica, quindi, le tasse ambientali sono inefficaci, soprattutto se effettuate su un componente ritenuto insostituibile. INCENTIVAZIONE E DIFFUSIONE DELLE FER Sono stati decisi 3 obiettivi per realizzare il protocollo di Kyoto e il pacchetto per il clima e l'energia 20- 20- 20 della comunità europea (che cerca di mitigare le crescenti preoccupazioni e collegate al Global warming): - Incentivare la sostituzione delle fonti fossili per generare energia; - Sviluppare la CCS; - Installare e utilizzare impianti di generazione di energia da fonti cosiddette rinnovabili; LE FER; oltre alla direttiva 28 del 2009 che ha assegnato all’Italia due obiettivi nazionali vincolanti in termini di quota dei consumi finali lordi di energia coperta da fonti rinnovabili (FER) al 2020. L’IEA prevede che il consumo mondiale di energia crescerà di quasi il 50% tra il 2018 e il 2050, aumentando sia nel settore trasporti ma soprattutto per i device collegati a Internet e a server sempre più grandi. Si ritiene, quindi, che l'impiego delle FER sia da incentivare e che per la loro diffusione si debbano stanziare importanti sussidi a fronte di benefici sociali ritenuti molto importanti. Si stima che gli impianti di generazione di energia elettrica a FER supereranno quelli che impiegano fonti fossili dal 2050. siano involucro degli edifici e sostituzione degli impianti di climatizzazione invernale esistenti con impianti centralizzati per il riscaldamento o il raffrescamento. REGOLAZIONE: In Italia il modello assunto per lo svolgimento delle funzioni regolatorie e quello delle autorità amministrative indipendenti; In particolare è quel soggetto, istituito con legge, che esercita prevalentemente funzioni amministrative di regolazione e controllo per garantire imparzialità e neutralità rispetto agli interessi coinvolti. È una figura presente nei vari settori a partire dagli anni 90 del secolo scorso. Nell'ambito dell’energia, troviamo L'AUTORITÀ DI REGOLAZIONE PER ENERGIA RETI E AMBIENTE (ARERA), che ha il compito di tutelare gli interessi dei consumatori e di promuovere la concorrenza, l'efficienza e la diffusione di servizi con adeguati livelli di qualità, attraverso l'attività di regolazione e di controllo. Le principali competenze attribuite ad ARERA sono: • promozione dell'uso razionale dell'energia con particolare riferimento alla diffusione dell'efficienza energetica; • svolgimento di attività di monitoraggio, di vigilanza e controllo sulla qualità del servizio, sicurezza, tariffe, eccetera; • Irrogazione di sanzioni. In ambito di energia troviamo tantissimi soggetti che interagiscono tra di loro per l'utilizzo e/o implementazione di questa; vengono, perciò utilizzati i contratti di rendimento energetico (EPC). Questo è un contratto che sancisce l'accordo tra il beneficiario e il fornitore di una misura di miglioramento dell'efficienza energetica, in cui l'oggetto del contratto e spesso la progettazione e la realizzazione di lavori che consentano di raggiungere un determinato livello di efficienza energetica e quindi un risparmio di spesa sulla bolletta energetica del cliente/ committente. Ovviamente prevede un corrispettivo correlato al livello di miglioramento dell'efficienza energetica, ovvero a quanto risparmio si ottiene. Un primo presupposto fondamentale del contratto di EPC è la definizione della baseline economica di partenza, con questa si vanno a parametrare i risparmi ottenuti derivati dall'implementazione dell'efficienza energetica e regolati gli oneri economici. LE ENERGY SAVING COMPANY ESCo (energy saving company) nasce negli USA nella seconda metà degli anni 70 a seguito della crisi energetica che aveva provocato bruschi aumenti dei prezzi dell'energia e consiste in una nuova modalità di vendere le soluzioni tecnologiche sviluppate dalle imprese energetiche, cioè finanziandole direttamente. Sono soggetti che si finanziano dalle istituzioni finanziarie per erogare e fornire un determinato servizio. Per comprenderne meglio le funzioni bisogna innanzitutto comprendere il FINANZIAMENTO TRAMITE TERZI (FTT) → consiste nella fornitura, da parte di una società terza (ovvero la ESCo) nei servizi di diagnosi, finanziamento, progettazione, installazione, gestione manutenzione di un impianto tecnologico dalle cui prestazioni si otterrà il risparmio energetico e di conseguenza monetario che permetterà a questa società sia di recuperare l'investimento effettuato che di remunerare il capitale investito. È così che la ESCo recupera il costo totale dell'investimento incluso il suo profitto. Nell'Unione Europea il finanziamento tramite terzi è stato introdotto con una direttiva, diretta a limitare le emissioni di biossido di carbonio migliorando l'efficienza energetica. Tuttavia è solo con la direttiva numero 32 del 2006 che l'unione europea dà forza all'efficienza energetica precisandone tutti gli aspetti e ribadendo, in particolare, i concetti di efficienza energetica, ESCo, contratti di rendimento energetico, certificato bianco, oltre a consacrare definitivamente la ESCo. In conclusione, sono soggetti specializzati che a costo zero per il cliente (sia questo un ente pubblico o un'azienda): 1. Reperiscono le risorse finanziarie richieste utilizzando il meccanismo del finanziamento tramite terzi quando necessario; 2. Stipulano con il cliente un particolare contratto che gli consente di retribuirsi con i risultati dell'intervento, ovvero tramite il risparmio energetico, e con gli incentivi nazionali all'efficienza energetica e alle rinnovabili, ovvero i certificati bianchi; 3. Eseguono la diagnosi energetica, lo studio di fattibilità e la progettazione; 4. Conducono, dopo l'intervento, la manutenzione e l'operatività occupandosi della gestione degli impianti e facendosi carico di gran parte dei problemi di manutenzione, sostituzione degli apparecchi difettosi, eccetera fino a quando al termine dei pagamenti la proprietà degli impianti è definitivamente ceduta all'impresa o all'ente beneficiario dell'intervento. Contribuiscono all’affermazione della Green Finance. GREEN FINANCE Si va a studiare la declinazione dei progetti green utilizzando metodi di finance. Dal punto di vista finanziario è un investimento commisurato alle capacità dell'investitore. Dal punto di vista tematico include tutto ciò che minimizzi l'impatto ambientale e lo spreco di risorse. È questo il cuore della green finance, la finanza “verde”. Include diversi prodotti (azioni, bond, investimenti in infrastrutture, pubblici e privati) e differenti settori: dagli impianti di rinnovabili alla conversione edilizia, dal risparmio di risorse alla protezione della biodiversità fino alla gestione dei rifiuti, per incoraggiare lo sviluppo di un’economia sostenibile. Esistono diverse strategie di funding finanziario (ricerca di capitale), per poter far partire tutti i progetti green: - IRR (internal rate of return = rendimento di progetto): deriva dal business plan economico o finanziario. Deve essere maggiore del R.RoR (quindi quello richiesto). - R.RoR (required rate of return): sondaggio già fatto che si riesce già a prevedere. Potremmo avere, soprattutto nei casi di settori sottoposti a regolazione, anche la regolazione da parte delle autorità competenti, che regolamentano ad esempio il pricing, e queste presentano una Regulated Rate of Return. La definizione delle strategie di funding deriva molto da questi 2 o 3 fattori. I canali istituzionali di Funding sono tipicamente 2: - UE: tramite contributi, incentivi, garanzie; - B.E.I (banca europea degli investimenti): fa investimenti in grado di rilanciare l’economia dei paesi membri. Definisce tassi di interesse su una base di parametri europei che variano a seconda dell’interlocutore. Nei contratti di finanziamento ci sono spesso covenants, ovvero clausole contrattuali e collaterals, ovvero garanzie date da chi chiede il finanziamento. Questi due insieme vanno a definire i mitigans, ovvero elementi che mitigano il rischio implicito dei finanziamenti. Troviamo, ad esempio nelle covenants, il rimborso anticipato obbligatorio: l’obbligo del debitore di rimborsare in anticipo il finanziamento, attraverso ad es. il ricavato della vendita di assets o incassi di indennizzi assicurativi; obblighi informativi: consentono alla banca di monitorare continuamente l’andamento economico/finanziario del soggetto che ha finanziato, per vedere in tutta la vita del finanziamento se il debitore è in grado di affrontare i debiti; ecc. A causa della crisi del 2008, ci sono stati tantissimi richiedenti di investimenti che, nonostante un ottimo business plan non trovavano accesso al credito, portando ad una situazione che Keyens definiva come “la trappola della liquidità”→ anche se si abbassavano i tassi di interesse non si trovavano impieghi; si è, così, sviluppata la DISINTERMEDIAZIONE BANCARIA, il ricorso ad altre forme di finanziamento. SOSTENIBILITA’ E REGOLAZIONE ECONOMICA DEI SERVIZI AMBIENTALI Le sfaccettature del concetto di sostenibilità esaminato nel capitolo precedente sono neutrali? Possono essere in conflitto fra loro? Prenderemo due campi sui quali valutare le possibili incompatibilità degli aspetti della sostenibilità: ambientale, economica e sociale, analizzando il servizio idrico integrato e il servizio per il ciclo dei rifiuti. ACQUA POTABILE → SERVIZIO IDRICO L'offerta dell'acqua potabile ai cittadini, nella declinazione della public regulation, presenta non meno di tre anime e il problema della sua regolazione è molto complessa, tanto in Italia quanto nei paesi Ocse. In Europa, dagli anni 60 a 80, il problema della regolazione dell'acqua veniva affrontato come controllo dell'inflazione, in ottica macroeconomica. In Italia, infatti, la tariffa dell'acqua era determinata dal comitato interministeriale prezzi come variabile di controllo dei parametri macroeconomici del livello generale dei prezzi. Solo con il progressivo superamento della problematica dell'inflazione, dalla seconda metà degli anni 90, il problema della regolazione dell'acqua viene maggiormente affrontata con logiche settoriali, quindi microeconomiche. L'acqua così entra in un altro ambito di dibattito, perché dal punto di vista microeconomico il servizio di erogazione dell'acqua potabile può rispondere a tre differenti logiche: 1. Può essere un servizio o un bene di natura primaria, essenziale, che rientra nei diritti di cittadinanza. Questo tema ha sviluppato il tema dell'“acqua pubblica”, sfociato in richieste o slogan del tipo “acqua pubblica uguale gratuita per tutti” e ha a che fare con la declinazione sociale della sostenibilità. 2. Con una visione più microeconomica può essere vista come bene scarso, ovvero risorsa limitata in natura. Questo tema ha una matrice strettamente ambientalista, di tutela della risorsa dell'acqua, che deve essere centellinata nel suo consumo perciò la regolazione tariffaria dovrebbe essere, di conseguenza, centellinata, avere quindi prezzi alti, nel rispetto della declinazione ambientale del principio di sostenibilità. 3. Può essere vista come output di una filiera organizzata di attività, ovvero come un servizio industriale per i gestori e per l'articolata filiera del servizio idrico integrato (SII). Questa visione industriale ha declinato il tema dell'acqua in termini di organizzazione di processi e attività funzionali all’erogazione di un servizio, facendo prevalere una visione principalmente industriale, che inquadra il tema della gestione di questa risorsa ponendo attenzione sulla regolazione pubblica e sul profitto aziendale di queste attività. Un bene meritorio (bene pubblico, es. infrastrutture, le politiche sociali. Sono beni o servizi portati avanti in forza di legge perché il cittadino o chiunque altro godrà di un vantaggio dopo averlo consumato, utilizzato\o) come la disponibilità di acqua potabile deve essere regolato secondo modalità concilianti delle tre visioni di sostenibilità dalle istituzioni di regolazione. Per quanto riguarda la regolazione economica questa richiede la necessità di tutelare la qualità e la continuità dell'erogazione agli utenti, assicurarvi quando costi più efficienti; perciò è necessaria la presenza di un corpo pubblico nel tema dell'acqua, per evitare possibili abusi da parte degli incumbent. Per evitare il più possibile dei condizionamenti politici la tariffa dell'acqua potabile è strutturata sul principio dei full cost recovery, sulla base di un algoritmo detto metodo normalizzato intertemporale: dalla stima della funzione di costo si determina la tariffa di riferimento al tempo zero che va a coprire tutti i costi, poi viene regolata sul livello di inflazione programmata. Come regolare l'erogazione di acqua potabile fra la declinazione di universalità nell'accesso al servizio che, spinge a tariffe sempre più basse al limite della gratuità, è una visione economico finanziaria per la quale i costi dovrebbero essere pienamente coperti con adeguata remunerazione del capitale investito? Specifichiamo cosa sia il SERVIZIO UNIVERSALE: insieme definito, minimo, di servizi di determinata qualità disponibili a tutti gli utenti a prescindere dalla loro posizione geografica e a un prezzo abbordabile. Bisogna capire come garantire la copertura universale, che comporta l'obbligo di fornire il servizio dell'acqua a un prezzo sostenibile; è possibile immaginare, e di conseguenza determinare, una dotazione minima definita di acqua da garantire a tutti gli utenti a un prezzo sostenibile, che secondo l'Onu è di 50 litri per abitante al giorno, utilizzata per poter soddisfare i normali fabbisogni di uso domestico; ma per intraprendere questa strada bisognerebbe derogare al principio del full cost recovery. Per la declinazione ambientale, poi, bisognerebbe dare l'acqua in eccedenza a quei 50 litri a prezzi così esorbitanti da inibire ulteriore consumo della risorsa acqua potabile; perciò risulta davvero complicato trovare un punto di equilibrio, anche a causa della necessità di stabilire ulteriori incentivi per investimenti (quindi necessità di attrarre capitali finanziari importanti), sempre più necessari sia a causa della popolazione crescente, ma anche dei consumi, oltre che per le urgenze delle politiche water saving. Si dovrebbe, qui quindi, sviluppare una nuova articolazione tariffaria su differenti voci, che comprendano anche aspetti redistributivi per soddisfare la declinazione sociale della sostenibilità. RIFIUTI Uno strumento interessante è stato applicato nel settore del ciclo dei rifiuti solidi urbani e consiste nel criterio allocativo dei costi creando una tariffa proporzionale alle quantità di rifiuti generate. Va tenuto conto che entrate e uscite da bilanciarsi finiscono, prima o poi, sul cittadino; con questa struttura tariffaria il cittadino paga in quanto: • Utente di una prestazione; side fondata su fiducia e reputazione, che va a definire un marketing pro-attivo reputazionale. Sotto questo aspetto le imprese devono utilizzare una LCA nel loro processo produttivo. Una strategia utile a fidelizzare la demand side ed evitare le fake news è quella DELL’ECO-ETICHETTA: si fonda nella comunicazione di un brand di facile ricordo nella demand side, effettuando un’analisi degli impatti ambientali di un suo prodotto in tutte le sue fasi, dalla estrazione delle materie prime alla messa in vendita e allo smaltimento del rifiuto. Se questo prodotto presenta una riduzione di danni ambientali sotto una soglia fissata viene assegnata questa etichetta ecolabel (es.: utilizzo energia elettrica verde, poco utilizzo di automobili...). Altra strategia può essere quella DELL’AUDIT AMBIENTALE: procedura che prevede la certificazione ambientale degli stabilimenti di produzione industriale. MONDO SMART E SOSTENIBILITA’ SMART: strategie che si fondano sullo sfruttamento delle economie di rete o network economies, a loro volta determinate dall’implementazione delle tecnologie I.C.T. Smartness e sostenibilità hanno obiettivi comuni e la loro interconnessione è efficace, sia sul piano comunicativo (d’impatto sul demand side management) che tecnologico (efficientamento produttivo in senso tecnico). I progetti di Smart city spesso implicano l’accento sullo sviluppo e implementazione di soluzioni SMART GRID, essendo in grado di potenziare l’autosufficienza energetica e l’efficienza sistemica. Si arriva, così, all’obiettivo Smart, Safe & Efficient solution/cities, dove: - Per SMART si intende intelligenza applicata, ovvero la capacità di estrapolazione, di ricostruzione funzionale. - Per SAFE si intende la percezione del bisogno di sicurezza, trasformandolo in domanda di sicurezza con conseguente costruzione di una risposta tecnologica e organizzativa che renda sostenibile la vita della collettività; - Per EFFICIENT si intende la minimizzazione sostenibile dell’uso delle risorse scarse. CRITERI DI SCELTA DEGLI STRUMENTI DI INTERVENTO La scelta degli strumenti costituisce un aspetto importante; questi vanno definiti e scelti tenendo conto sia della loro efficienza ma anche la loro efficacia, cioè la loro capacità di raggiungere gli obiettivi. La loro scelta dovrebbe essere effettuata sulla base di alcuni criteri:  Efficacia ambientale: capacità di raggiungere un dato obiettivo ambientale.  Efficienza economica: capacità di raggiungere un dato obiettivo al minor costo per la collettività;  Incentivi a ridurre le esternalità;  Flessibilità: ogni strumento è caratterizzato da un certo grado di flessibilità e in relazione a questo possiamo distinguere quelli diretti, che incidono in modo immediato sul comportamento dei soggetti economici e che concedono pochi o nessun grado di libertà, e quelli indiretti che incidono indirettamente sul comportamento dei soggetti economici incentivandoli a modificare il loro modo di comportarsi nei confronti dell'ambiente.  Semplicità di applicazione;  Integrazione con le politiche settoriali: le politiche ambientali devono integrarsi con le politiche settoriali che hanno un impatto sull'ambiente, come quelle energetiche, quelle dei trasporti, quella agricola, eccetera.  Accettabilità economica: la protezione dell'ambiente ha un costo al quale i soggetti economici sono sensibili e lo sono ancora di più se questo costo va ad aggiungersi ad altri.  Accettabilità politica: non tutti gli strumenti hanno lo stesso grado di accettabilità da parte dei soggetti regolamentati. Si sono sviluppati, poi, procedimenti e strumenti che possono interessare diverse fasi e non danno sempre luogo a una valutazione quantitativa della esternalità e a un'internalizzazione completa:  Accordi volontari: possono essere di due generi. - accordo formale (contratto) tra industria e governo con definizione di target e tempi che le parti devono rispettare; - accordo informale attraverso il quale l'industria virgola dopo aver consultato l'autorità pubblica, definisce degli obiettivi e si impegna a raggiungerli oltre che a rendere pubblici i risultati del suo sforzo.  Adders o monetizzazione: sono dei valori percentuali da aggiungere al costo del kW e possono essere definiti dalla legge in base al semplice giudizio, oppure sulla base di stime del costo di abbattimento.  Resource portfolio standard: che sono investimenti a basso impatto ambientale, tipicamente in FER, imposti all'industria elettrica o Energy intensive dal settore bancario assicurativo.  Allowance trading policy: e una variante dello strumento di sopra virgola che consente all'impresa che non riesca a raggiungere un certo obiettivo ambientale (es. Riduzione della CO2) di attivare strategie alternative per raggiungere questo obiettivo (es. Piantare alberi). CAPITOLO 5: VERSO UN MERCATO DEI DIRITTI E DELLE TUTELE AMBIENTALI IL TEOREMA DI COASE E LA COSTRUZIONE DI MERCATI Coase ha cercato di coniugare il perseguimento di obiettivi ambientali e sociali in un sistema economico, razionale, globalizzato e individualista. Con l'articolo del 1960 the problem of social cost, Coase muove una critica al pensiero della tradizione pigouviana; secondo lui il problema delle esternalità, se non ci sono costi di transazione, può essere risolto con successo dalla contrattazione individuale. SE sono soddisfatte tutte le solite assunzioni su cui si basa la teoria economica standard e anche quella dell'assenza di costi di transazione, allora sarebbe inutile e pericolosa la soluzione pigouviana (quindi la presenza di un soggetto esterno nel gestire il mercato) perché la contrattazione tra gli agenti economici potrebbe portare da sé ad allocazioni efficienti delle risorse; la soluzione che assicuri il beneficio sociale va trovata di volta in volta, senza affidarsi ad un algoritmo. In poche parole, secondo il suo approccio, un intervento regolatore del governo può essere potenzialmente efficiente solo nei casi in cui i costi di transazione elevati rendano impossibile la contrattazione, e questo intervento deve essere valutato di volta in volta, poiché in alcuni casi potrebbe essere preferibile un atteggiamento di lasciar fare. Le esternalità sono una diretta conseguenza dei costi di transazione e le inefficienze associati a queste possono essere tollerate solo se inferiori ai costi di un intervento. Per dare una definizione completa del teorema di Coase: se (a) i diritti sono ben definiti, (b) i mercati sono competitivi, (c) non ci sono costi di transazione, (d) gli effetti di reddito non sono rilevanti, allora si avrà un'allocazione efficiente delle risorse che non dipende dalla distribuzione iniziale dei diritti. E’ evidente che non esistono mercati senza costi di transazione, perciò non si può pensare che la contrattazione privata risolva tutti i problemi, ci sono casi in cui la presenza dello Stato è necessaria. Questo teorema è la base su cui si sono costruiti il protocollo di Kyoto e tutti gli sviluppi successivi, oltre che il Mercato dei Diritti, ovvero permessi e titoli nei quali si articolano le strategie e settori ambientali; lo scopo di questo teorema è dimostrare come il mercato possa giungere a un equilibrio sociale migliore rispetto all'intervento dello Stato o delle regolamentazioni (tasse), ma può funzionare solo quando le parti sono facilmente individuabili e gli agenti economici sono relativamente pochi o molto aggregati fra di loro. ESEMPIO: se il diritto a utilizzare l'ambiente è dato a chi inquina, coloro che subiscono l'inquinamento potrebbero pagare l'inquinatore per ridurre le emissioni. Se invece il diritto è di chi non inquina, sarà l'inquinatore a negoziare pagando una compensazione a coloro che sono danneggiati. In ogni caso occorre che ci sia un buon sistema giudiziario che controlli che i diritti siano rispettati e che siano sanzionate efficacemente le violazioni. I casi in cui i costi di transazione sono troppo elevati sono quando ci sono troppi individui coinvolti o quando non è facile individuare precisamente i responsabili dell'inquinamento. PSEUDO MERCATI DELL’AMBIENTE Sono dei mercati creati ad hoc per contrattare i diritti o i permessi di inquinamento, cioè titoli che attribuiscono specifici, limitati e chiari diritti negoziabili. L’intervento legislativo punta alla locazione di quei diritti trasformandoli in titoli contrattabili su questi appositi mercati. Es.: Se l'impresa inquinante ha diritto a operare in un certo settore in un certo modo, chi subirà gli effetti esterni negativi di questa azione dovrebbe cercare un accordo con l'impresa; viceversa se prevale il diritto di coloro che subiscono le esternalità, allora sarebbe l'impresa a dover cercare un modo per convincere questi ad accettare un certo livello di esternalità indotta. Per questo motivo, l'autorità interviene a definire uno standard, un risultato globalmente desiderato che diventa il traguardo delle imprese. Ogni impresa riceve dall'autorità (sulla base delle sue emissioni storiche) un certo numero di permessi a inquinare dopodiché ogni scambio di tali diritti o titoli è libero: chi vuole crescere dovrà quindi o acquistarne o farne a meno con innovazione di processo. ES: se un'impresa a bassi costi di aggiustamento delle proprie emissioni inquinanti allora troverà più conveniente disinquinare rispetto a utilizzare i permessi, e questi potrà venderli alle imprese che hanno costi di abbattimento più alti. Il sistema dei diritti o permessi a inquinare è piuttosto articolato e se ne possono riscontrare diversi modelli: 1. Netting: consente ad un'impresa di creare nuovi impianti produttivi a patto che le nuove emissioni siano compensate da pari riduzioni in altri impianti della stessa impresa. Lo scambio di permessi, in questo caso, è solo interno e l’impresa non può acquistarne da altre. 2. Offset: consente l'installazione di impianti generanti un impatto minore o, al massimo, uguale alla compensazione, oppure di ridurre le emissioni in impianti posizionati nella stessa area. 3. Bubbles: prevede un limite massimo di emissioni aggregate su insiemi di imprese. Riprende la logica delle “bolle anti-covid”; all’interno di queste le imprese possono aggiustare le loro emissioni nel modo che più gli è conveniente ma senza superare il limite aggregato. 4. Banking: è un meccanismo simile alle bubbles, con la differenza che lo scambio avviene nel tempo mentre nelle bubbles avvengono all’interno delle imprese. Questi mercati presentano vantaggi e svantaggi; VANTAGGI: • Consentono di controllare con certezza il livello di inquinamento; • Si possono incorporare operatori e punti di vista diversi; • Risentono solo degli stimoli di scarsità relativa. il prezzo dei permessi si aggiusta automaticamente all'inflazione e non richiede interventi esterni continui. SVANTAGGI:  La progettazione e la regolazione di un mercato dei permessi può essere compito molto complesso;  Ogni fonte di esternalità negativa dovrebbe essere accompagnata dal proprio mercato dei diritti o permessi o titoli a emettere, andando a generare un numero molto elevato di mercati dei permessi;  il costo di abbattimento e i costi delle transazioni possono essere molto elevati. IL RICORSO A STRUMENTI DI MERCATO PER L’INCENTIVAZIONE ALL’EFFICIENZA ENERGETICA Con l'adozione del protocollo di Kyoto si è visto l'introduzione di meccanismi che cercano di stimolare il mercato per perseguire gli obiettivi di politica ambientale e per ottimizzare gli investimenti necessari per il raggiungimento di questi obiettivi. Questo approccio di policy, con la sua implementazione, finisce col creare dei veri e propri mercati di titoli, ovvero i titoli negoziabili di efficienza energetica (TEE o certificati bianchi). Questi certificano il conseguimento di risparmi energetici negli usi finali di energia attraverso interventi e progetti di incremento dell’efficienza energetica. Il soggetto che detiene questi titoli può partecipare ad un mercato come, ad esempio, quello degli incentivi economici all'efficienza energetica. I TEE (o certificati bianchi) sono stati istituiti il 24 Aprile 2001, ma sono entrati ufficialmente in vigore nel 2005; sono il principale strumento di promozione dell’efficienza energetica in Italia e si basa sull’obbligo di acquisti di questi da parte di Soggetti Obbligati o Volontari. Per spingere alla realizzazione di questi progetti, sono stati previsti degli obblighi a carico dei distributori di energia elettrica e gas naturale combinati con dei benefici, offerti ai soggetti che realizzano gli interventi di riduzione e il miglioramento negli usi finali di energia. Le aziende distributrici di energia elettrica e gas possono assolvere il proprio obbligo realizzando progetti di efficienza energetica che diano diritto ai certificati bianchi, oppure acquistando questi certificati detenuti da altri soggetti sul mercato dei titoli di efficienza energetica organizzato dal GME. Esistono 3 metodi di valutazione per capire se un progetto può rilasciare un certificato bianco o no: emissione in più in possesso sul mercato in modo da poterli vendere e generare profitto su mercati ad hoc. IL MODELLO ETS E GLI EUROPEAN UNION ALLOWANCE La legislazione europea dell’ETS ha provveduto a creare dei titoli o permessi che danno il diritto al possessore di emettere GHG equivalenti al potenziale sul riscaldamento globale, chiamati EUA (european union allowance). Il rapporto di equivalenza tra i vari gas serra è predeterminato a livello legislativo. Viene fissato un tetto di emissioni calcolato e fissato dalla commissione che di conseguenza determina un certo numero di EUA disponibili nell'intero sistema. Purtroppo non c'è una vera e propria qualificazione giuridica dell’EUA; la direttiva ETS definisce per EUA il diritto di emettere una tonnellata di biossido di carbonio equivalente per un periodo determinato. Inizialmente si pensava che potessero rientrare negli strumenti finanziari, ma con la direttiva MiFID non è stato così; questa mancata identificazione delle EUA con gli strumenti finanziari ha creato un vuoto normativo, colmato con l'entrata in vigore della MiFID II, che ha permesso, però, speculazioni e comportamenti poco trasparenti. A causa di ciò, chiunque intendeva effettuare negoziazioni che avevano come oggetto quote di emissioni doveva essere in possesso di un'apposita autorizzazione da parte delle autorità competenti. Gli effetti di questa direttiva sono stati molto impattanti, soprattutto per i soggetti diversi dalle grandi banche internazionali, che fino al 2017 operavano con una forma giuridica ordinaria e con una struttura organizzativa semplificata (come le società a responsabilità limitata); dal 2018 sono stati inseriti requisiti di capitale e di dotazione patrimoniale particolarmente significativi che rappresentavano una forte barriera all'ingresso e inducevano i piccoli trader a cercare aggregazioni con soggetti simili o a cambiare attività. IL CONTENIMENTO DEI DIRITTI A INQUINARE NELL’ETS L’ETS Europeo opera secondo il principio del cap and trade, ragione per cui viene fissato un tetto massimo accettabile di emissioni degli impianti che rientrano nel sistema. Entro questo limite le imprese possono acquistare o vendere EUA in base alle loro esigenze. Alla fine di ogni anno le società devono restituire un numero di quote sufficienti a coprire le loro emissioni se non vogliono subire pesanti multe. Le principali motivazioni che hanno portato alla scelta di un sistema cap and trade sono: 1. Certezza della quantità: la definizione del cap assicura il rispetto degli obiettivi previsti; 2. Efficacia dei costi: tutte le imprese affrontano lo stesso prezzo dell’EUA, quindi il sistema garantisce che le emissioni siano ridotte dove e come è più conveniente; 3. Entrate: qualora le EUA fossero emesse col meccanismo dell'asta, allora genererebbero delle entrate; 4. Minimizzazione del rischio per i bilanci degli Stati membri: L’EU ETS offre il 50% delle emissioni comunitarie; questo riduce il rischio che gli Stati membri debbano acquistare ulteriori EUA per far fronte ai loro impegni correlati all'adesione al protocollo di Kyoto. Il funzionamento dell’ETS ha l'obiettivo di incentivare le imprese a investire nella continua riqualificazione degli impianti in chiave sostenibile. Ciò avrà successo solo se alle imprese risulterà più conveniente investire in questa direzione anziché continuare ad acquistare quote emissioni. Nella sua applicazione, l’ETS ha dovuto fronteggiare diversi problemi: quando si introdusse questo sistema le industrie ad alta intensità energetica sostenevano che per pagare le EUA avrebbero ottenuto una perdita di competitività internazionale a causa dell'aumento dei costi di produzione, in particolare nei confronti dei concorrenti che operano in paesi senza tariffe sul carbonio. Per evitare che tutte le imprese si spostassero a produrre in altri paesi (delocalizzazione) e un aumento delle emissioni nei paesi in cui non esiste alcun prezzo del carbonio, la commissione europea ha fornito la maggior parte delle EUA a titolo gratuito = metodo GRANDFATHERING: questo sistema prevede che le imprese stimino la quantità effettiva di emissioni che ritengono di produrre nel loro ciclo produttivo; una volta ricevute le quote dallo stato, nel caso in cui queste non sono sufficienti possono o acquistare (o vendere se in eccesso) ulteriori quote sul mercato o rientrare nelle quote ricevute intervenendo per abbattere il livello di emissione dei propri impianti. PRIMA FASE La prima fase viene chiamata pionieristica: andò dal 2005 al 2007 e viene considerata come triennio sperimentale; il sistema viene preparato per funzionare correttamente nella fase due, per consentire all'Unione Europea di raggiungere le obiettivi di Kyoto. Ha riguardato soltanto le emissioni di CO2 degli impianti energetici e delle industrie che facevano un uso intensivo di energia e quasi tutte le quote di emissione sono state assegnate alle imprese a titolo gratuito (grandfathering). La fase uno è riuscito a stabilire, per la prima volta, un prezzo di mercato per la CO2 delle EUA. Siccome il sistema era fresco di uso, non erano presenti stime attendibili sulle emissioni, perciò il Cap venne fissato in maniera sovradimensionata; per evitare sanzioni anche le imprese sovradimensionarono le loro emissioni, andando a richiedere quote emissione in maggioranza rispetto all’effettivo bisogno. La conseguenza fu che la quantità totale di quote assegnate eccedeva le emissioni e, dato che l'offerta superava di gran lunga la domanda, nel 2007 il prezzo delle quote è sceso a zero. La grande offerta ha permesso, inoltre, alle industrie di vendere le loro quote in eccesso sul mercato senza adottare misure di decarbonizzazione. SECONDA FASE La seconda fase andò dal 2008 al 2012: si corse ai ripari dopo il fallimento iniziale, anche perché in questa fase si valutavano i risultati concreti in termini di emissioni per la vicinanza al protocollo di Kyoto. L’ETS si allargò a tre nuovi paesi: Islanda, Liechtenstein, Norvegia. Per non fallire sugli obiettivi nella fase due il cap fu ridotto e fu basato sulle emissioni effettive; si decise di centralizzare il sistema, con l'apertura di un registro dell'unione che ha sostituito i registri nazionali. Nonostante lo sforzo i provvedimenti messi in atto anche la fase due video al suo interno un forte crollo del prezzo delle EUA. La crisi economica del 2008 portò una riduzione della produzione industriale che toccò anche ai settori Energy intensive, influenti nel sistema ETS; registrandosi minori emissioni e di conseguenza una minore domanda di quote emissioni, si registrò un loro eccesso con conseguente calo dei suoi prezzi. In queste fasi gli scambi di quote sono avvenuti medianti tre modalità differenti: • Exchange: mercato delle emissioni organizzato; • Accordi bilaterali; • transazioni mediante aste. Dal 1° gennaio 2012 si inserirono anche le emissioni del settore aviazione. TERZA FASE E IL PACCHETTO PER IL CLIMA E L’ENERGIA L’ETS è cresciuto fino a diventare il sistema più importante a livello mondiale, essendo oggi attivo in 31 paesi e non interessando più solo le emissioni di biossido di carbonio ma anche quelle di protossido di azoto. La terza fase del ETS coincide con il secondo periodo di verifica degli impegni presi con il protocollo di Kyoto, rimodellati dalla direttiva emission trading. Si è allargato il campo d'azione a più della metà delle emissioni complessive di GHG e viene fissato un tetto di crescente del numero di quote che possono essere usate. La SCARSITÀ, quindi, viene considerata una condizione necessaria perché ci sia un sostanziale incentivo alla formazione di prezzi di equilibrio significativi. Il mercato di questo sistema si allarga e vi entrano anche investitori e speculatori, che cercano di lucrare sulla differenza tra i prezzi di acquisto e vendita delle quote. In questa fase viene creato il programma NER 300: si tratta di un programma di finanziamento che mette a disposizione circa due miliardi di euro da investire in tecnologie innovative a bassa emissione di carbonio, gestito dalla banca europea per gli investimenti, dalla commissione europea e dagli Stati membri. Per finanziare lo sviluppo di queste tecnologie innovative e incentivare l'utilizzo di energie da fonti rinnovabili sono state accantonate 300 milioni di quote. Con le riforme dell’ETS entrate in vigore negli ultimi anni, il sapere della necessità di scarsità di quote di CO2 si va a creare un incentivo economico diretto affinché le imprese coinvolte dal sistema agiscano sulla riduzione delle emissioni. QUARTA FASE Nel 2017, in vista della quarta fase, si è definita la Market Stabily Reserve: nel 2018 si è rinnovato il sistema ETS per immettere nel mercato nuovi strumenti e garanzie; si sono ridefiniti gli obiettivi e gli strumenti disposti dall'unione europea per perseguire la strategia per il clima e l'energia del 2030 e l'accordo di Parigi del 2015. La direttiva ETS verrà anche modificata per raggiungere l'obiettivo di una riduzione complessiva di emissioni di GHG prevista per il 2030. CAPITOLO 6: ANALISI E VALUTAZIONI DELLE OPZIONI STRATEGICHE PROSPETTIVE DELLA SUPPLY-SIDE E DEMAND-SIDE DELLA TRANSIZIONE ENERGETICA Finora si è analizzata l’affermazione dell’economia dell’ambiente come evento di sensibilizzazione e attenzione verso gli effetti esterni delle attività antropiche: il problema del cambio climatico viene imputato solo alle emissioni di CO2 e quindi all'impiego di fonti primarie fossili. In generale, le linee d'azione di politica sono tutte orientate quasi esclusivamente a: • incentivare l'impiego di tecnologie di generazione di energia da fonti definite rinnovabili (FER); • incrementare l'efficienza energetica, sia nella generazione che negli usi. A tanti anni di distanza dalla firma del protocollo di Kyoto, i risultati della riduzione della CO2 e degli effetti collaterali non sono soddisfacenti. Dato che la preoccupazione attorno al tema dell’inquinamento cresce, si sono messe in atto politiche strategiche volte ad attenuare o circoscrivere le fonti di quelle esternalità negative. All'inizio dell'ultimo decennio l'energia prodotta da fonti rinnovabili fu vista (e tuttora lo è) come soluzione per uno sviluppo sostenibile; oggi sembra essere l'idrogeno la vera e promettente possibilità di coniugare crescita economica o way of Life evolute con garanzie di sostenibilità globale. La fase di transizione energetica verso la decarbonizzazione è diventato sia un mantra che un obiettivo. Tutti o quasi sono convinti che dopo l'effetto della pandemia COVID-19 sui consumi energetici, si aprirà una stagione di crolli degli idrocarburi e affermazione delle Green Solution. Ma basta fare l'esempio del lunedì nero del petrolio per capire che non è così; complice l'epidemia di COVID-19, il crollo della domanda di petrolio ha incrociato: 1. la scadenza dei contratti forward; 2. L'esito infelice dell'incontro fra i leader di Russia e Arabia Saudita volto a contenere l'eccesso di produzione di petrolio; 3. Le preoccupazioni per la saturazione della capacità di stoccaggio degli Stati Uniti. Tutto ciò ha abbattuto il prezzo WTI, valore di benchmark del greggio statunitense, e siccome poi le scorte sono aumentate a livelli record, molti produttori hanno visto disoccupazione e crollo degli investimenti. Gli operatori più solidi e forti, però, hanno mantenuto l'accesso o la disponibilità di stoccaggio e oggi acquistano a condizioni convenienti, stoccando il surplus in attesa di vendere nei prossimi mesi con elevato profitto. Oggi i prezzi stanno tornando a quelli pre-covid e quando la domanda di questi idrocarburi riprenderà a crescere si darà il via a speculazioni a danno dei paesi che non hanno risorse energetiche. La differenza tra il prezzo di maggio 2020 e i mesi futuri è una condizione di mercato chiamata CONTANGO, in cui i prezzi per il contratto futuro su una merce sono più alti di quanto la merce sia valutata attualmente. Per alcuni opinionisti questo segnale è solo l'inizio di una crisi del sistema petrolio, ma non è così, perché la concorrenza delle alternative rinnovabili non è pronta per il salto a soddisfare la domanda di energia globalmente in crescita e non è affrontabile economicamente per la sua definitiva affermazione. Anche se si parla poco di tutto ciò (e dovrebbe esser questo a spaventare di più), se i prezzi del petrolio caleranno ne risentiranno purtroppo tanti settori:  La competitività delle fonti alternative: come con l'idrogeno che si sostiene costi meno del petrolio quando non è così;  Il cammino e la velocità della transizione energetica;  Gli effetti settoriali che derivano dalla differenza fra le strategie delle compagnie europee e quelle americane, poiché le imprese americane restano nei loro business tradizionali mentre quelle europee sono intenzionate a ridurre gli impegni nei settori degli idrocarburi per orientarsi verso le opzioni low carbon. questo andrà a generare un buco, che potrà causare shock di prezzi e di tutto ciò potrebbero approfittarne le compagnie americane e le National oil companies. C’è il rischio che i paesi europei si ritrovino senza adeguati strumenti per contrastare una nuova crisi di approvvigionamento di idrocarburi e gli slogan volti a far credere che senza petrolio tutti ne guadagnerebbero non sono così corretti, poiché per molti anni non sarà così (basti pensare al nucleare, dove le ricerche di fonti energetiche pulite stanno tornando a evidenziarne le potenziali utilità, ma l'Italia ha già perso completamente il know how necessario). L’analisi di questa transizione energetica, però, non deve guardare solo agli usi delle fonti, ma anche alla demand-side dell’energia e della supply-side → le FER discontinue, ad esempio, creano problemi di impiego efficiente e di gestione sistemica a causa della variabilità della domanda. Ecco perché si è affermata una APPLICAZIONE ANALISI LCA NEL SETTORE AUTOMOBILISTICO LCA può essere applicato in tantissimi settori, ma lo utilizzeremo per trattare delle AUTO ELETTRICHE, soprattutto per effettuare un confronto in termini di impatto ambientale con le macchine non elettriche (endotermiche), maggiormente utilizzate. Questo per dimostrare che le auto elettriche, in realtà, non sono così green come si pensa. L'operazione della LCA comincia individuando almeno tre macroaree: la produzione dell'auto, l'uso o impiego e la fase finale di riciclo e smaltimento. Ogni veicolo non deve essere giudicato in base alle sole emissioni che produce durante l'utilizzo ma va considerato nell'intero ciclo della sua vita, partendo dalle emissioni che si generano con l'estrazione e la produzione delle materie prime, calcolando il suo consumo e inquinamento durante la guida, per finire con il suo costo di smaltimento alla fine del ciclo vitale. Ad esempio, il motore diesel di ultima generazione come risulta dai test, ha margini di miglioramento tali da portare quasi a zero le emissioni allo scarico. Cominciamo dalla FASE DI PRODUZIONE: innanzitutto, le auto elettriche vengono definite BEV (battery electric vehicle), mentre quelli a combustibile ICEV. Le BEV sono auto pesanti in chilogrammi e il peso delle batterie è notevole; a causa di questi elevati pesi delle batterie si pone subito il problema della provenienza dei materiali che occorrono a produrre questa batteria, come litio, nichel e cobalto, spesso ottenuti in condizioni non sostenibili per lavoratori e territori: basti pensare alla nuova “corsa all'oro” che vede protagonista l'Africa e i suoi nuovi schiavi. Cosa accadrà se la produzione di batterie, spinta dalla domanda di auto elettriche, aumenterà? Come sarà configurabile come sostenibile una tecnologia che fa leva su terre rare di elevatissimo impatto ambientale fin dalla loro estrazione? Quindi la produzione di BEV ha un carico ambientale maggiore rispetto a quella delle ICEV, soprattutto per l'ampio utilizzo di metalli, prodotti chimici ed energia richiesta da componenti specifici. Per quanto riguarda la sola fase produttiva, quindi, l'impatto sul riscaldamento globale e sulla salute umana è molto più importante in un'auto elettrica rispetto che a quella a combustione, a causa delle emissioni tossiche associate all'estrazione e alla produzione di metalli come rame e nichel e terre rare minerarie. Una delle principali preoccupazioni per la salute e l'inquinamento atmosferico causato dai processi ad alta intensità energetica associati all'estrazione e alla lavorazione delle materie prime. Soprattutto la domanda di grafite, materiale dall'impatto ambientale notevolissimo, è guidata e aumentata dall'espansione della domanda di lithium- ion battery, ovvero le batterie necessarie per le auto elettriche. Le miniere di grafite lavorano con bassissimi standard di sicurezza ambientali; perciò la felicità nell’acquisto di un’auto elettrica che presenta grafite finisce con incentivare le pratiche più devastanti in ottica ambientale, e siamo solo agli inizi dell'era dell'auto elettrica. La fase produttiva è quella che si rivela più dannosa per l’ambiente. Nella FASE DI UTILIZZO la BEV diventa più sostenibile della ICEV nel caso in cui il mix energetico vede una prevalenza delle FER, ma se l'energia elettrica per alimentare queste auto green proviene da combustibili fossili si crea un paradosso. Utilizzare combustibili fossili per creare l’alimentazione di una macchina che dovrebbe ridurre le emissioni e l’impatto ambientale può portare, invece, a un aumento delle emissioni di GHG; in questo caso si può ottenere una riduzione dell'inquinamento locale e le emissioni vengono spostate dalla strada dove girano le auto a aree specifiche piuttosto che ottenere una riduzione su scala globale. La differenza fra queste auto nella fase di utilizzo (e conseguente giovamento) si ottiene solo se l’energia elettrica si ottiene da fonti rinnovabili; non basta eliminare i fumi emessi dei tubi di scarico per avere dei benefici sull'ambiente, sono necessarie delle innovazioni che partano dalle radici, ossia dalla produzione di energia elettrica. Altro problema della fase d'uso è quella della velocità di ricarica della batteria: il tempo è molto lungo, si pensi che per ricaricare 50 kW occorrono 17 ore della rete domestica, e per paragonare le colonnine ai distributori autostradali ci vorrebbero all'incirca 60 postazioni di ricarica elettrica, con tempi di attesa comunque lunghi. Da qui la domanda sorge spontanea: come si reperisce tutta questa energia elettrica senza sovraccaricare il bisogno nazionale degli altri settori?! L'ultima fase è la FASE DI SMALTIMENTO E RICICLO DEI MATERIALI IMPIEGATI: se si analizza lo smaltimento delle batterie usate per la ricarica dell'auto, allora l'auto elettrica crea un peggiore impatto ambientale complessivo. Nel caso degli ICEV, lo studio riporta che durante la fase di smaltimento alluminio, rame e acciaio vengono riciclati al 100% mentre il resto dei materiali viene inviato a un impianto di incenerimento Per i BEV Il processo di smaltimento è più complesso, soprattutto per i materiali che compongono le batterie → in questo caso le batterie subiscono un processo di smantellamento e riciclo molto complesso, in cui in una prima fase vengono recuperati principalmente nickel e cobalto, mentre nella seconda fase si estrae dalle scorie prodotte durante la prima fase altri metalli. Alla fine dell'applicazione della LCA al confronto BEV vs ICEV si scopre che l'auto elettrica ha un valore di inquinamento molto vicino al moderno diesel di ultima generazione, considerando tutti i cicli, inclusi la produzione delle batterie, la ricarica e lo smaltimento delle stesse. Considerando l’entrata in vigore della normativa sulle emissioni RDE (Real Driving Emission), che è la misurazione degli inquinamenti rilasciati su test su strada, non è detto che i veicoli elettrici siano la soluzione migliore per ridurre l’impatto ambientale degli spostamenti. PROBLEMI DI GESTIONE E SOSTENIBILITA’ PER LE FER Una distinzione che va fatta in questo ambito è quella tra fonti rinnovabili “classiche”, come l'idro elettrica e la geotermica, fonti rinnovabili “nuove” (dette NewFER) che includono la fonte solare- fotovoltaica, eolica e da biomassa e fonti primarie di energia dette “alternative”, che sono in fase di sperimentazione, come l'idrogeno, idrati di metano, eccetera. Le FER possono essere classificate in fonti programmabili e fonti non programmabili, a seconda che possano essere programmate in base alle richieste di energia oppure no. Non sempre rinnovabilità coincide con sostenibilità (spesso della filiera che sostiene quell’impianto). Il decreto FER1 è stato introdotto per rilanciare l’economia sulla logica del New Green Deal, Quando si valuta una fonte di energia non ci si può fermare solo all'impatto ambientale; in questo senso può essere utilizzata la LCA, che applicata alle FER fa sorgere alcuni problemi di gestione: • a causa della scarsa e non stabile programmabilità della fonte e dei relativi processi di trasformazione; • nella sicurezza degli approvvigionamenti; • valutazione degli spillover effects su altri settori di impiego delle medesime fonti: ad esempio molti idrocarburi sono input in molti altri settori produttivi; • bilanciamento nel dispacciamento in rete. Ogni fonte presenta dei pro e dei contro, nessuna per ora sembra essere una soluzione assoluta. FONTE IDRAULICA Una delle fonti rinnovabili di energia primaria più antiche è la forza dell'acqua, sia meccanica che potenziale, ovvero la fonte idroelettrica, molto presente in Italia. Questa ha accompagnato l'industrializzazione di molti paesi che ora vedono la quota di idroelettrico sostanzialmente stabile (es. Usa, Canada...) e, soprattutto la Cina, manifesta tassi di crescita importanti dal 2000 ad oggi. La Cina in particolare ha realizzato bacini fluviali extra-ordinary, arrivando a installare una capacità generativa idroelettrica più che doppia rispetto al Canada. L'impatto ambientale delle maestose dighe ha generato sconvolgimenti ambientali locali; il mega idroelettrico ha impatti idrologici, ambientali, climatici e sociali. ES: per la realizzazione della diga cinese delle Tre Gole sono stati sommersi più di 1300 siti archeologici, 13 città, 140 paesi, ecc. e molti specie animali e vegetali sono scomparse a causa della distruzione degli habitat in cui vivono dovuto all'inquinamento delle industrie locali e dall'eccessivo traffico navale. Perciò i grandi impianti idroelettrici possono presentare rischi e determinare impatti ambientali importanti, alterando l'ambiente e l'uso del suolo. Le strutture delle centrali idroelettriche possono ostacolare la migrazione dei pesci, il funzionamento di una centrale potrebbe modificare la temperatura dell'acqua e il flusso del fiume, causando alterazione della biosfera locale ed emissioni di GHG; possono coprire le case, aree naturali, terreni agricoli, richiedere il trasferimento di persone, ecc. Oggi, questa fonte di energia, si articola su diversi impianti, come il mini-idroelettrico, le turbine dentro i fiumi In Itali, ad esempio, la diga che si trova al Lago Brasimone serve per alimentare la tratta ferroviaria Bologna- Firenze. VANTAGGI:  energia pulita che non comporta nessuna emissione nociva per l’ambiente;  bassi costi di produzione;  estremamente diffusa nel mondo; SVANTAGGI:  Vincoli ambientali che costringono questa fonte a rimanere in uno specifico territorio;  Gli impianti vanno ad influenzare flora e fauna;  Rischio di disastri ambientali. FONTE GEOTERMICA Il calore è una forma di energia e l'energia geotermica è il calore contenuto nell'interno della terra; è una FER zonale e soltanto una parte di essa può essere sfruttata. L'utilizzo di questa energia è stata limitata a quelle aree nelle quali le condizioni geologiche permettono a un vettore (che può essere acqua in fase liquida o vapore) di trasportare il calore dalle formazioni calde e profonde alla superficie o vicino ad essa, formando quelle che chiamiamo risorse geotermiche. L'unione europea attribuisce alla geotermia un valore strategico, perché potrebbe ridurre la dipendenza energetica dai combustibili fossili e attenuare le emissioni in atmosfera. Viene utilizzata per generare elettricità, impiegandola in alcune applicazioni che assicurano un risparmio di energia producendo acqua a temperature elevate; può essere usata per riscaldare serre per la floricoltura e l'orticoltura, pastorizzare il latte, per il riscaldamento di edifici, ed è in progressiva crescita. In Italia negli ultimi anni il numero degli impianti geotermoelettriche ci è rimasto immutato, nonostante la produzione elettrica da fonte geotermica sia ottimale nel benchmarking di costo complessivo. Aspetti positivi: • è una delle più genuine fonti rinnovabili esistenti • rende indipendenti dal prezzo dei combustibili; • non emette CO2; • a seconda delle zone e delle tecnologie impiegate può avere un rendimento elevato e massima economicità; • Ecc. Aspetti negativi: • le centrali geotermiche possono generare alcuni inquinanti gassosi non condensabili, come l'idrogeno solforato, ma i moderni sistemi di controllo delle emissioni e le nuove tecniche di reiniezione nel sottosuolo hanno tuttavia ridotto al minimo questo impatto. FONTE EOLICA Il sistema eolico è costituito dalla tecnologia che consente a delle pale di intercettare la spinta del vento per arrivare a generare energia elettrica e di farla affluire correttamente e senza squilibri nella rete di trasmissione nazionale. E’ una fonte di energia non programmabile. Oggi gli investimenti in impianti di generazione di energia elettrica da fonte eolica sono arrivati a rappresentare più della metà della nuova potenza installata nel 2016 in Europa. Il Global Wind Energy Council pubblicò il GWE Outlook nel 2016 descrivendo come l'eolico potrebbe fornire circa il 20% dell’elettricità mondiale entro il 2030, riducendo al contempo le emissioni di CO2. Grazie alle diminuzioni nei prezzi per produzione, installazione e manutenzione delle rinnovabili, la GWEC stima che la decarbonizzazione della produzione di energia non sia più solamente tecnicamente raggiungibile, ma anche economicamente sostenibile e competitiva. In Italia si osservano buone performance dei grandi impianti eolici. Aspetti positivi: • Reperibilità in diverse aree; • gratuito e possibilità di godere di una certa prevedibilità generativa; • durata dei device necessari: sono fra i più semplici da smantellare e da riciclare nel mondo delle fere e la vita utile di una turbina potrebbe arrivare anche a 20 anni. Aspetti negativi: • inquinamento visivo e acustico specialmente nelle aree che vivono di turismo o densamente popolate. IMPIEGO DI BIOMASSA Si parla di tutta la componente organica dei rifiuti o byproduct. Anche questa è una fonte storica di energia; il legno ne rappresenta la storia. All'interno di questa categoria troviamo, ad esempio, i residui agricoli e agro industriali, le culture zuccherino amidacee, biomasse forestali e legna da ardere, biocarburanti, ecc. Sono una Altro esempio: la California ha dovuto mettere in atto una serie di black out programmati togliendo l'elettricità a milioni di utenti per far fronte a un'ondata record di caldo dell'estate 2020 che ha spinto la capacità del suo sistema elettrico al limite. questo perché non c'è sufficiente energia elettrica per coprire tutti i consumi della popolazione. L’IMPATTO DELL’ECCESSO DI CAPACITA’ GENERATIVA FTV L'elevata capacità fotovoltaica installata ha determinato una serie di problemi che non sempre vengono menzionati dai giornali, come quello dello sfruttamento di aree verdi, agricole, per l'installazione di grandi centrali fotovoltaiche. Ciò renderebbe una FER rinnovabile solo come fonte primaria impiegata, ma non sostenibile sul piano ambientale se si esaminasse l'intera filiera produttiva. Con i grandi incentivi e il deprezzamento del grano, molti agricoltori hanno cessato la propria attività e ceduto il proprio terreno per costruire impianti FTV. Altro problema che va gestito con il fotovoltaico è la OVER GENERATION: è un’inefficienza del sistema causata dall'eccessiva installazione di impianti fotovoltaici che generano in maniera discontinua in determinati momenti un eccesso di energia elettrica rispetto a quella che può essere utilizzata contemporaneamente. Ci sono due soluzioni: l'incentivazione del l'autoconsumo (si intende la possibilità di utilizzare l’energia nel luogo stesso di produzione al posto che dispacciarla nel sistema) e la sperimentazione dell'elettrolisi per ottenere idrogeno, alimentando il processo con l'energia fotovoltaica in eccesso, aprendo così la strada al cosiddetto green hydrogen. CAPITOLO 7: THE DARK SIDE OF THE SUN L’ALTRA FACCIA DELLE FER E DELLE SMART SOLUTIONS Nonostante tutti gli aspetti positivi decantati dai relatori teatrali per un radioso sviluppo sostenibile per tutta l'umanità utilizzando FER e smart solution, ci sono aspetti più oscuri che riguardano tutto quello che serve a realizzare quella transizione e quali impatti tutto ciò ha già prodotto è sempre più produrrà. Non si è svelato ancora il dietro le quinte e si prevede che la diffusione delle tecnologie che fanno parte delle smart and green high tech solution, considerate necessarie per un futuro sostenibile, porterà a una crescita enorme della domanda di un'ampia gamma di minerali e metalli. Qualche crepa sulla convinzione di prima dovrebbe derivare dagli effetti del lockdown legati al COVID-19, quando non si è ottenuto comunque un impatto positivo sull'effetto serra. Se osserviamo un aspetto macro, la nostra struttura interna della domanda aggregata mondiale è molto cambiata, dato che le nostre way of life sono caratterizzate dalla continua interconnessione, grazie alla diffusione di Internet e ai nostri smartphone sempre più all'avanguardia. Ciò ha: - da un lato, ha indotto strategie di policy volte a catturare il consenso; - Dall’altro, ha goduto e sempre più godrà di una straordinaria mole di contributi, incentivi e sussidi pubblici, oltre che vantaggi non economici che hanno scombussolato il sistema dei costi relativi e dei prezzi opportunità. Tutti questi interventi pubblici, fondati sull'estrazione di risorse finanziarie sui contribuenti con la forza della legge, sono arrivati a inchiodare la gran parte dei paesi sviluppati, per perseguire le traiettorie di sviluppo high tech impostando un “dentro o fuori” nei paesi democratici a causa di obiettivi stringenti per le decadi future. Stessa cosa per auto elettriche, ICT device, impianti FER in rete, eccetera. Non viene mostrato cosa c’è dietro alle tecnologie verdi. 1. Questa nuova rivoluzione industriale si fonda su una serie di elementi, ad esempio i metalli rari (ma non solo), che per caratteristiche fisico chimiche e collocazione geografica non possono essere considerati una risorsa universalmente accessibile e sostenibile. Le fonti rinnovabili come sole, vento, biomasse, geotermia, eccetera offrono un potenziale che in linea di massima è inesauribile, ma sono limitate dalla disponibilità tecnologica e natura intermittente che, nel caso delle due fonti principali (sole e vento), non consente una generazione elettrica costante e programmata come avviene invece con le fonti fossili. Per superare questa difficoltà sono necessari accumuli importanti sia di natura idroelettrica (impianti di pompaggio) chi elettrochimica (batterie), ovvero altra tecnologia elevato impatto ambientale e sociale. 2. Bisogna studiare e valutare bene gli impatti negativi e gli effetti dell’estrazione, manipolazione, lavorazione, assemblaggio e trasporto di tutte le filiere degli input necessari. Quando si parla di limiti delle rinnovabili non si parla solo del loro potenziale energetico ma anche dello stato di avanzamento tecnologico e della disponibilità degli elementi necessari al loro impiego, calcolando la durata di vita delle riserve redditizie dei principali metalli necessari per realizzare la transizione energetica. 3. Bisogna capire e valutare quali costi economici energetici ambientali e geopolitici saranno necessari per questi metalli. Questi sono potenzialmente esauribili e le riserve e la distribuzione geografica hanno gli stessi problemi delle fonti fossili. Anche se la mappa mondiale della distribuzione delle terre rare dei metalli e minerali necessari sembri più o meno omogenea, il diavolo si nasconde nei particolari: negli scorsi decenni l'estrazione di quelle risorse minerarie avveniva in loco e la loro lavorazione stoccaggio erano perlopiù effettuati dalle aziende occidentali (Usa e Francia su tutti). La rivoluzione high tech and green, pur godendo di elevati sussidi, ha sempre bisogno di risorse della finanza pubblica sempre più scarse e anche di costi complessi. Per i crescenti costi d'estrazione e per l'insostenibile impatto ambientale in loco causato dalla contaminazione dei siti occidentali legata a quelle filiere, si è assistito a una delocalizzazione delle industrie inquinanti. Questo causò il monopolio delle terre rare in mano ai complessi minerari di Mountain Pass e La Rochelle, oltre che cedere la leadership sugli input del sistema smart and green. Cile, Perù e Bolivia hanno fornitura di rame e litio; il Brasile è un fornitore chiave di minerale di ferro e bauxite; L'Africa meridionale e la Guinea soddisferanno la crescente domanda di platino, manganese; L'India è dominante in ferro acciaio e Titano, eccetera, ma sarà la Cina che continuerà a svolgere un ruolo di leader assoluto nella produzione e nei livelli di riserva di tutti questi metalli chiave. Si verranno a creare, per forza di cose, sfide ambientali e sociali per le estrazioni minerarie vanificando gli sforzi e le politiche per soddisfare gli obiettivi e gli impegni nazionali in materia di cambiamento climatici e di sviluppo sostenibile. Tutto questo e la faccia oscura della transizione energetica verso il futuro sostenibile. LE TERRE RARE Non molti sanno che la transizione energetica e digitale nasconde una dipendenza nata nei decenni scorsi: tutte le tecnologie green e tutti i settori più strategici dell'economia high tech hanno necessariamente bisogno di metalli o terre rari, materie prime contenute nelle rocce terrestri in proporzioni assai ridotte. Sono una famiglia di elementi dotati di proprietà fondamentali e che in natura si trovano perlopiù associati ad altri metalli abbastanza abbondanti, ma in quantità ridotte, ad esempio germanio, tungsteno cobalto berillio, gallio e altri. Si potrebbe arrivare ad affermare che il nostro capitalismo sarà sempre meno fondato sugli idrocarburi e sempre più sui metalli della transizione green in fase di definitiva diffusione. Hanno immense implicazioni ambientali e geopolitiche, che addirittura nascondono quelle della transizione energetica e digitale, a iniziare dall'esercizio della leadership commerciale mondiale cinese. Queste terre rare formano una lista di 17 elementi, che includono la famiglia dei lantanoidi, (come l’ittrio e lo scandio), molto importanti in tante applicazioni, dagli schermi led ai sistemi di armamento militare. Questi sono più difficili da estrarre rispetto agli altri metalli perché vengono in associazione con minerali radioattivi e le procedure per la loro sanificazione e purificazione implicano un elevato utilizzo di prodotti chimici inquinanti che poi dovranno comunque essere smaltiti. Le terre rare si trovano e si trattano nelle aree più povere del pianeta nella più totale assenza di norme a tutele della sicurezza ambientale e della salute umana, e per questo motivo le principali economie avanzate delegano questo compito ai paesi in via di sviluppo. Il termine “rare” non si riferisce solo alla scarsità ma anche alla loro difficoltà di raccolta ed estrazione. La Cina che controlla de facto la rete di estrazione e vendita di terre rare nel mondo; i primi segnali di affermazione della leadership cinese si ebbero con l'evoluzione dell'industria dei magneti: inizialmente erano le industrie giapponesi a dominarne la produzione e il know how tecnologico, ma quando la Cina offrì costi di produzione nettamente più competitivi il Giappone, gli USA e l'Europa non esitarono a trasferirne la produzione e i loro segreti industriali. Oggi è la geopolitica delle terre rare a rappresentare un rischio conflittuale del prossimo futuro, dove si vede la Cina in una posizione di prevalenza assoluta (con il controllo di quote che superano il 50% per i minerali rari e il 95% per le terre rare). C'è anche un gruppo crescente di paesi in via di sviluppo in Asia, Africa e America Latina che detiene o è alla ricerca del nuovo petrolio, mettendo le nazioni occidentali in una posizione commerciale sempre più vulnerabile. Non tranquillizza il fatto che le 5 principali compagnie di estrazione mineraria di terre rare in Cina condividano, in una sorta di cartello oligopolistico, anche le strategie di prezzo. Utilizzando la metodologia analitica della LCA si cerca di capire quale siano gli impatti ambientali e sociali legati all’estrazione e utilizzo di questi materiali; l'esempio lo troviamo nel lago artificiale di Baotou in Mongolia, il cosiddetto lago nero. E’ considerato il più tossico e pericoloso del mondo perché ospita dozzine di tubi che riversano al suo interno tutti i rifiuti chimici densi e neri provenienti dalle raffinerie circostanti di materiale necessario per la filiera dell’high tech, ed è in continua espansione a causa del continuo riversarvi di scarti tossici. Anche lo sfruttamento intensivo delle miniere della Cina ha costi ambientali e sanitari spaventosi, che però le hanno permesso di effettuare un'ascesa economica; questi costi sono molto elevati perché il processo di raffinazione dei metalli rari richiede l'utilizzo di sostante chimiche, reagenti e molte quantità d'acqua, con conseguente inquinamento del suolo, dei corsi d'acqua e dell'atmosfera circostante, oltre che a un aumento esponenziale dei casi di cancro registrati nelle prossimità di questi giacimenti. Tutto ciò avviene in tutti i paesi estrattori e produttori di questi elementi essenziali, che sono esposti ai medesimi rischi legati all'attività estrattiva. Perciò, allargando lo sguardo, si può notare che è l'intera filiera produttiva dei metalli rari e il ciclo di vita delle tecnologie verdi che rivela il lato oscuro della rivoluzione green tech. LE ALTRE RISORSE MINERARIE NECESSARIE Nelle tecnologie high tech, non vengono utilizzate solo terre rare: c'è bisogno anche di una notevole quantità di altre risorse e di prodotti chimici che non possono essere trascurati, sia per gli impatti negativi sull'ambiente sia sulla salute umana. La domanda di queste risorse sta aumentando esponenzialmente, collegata all'aumentare della domanda di prodotti high tech; i materiali maggiormente richiesti sono: ❖ Gallio: è un sottoprodotto della produzione di alluminio e viene recuperato tramite il processo di elettrolisi ad alta intensità energetica da fonte fossile. La leadership di questo materiale è della Cina ed è un componente essenziale di molte applicazioni per l'adozione delle reti 5G. ❖ Indio: è un metallo raro ottenuto come sottoprodotto della lavorazione di piombo e zinco, presente soprattutto nelle miniere di Cina e Giappone. È indispensabile per produrre gli schermi LCD, i display sensibili al tatto dei cellulari e alcune celle fotovoltaiche a film sottile. ❖ Selenio: è un sottoprodotto delle raffinerie di rame o della fanghiglia delle camere al piombo; è utilizzato principalmente nelle tecnologie fotovoltaiche e Canada, USA, Bolivia e Russia sono i principali paesi produttori. ❖ Cadmio: è un elemento piuttosto raro in natura ottenuto esclusivamente come sottoprodotto della fusione dello zinco. è molto tossico e usato come protettivo nei rivestimenti dell'acciaio, oltre che nelle batterie e nei componenti elettronici. Usa, Giappone, Belgio e Germania sono i principali paesi produttori. ❖ Rame: è un metallo caratterizzato da un'elevata conducibilità termica ed elettrica ed è utilizzato principalmente per materiale elettrico. Cile, Perù, Cina, usa e Congo (ma anche Italia) ospitano le principali miniere. Sono elementi fondamentali per la creazione dei nuovi moduli a fili sottili con semiconduttori. Agli elementi di cui sopra, si aggiungono altre sostanze chimiche pericolose ma necessarie per la produzione delle celle fotovoltaiche di seconda generazione → queste sono celle che presentano moduli fatti con film sottili di materiali semiconduttori micro cristallini depositati in strati su lamine di supporto. Per questi prodotti si è messo a punto un processo industriale quasi completamente automatizzato, che può portare a ridurre fortemente i costi di produzione. Questo permette di ottenere un'efficienza dei moduli un po’ più bassa di quella di prima generazione, ma esistono molti dubbi di tipo ecologico sulla possibilità di diffondere questi impianti su larga scala, perché tutti i materiali necessari presentano caratteristiche di alta tossicità.  Esistono opzioni per de-carbonizzare la rete del gas consentendo la possibilità di sfruttarla in modo Environmental friendly: metano di derivazione biologica, metano sintetico e idrogeno a basso tenore di carbonio. Con l'innovazione tecnologica si presentano nuove prospettive di impiego sostenibile di questo gas, rendendo possibile quella che oggi viene definita over supply: 1. Il decoupling sistematico e il coupling energetico intersettoriale; 2. La cattura della CO2; 3. lo sfruttamento degli idrati di metano a cui associare lo stoccaggio della CO2; 4. l'impiego di miscele di gas rinnovabili, come bio-metano e idrogeno; 5. lo sfruttamento delle reti di trasporto del gas naturale per veicolare anche l'idrogeno. DECOUPLING E COUPLING Le strategie di decoupling hanno l'obiettivo di dissociare, disaccoppiare, la crescita economica e il consumo finale di energia; le strategie di coupling hanno l'obiettivo di massimizzare l'efficienza energetica e le sinergie del mix energetico e degli impieghi energetici. Alla fine del 2019 il decoupling energetico era già in atto, grazie alle diffuse innovazioni tecnologiche nell'efficienza energetica del sistema, al trasferimento delle attività manifatturiere più impattanti sull’ambiente dall'occidente all'oriente e con un passaggio dall'industria ai servizi. Con il sector coupling si intende la diffusione di device e tecnologie con alimentazione elettrica che vanno ad ottimizzare le modalità di generazione, di trasporto e di stoccaggio, per integrare con la massima efficienza ed efficacia tutti i settori che necessitano più energia, come elettricità, riscaldamento e mobilità. Detta anche “elettrificazione diffusa”, potrebbe dare un enorme contributo al raggiungimento degli obiettivi di transizione verso un sistema a basse emissioni di carbonio. CATTURA DELLA CO2 Se non avessimo il problema della CO2 nessuno consiglierebbe l’abbandono degli idrocarburi; in quest’ottica, la ricerca tecnologica deve proporre soluzioni efficaci ed efficienti e diffondibili. Oggi questa ricerca tecnologica consiste nello stoccaggio geologico della CO2 liquida ottenuta dalla cattura delle emissioni di centrale elettriche a combustibili fossili tramite l'iniezione in formazioni geologiche profonde, permettendo l’uso di combustibili fossili con emissioni molto più basse, Questa attività, la Carbon Capture And Storage (CCS), potrà contribuire a mitigare i cambiamenti climatici. La commissione europea, infatti, si è posta l'obiettivo di facilitare la realizzazione di impianti termoelettrici dotati di tecnologie di CCS geologico della CO due. L’utilizzo di queste tecniche è di fondamentale importanza, poiché diversi studi sull'evoluzione del clima evidenziano il fatto che sarà molto difficile limitare surriscaldamento medio terrestre a 2 ° entro la fine del secolo, senza impiegare su vasta scala una serie di tecnologie; Si compone di tre fasi: cattura, trasporto e stoccaggio; oggi queste fasi vengono applicate in maniera dislocate nelle industrie perché l'applicazione congiunta è ancora troppo penalizzante in termini energetici ed economici. Ci sono tre metodi per la cattura della CO 2: 1. post combustion: prevede della cattura dell'anidride carbonica dai gas combusti al termine del ciclo; 2. oxi combustion: il carbone viene immesso in forma polverizzata nella caldaia bruciando con ossigeno. In questo modo si aumenta la concentrazione di CO due nei gas combusti rendendone meno difficile la cattura. 3. Pre combustion: consiste nel catturare la CO due prima della combustione. Oggi però rimane ancora un'impresa molto costosa e complessa; negli ultimi anni, poi, le aspettative sono peggiorate anche in ragione del prezzo troppo basso dei diritti a inquinare, in ragione del fallimento della strategia fondata sul mercato ETS. Il fallimento della CCS è stato proclamato anche dalla Corte dei Conti. Tuttavia, l’IEA ha definito la CCS come una parte essenziale delle tecnologie capaci di ridurre le emissioni di gas GHG; con politiche mirate e riformate si potrebbe contribuire all'abbattimento di circa 1/5 del totale delle emissioni da ridurre entro il 2050. E’, inoltre, una tecnologia necessaria per raggiungere gli obiettivi che si sono sottoscritti negli accordi di Parigi, giocando un ruolo critico soprattutto su impianti industriali coprendo circa il 50% del totale delle emissioni e per alcune industrie è l'unica vera soluzione ricorribile. In attesa che le tecnologie per l'idrogeno green a basso costo siano sviluppate, la CCS è oggi la soluzione più economica per produrre idrogeno da gas naturale. Con questa metodologia si può intervenire anche sulle centrali a carbone, specialmente su quelle di nuova generazione che manifestano un alto livello di efficienza energetica, perché riducendo le emissioni potrebbero continuare ad essere utilizzate. Si dovrebbe investire principalmente in: • Tecniche e processi innovativi che migliorino l'efficienza energetica minimizzando all'origine le emissioni inquinanti per ogni unità di output; • Su sistemi più sofisticati di trattamento dei fumi. Le tecnologie sviluppate per permettere un uso continuo e sostenibile delle centrali a carbone sono:  Tecnica “a letto fluido” e consiste nel bruciare il carbone insieme a una miscela di sali che assorbono le ceneri e parte dei gas nocivi, liberando in questo modo una minore quantità di gas inquinanti;  “gassificazione sotterranea” e comporta l'iniezione nei giacimenti di aria e vapore acqueo fino a provocare la combustione parziale del carbone. Da questa tecnica si può ottenere anche idrogeno che può essere utilizzato per produrre energia a emissioni zero;  “co-firing” e consiste nel bruciare insieme al carbone le biomasse e rifiuti. IDRATI DI METANO La possibilità di sfruttare i giacimenti di idrati di metano, derivanti da accumuli organici antichi, nel fondale marino rappresenta la grande riserva di energia per l'umanità; captarli e impiegarli è sempre meglio che lasciare di questi si disciolgono nell'aria naturalmente, poiché quel metano è un potente GHG che potrebbe persino accelerare il cambiamento climatico. Si trovano in presenza di acqua a pressioni elevate e a temperature relativamente basse, come sotto il permafrost e quando vengono portati in superficie rilasciano gas naturale. Una tecnica con prospettive di neutralità ambientale è lo sfruttamento degli idrati di metano con conseguente cattura e iniezione della CO2 in cristalli stabili all’interno delle riserve di idrati, cogliendo in un unico processo 2 obiettivi: estrazione di quantità enormi di metano e stoccaggio della CO2. Lo sfruttamento delle riserve, con la sostituzione metano- biossido di carbonio, potrebbe ridurre ogni impatto negativo sulla stabilità del fondo marino e sulle comunità microbiche autoctone, diventando una svolta nella ricerca sulla cattura e stoccaggio di carbonio. Aggiungendo la possibilità di costruire device innovativi per effettuare su larga scala questa sostituzione si risolverebbe un altro enorme problema: gli effetti dello scioglimento del permafrost, ovvero quel suolo artico perennemente ghiacciato accumulatosi nel corso di migliaia di anni, che è denso di carbonio antico e di sostanze gassose che compongono i GHG, fra i quali lo stesso metano. Questo artico compone tutta la terra, diventando poi fiumi, laghi, ruscelli e stagni; sciogliendosi a causa del riscaldamento globale, si liberano nell’aria emissioni di GHG. BIOGAS Il biogas è una delle fonti alternative più utilizzate per la produzione di energia rinnovabile; possono essere ottenuti con:  Respirazione anaerobica (no ossigeno): è caratterizzato da uno stadio di metano che subentra nel momento in cui non c'è più ossigeno e che produce anidride carbonica e metano. I materiali utilizzati in questo processo sono sostanze di origine organica.  Respirazione aerobica dai materiali fermentati quali letami, scarti biologici, ecc. Permette un aumento della mineralizzazione e conseguente formazione di anidride carbonica e acqua. Tra i biogas il biometano è quello più vantaggioso da un punto di vista energetico e può essere utilizzato come combustibile per i veicoli a motore; è ottenuto tramite un processo di upgrading (raffinazione e purificazione). E’ vantaggioso come combustibile perché contribuisce alla diminuzione della produzione di gas serra e può essere trasportato e stoccato. La maggior fonte produttiva di materiale per biogas sono le discariche di rifiuti urbani; la miscela di biogas generata possiede un alto potere calorifero e può essere convertito in elettricità e calore grazie a un cogeneratore, mentre residuo della fermentazione (il digestato) viene utilizzato come fertilizzante naturale nelle coltivazioni. Il vantaggio principale con l'utilizzo di biogas è quello di evitare una produzione di anidride carbonica nuova; l'anidride carbonica prodotta durante la combustione del biogas è la stessa CO2 fissata dalle piante o assunta dagli animali in maniera indiretta e si riducono anche le emissioni di gas metano che derivano dalle carcasse di animali decomposte. Tuttavia ci sono anche alcune problematiche: • è necessario molto terreno, quindi c'è bisogno di una regolamentazione sull'utilizzo del territorio nazionale; • i liquami utilizzati emanano cattivi odori, pertanto necessario creare i vasti impianti sufficientemente lontani dai centri abitati; • se l'impianto è lontano saranno necessari mezzi adeguati sia per il trasporto di materie prime, sia per il trasporto dei prodotti e un elevato traffico comporta elevate emissioni di anidride carbonica. Nell'ottica della lotta ai cambiamenti climatici il biogas viene indicato dalle istituzioni internazionali come una delle principali risorse che può garantire l'autonomia energetica e la riduzione graduale dell'attuale stato di inquinamento dell'aria e dell'effetto serra. Non rientra nel pagamento dell’accisa perché è ambientalmente neutro. CAPITOLO 9: RISCOPERTA E RILANCIO DELL’IDROGENO L'idrogeno si trova libero nelle emanazioni vulcaniche, nelle sorgenti petrolifere, ecc. È particolarmente abbondante allo stato combinato: con l'ossigeno è presente nell'acqua, combinato con carbonio, ossigeno e alcuni altri elementi e uno dei principali costituenti del mondo vegetale e animale, l'organismo umano ne contiene circa il 10% del suo peso. È leggerissimo: allo stato elementare e introvabile sul nostro pianeta poiché l'attrazione gravitazionale terrestre è insufficiente a trattenere quelle molecole così leggere. L'esistenza dell'idrogeno è nota da secoli, ma la sua vera natura comincia a emergere intorno al 16° secolo quando Paracelso descrisse un gas infiammabile. L'impiego dell'idrogeno per produrre energia è un'idea antica; come il metano è infiammabile e incolore ma a differenza di questo è biologicamente inerte e brucia senza emissioni. A temperatura ambiente è un gas incolore, inodore e praticamente insolubile in acqua ma la sua infiammabilità è ancora un grande problema. Viene usato come materia prima in un gran numero di operazioni chimiche dove la più importante è la sintesi dell'ammoniaca. L’interessa all’idrogeno come fonte di energia avviene nel 1970 durante la prima crisi petrolifera; diversi studiosi cominciarono a considerare il ruolo fondamentale che l’idrogeno avrebbe potuto avere in campo energetico; esso poteva essere prodotto con l'impiego di energia elettrica tramite elettrolisi, ed essere quindi immagazzinato e trasportato in diversi modi. All’epoca non ci si soffermò su un sistema energetico a base di idrogeno perché non si dava ancora importanza alle problematiche ambientali, le fonti di energia primaria non mancavano (idrocarburi) e il suo utilizzo intensivo poteva venire solo se l'energia aveva un basso costo. Essendo un derivato di complesse trasformazioni di elementi e sorgenti energetiche può essere definito come GENERATORE di energia e VETTORE energetico. Questa sua dualità lo rendono perfetto per raggiungere gli obiettivi del prossimo futuro: 1. sviluppo e utilizzo di sistemi produttivi che permettano di essere indipendenti energeticamente da fonti fossili; 2. sviluppi applicativi nel downstream della filiera energetica, nei consumi e impieghi finali come ad esempio per riscaldamento e mobilità. Da molti punti di vista l'idrogeno rappresenta il combustibile ideale: • è l'elemento più leggero e abbondante in natura, quindi non ci sarebbe il problema della scarsità; • è un combustibile efficiente che non produce emissioni se generato in modo sostenibile e utilizzato in una cella a combustibile (Fuel Cells FC); • non è un gas serra, non è tossico, è stoccabile e presenta un'altra densità energetica; • Può rappresentare l'unico combustibile alternativo in grado di ridurre la dipendenza dagli idrocarburi e far diminuire l'effetto serra al causato dalle emissioni; LA PRODUZIONE DELL’IDROGENO L’idrogeno è molto abbondante sotto forma di composti organici dai quali non è facile dissociarlo, sia inorganici come il metano o l'acqua da cui può essere separato. Nel 1969 si cercava già di capire come e strutturali: l'impiego dell'idrogeno richiede processi produttivi complessi, che sono difficilmente comprensibili dagli elettori, che invece si impressionano facilmente per quel poco di inefficiente energia creata dai raggi del sole. Sembrerebbe, però, che oggi si sia andando verso soluzioni sistemiche. Oggi l'idrogeno viene utilizzato sia negli impieghi industriali di trasformazione dei prodotti ma anche come vettore energetico. Viene impiegato maggiormente nell’industria chimica, per produrre ammoniaca, alcol metilico, concimi, prodotti petroliferi ma anche nell'industria metallurgica per il trattamento dei metalli, ma anche come fonte di energia nei piccoli impianti che servono al settore petrolchimico. Dal punto di vista climatico l'idrogeno più interessante è quello verde, ottenuto dall’elettrolisi dell'acqua azionata da impianti a FER nonostante le molte incertezze circa questa modalità. È anche un ottimo combustibile e può essere utilizzato come vettore energetico per trasformare l'energia in due modi: il primo metodo consiste nel bruciare l'idrogeno solo, oppure in combinazione ad altri combustibili; il secondo metodo consiste nel far reagire l'idrogeno in modo chimico con l'ossigeno, ottenendo direttamente energia elettrica attraverso la Fuel Cell. La tecnologia delle Fuel Cells gioca un ruolo chiave per l'utilizzo dell'idrogeno, perché a differenza delle tecnologie di combustione che bruciano carburante, in queste avviene un processo chimico per convertire il combustibile ricco di idrogeno in elettricità. Alcune conclusioni: • L'idrogeno potrebbe diventare un fattore determinante per la decarbonizzazione di alcuni settori industriali a elevata intensità energetica; • L'idrogeno verde potrebbe diventare competitivo nel lungo periodo, precisamente dopo il 2040. Prima di allora il suo costo di produzione sarà maggiore rispetto a quello dell'idrogeno grigio e blu; • L'idrogeno blu, decarbonizzato al 90%, è più costoso di quello grigio a causa dei costi di stoccaggio della CO2 (non comunque superiori al 50%) perciò è e sarà ancora più competitivo di quello verde almeno fino al 2040 in tutta l'Europa; • Sarebbe strategico per l’Europa e per il nostro paese porre in primo piano gli investimenti per lo sviluppo dell’industria dell’idrogeno blu o decarbonizzato, per l’importanza della neutralità ambientale. Soprattutto in Italia, si avrebbero costi di produzione più contenuti grazie alle ottime competenze del settore oil&gas. Le Fuel Cell hanno il vantaggio di non dover essere ricaricate periodicamente e funzionano tramite un serbatoio che contiene idrogeno allo stato liquido. Prendendo in esempio l’auto elettrica, si ha bisogno di trasformare l’energia contenuta intrinsecamente nell’idrogeno in energia elettrica e ciò può avvenire con le Fuel Cells; si tratta di un processo di elettrolisi inversa. Al posto di partire dall’acqua per ricavare idrogeno e ossigeno si parte direttamente dall’idrogeno che, combinandosi con ossigeno presente dell’aria e ambiente, va a formare energia elettrica, con vapore acqueo come scarto di emissione. Non tutta l’energia chimica iniziale viene trasformata in elettricità e quindi otterremo anche del calore. In linea generale, sono dispositivi costituiti da due piastre, chiamate elettrodi, poste una sopra l’altra con nel mezzo un materiale detto elettrolita. L’idrogeno, o altro combustibile ricco di questo, viene fatto passare tra questi elementi e il risultato è la produzione di energia elettrica e acqua. L’utilizzo di queste celle per impiegare idrogeno può essere una soluzione tecnologica ideale per concretizzare il sogno dell’ambientalista: diffondere la realizzazione di sistemi energetici basati sull'idrogeno e costruzione di impianti per la produzione di energia tramite idrogeno prodotto da elettrolisi dell'acqua marina. La combustione di idrogeno non presenta particolari problemi e dà luogo emissioni molto meno inquinanti rispetto ad altri combustibili. Qualsiasi combustibile miscelato con l'idrogeno migliora la combustione e il suo rendimento. Aggiungendo appena il 5% di idrogeno alla miscela aria/ benzina in un motore a combustione interna si possono ridurre le emissioni di ossido di azoto del 30%- 40%. La parte più problematica riguarda: 1. Bilanciamento della rete elettrica: le reti nazionali, dal momento in cui vengono introdotti ad esempio i sistemi fotovoltaici, hanno sempre più bisogno di un sostegno per la loro discontinuità. Gli elettrolizzatori, grazie alla loro grande velocità di risposta, possono avere la doppia funzione di assorbire carichi in eccesso e nel frattempo produrre idrogeno, sia per uso industriale che per generare nuova potenza elettrica in momenti di maggiore bisogno. 2. Settore dei trasporti: Nonostante la difficoltà di stoccaggio, la mancata disponibilità di energia a basso costo e vicinanza agli utilizzatori finali, dopo decenni si cominciano a intravedere alcune soluzioni. Il trasporto marittimo, ad esempio è uno dei grandi settori difficile da decarbonizzare, ma che si potrebbe adattare molto bene all'utilizzo di idrogeno, come anche i trasporti collettivi dove l'elettrificazione è più difficile ma con l'affinamento e la diffusione a condizioni economicamente sostenibili delle Fuel Cell si potrà effettivamente implementare la mobilità sostenibile. Negli Stati Uniti è stato sperimentato l'utilizzo di metano con l'aggiunta del 15% in peso di idrogeno, definito commercialmente Hythane o idrometano. Questa miscela è utilizzata anche come carburante nei motori a combustione interna per i vari mezzi di trasporto e ha il vantaggio di una più rapida iniezione dal momento che l'idrogeno provoca l'accelerazione della fiamma portando una più completa combustione → come per ogni combustibile anche per l'idrogeno si pone la questione della sicurezza; altro obiettivo fondamentale dei piani di ricerca sugli impieghi dell'idrogeno è la definizione di una serie di norme e standard per un impiego sicuro, oltre il gruppo di affidabili ed economici sistemi di rilevamento di eventi fuga attuali dello stesso, ad esempio tramite l'introduzione di sensori e fibra ottica o costituiti da sottili membrane. TRATTAMENTO, STOCCAGGIO E TRASPORTO DELL’IDROGENO: IL RUOLO CRUCIALE DELLE INFRASTRUTTURE Lo sviluppo dell'idrogeno su larga scala richiede, però, una forte concentrazione sulla realizzazione di quel sistema a rete di impianti, interconnessioni e device tecnologici essenziali. Dopo l'estrazione o produzione dell'idrogeno sono necessari ulteriori processi di purificazione; se l'idrogeno fosse grigio o blu, ovvero prodotto con reforming, ossidazione parziale o processi di pirolisi, le sostanze estranee possono essere rimosse direttamente al momento della produzione. Come sostiene l’IEA l'idrogeno potrebbe essere usato efficacemente per lo stoccaggio di energia attenuando i problemi di discontinuità delle FER costituendo una svolta tecnologica nell'impiego di queste; data l'elevata densità energetica dell'idrogeno è assai efficiente l'accumulo di lunga durata dell'elettricità. Una condizione necessaria per la diffusione di idrogeno come vettore energetico, sia sull'area europea che nazionale, è la disponibilità di infrastrutture idonee al collegamento fra aree di attività della supply side e della demand side: • il trasporto può avvenire allo stato gassoso o liquido o legato in molecole più grandi che sono più facili da trasportare, ad esempio ammoniaca o vettore di idrogeno liquido; • può essere trasportato tramite condotte, camion criogenici o idonee navi. • Può essere stoccato in maniera ciclica o stagionale e produrre elettricità per coprire i picchi di domanda, per garantirne il suo approvvigionamento quando necessario e consentire agli elettrolizzatori di funzionare in modo flessibile. La possibilità di implementare un’economia sostenibile a idrogeno dipende fortemente dalle infrastrutture adeguate; attualmente potrebbe essere riutilizzata anche quella del gas naturale, siccome riconvertendo si può ottenere una transizione energetica più economica, rispetto nuove infrastrutture dedicate. Ciò può avvenire creando un blending hydrogen al metano: viene sostituita una piccola percentuale di idrogeno al metano che consente, così, di utilizzare la rete di distribuzione a gas. Il blending, oggi, non può essere spinto oltre determinate percentuali, col fatto che si tratta pur sempre di una quota significativa di incremento di rendimento energetico. Si presentano, quindi, due possibili scenari: la conversione della tubazione che attualmente trasporta il metano o la creazione di una rete parallela ad hoc. Dal punto di vista meccanico la rete attuale potrebbe risentire con alte percentuali di idrogeno mentre un suo adattamento, per sopportare agevolmente percentuali più alte di idrogeno, richiederebbe un alto investimento. È importante pianificare in maniera corretta le infrastrutture sulla base delle quali poi, prendere decisioni di investimento. Questa pianificazione dovrebbe anche informare ed essere in grado di incentivare gli investimenti in elettrolizzatori migliori così da permettere all'idrogeno prodotto di essere immagazzinato in: • Forma gassosa: conveniente per l'immagazzinaggio in larga scala; • Forma liquida: conveniente per il trasporto aereo e terrestre; • Forma di idruri di metallo: conveniente per l'applicazione su veicoli o per altre richieste di immagazzinaggio su scala ridotta; • Ed essere trasportato lungo enormi distanze attraverso oleodotti o tramite navi cisterna. LA PROSPETTIVA DELL’IDROGENO NELLA STRATEGIA EUROPEA DELLA NEAUTRALITA’ AMBIENTALE Affinché l'idrogeno permetta di virare verso impieghi di fonte primaria coerenti al requisito della neutralità ambientale, dovrà essere impiegato maggiormente in quei settori che presentano alte emissioni di GHG. Le strategie di transizione energetica fondate sull'utilizzo dell'idrogeno possono essere principalmente due: 1. minimizzare l'impatto ambientale nell'estrazione dell'idrogeno; 2. impiegare l'idrogeno in alternativa ai combustibili tradizionali o come loro importante complemento, utilizzandolo maggiormente nell’elettricità, nel riscaldamento o nei trasporti. L'uso pulito e diffuso l'idrogeno per la transizione energetica dovrà affrontare, però, diverse sfide: 1. la produzione di idrogeno a basse emissioni di GHG è attualmente ancora troppo costosa; 2. Lo sviluppo delle infrastrutture per l'idrogeno è lento e ne frena la diffusione. La commissione europea, in una comunicazione sul New Green Deal, dichiara di avviarsi a una nuova strategia di crescita che mira a trasformare l'unione europea in una società che migliori la qualità di vita delle generazioni attuali e future, oltre che a impatto climatico zero, verde equa e sociale, con l'obiettivo di conseguire la neutralità climatica entro il 2050 in linea con gli obiettivi dell'accordo di Parigi. Ma diventare carbon neutral significa farsi carico, internalizzare e compensare ogni impatto ambientale indotto dalle singole azioni, scelte, strategie poste in atto, così da eliminare ogni impatto ambientale negativo. La costruzione di un'economia dell'idrogeno in Europa richiede lo sviluppo delle infrastrutture per fornirlo ai consumatori finali (come detto prima) e la creazione della relativa e necessaria domanda di mercato, attivando il collegamento fra aumento dell'offerta e della domanda di idrogeno, inducendo la riduzione dei costi di fornitura e quindi garantendo la sua competitività rispetto ai combustibili fossili. E’ da questa attività che dovrebbero discendere le policy, che portino avanti questa idea e in grado di sostenere gli investimenti nelle infrastrutture. Si prevede che le FER decarbonizzeranno gran parte del consumo energetico dell’UE entro il 2050 e l’idrogeno potrà colmare la parte non decarbonizzata dalle FER; il suo repentino impiego su larga scala sarebbe fondamentale per ridurre le emissioni della UE di almeno il 50% entro in 2030, soprattutto perché la UE nelle tecnologie per l'idrogeno ed è ben posizionata per beneficiare di uno sviluppo globale dell'idrogeno anche come vettore energetico. La strategia adottata dalla commissione europea per lo sviluppo dell'idrogeno pulito prevede tre fasi, che partono dal 2020 fino al 2050, assumendo questi obiettivi:  riduzione del costo di generazione dell'elettricità rinnovabile;  riduzione del capex degli elettrolizzatori in particolare quelli di grandi taglia;  dopo il 2040, giudizio della commissione europea l'idrogeno verde dovrebbe raggiungere la piena maturità e diventare competitivo. Nel frattempo deve essere dato spazio e incentivo a quello blu con CCS. Per concludere, la vera barriera che impedisce lo sviluppo nell’impiego di idrogeno è la tecnologia e infrastrutture non ancora mature; ad esempio, l'Italia potrebbe approfittare del maggior utilizzo di gas naturale e dello sviluppo delle FER (soprattutto il biometano) per sviluppare l'idrogeno blu e quote crescenti di idrogeno verde, abbinate all'introduzione delle reti a gas, che garantirebbero al continente un percorso di decarbonizzazione accelerato. La flessibilità è un altro motivo per cui il settore energetico potrebbe passare all' idrogeno; molte turbine a gas già esistenti potrebbero anche bruciare fino al 20% di idrogeno senza modifiche e per molte Energy utility passare all' idrogeno al 100% sarebbe possibile in un periodo inferiore ai 10 anni, soprattutto sfruttando la distribuzione del gas su larga scala. In Cina si stanno già producendo elettrolizzatori per la produzione di idrogeno a prezzi inferiori rispetto al resto del mondo, perciò ci sarà la capacità di produrre idrogeno economico con basse emissioni di GHG utilizzando device cinesi, portando di conseguenza l'idrogeno ad essere competitivo anche in termini di costi entro il 2035. In conclusione il gas contribuirà agli sforzi di decarbonizzazione sia riducendo le emissioni derivanti dal passaggio da carbone a gas, ma anche consentendo una maggiore penetrazione delle FER.