Geoecologia dei data center

L’AI spinge il consumo energetico globale; data center e geopolitica USA-Cina si intrecciano, tra crescita tecnologica, impatto ambientale e risorse limitate.

L’aumento esponenziale della capacità di calcolo necessario per sviluppare e sostenere l’intelligenza artificiale ha generato un’impennata nel consumo energetico e idrico, trasformando i data center in attori fondamentali della competizione geopolitica tra Stati Uniti e Cina. In Iowa, ad esempio, Google e Microsoft hanno costruito grandi cluster, beneficiando di incentivi fiscali e creando un numero limitato di posti di lavoro rispetto all’enorme fabbisogno energetico. Questo modello si ripete a livello globale, con infrastrutture sempre più grandi e assetate di risorse. Mentre l’espansione di queste tecnologie viene associata a promesse di innovazione e sostenibilità, i problemi ambientali, come la scarsità d’acqua e le emissioni crescenti, mettono in discussione la retorica green delle aziende tecnologiche.

Parallelamente, la “guerra del cloud” si intreccia con la necessità di costruire infrastrutture più efficienti per sostenere l’intelligenza artificiale generale, prevista come il prossimo salto evolutivo. Tuttavia, le implicazioni ambientali e politiche di questa corsa tecnologica non possono essere ignorate. Mentre la Cina accelera nello sviluppo di nuove centrali elettriche e reti di distribuzione, gli Stati Uniti affrontano vincoli normativi che rallentano la loro capacità di competere. La sfida non si limita alla capacità tecnologica, ma include l’approvvigionamento di materiali essenziali, come il rame, e la costruzione di data center su scala globale, rendendo sempre più chiaro il legame indissolubile tra progresso digitale e risorse fisiche del pianeta.

* * *

di Alessandro Aresu

L’aumento esponenziale della capacità di calcolo richiesta dall’AI sta facendo esplodere l’impronta idrica ed energetica di queste tecnologie, su cui in parte si gioca la sfida Usa-Cina. La geografia dei centri dati. Le strategie di governi e produttori. I cervi non bastano.

Thank you for wearing green!
Charli XCX

1. Scrivete «Google Iowa» sul vostro motore di ricerca, vi imbattete facilmente nella foto di un gruppo di cervi accanto alle torri di raffreddamento di un data center. Google, attraverso quell’immagine, comunica un’idea di tecnologia non solo compatibile con la natura, ma anche accogliente. Bambi è contento di passeggiare vicino ai materiali e alle strutture che rendono possibile la vita digitale. Ciò avviene in Iowa, dove Google ha avviato fin dal 2007 la costruzione di un complesso di data center a Council Bluffs. Il sito è stato oggetto di successivi ampliamenti, nel 2012, 2015 e 2023. Nel 2024 è giunto l’annuncio di un nuovo investimento di circa un miliardo di dollari, che si aggiunge ai 5,5 miliardi degli anni precedenti. L’azienda ci tiene a comunicare di aver sostenuto scuole, organizzazioni non profit con 3 milioni (in 15 anni) e di aver fornito il Wi-Fi gratuito alla comunità. Il cluster di data center di Council Bluffs, stando sempre ai dati di Google, impiega oltre 900 dipendenti, comprendendo anche i terzisti, i ristoratori e gli addetti alla sicurezza.

A Cedar Rapids, più vicino alla Muscatine che nel 1985 ha ospitato il giovane Xi Jinping, i bulldozer e i trattori sono in azione per fare spazio a un nuovo data center proposto da Google, per cui l’Iowa ha approvato un’agevolazione fiscale del 70% per 56 milioni di dollari. La nuova struttura crea centinaia di posti di lavoro nell’edilizia e poi darà impiego stabile a 31 persone. Tra gli alberi abbattuti non si vedono ancora le famigliole di cervi. Quelli ospiti del cluster già operativo a Council Bluffs possono invece scorgere, al di là del fiume Missouri, il profilo di Omaha. Lì vive il giovanissimo startupper che dà energia alle loro compagne di giochi, le torri di raffreddamento: Warren Buffett.

Nel 2014 l’oracolo di Omaha, al tempo nemmeno ottantaquattrenne, durante l’incontro annuale della sua finanziaria Berkshire Hathaway chiede aiuto al suo collaboratore (poi designato successore nel 2021) Greg Abel per rispondere a una domanda sulla redditività di MidAmerican Energy. È la sussidiaria di Berkshire Hathaway Energy che opera in gran parte dell’Iowa, oltre che in Illinois, South Dakota e Nebraska. Abel cita l’importanza dello sviluppo dei data center in Iowa avviati da aziende come Google, che hanno bisogno della loro energia. Nell’incontro annuale del 2024 avviene una scena emozionante, in cui Buffett si rivolge ad Abel chiamandolo «Charlie», anche se vicino a lui non c’è più Charles Munger, amico e socio di una vita, scomparso poco prima di compiere 99 anni. Abel, per fugare di nuovo i dubbi di un azionista su MidAmerican, fa riferimento alla stima di un raddoppio della domanda entro metà degli anni Trenta, associata all’intelligenza artificiale e ai data center.

2. La regista Tonje Hessen Schei ha diretto nel 2019 il documentario iHuman, dedicato alle potenzialità e ai rischi dell’intelligenza artificiale. Uno dei protagonisti è Ilya Sutskever, il ricercatore nato nel 1986 nell’allora Gor’kij in Unione Sovietica, poi emigrato a 5 anni in Israele e dieci anni dopo in Canada, dove ha completato la sua formazione e iniziato una carriera accademica. All’Università di Toronto, Sutskever ha sviluppato nel 2012 con il suo maestro Geoffrey Hinton e il collega Alex Krizhevsky la rete neurale AlexNet, addestrata con due schede grafiche di Nvidia. AlexNet, con la sua vittoria della competizione ImageNet, ha convenzionalmente avviato l’esplosione contemporanea dell’intelligenza artificiale. Nel 2013 i tre ricercatori iniziano a lavorare per Google e Sutskever nel 2015 viene convinto da Elon Musk a partecipare alla creazione di OpenAI.

Il documentario strizza l’occhio al nostro immaginario apocalittico sul rapporto tra l’uomo e la macchina. Sutskever è ripreso mentre va sui pattini, gioca con il cane in spiaggia, si ordina un panino. I bambini attorno a lui giocano al parco, come nel giorno del giudizio della saga di Terminator. In parallelo, Sutskever descrive la sua visione del futuro, segnata dal prossimo avvento di una forma più evoluta di intelligenza artificiale, chiamata intelligenza artificiale generale. Sutskever ne è convinto:

«Le prime intelligenze artificiali generali saranno enormi data center pieni di processori specializzati nelle reti neurali, che lavorano in parallelo e consumano l’energia di dieci milioni di case. (…) Credo sia molto probabile che l’intera superficie della Terra sarà coperta con pannelli solari e data center».

Nei cinque anni trascorsi da quel documentario, molte cose sono avvenute. Dopo aver accompagnato i principali avanzamenti di OpenAI con la sua attività scientifica, Sutskever ha cercato con altri di licenziare l’amministratore delegato Sam Altman a fine 2023. Perduta questa battaglia, ha abbandonato la società di ChatGPT per fondare nel giugno 2024 una nuova start-up, Safe Superintelligence Inc., che a settembre ha ricevuto fondi per un miliardo di dollari, con una valutazione stimata di circa 5 miliardi.

Mentre Sutskever avvia la sua start-up, gli viene dedicato un ambizioso scritto, Situational Awareness. The Decade Ahead, disponibile online. L’autore è Leopold Aschenbrenner, ex dipendente di OpenAI di origine tedesca, licenziato dall’azienda per la sua loquacità verso l’esterno. Il testo comincia ricordando ai lettori che il futuro si può vedere prima a San Francisco, per poi affrontare diversi aspetti dello sviluppo dell’intelligenza artificiale generale, con molta enfasi sulla questione energetica.

Lo sviluppo contemporaneo dell’intelligenza artificiale, secondo un’ipotesi empirica formulata anche dallo stesso Sutskever e nota come legge della scala (scaling law), lega l’avanzamento alla disponibilità di ingenti risorse in conto capitale per realizzare infrastrutture di calcolo sempre più sofisticate e con migliori performance. In sintesi: più data center. Ciò ha generato un superciclo di investimenti da parte di aziende come Microsoft, Google, Meta, Amazon, Apple, Tesla, di cui la maggiore beneficiaria è stata Nvidia. Nell’anno fiscale 2021 i ricavi da data center di Nvidia erano 7 miliardi di dollari, mentre nell’anno fiscale che si chiuderà nella primavera 2025 si stima possano superare i 100 miliardi.

3. I cluster di calcolo già oggi indispensabili per addestrare i modelli più potenti richiedono grandi infrastrutture energetiche. Aschenbrenner ipotizza, alla fine di questo decennio, un salto significativo con la realizzazione di un supercluster da 100 GW, pari al consumo di una nazione medio-piccola. Il supercluster richiederebbe un’enorme mobilitazione industriale, con investimenti infrastrutturali su vasta scala. Situational Awareness utilizza il supercluster per indicare che la competizione tra Washington e Pechino sull’intelligenza artificiale generale non è mera questione tecnologica, ma si basa anche sulla capacità di costruire rapidamente le infrastrutture e garantire l’approvvigionamento di energia.

La legge della scala non può procedere senza realizzazione di infrastrutture energetiche all’altezza della sfida. Le capacità cinesi, secondo Aschenbrenner, vanno quindi analizzate non solo in riferimento alla frontiera elettronica sulla capacità di calcolo, ma anche alle infrastrutture energetiche, su cui Pechino ha mostrato nell’ultimo decennio una capacità di nuova generazione elettrica ben superiore a quella degli Stati Uniti. Situational Awareness sottolinea i dati per cui, mentre la capacità elettrica degli Stati Uniti è rimasta sostanzialmente stabile nell’ultimo decennio, la Cina ha aggiunto nuova capacità produttiva ogni anno, costruendo centrali elettriche e reti di distribuzione a un ritmo che gli Stati Uniti non riescono a eguagliare, in parte a causa delle procedure di revisione ambientale e dei vincoli normativi.

Ogni sviluppo tecnologico, secondo questa chiave di lettura, va legato non solo all’evoluzione della guerra dei chip, ma a una visione ampia della guerra del cloud, in cui divengono essenziali due altri fattori: l’approvvigionamento energetico per alimentare i cluster di calcolo e l’abilità nel costruire e connettere rapidamente queste unità industriali. Aschenbrenner ipotizza un futuro di collaborazione pubblico-privata per il supercluster: per ragioni di sicurezza nazionale, la sua realizzazione non può essere lasciata solo in mano a un oligopolio di società tecnologiche private e richiede l’intervento della burocrazia armata di Washington.

Eppure, questa ennesima incarnazione del capitalismo politico nella nostra epoca non può da sola risolvere il deficit realizzativo statunitense, visto che esso viene anche dal sistema pubblico. Forse la fissazione teleologica della Silicon Valley con l’intelligenza artificiale generale porterà, in un prossimo aggiornamento dello scritto di Aschenbrenner, alla proposta di un Leviatano autoritario incaricato di sgomberare d’imperio i territori e di connettere le varie reti infrastrutturali. Al di là degli aspetti etici e politici, resta tutto da dimostrare che possa funzionare in pratica.

Il consumo energetico dei data center non è una questione intuita solo a San Francisco. Anche a Parigi, sede dell’Agenzia internazionale dell’energia, vi è consapevolezza del tema. Il rapporto sul consumo elettrico globale del gennaio 2024, integrato dall’aggiornamento del luglio 2024, ha un’attenzione particolare ai data center per l’intelligenza artificiale: si tratta del principale motore dell’aumento della domanda di elettricità a livello mondiale, con implicazioni significative per l’approvvigionamento energetico e la competitività. Secondo l’Agenzia internazionale dell’energia, nel 2024 la domanda elettrica globale è destinata a crescere del 4%, il tasso più rapido dal 2007. Se i data center globali hanno consumato circa 460 TWh di elettricità nel 2022, pari a quasi il 2% della domanda globale, con l’espansione delle applicazioni di intelligenza artificiale si prevede che questa cifra possa aumentare significativamente, raggiungendo tra i 620 e i 1.050 TWh entro il 2026, equivalenti al consumo totale del Giappone.

I server di intelligenza artificiale consumano quantità crescenti di elettricità e si prevede che l’industria possa aumentare di dieci volte il proprio consumo energetico tra il 2023 e il 2026. In Cina, la domanda di elettricità legata ai data center potrebbe raggiungere i 300 TWh entro il 2026, supportata dalla rapida espansione delle reti 5G e dall’Internet delle cose. Negli Stati Uniti il rapporto prevede che il consumo elettrico dei data center potrebbe passare da 200 TWh nel 2022 (4% della domanda nazionale) a circa 260 TWh entro il 2026 (6%). L’Agenzia indica un aumento esponenziale dei progetti a partire dal 2023, un anno apertosi con l’annuncio di 35 miliardi di investimenti di Amazon Web Services in Virginia entro il 2040, come parte di un piano complessivo dell’azienda che nel 2024 è di 150 miliardi.

L’aumento del consumo energetico è reso scontato dai maggiori consumi delle richieste di applicazioni di intelligenza artificiale generativa, come ChatGPT, rispetto alle ricerche su Google. Pertanto, l’aumento dei consumi è legato all’adozione su larga scala e alla pervasività di queste tecnologie. A livello globale, l’espansione dei data center sta già creando problemi di capacità di rete in diverse regioni. In Irlanda, ad esempio, i data center rappresentano già il 18% del consumo elettrico nazionale e si prevede che questa percentuale possa salire al 32% entro il 2026. Singapore e Paesi Bassi, tra gli altri, hanno già iniziato a limitare la costruzione di nuovi data center per evitare il sovraccarico delle reti.

4. Se alla sua nascita circa settant’anni fa, nel 1955, l’intelligenza artificiale era un’espressione affascinante buona a ricevere fondi per organizzare una conferenza, oggi consiste – nella definizione di Sutskever – in «cervelli digitali dentro grandi computer». Mettiamo da parte l’espressione «cervelli digitali» e concentriamoci sui «grandi computer». Si tratta di spazi, di luoghi essenziali per la materia del nostro mondo: i data center. In questa fase tecnologica, il data center svolge il ruolo che in passato è stato del personal computer e dello smartphone. Chi domina il data center estrae la maggior parte del valore. Per comprenderne il fattore politico, tenendo sempre presente l’impronta energetica, dobbiamo vedere dove sono i data center, come sono fatti, chi li finanzia e chi li realizza.

Possiamo credere che San Francisco sia il luogo dove il futuro si vede, ma subito dopo dobbiamo riconoscere che il luogo dove il futuro si costruisce è l’Iowa. Per l’azienda di ChatGPT, le cose stanno così. Il 19 maggio 2020 Microsoft, il gigante tecnologico che dal 2019 possiede il 49% di OpenAI e ne controlla la capacità di calcolo, ha annunciato di aver sviluppato per l’azienda di San Francisco un supercomputer che dispone di 285 mila processori tradizionali (CPU cores), 10 mila GPU e interconnessioni di Mellanox-Nvidia. Senza tale struttura fisica non è possibile l’esistenza di ChatGPT, realizzata con un addestramento grazie a questa capacità di calcolo e che ne ha bisogno, in termini diversi, anche per fornire i propri output.

Nel 2023, Microsoft svela la collocazione di quest’infrastruttura: fa parte dei suoi investimenti a West Des Moines, Iowa. In mezzo ai campi di grano c’è un impressionante cluster di data center, in continua crescita, assetato di acqua ed elettricità. Non è il supercluster sognato da Aschenbrenner, ma Microsoft sta espandendo in modo costante le acquisizioni di terreni a West Des Moines, da ultimo con il Progetto Rutenio che coinvolge circa 111 acri.

I dati pubblici di Microsoft mostrano, in analogia agli investimenti di Google e degli altri attori, l’esigua dimensione occupazionale della gigantesca infrastruttura rispetto ai milioni di utenti dei prodotti che abilita e ai miliardi di dollari di valutazione di OpenAI. L’ecosistema di supercomputer Microsoft in Iowa coinvolge appena 300 dipendenti a tempo pieno, che raddoppieranno secondo le previsioni dell’azienda, a fronte di una «domanda insaziabile». Nel futuro che si scorge sulla rotta California-Iowa, la maggior parte dei posti di lavoro riguarda la costruzione dei data center e non c’è alcuna ragione per cui essa potrà impiegare in futuro più esseri umani nella fase operativa: al massimo avverrà il contrario, perché i sistemi di gestione potranno essere ancor più automatizzati.

Tutto ciò, oltre a suscitare considerazioni nette sulla subordinazione del lavoro al capitale, potrebbe portarci a pensare che l’Iowa sia il centro mondiale dei data center. In realtà, la capitale statunitense – e mondiale – è la Virginia, in un mondo dei data center che sta diventando più americano rispetto al recente passato, rafforzando il dominio statunitense. Nel marzo 2024, secondo alcune stime, nel mondo c’erano circa 10.655 data center e gli Stati Uniti ne ospitano più della metà, 5.381. Un incremento notevole rispetto al gennaio 2021, quando i data center erano circa 8 mila di cui circa un terzo negli Stati Uniti.

L’Electric Power Research Institute ha sviluppato quattro scenari per i data center negli Stati Uniti tra il 2023 e il 2030, dalla bassa crescita (3,7% annuo, portandone il consumo di elettricità a circa 196,3 TWh l’anno entro il 2030) alla crescita molto elevata (15%, con un consumo stimato in 403,9 TWh l’anno). In quest’ultimo scenario, il consumo dei data center negli Stati Uniti passerebbe da circa il 4% odierno sul totale al 9,1%. Nel territorio statunitense, l’utilizzo di energia da parte dei data center è concentrato in pochi Stati. Nel 2023, 15 Stati rappresentavano l’80% del consumo nazionale. Tra essi Virginia, Texas, California, Illinois, Oregon, Arizona e Iowa. La Virginia, in particolare, vede i data center consumare fino al 25% del suo carico elettrico totale e questo potrebbe salire fino al 46% nel 2030, se consideriamo lo scenario di crescita più alta.

Come sono fatti i data center? La filiera che rende possibile lo spazio fondamentale di quest’epoca tecnologica, come ogni cosa del nostro mondo, è molto più complessa dal punto di vista materiale di quanto possa sembrare a prima vista. Negli ultimi anni, il successo di Nvidia porta i profani a credere erroneamente che un data center sia diventato all’improvviso un chip, oppure che in questi luoghi vi siano semplicemente le schede grafiche per i videogiochi che hanno reso celebre l’azienda cofondata da Jensen Huang nel 1993. In realtà, lo spettacolare aumento del fatturato di Nvidia dell’ultimo biennio deriva dalla produzione di sistemi per i data center, nei quali i componenti più pregiati sono le GPU, ma dentro una piattaforma molto sofisticata che è venduta ai clienti.

In questa rete costruita nel corso di anni sono coinvolte migliaia di aziende. Non a caso AMD, l’azienda guidata da Lisa Su (cugina di Jensen Huang) e avversaria più temibile di Nvidia, ha acquisito nel 2024 per 4,9 miliardi Zt Systems, che fornisce soluzioni per data center. Una mossa decisiva nella crescita di Nvidia è stata l’acquisizione, completata nel 2020, dell’azienda israeliana Mellanox, perché ha fornito alla società di Huang un vantaggio cruciale nei sistemi di interconnessione.

5. Alimentare, connettere, raffreddare: queste attività affiancano il calcolo all’interno del data center e lo rendono possibile, efficace. Tutto ciò si traduce in requisiti di materiali. Per esempio, di rame: Bloomberg Intelligence stima che il consumo di rame aumenterà di 2 milioni di tonnellate entro il 2030 e che metà della crescita proverrà dagli Stati Uniti, per via dello sviluppo dei data center. O di acciaio: Nucor, azienda siderurgica radicata in North Carolina (fatturato di circa 34,7 miliardi nel 2023), ha avviato da qualche anno il settore Warehouse Systems che fornisce soluzioni personalizzate per i magazzini logistici e i data center. Nel 2024 ha acquisito per 115 milioni di dollari Southwest Data Products, società specializzata nella produzione e nell’installazione di infrastrutture per data center tra cui strutture di contenimento del flusso d’aria, armadi, recinzioni e altri servizi.

Quanto i data center installati in America sono veramente made in USA e quanto invece c’è di non americano, magari di cinese? Dove vengono prodotti e con quali materiali i milioni di chilometri di cavi installati dalle aziende americane che costruiscono i data center per i loro clienti? Se ora stiamo vivendo il «momento iPhone dell’intelligenza artificiale», quanto è rimasto in esso dei processi produttivi del «momento iPhone» originale?

Il cuore del data center, la Gpu di Nvidia, è prodotta da Tsmc a Taiwan. Bisognerà vedere quanto e cosa Tsmc saprà produrre in Arizona, per ridurre quel rischio geografico. A parte l’importanza delle memorie Hbm su cui attualmente la leadership è della coreana Sk Hynix, c’è un’altra concentrazione geografica pressoché ignorata e riguarda l’assemblaggio, non dei semiconduttori (che è un altro problema) ma dei moduli e dei server, compresi quelli dei data center. L’economia dello smartphone ha concentrato l’assemblaggio in Asia orientale, soprattutto nella «città di Foxconn» nei sobborghi di Shenzhen.

A oggi quest’assemblaggio dell’elettronica è una storia sino-taiwanese: aziende taiwanesi come Ingrasys (parte di Foxconn), Quanta, Inventec, Wistron sono fornitori essenziali delle potenze dei data center, che dal punto di vista materiale dipendono da esse e magari dipenderanno in futuro da aziende indiane, vietnamite e malesi. Molte saranno cinesi, opportunamente travestite. Questi attori possono aumentare alcuni investimenti in terre di frontiera occidentali, come sta facendo Foxconn in Messico, attraverso l’enorme fabbrica in corso di realizzazione a Guadalajara, ma è ingenuo ipotizzare il loro distacco dalle economie di scala cinesi e dalla specializzazione taiwanese, tantopiù nel momento in cui sono richieste velocità ed efficacia per raggiungere gli obiettivi produttivi. Le «fabbriche dell’intelligenza artificiale» sono e saranno made in Taiwan nel prossimo futuro.

In Wisconsin, il vecchio progetto di una mega fabbrica da 10 miliardi promessa a Donald Trump da Foxconn e mai realizzato è stato convertito da Microsoft nell’ennesimo data center. Ma questo, come tutti gli altri, sarà con ogni probabilità costruito grazie all’attività di Foxconn. Il governo degli Stati Uniti forse chiederà in futuro agli operatori dei data center quanto acciaio provenga dalla Cina, o quanto rame, ma non potrà ridurre a zero la dipendenza dal centro manifatturiero del mondo. Lo dimostra anche il caso di Supermicro: fondata nel 1993 dal taiwanese Charles Liang, fornisce vari sistemi tra cui server, soluzioni di storage, componenti di rete e tecnologie di raffreddamento. La crescita vorticosa dei suoi ricavi, della sua capitalizzazione di mercato (dai 2 miliardi del 2021 ai 35 miliardi di inizio 2024) e la sua stretta collaborazione con Nvidia l’hanno portata a essere inserita nell’indice S&P nel marzo 2024. Dopo che Charles Liang ha celebrato i suoi successi sul palco del Computex di Taiwan assieme a Jensen Huang, il valore dell’azienda è sceso in parallelo a un accurato scrutinio politico scatenato dalla società Hindenburg Research.

Hindenburg accusa Supermicro di manipolazione contabile, connivenza familiare nelle operazioni aziendali e violazione di sanzioni. Secondo l’indagine, condotta attraverso l’analisi di documenti legali e interviste con ex dipendenti, Supermicro avrebbe adottato pratiche di riconoscimento irregolare dei ricavi, accelerando i pagamenti e registrando vendite non perfezionate per gonfiare i risultati finanziari. Nel 2018 la società è stata temporaneamente delistata dal Nasdaq e successivamente la Sec (Securities and Exchange Commission) l’ha accusata di violazioni contabili. Anche dopo il pagamento di una multa da 17,5 milioni di dollari nel 2020, secondo Hindenburg Supermicro ha continuato a operare irregolarmente.

Le accuse si concentrano poi sui legami di Supermicro con la Cina, in particolare attraverso la joint venture con Fiberhome Telecommunication Technologies controllata dal governo cinese e sanzionata dagli Stati Uniti nel 2020 per complicità in violazioni dei diritti umani legate alla sorveglianza e alla repressione della popolazione uigura nel Xinjiang. Negli ultimi tre anni Supermicro avrebbe venduto circa 196 milioni di dollari in componenti tecnologici alla joint venture. Oltre ai rapporti con la Cina, Hindenburg affronta il tema delle vendite in Russia. Nonostante l’azienda abbia dichiarato di aver cessato le vendite nel paese nel febbraio 2024, queste – compresi componenti con potenziale uso militare – sarebbero triplicate dal 2022. L’aumento è avvenuto attraverso intermediari in paesi come la Turchia e gli Emirati Arabi Uniti. Mentre Supermicro ha perso molto del suo valore ed è impegnata a difendersi dalle accuse, soprattutto dopo che a fine ottobre 2024 addirittura Ey ha rifiutato di certificare i loro conti, il dato è che una delle sfide principali per il futuro dei data center, il raffreddamento liquido, si intreccia con accuse di imbrogli e con la tensione strutturale tra Washington e Pechino.

L’attuale ciclo dei data center ha catturato l’attenzione anche di grandi investitori immobiliari. Blackstone, il gruppo di private equity fondato da Stephen Schwarzman, primo al mondo a superare nel 2023 i mille miliardi di dollari di asset in gestione, nel 2021 acquista per 10 miliardi l’operatore di data center Qts. Nel 2024 Blackstone ha ormai un portafoglio di data center del valore di 50 miliardi di dollari, con altri 50 miliardi destinati a progetti futuri. Le acquisizioni hanno seguito l’accelerazione del mercato: ad aprile 2024 il fondo ha acquisito la maggioranza di Winthrop Technologies, società irlandese specializzata nell’ingegneria per i data center. Valutata oltre 850 milioni di dollari, con progetti che coprono sette paesi e oltre 430 megawatt di capacità, Winthrop ha costruito otto data center solo a Dublino, confermandosi uno degli attori più rilevanti nel panorama europeo. Nel settembre 2024 è giunta l’acquisizione del colosso dei data center australiano AirTrunk per 16,1 miliardi di dollari. AirTrunk gestisce data center in Australia, Giappone, Hong Kong, Singapore e Malesia, con una capacità installata di oltre 800 megawatt già destinata a clienti di primo piano.

6. La preoccupazione per l’impronta energetica dei data center non è nuova. Già nel 2012 il New York Times ha suonato l’allarme sulle «fabbriche del cloud»: alla crescita dei data center negli Stati Uniti (in quel momento stimata da 432 nel 1998 a 2.094 nel 2010) e ai nuovi bisogni dei social media ha corrisposto l’aumento della pressione sulle reti elettriche e sulle infrastrutture idriche. Eppure, le profezie più nere sull’insostenibilità dei data center non si sono concretizzate. Perché?

Il lavoro di Adam Wierman, professore al Caltech, fornisce una buona bussola per comprenderlo. Il gruppo di ricerca di Wierman ha iniziato a lavorare sull’impatto ambientale dei data center nei primi anni Dieci, concentrandosi sull’efficienza energetica e sulla riduzione dell’impatto ambientale delle infrastrutture digitali. Nel 2013 Wierman aveva già identificato i data center come grandi consumatori di energia, responsabili del 2-3% dell’intero consumo energetico statunitense e con una crescita annua del 12%, a fronte di un +1% della domanda energetica complessiva. Wierman ha lavorato sul miglioramento dell’efficienza energetica attraverso tecniche avanzate di gestione dell’infrastruttura e dei carichi di lavoro, per bilanciare la domanda energetica con la capacità dei data center di utilizzare energie rinnovabili. Lo sviluppo di queste innovazioni ha accompagnato l’uso di data center per nuove funzioni e attività, soprattutto da parte di grandi aziende tecnologiche attive nei social media e nel cloud computing.

Dal 2010 al 2020, nonostante il continuo aumento della domanda di capacità di calcolo e archiviazione, la crescita del carico elettrico dei data center si stabilizza anche grazie alla sostituzione di piccoli data center aziendali con più grandi ed efficienti strutture di cloud computing. Gli studi di ricercatori come Wierman e la sensibilità delle aziende portano inoltre a elaborare metriche per misurare l’efficienza energetica dei data center. Lo standard principale è il Pue (power usage effectiveness). All’inizio del secolo solo il 10-15% dell’energia in ingresso viene usato effettivamente dai server, mentre il resto viene perso in processi di raffreddamento e gestione. Lo sviluppo di algoritmi dedicati, oltre alle innovazioni nell’hardware, porta a una migliore modulazione dei consumi adattandosi alla domanda effettiva. Inoltre, nell’operatività dei data center viene progressivamente introdotto il geographical load balancing (equilibrio geografico del carico di lavoro), per distribuire il carico di lavoro tra i data center in diverse regioni geografiche sfruttando la disponibilità di energia rinnovabile in tempo reale. Si tratta quindi di spostare le operazioni di calcolo verso aree dove l’energia solare o eolica è abbondante in un dato momento, migliorando così l’efficienza energetica complessiva.

L’attuale crescita esponenziale nella domanda energetica comporta gravi implicazioni ambientali, anche a detta di esperti come Wierman. In Stati come l’Arizona, dove i data center consumano enormi quantità di acqua per il raffreddamento, la crescente domanda energetica aggrava i problemi di scarsità idrica. Davanti a questi problemi le aziende oppongono un ventaglio di strategie comunicative, dalla water-positive strategy – che punta a restituire più acqua di quella consumata entro il 2030 – all’acquisto dei crediti carbonici per celare l’impatto dei data center. I rapporti sulla sostenibilità di aziende come Google e Microsoft, nonostante la cosmesi verde, non possono però negare l’entità del problema: la corsa ai data center ha portato negli ultimi anni a un aumento consistente delle emissioni. Intanto Taipower, la società elettrica di Taiwan, stima che nei prossimi cinque anni il 60% della crescita dei consumi energetici verrà dall’industria dei semiconduttori e in gran parte da Tsmc. Con l’uscita di Taiwan dal nucleare e il ridotto contributo proveniente dalle rinnovabili, il peso dell’elettronica più avanzata al mondo ricadrà quindi in prevalenza sulle spalle larghe e inquinanti dei combustibili fossili.

7. Per ragionare sul futuro dei data center è utile approfondire il concetto di brat summer, sviluppato dalla cantautrice britannica Charli XCX nel suo album Brat, che attraverso una copertina verde acido-lime molto simile ai colori di Nvidia e un florilegio di meme ha inglobato nell’estate 2024 il dibattito politico-sociale. Brat, parola dell’anno 2024 per il Collins Dictionary, è un termine senza genere ma è usato soprattutto al femminile per indicare una ragazza impertinente e sfacciata che si gode l’estate, magari uscendo in pigiama o senza dare importanza alle convenzioni. L’estate è per tutti il momento in cui essere finalmente brat, vivere in libertà. Ma quanto dura l’estate? Se finisce forse non si può più essere brat e Charli XCX non può più fare soldi. La cantautrice una volta ha detto a una fan che l’autunno brat è l’ultima parte del suo album e a settembre ha dato per sempre addio all’estate brat (nuova mossa di marketing per presentare a ottobre uno stupendo album remix).

La storia dell’intelligenza artificiale è divisa in estati segnate dall’ascesa delle aspettative e dagli investimenti, e in inverni che rappresentano momenti di scacco e ripiego. Questa divisione è rimasta valida fino a quando la crescita delle necessità di calcolo ha portato in campo come attori dominanti le grandi aziende tecnologiche, con le loro risorse e la filiera economico-politica che abbiamo analizzato. In questo scenario, quanto può durare l’estate brat dei data center?

Le scosse della guerra tecnologica tra Stati Uniti e Cina sono un rischio costante. Fanno ormai parte delle regole del gioco, anche attraverso frenate e accelerazioni che contengono elementi irrazionali. Si tratta, tuttavia, di una questione temporanea secondo la tesi dell’intelligenza artificiale generale, propagandata dall’escatologia di San Francisco. Con l’avvento dell’intelligenza artificiale generale, l’estate brat a un certo punto diviene eterna, come nell’apocatastasi del teologo Origene o del più grande filosofo del calcolo, Leibniz. Se facciamo tutto il possibile per realizzare un mega cluster di data center da cento o da mille Gw, raggiungeremo un punto di discontinuità in cui non dovremo più preoccuparci del resto. Ogni risorsa dev’essere impiegata per quest’obiettivo. Il raggiungimento del traguardo è l’obiettivo essenziale per Washington, poiché coincide con la vittoria assoluta. L’estate durerà per sempre.

La tesi di aziende come Nvidia è più terrena: l’estate brat dei data center è basata sull’aggiornamento di tutti i data center esistenti (costo stimato: mille miliar- di di dollari), in modo da arricchire Nvidia che estrae la maggior parte dei profitti da questo processo. L’estate è lunga, ma non è infinita ed è vincolata alla capacità d’investimento dei principali attori, che vogliono partecipare al banchetto per difendere e allargare i loro vantaggi competitivi. All’inizio dell’estate si può essere brat perché tanto comunque tutti vogliono comprare Gpu, memorie, cavi, sistemi di raffreddamento, la domanda è troppo alta, le valutazioni impazziscono. Poi, finisce la serata ma non è detto che finisca l’estate; forse si può stare in pigiama ad attendere che riparta la musica.

L’estate si allunga se si aumenta la previsione degli effetti della domanda, sparando moltiplicatori sempre più grandi con faccia grave in cui lo sguardo intenso suggerisce una certa preoccupazione per l’arrivo di Skynet. Secondo Dell, l’intelligenza artificiale centuplicherà la domanda di data center in dieci anni. L’estate si allunga se si allarga la platea di coloro che investono in data center, se vengono forniti prodotti sempre più costosi e sempre più in fretta. Oppure l’estate si spezza perché non ci sono ricavi in grado di sostenerla e i data center dove si balla devono chiudere. In ogni caso, secondo quest’ipotesi l’estate non può durare per sempre.

In entrambi gli scenari, il rilievo del fattore ambientale è destinato ad aumentare, a fianco al vincolo politico che resta sempre attivo. Le aziende che alimentano questa corsa continueranno a rivendicare, come in passato, la sostenibilità del loro operato. Indossano e indosseranno abiti verdi, sulla base di una superiore «efficienza». DeepMind già nel 2016 ha reso più efficienti i sistemi dei data center e la tesi di Nvidia sulla superiorità dei suoi prodotti, le Gpu, rispetto alle tradizionali Cpu, si basa da 15 anni anche sull’efficienza energetica. Solo che con la crescita esponenziale delle infrastrutture di calcolo per la «legge della scala», il peso energetico e idrico è cresciuto e cresce comunque. Anche se coloriamo i tubi dei data center perché sembrino più carini per le foto di Google, il risultato non cambia. Da ciò l’idea che la corsa tecnologica vada intrapresa «con tutta l’energia possibile», per citare un vecchio titolo di Leonardo Maugeri. Vediamo ovunque i segni di questa svolta materiale. Donald Trump ha parlato dell’intelligenza artificiale, nel suo caratteristico linguaggio, dicendo che «per fare queste cose essenzialmente ci vuole una fabbrica, con un fabbisogno di elettricità maggiore di quello che abbiamo mai avuto». Trump ha così identificato, in analogia alla tesi di Aschenbrenner, la generazione e la distribuzione di elettricità come ambito cruciale della competizione con la Cina, strizzando l’occhio a chi non vuole alcun vincolo ambientale per le operazioni energetiche negli Stati Uniti. Emblema di questa corsa all’energia è il dialogo su YouTube del maggio 2023 tra Richard Rhodes (nato nel 1937), autore del libro premio Pulitzer del 1988 The Making of the Atomic Bomb, e il podcaster Dwarkesh Patel (classe 2000). Oltre che dell’ambiente raffigurato nel film premio Oscar Oppenheimer, i due parlano a lungo delle fonti energetiche e Rhodes sostiene l’importanza dell’energia nucleare, un tema classico della sua produzione. Nel 2024, abbiamo visto una serie impressionante di iniziative delle grandi aziende tecnologiche sul nucleare: Amazon programma l’espansione di un data center a fianco a una centrale in Pennsylvania, e, soprattutto, Microsoft ha riportato al centro del dibattito la centrale di Three Mile Island, teatro del celebre incidente del 1979, perché intende riavviare una delle sue unità, sempre al fine di ottenere energia per i data center. Fioccano nuovi progetti per migliorare l’efficienza e la sostenibilità degli spazi cruciali della nostra vita digitale. Con risultati ancora da valutare.

Per ora, nell’epoca dei data center riscontriamo che il software avrà anche mangiato il mondo, come si dice a San Francisco, ma per digerirlo c’è sempre bisogno dell’hardware. Di cavi, ventole, torri. Di pezzi di metallo assemblati a Shenzhen o San Jeronimo. O forse, in un’estate brat infinita, le infrastrutture del mondo digitale sapranno funzionare da sole mentre riceveranno le visite delle famigliole dei cervi. Solo che in quel caso i cervi saremo noi, gli umani.

Limes, novembre 2024

Torna in alto