Consumo di acqua dell’IA: la sete insostenibile dell’IA generativa
Pubblicato: 2023-10-10L'intelligenza artificiale generativa è di gran moda da quando ChatGPT di OpenAI ha dato agli utenti medi la possibilità di interagire con l'intelligenza artificiale come se fosse un amico in fondo alla strada. Ora, si scopre che la mania di costruire tali programmi ha avuto un impatto imprevisto sulle risorse idriche in tutta la nazione.
Nel suo rapporto annuale sulla sostenibilità, Microsoft, un investitore multimiliardario in OpenAI, ha rivelato che i suoi data center in Iowa e in altre aree hanno consumato quasi 1,7 miliardi di galloni di H 2 0 nel 2022. Si tratta del 34% in più rispetto a quanto utilizzato nel 2021, e abbastanza per riempire 2.500 piscine olimpioniche.
Sebbene Microsoft non abbia specificato in modo specifico cosa abbia portato a questo insolito aumento, gli esperti affermano che non è una coincidenza che si sia verificato mentre si credeva che i data scientist dell'azienda stessero addestrando i grandi modelli linguistici (LLM) che alimentano l'intelligenza di ChatGPT.
Questa conclusione sul consumo di acqua tramite l’intelligenza artificiale sembrerebbe avere senso dal momento che, secondo quanto riferito, Google ha anche consumato più di 5,6 miliardi di litri d’acqua nel 2022, ovvero il 20% in più rispetto all’anno precedente, mentre formava LLM per il suo strumento di intelligenza artificiale generativa, Bard.
AI, acqua e data center
Nella corsa per soddisfare la domanda delle aziende e dei consumatori per strumenti di intelligenza artificiale di prossima generazione, le aziende hanno intensificato le attività dei data center come mai prima d’ora per addestrare modelli e rispondere alle richieste degli utenti degli strumenti.
Le apparecchiature dei data center più calde che necessitano di raffreddamento richiedono molta acqua affinché i sistemi di evaporazione svolgano il loro compito di mantenere le temperature moderatamente basse.
Secondo il Washington Post , infatti, un grande data center può utilizzare tra 1 milione e 5 milioni di litri d'acqua al giorno, ovvero quanto una città di 10.000-50.000 abitanti.
Inoltre, un articolo dei ricercatori dell'Università della California a Riverside rileva che ChatGPT necessita in media di una bottiglia d'acqua da 500 ml per ogni 10-50 domande poste, a seconda di dove sono ospitati i server.
“Ciò è insostenibile dal punto di vista ambientale, dei costi e delle prestazioni”, ha dichiarato a Information Week Joe Capes, CEO dello sviluppatore di sistemi di raffreddamento LiquidStack. “L’aumento dei costi energetici rende questo [approccio] sempre più costoso, e i potenti processori necessari per le odierne tecnologie ad alta intensità di dati… generano semplicemente troppo calore perché il raffreddamento ad aria possa gestirlo”.
Gen AI: dove va l'acqua?
Esistono diversi motivi per cui i data center legati all’intelligenza artificiale sono così caldi e assetati, tra cui:
- Elevata densità di potenza : i server IA si surriscaldano rapidamente durante l’elaborazione degli enormi volumi di dati necessari per alimentare la conoscenza dell’IA.
- Funzionamento continuo : i data center utilizzati per la formazione LLM spesso funzionano 24 ore su 24, 7 giorni su 7, il che richiede un raffreddamento costante.
- Efficienza energetica : il raffreddamento ad acqua non dipende dalla temperatura esterna, quindi tende ad essere più efficiente rispetto ai sistemi alternativi di raffreddamento ad aria.
- Scalabilità : man mano che i data center si adattano a modelli di intelligenza artificiale più grandi, la loro maggiore potenza richiede un raffreddamento ancora maggiore per mantenere prestazioni e affidabilità.
Shaolei Ren, coautore dello studio dell’UC-Riverside, afferma che questo consumo di acqua determinato dall’energia non è un problema nel breve termine perché l’intelligenza artificiale generativa è ancora nelle sue fasi iniziali. A lungo termine, però, sostiene che i rapporti sull’aumento dell’utilizzo dell’acqua da parte dell’alta tecnologia dovrebbero stimolare il dibattito pubblico sulla futura conservazione.
Sia Microsoft che Google si sono pubblicamente impegnate a essere “water positive”, ovvero a rifornire più acqua di quanta ne prelevano, entro il 2030.
Responsabilità sociale e sostenibilità d’impresa: come salvare la terra
Oggi la responsabilità sociale delle imprese deve includere la sostenibilità. Scopri esempi, definizioni e come realizzare un commercio sostenibile.
Come ridurre l'impatto ambientale dell'IA
Gli esperti del settore affermano che ci sono diversi passi che le aziende possono intraprendere per garantire che l’intelligenza artificiale generativa non prosciughi seriamente le future riserve idriche.
Se le infrastrutture che supportano l’intelligenza artificiale necessitano di grandi volumi di acqua per il raffreddamento, ha senso posizionarle vicino a laghi, fiumi e stagni. Ma se questi corpi idrici dovessero esistere in aree colpite dalla siccità come gli Stati Uniti occidentali, tale situazione potrebbe portare a significativi problemi operativi e commerciali ogni volta che le forniture idriche vengono improvvisamente limitate o addirittura interrotte.
Per questo motivo, Ren consiglia alle aziende di iniziare a cercare modi per utilizzare il software per bilanciare il carico della formazione AI in diverse sedi o programmarla per i periodi più freddi della giornata o dell’anno per ridurre al minimo l’evaporazione dell’acqua durante il raffreddamento.
Aggiunge che man mano che le persone vengono a conoscenza dell’impatto ambientale dell’intelligenza artificiale, le aziende devono essere sensibili a come i residenti potrebbero vedere i loro piani per costruire data center locali. Gli sforzi di Google per creare un data center che, secondo quanto riferito, utilizzerebbe 7,6 milioni di litri di acqua al giorno (sufficienti per supportare l'uso domestico quotidiano di 55.000 persone), hanno scatenato feroci proteste locali nell'Uruguay colpito dalla siccità.
Ove possibile, gli esperti suggeriscono di utilizzare apparecchiature che utilizzino l’aria esterna per raffreddare le strutture. Ma quando le temperature superano gli 85F, cosa che accade spesso nei climi più caldi come Phoenix o nell’Asia orientale, ciò potrebbe non essere possibile. In queste situazioni, le aziende devono ricercare e sviluppare nuove tecnologie di raffreddamento che utilizzino meno acqua.
Microsoft ha lavorato in quest'area utilizzando il raffreddamento adiabatico, in cui le unità di trattamento dell'aria spingono l'aria su mezzi evaporativi per aggiungere umidità all'aria e abbassare le temperature con un consumo energetico minimo. A Gavle, in Svezia, sta anche catturando l'acqua piovana per iniettare umidità di raffreddamento nel suo data center ogni volta che l'aria esterna scende al di sotto del 5% di umidità.
Un’altra tattica è un maggiore utilizzo di sistemi di raffreddamento che utilizzano acqua riciclata anziché acqua dolce, dicono gli esperti.
Commercio verde e crescita del consumatore consapevole
I modelli di commercio verde stanno crescendo poiché i consumatori cercano di ridurre il proprio impatto ambientale acquistando articoli usati o noleggiandoli.
Proteggere le preziose risorse idriche
Ren afferma che il pubblico deve esigere trasparenza sull’uso dell’acqua e sugli impegni di conservazione. Le soluzioni di intelligenza artificiale di aziende che dimostrano di fare del loro meglio per risparmiare acqua saranno più attraenti per i clienti, aggiunge.
Ren afferma che c’è ancora tempo per integrare la conservazione dell’acqua nella formazione e nella tecnologia dell’intelligenza artificiale, ma il tempo finirà se questo problema non verrà preso il più seriamente possibile.
“In generale, non siamo ancora arrivati al punto in cui l’intelligenza artificiale ha portato via in modo tangibile una delle nostre risorse naturali più essenziali”, afferma. "Se siamo più attenti all'uso dell'intelligenza artificiale, penso che possiamo sicuramente garantire che i benefici complessivi dell'intelligenza artificiale siano positivi."