L'AI consuma davvero tanta energia? (mistergadget.tech)
Sam Altman: “Anche gli esseri umani consumano energia” nella sfida ambientale dell’AI. Il CEO di OpenAI risponde alle critiche su acqua ed elettricità dei modelli generativi.
L’impatto ambientale dell’intelligenza artificiale è diventato uno dei temi più discussi del settore tecnologico. E questa settimana è intervenuto direttamente Sam Altman, CEO di OpenAI, durante un evento organizzato da The Indian Express.
Il messaggio è stato chiaro: molte delle cifre che circolano online sul consumo di acqua e energia dell’AI sarebbero fuorvianti o esagerate.
“L’acqua per query? Totalmente falso”
Altman ha definito “totalmente falso” il dato secondo cui ogni richiesta a ChatGPT consumerebbe decine di litri d’acqua. Secondo il CEO, in passato il raffreddamento evaporativo dei data center era effettivamente un tema rilevante, ma oggi le infrastrutture utilizzano sistemi diversi e più efficienti.
La narrazione secondo cui “una singola query consuma 17 galloni d’acqua” sarebbe, nelle sue parole, “insensata e senza connessione con la realtà”. Non ha però negato che il consumo energetico complessivo sia un problema.
Energia: il problema è il totale, non la singola richiesta
Altman ha ammesso che è legittimo preoccuparsi per l’energia necessaria a sostenere la crescita globale dell’AI. Non tanto per la singola interrogazione, quanto per il volume complessivo di utilizzo. Con l’adozione massiva dei modelli generativi, il carico sui data center è destinato ad aumentare. Per questo, secondo Altman, la soluzione passa da una rapida transizione verso fonti nucleari, eoliche e solari.
Il punto centrale del suo ragionamento è che l’AI, ormai, è parte strutturale dell’economia digitale. Bloccarla non è realistico. Rendere più sostenibile la produzione energetica sì.
Il paragone con l’essere umano
Uno dei passaggi più discussi dell’intervento riguarda il confronto tra AI e cervello umano.
Alla domanda se una singola richiesta a ChatGPT consumi l’equivalente di una carica e mezza di iPhone, Altman ha risposto che non c’è “alcuna possibilità” che sia vicino a quella cifra.Ha poi criticato i confronti tra l’energia necessaria per addestrare un modello e quella impiegata da un umano per rispondere a una domanda.
Secondo Altman, un confronto più equo dovrebbe considerare anche il “costo energetico” per formare una persona: anni di istruzione, nutrimento, infrastrutture sociali. In altre parole, anche l’intelligenza biologica ha un prezzo energetico elevato, solo distribuito nel tempo e meno visibile.
Un dibattito ancora aperto
Va ricordato che non esiste un obbligo legale per le aziende tecnologiche di rendere pubblici dati dettagliati su consumo energetico e idrico. Molti studi vengono condotti in modo indipendente da ricercatori.
Nel frattempo, i data center sono stati collegati all’aumento dei costi dell’elettricità in alcune aree. La questione non è se l’AI consumi energia. È quanta, come e con quali fonti venga prodotta. Il confronto tra efficienza per query e costo totale di addestramento resta un terreno complesso, dove numeri e metodologie possono cambiare radicalmente la narrazione.
Una cosa è certa: con l’espansione dell’AI generativa, la sostenibilità energetica non sarà un tema secondario. Sarà parte centrale della strategia industriale del settore. Di seguito potete vedere l’intervista dove Sam Altman ha parlato di questo tema: