Sempre più persone utilizzano nella quotidianità l'Intelligenza Artificiale, per lavoro, per studio, ma anche come attività di intrattenimento.
Crescendo il numero di utenti, tra occasionali e costanti, aumenta la richiesta di risorse hardware necessarie per soddisfare le richieste. È così che deve cresce il numero di Centri Dati su cui “far girare” l'intelligenza artificiale.
Ma ciascun Data Center consuma parecchio, consuma energia elettrica per funzionare e consuma acqua per il raffreddamento delle unità di calcolo. Si tratta di numeri grossi che sollevano ragionevoli dubbi sul loro impatto ambientale. Tuttavia è presto per formulare conclusioni.
ChatGPT è un'intelligenza artificiale sviluppata da OpenAI, un’organizzazione americana di ricerca sull’Intelligenza Artificiale fondata nel 2015 e il cui quartiere generale si trova a San Francisco, in California.
Per una definizione sintetica di cosa sia ChatGPT lo abbiamo chiesto proprio a lui, ossia a ChatGPT: Chat GPT definisce se stesso “Un assistente virtuale conversazionale che utilizza l’intelligenza artificiale per comprendere e generare testi in linguaggio naturale, simulando un dialogo umano.”
ChatGPT si trova al Centro Dati di Microsoft Azure a San Antonio in Texas (USA). Il servizio utilizza macchine virtuali per gestire le richieste manuali dei singoli utenti, ossia le domande che noi scriviamo da tastiera sul prompt di ChatGPT, e le richieste automatiche fatte tramite applicazioni software (API).
Microsoft Azure possiede i propri Centri Dati dislocati in varie parti degli Stati Uniti (in almeno 10 diverse città) ma anche in ben 31 nazioni diverse.
Volendo semplificare al massimo, ChatGPT è un software che gira su computer, o meglio su migliaia di computer che fisicamente si trovano in questi centri dati.
Immaginate piani interi di edifici pieni di rack contenenti computers. Per funzionare questi computer, e quindi l’intero data center che ospita ChatGPT servono due cose fondamentali: energia elettrica ed acqua. L’energia elettrica serve a far funzionare i computer mentre l’acqua serve per il loro raffreddamento.
Abbiamo esperienza comune di come il nostro cellulare si riscaldi quando lo utilizziamo. Allo stesso modo i nostri notebook o desktop si surriscaldano. Per raffreddarli vengono utilizzate delle microventole (la componente più rumorosa del computer) che raffreddano attraverso un flusso forzato di aria.
Nei grandi centri di calcolo o Centri Dati il raffreddamento avviene con l’utilizzo dell’acqua (un qualcosa di simile al raffreddamento del motore dell’auto con l’acqua contenuta nel radiatore).
Secondo uno studio riportato sul Sole 24 ore, tra il 2017 e il 2022 il consumo di acqua è aumentato del 6% annuo. Per esemplificare, nel 2022, Google ha consumato 20 miliardi di litri d'acqua, pari al consumo annuale di 2,5 milioni di europei.
Una singola ricerca su Google consuma circa 0,3 wattora (Wh), mentre una richiesta a ChatGPT ne consuma quasi dieci volte di più.
Si prevede che il consumo energetico dei data center possa superare i 1.000 TWh (1000 miliardi di megawatth) entro il 2026, equivalente al consumo annuale del Giappone.
E' chiaro allora che l’IA consuma sia corrente che acqua. Con la velocità con cui si sta diffondendo l’utilizzo dell’Intelligenza Artificiale, si tra moltiplicando anche il consumo di energia elettrica ed acqua da parte della stessa.
In un suo articolo, The Guardian riporta che per il 2026 l’IA da sola consumerà la stessa quantità di energia elettrica oggi consumata dall’Intero Giappone.
Secondo un rapporto dell'Agenzia Internazionale per l'Energia (AIE), entro il 2030 solo negli Stati Uniti l'elaborazione dei dati, principalmente per l'intelligenza artificiale, consumerà più elettricità rispetto a tutti gli altri beni ad alto consumo energetico messi insieme (ad esempio alla produzione di acciaio, cemento, prodotti chimici, …).
Se la richiesta globale di energia elettrica è prevista raddoppiare entro il 2030, quella da parte della IA quadruplicherà.
Per dare i numeri, sempre il The Guardian riporta che ciascun nuovo centro dati per l’Intelligenza artificiale consumerà l’equivalente consumato da 2.000.000 di famiglie.
Tuttavia, è presto per additare l'Intelligenza Artificiale come la causa per cui la battaglia contro il cambiamento climatico andrà persa.
Infatti, proprio dall'IA potrebbero venire le soluzioni per minimizzare i consumi, (non solo i propri) per ottimizzare le reti di distruzione, per incentivare l'uso di fonti rinnovabili.
Quindi l'incentivazione nell'uso della IA richiede un prezzo da pagare in termini di consumi ma di contro potrebbe fornire un aiuto in più nella battaglia al cambiamento climatico.