Probabilmente in un prossimo futuro, più vicino che lontano, ci relazioneremo sempre di più con assistenti AI, applicazioni software in grado di comprendere le nostre esigenze e supportarci nella vita quotidiana, in ambito lavorativo e nel contesto aziendale. Li chiamerò i “Generativi”.
I Generativi sono strumenti che apprendono in maniera automatica, in grado di svolgere funzioni sostitutive e/o complementari agli Umani, nati quindi per facilitare, risparmiare tempo, suggerire, analizzare e rispondere in maniera analitica e algoritmica a qualsiasi dubbio, a seconda delle versioni più o meno avanzate.
Non dovremo stupirci, quindi, se, presentando un progetto a un’azienda, dall’altra parte verrà valutato in termini di efficienza dall’assistente AI sviluppato all’interno dell’azienda stessa.
I Generativi, interagendo con gli Umani, apprendono in ogni istante della comunicazione, identificano modelli e preferenze, anticipando le richieste e suggerendo come continuare l’esplorazione. Hanno la capacità di estrarre moltitudini di dati e informazioni, rispondendo a ogni quesito, dal più semplice al più complesso. Sono precisi ed efficaci quanto più l’interazione e le richieste lo sono. Non significa che non sbagliano, ma se a guidarli c’è una persona competente che sa di cosa ha bisogno, risolvono molte questioni, diventando pertinenti e tempestivi. Possono essere orientati al compito, alla conversazione e anche alla decisione.
Un futuro che è già presente e che non possiamo certo fermare, soprattutto se per molti significa risparmiare tempo e denaro.
Allora, se prima mi chiedevo quanti lavori sostituirà l’IA e, ad oggi, possiamo solo avere un’idea rispetto alle funzioni che in ogni parte del mondo ha già sostituito, oggi mi chiedo: “Ma quanta energia elettrica consuma l’IA? E quanto ci costa a livello energetico?”. Perché i Generativi richiedono server, chip specializzati e sistemi di raffreddamento.
Provo a fare il punto con le informazioni che ho trovato. Nel 2024 i data center hanno consumato circa l’1,5% dell’elettricità mondiale. Ma dal 2024 ad oggi il consumo è da considerare in forte crescita e potrebbe raddoppiare da qui al 2030.
Attingendo al modello già pronto di Gemini, Google ha reso noto che l’uso quotidiano, corrispondente a un prompt, comporta circa 0,24 Watt all’ora di elettricità, 0,26 millilitri di acqua e 0,03 grammi di CO2 equivalente. I dati dichiarati da OpenAI su ChatGPT, parlano di 0,34 Watt all’ora e 0,32 millilitri d’acqua per ogni prompt, in media. Tuttavia, il consumo di energia e risorse è molto più alto quando i modelli devono ancora essere addestrati.
Invece, generare immagini e video costa di più. Una clip di sei secondi può richiedere da 20 Watt in un’ora fino a oltre 100, secondo diverse analisi indipendenti. Ma attenzione, durata e risoluzione aumentano i consumi che potrebbero necessitare del doppio o del triplo dell’energia di base.
È chiaro che l’impatto energetico e ambientale sistemico dipende dal numero di utilizzi massivi e contestuali.
Tuttavia, i modelli avanzano e aumenta velocemente anche il loro fabbisogno energetico da sostenere per un’intelligenza sempre sveglia e in attività. Una singola richiesta su ChatGPT costa più di 50 volte l’energia di una tipica ricerca su Google. ChatGPT consuma circa 17,23 terawattora (1 miliardo di kilowattora) di elettricità all’anno; una quantità sufficiente ad alimentare l’intera Italia per 19 giorni e 17 ore, o la città di Roma per quasi un anno e 9 mesi (Fonte: Studio team di BestBrokers).
Per OpenAI vuol dire un costo energetico annuo stimato di 2,42 miliardi di dollari USA, viste le continue implementazioni su larga scala.
La conclusione non c’è. Ma la riflessione la lascio a voi.
Maria Luisa Visione