Du skriver några ord i rutan, trycker på enter – och vips så har du ett färdigt svar på skärmen. Det känns smidigt, nästan magiskt. Men det du inte ser är all den teknik som jobbar i bakgrunden. Och det väcker en viktig fråga: hur mycket energi krävs det egentligen för att få ett svar från en AI som ChatGPT?
Det är en fråga som många börjar fundera över nu när AI blir allt mer närvarande i våra liv. Svaren är inte helt enkla – men de är både överraskande och tankeväckande.
Under lång tid cirkulerade uppskattningar om att en fråga till ChatGPT kunde kräva runt 3 wattimmar (Wh) i elförbrukning. För att sätta det i perspektiv: det är ungefär tio gånger så mycket som en Google-sökning. För enstaka frågor låter det kanske inte som något att oroa sig för – men gångra det med miljontals användare, dag efter dag, så inser man snabbt att det blir en hel del.
Men ny forskning från Epoch AI visar att den verkliga förbrukningen i vissa fall är betydligt lägre – särskilt med den nyare och mer energieffektiva GPT-4o. Den landar i snitt på ungefär 0,3 Wh per fråga. Det är en ganska stor skillnad.
Så vad betyder det i praktiken? Tänk dig att du låter en LED-lampa lysa i två-tre minuter – ungefär den mängden energi kräver en fråga till GPT-4o.
Man skulle kunna tro att 0,3 Wh är försumbart. Och ja, sett till en enskild fråga är det rätt lite. Men om vi zoomar ut och tittar på helheten blir bilden en annan.
ChatGPT hanterar miljontals förfrågningar varje dag – bara från den öppna versionen. Lägg därtill alla anpassade användningar av GPT i appar, företagssystem, utbildningsverktyg och personliga assistenter. Energin staplas snabbt på hög. När man summerar ihop allt kan det handla om flera miljoner kilowattimmar varje månad.
Det blir alltså ett riktigt energislukande maskineri, om än ett ganska osynligt sådant. Och det väcker följdfrågor: Vad driver dessa system? Kommer elen från fossila källor eller förnybara? Och hur kan vi göra AI mer hållbart i framtiden?
Något som ofta glöms bort i diskussionen är kylningen. De enorma datacenter som kör modeller som ChatGPT genererar mycket värme – och för att hålla servrarna svala används ofta vattenkylningssystem.
Enligt vissa uppskattningar går det åt flera deciliter vatten varje gång du interagerar med en avancerad språkmodell. Det kanske inte låter så dramatiskt, men i skala blir det en påfrestning för vattenresurser – särskilt i regioner där vatten är en bristvara.
Så medan energiförbrukningen ofta får mest uppmärksamhet, finns det alltså en annan resurs att hålla koll på: vatten.
Här landar vi i en större, lite klurigare fråga: är det rimligt att vi förbrukar all denna energi – och vatten – för att få snabba svar, generera texter, koda, skriva dikter och hjälpa till med vardagliga uppgifter?
Svaret beror nog på vem du frågar. För vissa är AI ett ovärderligt verktyg som ökar produktiviteten, tillgängligheten och kreativiteten. För andra är det en teknik som växer lite för snabbt – med miljöpåverkan som en oönskad bieffekt.
Vad vi däremot kan enas om är att transparens spelar en viktig roll. När vi förstår hur mycket resurser tekniken kräver, kan vi fatta mer informerade beslut kring hur och när vi använder den.
Det positiva i allt detta är att utvecklingen går framåt. Moderna AI-modeller blir inte bara smartare – de blir också mer energieffektiva. Teknikjättar satsar på att driva sina datacenter med förnybar energi, och forskning pågår för att hitta ännu mer resurssnåla arkitekturer.
Men det kräver också att vi användare gör vår del. Genom att vara medvetna om teknologins avtryck kan vi bidra till att forma en mer hållbar digital framtid. Kanske handlar det inte om att sluta använda AI – utan om att använda den smartare.
Tänk på att bakom varje AI-svar döljer sig en hel infrastruktur av servrar, elkablar, kylsystem och smart ingenjörskonst. Det är ett fascinerande ekosystem – men också ett som förtjänar vår eftertanke.
Och kanske är det precis där vi börjar: inte med att sluta använda tekniken, utan med att förstå den bättre.