Enligt OpenAI:s vd Sam Altman förbrukar en genomsnittlig fråga till ChatGPT cirka 0,34 Wh – ungefär lika mycket som en ugn på en sekund. Men experter varnar att denna siffra saknar nödvändig kontext och transparens.
Sasha Luccioni, klimatansvarig på Hugging Face, har visat att 84 % av all användning av stora språkmodeller saknar miljöinformation. Precis som att man kan köpa en bil med tydlig bränsleförbrukning per mil, borde AI‑verktyg visa effektivitetsmått, utsläppsfaktorer och energikostnader, men så är det inte – än.
Studier visar att energiförbrukningen för generativ AI kan vara betydligt högre än en enkel fråga till ChatGPT:
Det väcker frågan: är AI‑skapande verkligen effektivt jämfört med mänsklig kreativitet?
Trots att EU:s AI‑förordning (gällande från augusti 2024) syftar till att kräva energieffektivitet och rapportering från AI‑leverantörer, saknas fortfarande:
Forskarna menar att transparenta ramar skulle göra användare och företag mer medvetna och ansvariga
Inte bara el – AI‑modeller kräver massiva mängder färskvatten för att kyla datacenter:
Det här osynliga avtrycket visar att klimatfrågan för AI är mer omfattande än bara koldioxid.
AI‑verktyg som används dagligen är osynliga miljöbovar just nu. Det vore snarast skandal att sakna transparens för något som konsumerar både el och vatten i enorma mängder. Samtidigt erbjuder EU:s AI‑förordning en lovande start, men utan konkreta verktyg, sanktioner och öppna data kommer vi inte kunna granska eller minska AI‑teknikens avtryck.
Snart borde det finnas tydliga märkningar: “Denna AI‑fråga förbrukade X Wh, motsvarande Y sekunder i ugn.” Annars blir det svårt att ta ansvar – för både klimatet och vår konsumtion av denna kraftfulla teknik.
https://omni.se/ai-s-energiforbrukning-vacker-fragor-om-transparens/a/Xjkmp7
https://arxiv.org/abs/2506.15572