Med lanseringen av ChatGPT‑5 har AI-landskapet tagit ett stort kliv framåt – men det har också medfört en avsevärd ökning i energiförbrukning. Nya rapporter visar att GPT‑5 förbrukar upp till 20 gånger mer energi per svar än tidigare modeller. Detta väcker frågor om hållbarhet, teknikval och framtidens AI‑infrastruktur.
Vad ligger bakom den ökade energiförbrukningen?
Enligt forskare vid University of Rhode Island kräver ett medellångt svar från GPT‑5 (runt 1 000 tokens) i snitt över 18 wattimmar, och i vissa fall upp till 40 watttimmar. Jämförelsevis förbrukade tidigare modeller, som GPT‑4 och GPT‑3.5, en betydligt mindre mängd energi per svar.
Den ökade förbrukningen beror på flera faktorer:
- Större och mer komplex modell
GPT‑5 innehåller betydligt fler parametrar och använder en djupare arkitektur jämfört med tidigare versioner. Detta kräver mer processorkraft och därmed mer energi, både vid träning och inferens (användning). - Avancerad reasoning-funktionalitet
GPT‑5 har förbättrats avsevärt vad gäller logiskt resonemang och kontextförståelse. Dessa funktioner kräver att modellen aktiverar fler neurala nätverkslager, vilket ökar både processorkrav och beräkningstid. - Mixture-of-Experts och routing
GPT‑5 använder en teknik kallad mixture-of-experts, där endast relevanta delar av modellen aktiveras beroende på uppgiften. För att detta ska fungera effektivt, krävs ett realtidsrouting-system som avgör vilken del av modellen som ska användas. Även om denna arkitektur syftar till att förbättra effektiviteten, kräver det en komplex infrastruktur med hög tillgänglighet, vilket i sig ökar energiförbrukningen. - Parallella modeller och interna val
ChatGPT väljer automatiskt mellan olika versioner av GPT‑5 beroende på uppgiftens komplexitet. Det kan vara allt från gpt‑5‑main (för enklare uppgifter) till gpt‑5‑thinking-pro, som hanterar mer avancerade och logikintensiva frågor. Denna modellmångfald och parallella körning leder till större energibehov.
Modellöversikt: olika GPT‑5-varianter
GPT‑5 är inte en enda modell, utan en uppsättning varianter som är optimerade för olika typer av uppgifter:
- gpt‑5‑main och gpt‑5‑main‑mini: Används för generella och snabba svar.
- gpt‑5‑thinking, thinking‑mini, thinking‑nano: Används för komplexa resonemang, logiska analyser och avancerade uppgifter.
- gpt‑5‑thinking-pro: En premiumversion för multimodala och extra krävande uppgifter.
Den dynamiska routingen mellan dessa modeller gör att systemet kan optimera svarskvaliteten, men detta sker till priset av ökad systemkomplexitet och energiförbrukning.
Med miljarder förfrågningar per dag innebär detta att GPT‑5:s dagliga förbrukning potentiellt kan överstiga 45 GWh, vilket motsvarar energibehovet hos över 1,5 miljoner hushåll i USA.
Varför införde OpenAI routing i GPT‑5?
När OpenAI utvecklade GPT‑5 stod de inför en central utmaning: hur gör man en AI-modell mer intelligent, flexibel och resurseffektiv – utan att låta varje fråga aktivera hela det neurala maskineriet?
Svaret blev ett routing-system. Det handlar i grunden om att dynamiskt välja vilken del av modellen som ska hantera en förfrågan, beroende på uppgiftens komplexitet. Det är en arkitekturprincip som ofta kallas “Mixture of Experts” (MoE) – och routing är den intelligenta växel som styr trafiken.
De viktigaste anledningarna till routing
- Resurseffektivitet och prestanda
Istället för att köra hela modellen vid varje prompt (vilket skulle vara extremt energikrävande), gör routing det möjligt att bara aktivera relevanta delar av modellen. Det innebär att en enkel fråga – exempelvis en översättning eller faktaupplysning – kan besvaras av en mindre, lättare modell, medan en komplex, resonemangsintensiv fråga dirigeras till en tyngre del av GPT‑5. - Skalbarhet och lastbalansering
Med miljarder användare globalt behöver OpenAI hantera ett enormt antal samtidiga förfrågningar. Routing möjliggör lastbalansering mellan olika modeller och datacenter, vilket optimerar både svarstid och serverbelastning. Det är avgörande för att undvika flaskhalsar och driftstopp. - Kostnadskontroll
Varje GPU‑driven inferensprocess kostar pengar – inte bara i energi, utan också i hårdvaruresurser och kylning. Genom att dirigera enkla frågor till enklare modeller kan OpenAI minimera driftskostnaderna och samtidigt frigöra kapacitet för tyngre uppgifter. - Modulär arkitektur för framtida utveckling
Routing gör det också möjligt att uppdatera eller byta ut enskilda delar av GPT‑5:s modellfamilj – till exempel att byta ut gpt‑5‑thinking-mini mot en nyare version – utan att hela systemet behöver omtränas eller uppdateras. Det ger OpenAI hög flexibilitet i vidareutvecklingen. - Kvalitetsstyrning och personalisering
I framtiden kan routing också användas för att personalisera svar genom att välja modeller tränade på specifika användardata, intresseområden eller till och med tonläge. Det här är ännu i sin linda, men routing öppnar dörren för AI‑system som är mer anpassade efter användaren.
Datacenter och kylning: en växande utmaning
Det ökade energibehovet stannar inte vid själva beräkningskraften. Ett betydande problem är också kylningen av datacentren som hanterar dessa AI‑modeller. Det krävs enorma mängder energi för att hålla servrarna inom säkra temperaturgränser, särskilt när efterfrågan ökar.
- Upp till 40 % av ett AI‑datacenters energiförbrukning går åt till kylning.
- Tekniker som vätskekylning används allt mer, liksom placering av datacenter i kallare klimat för att minska behovet av aktiv kylning.
Vattenförbrukning – en bortglömd miljöaspekt
Utöver el kräver moderna datacenter även stora mängder vatten. Vatten används både för kylsystem och för att effektivisera energihanteringen. Trots att vissa företag rapporterar låg vattenanvändning per AI‑svar, visar oberoende studier att det kan röra sig om hundratals milliliter per förfrågan, vilket snabbt blir betydande vid massanvändning. Kör man större resonerande frågor så krävs mer kylning, hörde någon berätta om att ChatGPT stod och körde i 17 minuter i sträck. Så ställ ett datacenter på Nacka när de har vattenbrist…
AI-utvecklingen kräver hållbara lösningar, och det snabbare än vi tror
ChatGPT‑5 är en teknisk milstolpe med potential att revolutionera hur vi arbetar, lär oss och kommunicerar. Men den ökade energiförbrukningen innebär nya utmaningar – både ekonomiskt och miljömässigt. För att AI ska kunna utvecklas långsiktigt krävs det transparenta energidata, hållbara infrastrukturer och innovativa lösningar inom kylning och modelloptimering. Det här kanske är något som kommer dyka upp i ESG för företag och då kunna trycka tillbaka kraven mot AI leverantörerna att de måste vara transparenta för att företagen ska välja de.
Dashboard över modeller och energianvändning
Det finns ett riktigt bra dataset med tillhörande dashboard för att se olika modeller och deras energianvändning, även vattenförbrukning för kylning:
https://app.powerbi.com/view?r=eyJrIjoiZjVmOTI0MmMtY2U2Mi00ZTE2LTk2MGYtY2ZjNDMzODZkMjlmIiwidCI6IjQyNmQyYThkLTljY2QtNDI1NS04OTNkLTA2ODZhMzJjMTY4ZCIsImMiOjF9
Källor
https://www.theguardian.com/technology/2025/aug/09/open-ai-chat-gpt5-energy-use
https://www.windowscentral.com/artificial-intelligence/openai-chatgpt/gpt-5-is-powerful-but-hungry-1-5-million-us-households-energy
https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-5-power-consumption-could-be-as-much-as-eight-times-higher-than-gpt-4-research-institute-estimates-medium-sized-gpt-5-response-can-consume-up-to-40-watt-hours-of-electricity