Google Gemma 4 släpps som open source

Medan teknikvärlden har tittat på när kinesiska AI-modeller tagit över open source-tronen en position i taget, svarar nu Google med sitt tyngsta öppna kort hittills. Google Gemma 4 är här, den är gratis, och den kan köras på din Raspberry Pi. Ja, du läste rätt.

Vad är Google Gemma 4 egentligen

Till skillnad från Gemini, som är en prenumerationsbaserad sluten produkt, är Gemma en öppen modell som kan laddas ned och köras lokalt helt utan kostnad. Det betyder att du inte behöver skicka ett enda tecken data till Googles servrar om du inte vill det.

Gemma 4 lanseras i fyra storlekar: Effective 2B, Effective 4B, 26B Mixture of Experts och 31B Dense. Hela familjen är byggd för att hantera komplex logik och agentiska arbetsflöden, inte bara enkel chatt.

Modellerna är explicit designade för användning på egen hårdvara, från smartphones och IoT-enheter till laptop-GPU:er och professionella utvecklararbetsstationer.

Licensen är den verkliga nyheten

Det mest uppseendeväckande med Google Gemma 4 är inte modellen i sig, utan hur den licensieras.

Googles tidigare Gemma-versioner använde en anpassad licens som skapade juridisk osäkerhet för kommersiella produkter. Apache 2.0 tar bort den friktionen helt och utvecklare kan modifiera, redistribuera och kommersialisera utan att behöva oroa sig för att Google ändrar villkoren längre fram.

Hugging Face-grundaren Clement Delangue kommenterade lanseringen och sade att lokal AI har sin stund nu och är framtiden för AI-industrin. Google DeepMinds vd Demis Hassabis gick ännu längre och kallade Gemma 4 för de bästa öppna modellerna i världen för sina respektive storlekar.

Prestanda i siffror

Google positionerar för närvarande 31B-modellen på plats 3 på Arena AI:s textrankning bland alla öppna modeller globalt, och 26B-modellen på plats 6. Enligt Google överträffar Gemma 4 på detta sätt modeller med upp till tjugo gånger fler parametrar.

Men ingen fest utan en sur granne. En direkt jämförelse med de starkaste kinesiska open source-modellerna, som de från DeepSeek-familjen, visar att Gemma 4 ännu inte riktigt hänger med där. Kineserna sätter fortfarande ribban högst i tyngdklassen.

Modellen visar starka resultat inom matematik med 89,2 procent på AIME 2026 för 31B-modellen, vetenskaplig kunskap med 84,3 procent på GPQA Diamond, och tävlingskodning med 80,0 procent på LiveCodeBench v6.

Vad den kan göra förutom att imponera på pappret

Alla modeller hanterar bilder och videor nativt. De mindre E2B och E4B-modellerna stödjer dessutom ljudinput för taligenkänning. Kantmodellerna erbjuder ett kontextfönster på 128 000 tokens, medan de större modellerna stödjer upp till 256 000 tokens. Modellen är tränad på mer än 140 språk.

Googles LiteRT-LM-runtime låter Effective 2B-modellen köras med under 1,5 gigabyte minne på kompatibla enheter. På en Raspberry Pi 5 behandlar den 4 000 inputtokens över två distinkta uppgifter på under tre sekunder. Det är rätt imponerande för en burk som kostar några hundralappar.

Bakgrunden ingen pratar om tillräckligt

Det senaste året har open source-AI-ligan till stor del varit en kinesisk angelägenhet. DeepSeek, Minimax, GLM och Qwen har dominerat topplaceringarna och lämnat amerikanska alternativ kämpande för relevans. Kinesiska öppna modeller gick från knappt 1,2 procent av global open source-användning i slutet av 2024 till ungefär 30 procent i slutet av 2025.

Metas Llama brukade vara förstahandsvalet för utvecklare som ville ha en kapabel och lokalt körbar modell. Det ryktet har eroderat och Llamas Meta-kontrollerade licens väckte frågor om dess faktiska open source-status.

Google Gemma 4 är alltså inte bara en ny modell. Det är ett svar på en pågående geopolitisk dragkamp om vem som ska äga framtidens öppna AI-infrastruktur.

Var kan man ladda ner och testa Google Gemma 4

Google Gemma 4 finns tillgängligt nu i Google AI Studio för 31B och 26B-versionerna, och i Google AI Edge Gallery för E2B och E4B. Modellvikterna finns även på Hugging Face, Kaggle och Ollama.

Gemma 4 körs på Android och iOS med stöd för både CPU och GPU, samt på Windows, Linux och macOS. Körning i webbläsaren via WebGPU stöds också.

För den som vill hoppa in direkt utan att skriva ett enda kodrad har Google dessutom lanserat ett nytt Python-paket och ett kommandoradsverktyg för att experimentera med modellerna direkt.

Källor

https://deepmind.google/models/gemma/gemma-4

Föregående inlägg

Nästa inlägg

Följ på
Sök Trendigt
Poppis
Belastning

Inloggning 3 sekunder...

Registrering 3 sekunder...

Kundvagn
Uppdatering av varukorg

HandlaDin varukorg är för närvarande tom. Du kan besöka vår butik och börja handla.