Veröffentlichung

Gemma 4: Neue Open Source LLMs von Google hinter China, aber deutlich vor OpenAI

Gemma 4 by Google Deepmind. © Google
Gemma 4 by Google Deepmind. © Google

Google DeepMind hat mit Gemma 4 eine neue Generation offener KI-Modelle vorgestellt. Die Modellfamilie richtet sich an Entwickler, Forscher und Unternehmen, die leistungsfähige KI-Systeme auf eigener Hardware betreiben möchten. Gemma 4 wird unter der permissiven Apache-2.0-Lizenz veröffentlicht und steht damit zur freien kommerziellen Nutzung zur Verfügung.

Was ist Gemma 4 und für wen ist es gedacht?

Gemma 4 ist eine Familie offener Sprachmodelle, die laut Google DeepMind auf derselben Forschungsgrundlage wie das proprietäre Gemini-3-Modell basiert. Die Modelle sind explizit für den Einsatz auf eigener Hardware konzipiert, von Smartphones und IoT-Geräten über Laptop-GPUs bis hin zu professionellen Entwicklerstationen. Zielgruppe sind Entwickler, die KI-Anwendungen lokal betreiben, anpassen oder in bestehende Systeme integrieren möchten.

Die Modellfamilie umfasst vier Varianten: die edge-optimierten Modelle Effective 2B (E2B) und Effective 4B (E4B) für mobile Geräte sowie ein 26-Milliarden-Parameter-Mixture-of-Experts-Modell und ein 31-Milliarden-Parameter-Dense-Modell für anspruchsvollere Aufgaben auf Desktop- und Serverinfrastruktur.

Stärken laut Google DeepMind

Google DeepMind hebt mehrere Kernfähigkeiten der neuen Modellgeneration hervor:

  • Erweitertes Schlussfolgern: Gemma 4 soll mehrstufige Planung und komplexe Logikaufgaben beherrschen und zeigt laut Google deutliche Verbesserungen in Mathematik- und Instruktionsbefolgungsbenchmarks.
  • Agentische Workflows: Native Unterstützung für Funktionsaufrufe, strukturierte JSON-Ausgaben und Systemanweisungen ermöglicht den Aufbau autonomer Agenten, die mit externen Tools und APIs interagieren.
  • Code-Generierung: Die Modelle sollen qualitativ hochwertige Codegenerierung offline ermöglichen und als lokaler KI-Coding-Assistent fungieren.
  • Multimodalität: Alle Modelle verarbeiten nativ Bilder und Videos. Die kleineren E2B- und E4B-Modelle unterstützen zusätzlich Audio-Eingaben für Spracherkennung.
  • Langer Kontext: Die Edge-Modelle bieten ein Kontextfenster von 128.000 Token, die größeren Modelle sogar bis zu 256.000 Token.
  • Mehrsprachigkeit: Das Modell wurde auf über 140 Sprachen trainiert.

Einordnung: Wo steht Gemma 4 im Vergleich?

Google positioniert das 31B-Modell auf dem Arena-AI-Textleaderboard aktuell auf Platz 3 unter allen offenen Modellen weltweit, das 26B-Modell auf Platz 6. Damit übertrifft Gemma 4 nach eigenen Angaben Modelle, die bis zu zwanzigmal mehr Parameter besitzen. Ein direkter Vergleich mit den leistungsstärksten chinesischen Open-Source-Modellen, etwa aus der DeepSeek-Familie, zeigt jedoch, dass Gemma 4 dort noch nicht mithalten kann. Chinesische Anbieter haben in den vergangenen Monaten mit sehr großen offenen Modellen Maßstäbe gesetzt, die Gemma 4 in dieser Gewichtsklasse nicht erreicht.

Gegenüber dem offenen Modell von OpenAI schneidet Gemma 4 nach verfügbaren Benchmarkdaten deutlich besser ab. Besonders in den Bereichen Mathematik (AIME 2026: 89,2 Prozent beim 31B-Modell), wissenschaftliches Wissen (GPQA Diamond: 84,3 Prozent) und kompetitives Coding (LiveCodeBench v6: 80,0 Prozent) zeigt das Modell starke Ergebnisse.

Relevant für den Vergleich zu anderen Open-Source-KI-Modellen ist sicher diese Grafik, die zeigt, dass Gemma 4 ein Stückchen hinter Gwen 3.5 von Alibaba, GLM-5 von Zhipu AI und Kimi K2.5 von Moonshot AI zurückbleibt, wenn auch nicht sehr viel. Deutlicher ist der große Abstand zu GPT-OSS-120B von OpenAI – wohl von Google absichtlich in die Grafik aufgenomen:

Verfügbarkeit und Ökosystem

Die Modellgewichte sind ab sofort über Hugging Face, Kaggle und Ollama verfügbar. Unterstützung besteht vom ersten Tag an für gängige Frameworks wie Hugging Face Transformers, vLLM, llama.cpp, MLX und LM Studio. Für den produktiven Einsatz in der Cloud bietet Google Deployments über Vertex AI, Cloud Run und Google Kubernetes Engine an.

Für Android-Entwickler steht Gemma 4 über den AICore Developer Preview bereit, mit dem Ziel der Vorwärtskompatibilität mit Gemini Nano 4. Die Apache-2.0-Lizenz erlaubt dabei sowohl private als auch kommerzielle Nutzung ohne wesentliche Einschränkungen, was Gemma 4 zu einer ernstzunehmenden Option für Unternehmen macht, die digitale Souveränität und Datenkontrolle priorisieren.

Rank My Startup: Erobere die Liga der Top Founder!
Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2026

Österreichs größter Startup-Wettbewerb - Top-Investoren mit an Bord

RankMyStartup.com

Steig' in die Liga der Top Founder auf!
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

2 Minuten 2 Millionen | Staffel 13

Alle Startups | Alle Deals | Alle Hintergründe

AI Talk

Der führende KI Podcast mit Clemens Wasner & Jakob Steinschaden

Future{hacks}

Zwischen Hype und Realität

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

Weiterlesen