Gemma 4
Veröffentlichung
April 2026
Knowledge Cutoff
Januar 2025
Parameter
30,7 Mrd.
Modellfamilie
Gemma 4
Apache 2.0
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
262,14k Token
Max. Output
131,07k Token
Trainingsdaten
Unbekannt
Parameter
30,7 Mrd.
Input Preis
$0.14
Output Preis
$0.40
Vokabular
262k
Dateigröße
58,25 GB
Gemma 4 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | Dense-Transformer |
|---|---|
| Input Kontextlänge | 262,14k |
| Output Kontextlänge | 131,07k |
| Tokenizer | SentencePiece-Tokenizer |
Besonderheiten
| Multimodales Function Calling | Unterstützt nativ auch Bild-Input bei Function Calls. |
|---|---|
| Thinking Mode | Aktivierbarer Reasoning-Modus (enable_thinking=True) |
| Video-Inputs | Native Verarbeitung von Video-Input über Frame-Level-Reasoning |
Vorteile & Nachteile
Vorteile
- Hervorragende Benchmark ErgebnisseMit nur 31B Parametern ist Gemma 4 ein kleines LLM. Dennoch erreicht es in manchen Benchmarks bessere Ergebnisse, als Modelle mit 20x mehr Parametern, z.B. einen ELO von 1452 im Arena.ai Ranking vs. 1449 von Qwen 3.5 397B oder 1425 bei DeepSeek V3-2 Thinking.
- Reasoning- und Coding-FähigkeitenGemma 4 (31B) erreicht 89.2% in AIME 2026, 80.0% auf LiveCodeBench v6, 84.3% auf GPQA Diamond und einen Codeforces ELO von 2.150. Damit eignet sich das Modell auch für Coding-Aufgaben.
- Vollständig Open Source unter Apache 2.0Gemma 4 ist im Vergleich zum Vorgänger Gemma 3 uneingeschränkt kommerziell und ohne Lizenzgebühren nutzbar. Die Gewichte von Gemma 4 lassen sich HuggingFace herunterladen, sodass sich das Modell lokal ausführen lässt.
- Kostenlos über Google AI Studio APIZum Zeitpunkt der Veröffentlichung ist Gemma 4 kostenlos über die API von Google AI Studio abrufbar.
- Breiter Framework-SupportUnterstützt transformers, llama.cpp, SGLang, Ollama, LM Studio, MLX, ONNX, Mistral.rs und weitere Frameworks.
- Multimodal mit Bild- und Video-InputsGemma 4 kann Text, Bilder und Videos nativ mit variablen Auflösungen und konfigurierbaren Token-Budgets als Inputs verarbeiten.
Nachteile
- Kein Audio-Support im 31B-ModellAudio-Input ist nur bei den kleineren Edge-Varianten (E2B, E4B) verfügbar, nicht bei der großen 31B-Dense Hauptversion.
- Hoher Speicherbedarf für lokales DeploymentUm Gemma 4 (31B) in BF16 nutzen zu können, werden mindestens 61.4 GB RAM benötigt. Als Alternative werden quantisierte Versionen, z.B. Q4_K_M (ca. 18.7 GB RAM-Anforderung) oder die kleineren Versionen der Gemma-4 Familie als Alternativen angeboten.
- Tooling + Community Aufbau notwendigBislang drehte sich das OSS-KI-Ökosystem hauptsächlich um chinesische Modelle. Entsprechend muss das Ökosystem rund um westliche OSS Modelle noch wachsen. Durch die neue Apache-2.0 Lizenzierung dürfte dies voraussichtlich aber rasch geschehen.
Vergleiche Gemma 4 mit anderen LLMs
Vergleiche Gemma 4 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst Google DeepMind Gemma 4 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.