Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

Gemma 4

Veröffentlichung
April 2026
Knowledge Cutoff
Januar 2025
Parameter
30,7 Mrd.
Modellfamilie
Gemma 4
Apache 2.0

Gemma 4 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
262,14k Token
Max. Output
131,07k Token
Trainingsdaten
Unbekannt
Parameter
30,7 Mrd.
Input Preis
$0.14
Output Preis
$0.40
Vokabular
262k
Dateigröße
58,25 GB

Gemma 4 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturDense-Transformer
Input Kontextlänge262,14k
Output Kontextlänge131,07k
TokenizerSentencePiece-Tokenizer

Besonderheiten

Multimodales Function CallingUnterstützt nativ auch Bild-Input bei Function Calls.
Thinking ModeAktivierbarer Reasoning-Modus (enable_thinking=True)
Video-InputsNative Verarbeitung von Video-Input über Frame-Level-Reasoning

Vorteile & Nachteile

Vorteile

  • Hervorragende Benchmark Ergebnisse
    Mit nur 31B Parametern ist Gemma 4 ein kleines LLM. Dennoch erreicht es in manchen Benchmarks bessere Ergebnisse, als Modelle mit 20x mehr Parametern, z.B. einen ELO von 1452 im Arena.ai Ranking vs. 1449 von Qwen 3.5 397B oder 1425 bei DeepSeek V3-2 Thinking.
  • Reasoning- und Coding-Fähigkeiten
    Gemma 4 (31B) erreicht 89.2% in AIME 2026, 80.0% auf LiveCodeBench v6, 84.3% auf GPQA Diamond und einen Codeforces ELO von 2.150. Damit eignet sich das Modell auch für Coding-Aufgaben.
  • Vollständig Open Source unter Apache 2.0
    Gemma 4 ist im Vergleich zum Vorgänger Gemma 3 uneingeschränkt kommerziell und ohne Lizenzgebühren nutzbar. Die Gewichte von Gemma 4 lassen sich HuggingFace herunterladen, sodass sich das Modell lokal ausführen lässt.
  • Kostenlos über Google AI Studio API
    Zum Zeitpunkt der Veröffentlichung ist Gemma 4 kostenlos über die API von Google AI Studio abrufbar.
  • Breiter Framework-Support
    Unterstützt transformers, llama.cpp, SGLang, Ollama, LM Studio, MLX, ONNX, Mistral.rs und weitere Frameworks.
  • Multimodal mit Bild- und Video-Inputs
    Gemma 4 kann Text, Bilder und Videos nativ mit variablen Auflösungen und konfigurierbaren Token-Budgets als Inputs verarbeiten.

Nachteile

  • Kein Audio-Support im 31B-Modell
    Audio-Input ist nur bei den kleineren Edge-Varianten (E2B, E4B) verfügbar, nicht bei der großen 31B-Dense Hauptversion.
  • Hoher Speicherbedarf für lokales Deployment
    Um Gemma 4 (31B) in BF16 nutzen zu können, werden mindestens 61.4 GB RAM benötigt. Als Alternative werden quantisierte Versionen, z.B. Q4_K_M (ca. 18.7 GB RAM-Anforderung) oder die kleineren Versionen der Gemma-4 Familie als Alternativen angeboten.
  • Tooling + Community Aufbau notwendig
    Bislang drehte sich das OSS-KI-Ökosystem hauptsächlich um chinesische Modelle. Entsprechend muss das Ökosystem rund um westliche OSS Modelle noch wachsen. Durch die neue Apache-2.0 Lizenzierung dürfte dies voraussichtlich aber rasch geschehen.

Vergleiche Gemma 4 mit anderen LLMs

Vergleiche Gemma 4 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Google DeepMind Gemma 4 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.