GLM-5.1
Veröffentlichung
April 2026
Knowledge Cutoff
Unbekannt
Parameter
744 Mrd.
Modellfamilie
GLM-5.1
MIT
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
202,75k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
744 Mrd.
Input Preis
$1.40
Output Preis
$4.40
Vokabular
154,88k
Dateigröße
1404,19 GB
GLM-5.1 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | Sparse-MoE-Architektur |
|---|---|
| Input Kontextlänge | 202,75k |
| Output Kontextlänge | 128k |
| Tokenizer | GLM Tokenizer |
Besonderheiten
| 8-Stunden autonomes Coding | In Demos wurden bis zu 1.700 Iterationen ohne menschliches Eingreifen erreicht. |
|---|---|
| Training ohne NVIDIA Hardware | Laut Z.AI wurde GLM-5 / GLM-5.1 auf ca. 100.000 Huawei Ascend 910B NPUs trainiert, ohne NVIDIA Grafikchips. Geopolitisch stellt dies einen relevanten Meilenstein für Chinas KI-Souveränität dar. |
Vorteile & Nachteile
Vorteile
- Starkes Open-Source Coding ModellGLM-5.1 erreicht 58,4% in SWE-Bench Pro und führt damit die Open-Source-Modellen an. Speziell in diesem Benchmark übertrifft GLM-5.1 auch GPT-5.4, Claude Opus 4.6 und Gemini 3.1 Pro.
- Sehr gute Ergebnisse in Agentischen BenchmarksIm Terminal-Bench 2.0 erzielt GLM-5.1 63,5% Laut Z.ai erreicht GLM-5.1 rund 94,6% der Coding-Performance von Claude Opus 4.6 – zu einem deutlich niedrigerem Preis.
- Open Weights unter MIT-LizenzGLM-5.1 ist vollständig open-source und lässt sich auf Hugging Face für freie kommerzielle Nutzung herunterladen. Mit den Gewichten lässt sich das Modell lokal auf eigener Hardware deployen.
- Native Coding-Agent-KompatibilitätDirekte Integration in Claude Code, OpenCode, Cline, Roo Code und weiteren Agent-Frameworks ohne zusätzliche Anforderungen.
Nachteile
- Kein multimodaler InputGLM-5.1 ist ein reines Text-Modell ohne Computer-Vision oder Audio- oder Video-Verarbeitung. Zum Analysieren von Bildern sind andere Modelle notwendig.
- Sehr hohe Hardware-AnforderungenIn BF-16 Präzision benötigt GLM-5-1 ca. 1.490 GB Speicher. Lokales Deployment erfordert entsprechend teure Multi-GPU-Server Setups, es werden mind. 8 GPUs empfohlen.
- Preiserhöhung gegenüber GLM-5Die Token-Preise von GLM-5.1 sind rund 10% höher als bei GLM-5 ($1,40/$4,40 statt $1,00/$3,20). Zu Peak-Zeiten (14:00-18:00 Beijing Time; 8:00-12:00 Uhr in Deutschland), erhebt Z.AI einen "Peak-Multiplikator", der die Kosten um 3x erhöht.
Vergleiche GLM-5.1 mit anderen LLMs
Vergleiche GLM-5.1 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst Z.ai GLM-5.1 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.