GLM-5
Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
744 Mrd.
Modellfamilie
GLM-5
MIT
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
28.500 Mrd.
Parameter
744 Mrd.
Input Preis
$1.00
Output Preis
$3.20
Vokabular
154,88k
Dateigröße
1404,19 GB
GLM-5 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | MoE-Transformer |
|---|---|
| Input Kontextlänge | 200k |
| Output Kontextlänge | 128k |
| Tokenizer | GLM Tokenizer |
Besonderheiten
| Neue Reinforcement-Learning-Infrastruktur | "Slime" (asynchrones RL) |
|---|---|
| Attention Mechanismus | DeepSeek Sparse Attention (DSA) |
| Adaptive Thinking Mode | Auswahlmöglichkeiten aus verschiedenen Reasoning-Modi |
Vorteile & Nachteile
Vorteile
- Führendes Open-Source-ModellGLM-5 ist das erste Open-Weight-Modell, das einen Score von 50+ auf dem Artificial Analysis Intelligence Index erreicht. Es liegt auf einem Level mit proprietären westlichen Modellen wie Opus-4.5 und GPT-5.2 (high
- Niedrige HalluzinationsrateGLM-5 erreicht die niedrigste jemals gemessene Halluzinationsrate aller von ArtificialAnalysis.ai getesteten Modelle.
- Starke Coding- und Agent-FähigkeitenGLM-5 erreicht mit 77,8% im SWE-bench Verified, 75,9 in BrowseComp (Top-Platzierung) und 89,7% im τ²-Benchmark hervorragende Ergebnisse, auf dem Level proprietärer Modelle.
- Open Weights unter MIT-LizenzZ.ai veröffentlicht GLM-5 vollständig open-source auf HuggingFace. Du kannst die Gewichte herunterladen und das Modell lokal deployen und ausführen, vorausgesetzt, deine Hardware ist stark genug. Kommerzielle Nutzung erlaubt.
- Unabhängig von NVIDIA-HardwareDass GLM-5 angeblich ohne NVIDIA Hardware trainiert werden konnte, könnte einen Durchbruch im LLM-Training bedeuten. Die Abhängigkeit chinesischer Modelle von US-Firmen wird immer weiter abgebaut.
Nachteile
- Nur Text-InputGLM-5 ist kein multimodales LLM. Für Bilder / Computer Vision wird ein separates Modell, vmtl zukünftig GLM-5V benötigt.
- Sehr hohe Hardware-AnforderungenIn BF16-Präzision ist GLM-5 ca. 1,51 TB groß. Um das Modell lokal ausführen zu können, muss man damit rechnen, dass mind. 8 leistungsstarke GPUs benötigt werden.
- Politischer BiasWie bei anderen chinesischen Modellen auch, muss davon ausgegangen werden, dass das Modelle unter politischen Einflüssen trainiert wurde und entsprechend eine Interpretation der Historie Chinas widergibt.
Vergleiche GLM-5 mit anderen LLMs
Vergleiche GLM-5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst Z.ai GLM-5 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.