Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

GLM-5.1

Veröffentlichung
April 2026
Knowledge Cutoff
Unbekannt
Parameter
744 Mrd.
Modellfamilie
GLM-5.1
MIT

GLM-5.1 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
202,75k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
744 Mrd.
Input Preis
$1.40
Output Preis
$4.40
Vokabular
154,88k
Dateigröße
1404,19 GB

GLM-5.1 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturSparse-MoE-Architektur
Input Kontextlänge202,75k
Output Kontextlänge128k
TokenizerGLM Tokenizer

Besonderheiten

8-Stunden autonomes CodingIn Demos wurden bis zu 1.700 Iterationen ohne menschliches Eingreifen erreicht.
Training ohne NVIDIA HardwareLaut Z.AI wurde GLM-5 / GLM-5.1 auf ca. 100.000 Huawei Ascend 910B NPUs trainiert, ohne NVIDIA Grafikchips. Geopolitisch stellt dies einen relevanten Meilenstein für Chinas KI-Souveränität dar.

Vorteile & Nachteile

Vorteile

  • Starkes Open-Source Coding Modell
    GLM-5.1 erreicht 58,4% in SWE-Bench Pro und führt damit die Open-Source-Modellen an. Speziell in diesem Benchmark übertrifft GLM-5.1 auch GPT-5.4, Claude Opus 4.6 und Gemini 3.1 Pro.
  • Sehr gute Ergebnisse in Agentischen Benchmarks
    Im Terminal-Bench 2.0 erzielt GLM-5.1 63,5% Laut Z.ai erreicht GLM-5.1 rund 94,6% der Coding-Performance von Claude Opus 4.6 – zu einem deutlich niedrigerem Preis.
  • Open Weights unter MIT-Lizenz
    GLM-5.1 ist vollständig open-source und lässt sich auf Hugging Face für freie kommerzielle Nutzung herunterladen. Mit den Gewichten lässt sich das Modell lokal auf eigener Hardware deployen.
  • Native Coding-Agent-Kompatibilität
    Direkte Integration in Claude Code, OpenCode, Cline, Roo Code und weiteren Agent-Frameworks ohne zusätzliche Anforderungen.

Nachteile

  • Kein multimodaler Input
    GLM-5.1 ist ein reines Text-Modell ohne Computer-Vision oder Audio- oder Video-Verarbeitung. Zum Analysieren von Bildern sind andere Modelle notwendig.
  • Sehr hohe Hardware-Anforderungen
    In BF-16 Präzision benötigt GLM-5-1 ca. 1.490 GB Speicher. Lokales Deployment erfordert entsprechend teure Multi-GPU-Server Setups, es werden mind. 8 GPUs empfohlen.
  • Preiserhöhung gegenüber GLM-5
    Die Token-Preise von GLM-5.1 sind rund 10% höher als bei GLM-5 ($1,40/$4,40 statt $1,00/$3,20). Zu Peak-Zeiten (14:00-18:00 Beijing Time; 8:00-12:00 Uhr in Deutschland), erhebt Z.AI einen "Peak-Multiplikator", der die Kosten um 3x erhöht.

Vergleiche GLM-5.1 mit anderen LLMs

Vergleiche GLM-5.1 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Z.ai GLM-5.1 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.