Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

GLM-5

Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
744 Mrd.
Modellfamilie
GLM-5
MIT

GLM-5 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
28.500 Mrd.
Parameter
744 Mrd.
Input Preis
$1.00
Output Preis
$3.20
Vokabular
154,88k
Dateigröße
1404,19 GB

GLM-5 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturMoE-Transformer
Input Kontextlänge200k
Output Kontextlänge128k
TokenizerGLM Tokenizer

Besonderheiten

Neue Reinforcement-Learning-Infrastruktur"Slime" (asynchrones RL)
Attention MechanismusDeepSeek Sparse Attention (DSA)
Adaptive Thinking ModeAuswahlmöglichkeiten aus verschiedenen Reasoning-Modi

Vorteile & Nachteile

Vorteile

  • Führendes Open-Source-Modell
    GLM-5 ist das erste Open-Weight-Modell, das einen Score von 50+ auf dem Artificial Analysis Intelligence Index erreicht. Es liegt auf einem Level mit proprietären westlichen Modellen wie Opus-4.5 und GPT-5.2 (high
  • Niedrige Halluzinationsrate
    GLM-5 erreicht die niedrigste jemals gemessene Halluzinationsrate aller von ArtificialAnalysis.ai getesteten Modelle.
  • Starke Coding- und Agent-Fähigkeiten
    GLM-5 erreicht mit 77,8% im SWE-bench Verified, 75,9 in BrowseComp (Top-Platzierung) und 89,7% im τ²-Benchmark hervorragende Ergebnisse, auf dem Level proprietärer Modelle.
  • Open Weights unter MIT-Lizenz
    Z.ai veröffentlicht GLM-5 vollständig open-source auf HuggingFace. Du kannst die Gewichte herunterladen und das Modell lokal deployen und ausführen, vorausgesetzt, deine Hardware ist stark genug. Kommerzielle Nutzung erlaubt.
  • Unabhängig von NVIDIA-Hardware
    Dass GLM-5 angeblich ohne NVIDIA Hardware trainiert werden konnte, könnte einen Durchbruch im LLM-Training bedeuten. Die Abhängigkeit chinesischer Modelle von US-Firmen wird immer weiter abgebaut.
  • Gutes Preis-/Leistungsverhältnis
    Mit $1,00 / $3,20 pro Million Input- / Output-Tokens ist GLM-5 deutlich günstiger als vergleichbare Frontier-Modelle von Anthropic oder OpenAI.

Nachteile

  • Nur Text-Input
    GLM-5 ist kein multimodales LLM. Für Bilder / Computer Vision wird ein separates Modell, vmtl zukünftig GLM-5V benötigt.
  • Sehr hohe Hardware-Anforderungen
    In BF16-Präzision ist GLM-5 ca. 1,51 TB groß. Um das Modell lokal ausführen zu können, muss man damit rechnen, dass mind. 8 leistungsstarke GPUs benötigt werden.
  • Politischer Bias
    Wie bei anderen chinesischen Modellen auch, muss davon ausgegangen werden, dass das Modelle unter politischen Einflüssen trainiert wurde und entsprechend eine Interpretation der Historie Chinas widergibt.

Vergleiche GLM-5 mit anderen LLMs

Vergleiche GLM-5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Z.ai GLM-5 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.