Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Werde Teil der größten AI-Community in Deutschland

GLM-4.6

Veröffentlichung
September 2025
Knowledge Cutoff
Unbekannt
Parameter
355 Mrd.
Modellfamilie
GLM-4.6
MIT

GLM-4.6 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
355 Mrd.
Input Preis
$0.60
Output Preis
$2.00
Vokabular
Unbekannt
Dateigröße
664,57 GB

GLM-4.6 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturMixture-of-Experts
Input Kontextlänge200k
Output Kontextlänge128k
TokenizerGLM Tokenizer

Besonderheiten

Thinking ModeHybrider Thinking-Modus
Open Source (MIT-Lizenz)Kommerzielle Nutzung möglich
GLM Coding PlanClaude-Level-Performance für $3/Monat
Veröffentlichte Test-TrajectoriesAlle 74 CC-Bench-Evaluationen mit vollständigen Logs öffentlich auf Hugging Face

Vorteile & Nachteile

Vorteile

  • Herausragende Preis-Leistung
    GLM-4.6 ist ca. 90% günstiger als Claude Sonnet 4.5 bei nahezu gleicher Performance.
  • Open Source
    Die MIT-Lizenz ermöglicht kommerzielle Nutzung und freies Finetuning. Außerdem stehen Quantisierte Versionen von GLM-4.6 zur Verfügung.
  • Exzellente Coding-Performance
    GLM-4.6 erreicht Platz #1 auf LiveCodeBench v6 (82,8%) und überzeugt auch in realen Coding-Umgebungen mit produktionsreifen Ergebnissen.
  • Effizienter Output
    GLM-4.6 komprimiert Inhalte im Output und verbraucht dadurch 15% weniger Tokens als das Vorgängermodell GLM-4.5 bei gleichen Aufgaben.

Nachteile

  • Keine Multimodalität
    GLM-4.6 ist kein multimodales Modell und kann nur Text-Inputs verarbeiten.
  • Schwächen bei akademischem Reasoning
    GLM-4.6 scheint hauptsächlich auf den Coding-Einsatz optimiert zu sein. Im GPQA Benchmark, der z.B. Wissen in Naturwissenschaften testet, erreicht es bei Veröffentlichung nur Platz #15.
  • Hohe Hardware-Anforderungen
    GLM-4.6 ist ein großes Sprachmodell. Lokales Deployment ist fast unmöglich / nur mit sehr langsamen Token-Throughput möglich.

Vergleiche GLM-4.6 mit anderen LLMs

Vergleiche GLM-4.6 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Z.ai GLM-4.6 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.