GLM-4.6
Veröffentlichung
September 2025
Knowledge Cutoff
Unbekannt
Parameter
355 Mrd.
Modellfamilie
GLM-4.6
MIT
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
355 Mrd.
Input Preis
$0.60
Output Preis
$2.00
Vokabular
Unbekannt
Dateigröße
664,57 GB
GLM-4.6 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
Architektur | Mixture-of-Experts |
---|---|
Input Kontextlänge | 200k |
Output Kontextlänge | 128k |
Tokenizer | GLM Tokenizer |
Besonderheiten
Thinking Mode | Hybrider Thinking-Modus |
---|---|
Open Source (MIT-Lizenz) | Kommerzielle Nutzung möglich |
GLM Coding Plan | Claude-Level-Performance für $3/Monat |
Veröffentlichte Test-Trajectories | Alle 74 CC-Bench-Evaluationen mit vollständigen Logs öffentlich auf Hugging Face |
Vorteile & Nachteile
Vorteile
- Herausragende Preis-LeistungGLM-4.6 ist ca. 90% günstiger als Claude Sonnet 4.5 bei nahezu gleicher Performance.
- Open SourceDie MIT-Lizenz ermöglicht kommerzielle Nutzung und freies Finetuning. Außerdem stehen Quantisierte Versionen von GLM-4.6 zur Verfügung.
- Exzellente Coding-PerformanceGLM-4.6 erreicht Platz #1 auf LiveCodeBench v6 (82,8%) und überzeugt auch in realen Coding-Umgebungen mit produktionsreifen Ergebnissen.
- Effizienter OutputGLM-4.6 komprimiert Inhalte im Output und verbraucht dadurch 15% weniger Tokens als das Vorgängermodell GLM-4.5 bei gleichen Aufgaben.
Nachteile
- Keine MultimodalitätGLM-4.6 ist kein multimodales Modell und kann nur Text-Inputs verarbeiten.
- Schwächen bei akademischem ReasoningGLM-4.6 scheint hauptsächlich auf den Coding-Einsatz optimiert zu sein. Im GPQA Benchmark, der z.B. Wissen in Naturwissenschaften testet, erreicht es bei Veröffentlichung nur Platz #15.
- Hohe Hardware-AnforderungenGLM-4.6 ist ein großes Sprachmodell. Lokales Deployment ist fast unmöglich / nur mit sehr langsamen Token-Throughput möglich.
Vergleiche GLM-4.6 mit anderen LLMs
Vergleiche GLM-4.6 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst Z.ai GLM-4.6 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.