Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

GLM-4.7

Veröffentlichung
Dezember 2025
Knowledge Cutoff
Unbekannt
Parameter
400 Mrd.
Modellfamilie
GLM-4.7
MIT

GLM-4.7 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
200k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
400 Mrd.
Input Preis
$0.60
Output Preis
$2.20
Vokabular
151,55k
Dateigröße
667,46 GB

GLM-4.7 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturSparse MoE-Architektur
Input Kontextlänge200k
Output Kontextlänge128k
TokenizerGLM Tokenizer

Besonderheiten

Preserved ThinkingBehält Reasoning-Ketten über mehrere Turns bei, anstatt sie zurückzusetzen.

Vorteile & Nachteile

Vorteile

  • Führend in Coding-Benchmarks
    73.8% auf SWE-bench Verified, 84.9% auf LiveCodeBench. GLM-4.7 gilt als neues State-of-the-Art-Modelle unter den Open-Source-Modellen.
  • Sehr günstig
    Z.ai bietet einen $3/Monat Coding-Plan an, der deutlich günstiger als der von vergleichbaren Modellen (z.B. Claude Sonnet 4.5) ist.
  • Open Weights verfügbar
    GLM-4.7 ist ollständig open-source und auf HuggingFace herunterladbar. Du kannst GLM-4.7 lokal über vLLM oder LM Studio ausführen.
  • Agent-Framework-Integration
    Native Unterstützung für Claude Code, Cline, Roo Code und weitere.

Nachteile

  • Hohe Hardware-Anforderungen
    Lokales Deployment erfordert teure Hardware, für viele Nutzer wird die Cloud-Lösung aktuell noch eine bessere Option sein.
  • Möglicher politischer Bias
    Wie bei allen chinesischen Modellen müssen wir davon ausgehen, dass das Modell einen politischen Bias verbreiten könnte, was auf Coding- oder viele Reasoning-Aufgaben aber keinen großen Einfluss haben sollte.

Vergleiche GLM-4.7 mit anderen LLMs

Vergleiche GLM-4.7 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Z.ai GLM-4.7 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.