GLM-5Z.aiGLM-5 ist das neue SOTA-Modell von Z.ai (ehemals Zhipu AI) und der Nachfolger von GLM-4.7. GLM-5 wurde am 11. Februar 2026 veröffentlicht und gilt zum Zeitpunkt der Veröffentlichung als das beste Open-Weights Modell, das sich herunterladen und sich lokal auf Rechnern ausführen lässt. Mit 744 Milliarden Parametern (40B aktiv) in einer Mixture-of-Experts-Architektur wurde es laut Z.ai vollständig auf Huawei Ascend Chips trainiert. Es gilt damit als erstes Frontier-MoE-Modell, das komplett ohne NVIDIA-Hardware trainiert werden konnte. GLM-5 integriert den Sparse Attention Mechanismus von DeepSeek für effiziente Verarbeitung langer Inputs sowie eine eigene Reinforcement-Learning Struktur für das Post-Training. GLM-5 übertrifft teilweise die Benchmark Scores westlicher Modelle und weist laut ArtificialAnalysis.ai die niedrigsten Halluzinationsraten aktueller Frontier-Modelle auf.Parameter744 Mrd.VeröffentlichungFebruar 2026Training28.500 Mrd.LizenzMITWeb SearchFinetuning
Claude Opus 4.6AnthropicClaude Opus 4.6 ist ein Update von Claude Opus 4.5. Das Update verbessert insbesonderere das Instruction-Following von Agenten und Enterprise-Workflows, z.B. in Excel oder PowerPoint. Es ist das erste Opus Modell, das ein 1 Mio. Token großes Kontextfenster bietet, was insbesondere beim Coding deutliche spürbare Verbesserung mit sich bringen kann. Insbesondere im ARC-AGI 2 Benchmark und dem GDPVal-AA Elo-Score schafft Opus 4.6 deutliche Sprünge im Vergleich zu seinem Vorgänger und lässt die bisherigen Top-Modelle wie GPT-5.2 hinter sich. Das Pricing für 200k Token auf $10 / $37.50 pro Mio. Input / Output Token erhöht.ParameterUnbekanntVeröffentlichungFebruar 2026TrainingUnbekanntLizenzProprietärMultimodalWeb Search
GPT-5.3-CodexOpenAIGPT-5.3-Codex ist ein Frontier-Coding-Modell von OpenAI und der Nachfolger von GPT-5.2-Codex. GPT-5.3-Codex soll laut Angaben der Entwickler auf dem GPT-5.2 Modell aufbauen und ca. 25% schneller als sein Vorgänger sein. GPT-5.3-Codex gilt als das erste OpenAI-Modell, das an seiner eigenen Entwicklung beteiligt war. Frühe Versionen wurden zum Debugging des Trainings, zur Deployment-Verwaltung und zur Diagnose von Evaluierungsergebnissen eingesetzt.ParameterUnbekanntVeröffentlichungFebruar 2026TrainingUnbekanntLizenzProprietärMultimodalWeb Search