Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

Kimi K2.6

Veröffentlichung
April 2026
Knowledge Cutoff
Unbekannt
Parameter
1.000 Mrd.
Modellfamilie
Kimi K2.6
Andere

Kimi K2.6 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
262,14k Token
Max. Output
32,77k Token
Trainingsdaten
Unbekannt
Parameter
1.000 Mrd.
Input Preis
$0.95
Output Preis
$4.00
Vokabular
160k
Dateigröße
553,21 GB

Kimi K2.6 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.

Technologie & Daten

Technische Spezifikationen

Architektur1T Parameter total, 32B aktiviert pro Token. 384 Experten mit 8 selektierten + 1 Shared Expert pro Token, 61 Layer (1 dense), 64 Attention-Heads, MLA-Attention, SwiGLU-Aktivierung. Vision Encoder: MoonViT.
Input Kontextlänge262,14k
Output Kontextlänge32,77k
TokenizerProprietärer Tokenizer mit 160K Vokabular

Besonderheiten

Agent Swarm 2.0Skaliert auf bis zu 300 Sub-Agenten und 4.000 koordinierte Schritte – 3× mehr Sub-Agenten und 2,7× mehr Steps als K2.5.
Long-Horizon CodingStabile autonome Ausführung über 12+ Stunden mit 4.000+ Tool-Aufrufen und 14 Iterationen.
Preserve Thinking ModeBehält Reasoning-Ketten über mehrere Turns hinweg, anstatt sie zurückzusetzen.
Native Video-VerständnisVerarbeitet Videos (mp4, mov, avi, webm, 3gpp u.a.) bis 2K-Auflösung direkt im selben Modell.
Native INT4-QuantisierungModell wird nativ in INT4 ausgeliefert, optimiert via Quantization-Aware Training.

Vorteile & Nachteile

Vorteile

  • Führend bei Open-Source Coding-Benchmarks
    80.2% auf SWE-Bench Verified, 58.6% auf SWE-Bench Pro – übertrifft GPT-5.4 (57.7%) und Claude Opus 4.6 (53.4%) bei Coding-Tasks.
  • Massive Agent-Swarm-Skalierung
    Mit 300 Sub-Agenten und 4.000 koordinierten Schritten ermöglicht K2.6 autonome Multi-Tag-Workflows ohne menschlichen Eingriff.
  • Top-Tier Reasoning unter Open-Weights
    96.4% auf AIME 2026 und 90.5% auf GPQA-Diamond – konkurrenzfähig mit GPT-5.4 und Claude Opus 4.6.
  • Native Multimodalität (Text, Bild, Video)
    Erste Kimi-Generation mit nativer Video-Unterstützung – ideal für Screen-Recording-Analyse und visuelles Debugging.
  • Open Weights unter Modified MIT
    Vollständig open-source auf HuggingFace, deploybar mit vLLM, SGLang oder KTransformers (~594 GB).
  • Wettbewerbsfähige API-Preise
    Mit $0.95/$4.00 pro Million Tokens und Context Caching für $0.16/M deutlich günstiger als vergleichbare Frontier-Modelle.

Nachteile

  • Hohe Hardware-Anforderungen
    Lokales Deployment erfordert mindestens 4× H100-GPUs oder vergleichbare Datacenter-Hardware.
  • Web-Search nicht mit Thinking-Modus kompatibel
    Die integrierte Web-Suche ist temporär nicht mit dem K2.6-Thinking-Modus kombinierbar.
  • Self-reported Benchmarks
    Die Performance-Metriken stammen primär von Moonshot selbst – unabhängige Drittanbieter-Validierung steht teils noch aus.
  • Sehr junges Modell
    Erst seit 20. April 2026 verfügbar, Community-Feedback und Production-Erfahrungen noch begrenzt.

Vergleiche Kimi K2.6 mit anderen LLMs

Vergleiche Kimi K2.6 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Moonshot AI Kimi K2.6 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.