Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

Kimi K2.5

Veröffentlichung
Januar 2026
Knowledge Cutoff
Unbekannt
Parameter
1.000 Mrd.
Modellfamilie
Kimi K2.5
MIT

Kimi K2.5 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
256k Token
Max. Output
96k Token
Trainingsdaten
15.000 Mrd.
Parameter
1.000 Mrd.
Input Preis
$0.60
Output Preis
$3.00
Vokabular
160k
Dateigröße
554,30 GB

Kimi K2.5 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturSparse MoE-Architektur
Input Kontextlänge256k
Output Kontextlänge96k
TokenizerProprietär

Besonderheiten

Agent SwarmKoordiniert bis zu 100 Sub-Agenten
Hybrides ReasoningThinking- & Instant-Mode
Native MultimodalitätNativ auf Vision-Language-Tokens trainiert

Vorteile & Nachteile

Vorteile

  • SOTA-Open Weights Coding Modell
    Kimi K2.5 erreicht Coding-Benchmark Scores, die teilweise über denen proprietärer Modelle wie GPT-5.2 oder Claude Opus 4.5 liegen.
  • Neue "Agent Swarm" Orchestration
    Bis zu 100 parallele Sub-Agenten und 1.500 Tool-Aufrufe ermöglichen hohe Effizienzsteigerungen.
  • Open Weights MIT-Lizenz
    Weights sind vollständig open-source und lassen sich auf HuggingFace herunterladen.
  • Gutes Preis- / Leistungsverhältnis
    Mit $0,60/$3,00 pro Million Tokens deutlich günstiger als vergleichbare Frontier-Modelle.

Nachteile

  • Hohe Hardware-Anforderungen
    Die "große" Version mit 595 GB Modellgröße erfordert Multi-GPU-Setups für lokales Deployment.
  • Primär für Chinesisch/Englisch optimiert
    Performance in anderen Sprachen wie deutsch kann variieren, da Tokenizer und Training auf CN/EN fokussiert sind.

Vergleiche Kimi K2.5 mit anderen LLMs

Vergleiche Kimi K2.5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst Moonshot AI Kimi K2.5 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.