Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

MiniMax-M2.5

Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
230 Mrd.
Modellfamilie
MiniMax-M2.5
MIT

MiniMax-M2.5 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
204,8k Token
Max. Output
131,07k Token
Trainingsdaten
Unbekannt
Parameter
230 Mrd.
Input Preis
$0.30
Output Preis
$1.20
Vokabular
Unbekannt
Dateigröße
Unbekannt

MiniMax-M2.5 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturSparse MoE-Transformer
Input Kontextlänge204,8k
Output Kontextlänge131,07k
TokenizerMiniMax Tokenizer

Besonderheiten

Forge RL FrameworkAgent-natives Reinforcement-Learning-Framework
Lightning-VarianteModellvariante mit doppeltem Throughput (100 TPS statt 50 TPS)
Sichtbares ThinkingThinking-Tokens in transparent einsehbar
Office-UnterstützungMiniMax 2.5 kann MS Office Dateien erstellen und bearbeiten
Expert CustomizationFramework für benutzerdefinierte Experten mit bereits über 10.000 erstellten Expert-Konfigurationen.

Vorteile & Nachteile

Vorteile

  • Sehr gutes Preis-Leistungs-Verhältnis
    MiniMax-M2.5 erreicht eine Vergleichbare Leistung von proprietären Modellen wie Claude Opus 4.6 oder GPT-5.3-Codex, bei nur 1/10 bis 1/20 der Kosten.
  • Stark in Tool-Calling Benchmarks
    MiniMax-M2.5 erreicht 76.8% im BFCL Multi-Turn Benchmark und liegt damit 13 Prozentpunkte vor Claude Opus 4.6. M2.5 erledigte Multi-Step-Tasks in 20% weniger Durchläufen.
  • Starkes Coding-LLM
    Gemeinsam mit GLM-5 führt MiniMax-M2.5 die Coding-Benchmarks der Open-Source Modelle an. Beide Modelle erreichen nahezu die Ergebnisse der proprietären US-Modelle.
  • Open Weights mit MIT-Lizenz
    MiniMax-M2.5 ist vollständig open-source und die Gewichte lassen sich auf HuggingFace lokal herunterladen, sodass du das Modell (mit passender Hardware) offline auf deinem PC-System ausführen kannst.
  • Hoher Durchsatz
    M2.5 erreicht über die Standard-API 50 TPS, bzw. 100 TPS über die teurere "Lightning-API", was durch die reduzierte Anzahl an aktiven Parametern erreicht wird. M2.5 hat damit einen ca. 3x höheren Throughput als Opus 4.6.

Nachteile

  • Hohe Hardware-Anforderungen für lokales Deployment
    Auch wenn MiniMax-M2.5 deutlich kleiner als GLM-5 ist, werden für das lokale Betreiben des 230B-Parameter-Modells mehrere High-End-GPUs benötigt.
  • Politischer Bias
    Wie bei anderen Modellen chinesischer LLM-Entwickler muss davon ausgegangen werden, dass politische Einflüsse in die Antworten mit einfließen.

Vergleiche MiniMax-M2.5 mit anderen LLMs

Vergleiche MiniMax-M2.5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst MiniMax MiniMax-M2.5 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.