MiniMax-M2.5
Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
230 Mrd.
Modellfamilie
MiniMax-M2.5
MIT
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
204,8k Token
Max. Output
131,07k Token
Trainingsdaten
Unbekannt
Parameter
230 Mrd.
Input Preis
$0.30
Output Preis
$1.20
Vokabular
Unbekannt
Dateigröße
Unbekannt
MiniMax-M2.5 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | Sparse MoE-Transformer |
|---|---|
| Input Kontextlänge | 204,8k |
| Output Kontextlänge | 131,07k |
| Tokenizer | MiniMax Tokenizer |
Besonderheiten
| Forge RL Framework | Agent-natives Reinforcement-Learning-Framework |
|---|---|
| Lightning-Variante | Modellvariante mit doppeltem Throughput (100 TPS statt 50 TPS) |
| Sichtbares Thinking | Thinking-Tokens in |
| Office-Unterstützung | MiniMax 2.5 kann MS Office Dateien erstellen und bearbeiten |
| Expert Customization | Framework für benutzerdefinierte Experten mit bereits über 10.000 erstellten Expert-Konfigurationen. |
Vorteile & Nachteile
Vorteile
- Sehr gutes Preis-Leistungs-VerhältnisMiniMax-M2.5 erreicht eine Vergleichbare Leistung von proprietären Modellen wie Claude Opus 4.6 oder GPT-5.3-Codex, bei nur 1/10 bis 1/20 der Kosten.
- Stark in Tool-Calling BenchmarksMiniMax-M2.5 erreicht 76.8% im BFCL Multi-Turn Benchmark und liegt damit 13 Prozentpunkte vor Claude Opus 4.6. M2.5 erledigte Multi-Step-Tasks in 20% weniger Durchläufen.
- Starkes Coding-LLMGemeinsam mit GLM-5 führt MiniMax-M2.5 die Coding-Benchmarks der Open-Source Modelle an. Beide Modelle erreichen nahezu die Ergebnisse der proprietären US-Modelle.
- Open Weights mit MIT-LizenzMiniMax-M2.5 ist vollständig open-source und die Gewichte lassen sich auf HuggingFace lokal herunterladen, sodass du das Modell (mit passender Hardware) offline auf deinem PC-System ausführen kannst.
- Hoher DurchsatzM2.5 erreicht über die Standard-API 50 TPS, bzw. 100 TPS über die teurere "Lightning-API", was durch die reduzierte Anzahl an aktiven Parametern erreicht wird. M2.5 hat damit einen ca. 3x höheren Throughput als Opus 4.6.
Nachteile
- Hohe Hardware-Anforderungen für lokales DeploymentAuch wenn MiniMax-M2.5 deutlich kleiner als GLM-5 ist, werden für das lokale Betreiben des 230B-Parameter-Modells mehrere High-End-GPUs benötigt.
- Politischer BiasWie bei anderen Modellen chinesischer LLM-Entwickler muss davon ausgegangen werden, dass politische Einflüsse in die Antworten mit einfließen.
Vergleiche MiniMax-M2.5 mit anderen LLMs
Vergleiche MiniMax-M2.5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst MiniMax MiniMax-M2.5 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.