Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

GPT-5.1-Codex-Max

Veröffentlichung
November 2025
Knowledge Cutoff
September 2024
Parameter
Unbekannt
Modellfamilie
GPT-5.1-Codex-Max
Proprietär

GPT-5.1 Codex-Max Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
400k Token
Max. Output
16,38k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$1.25
Output Preis
$10.00
Vokabular
Unbekannt
Dateigröße
Unbekannt

GPT-5.1 Codex-Max Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.

Ergebnisse in Benchmarks

Technologie & Daten

Technische Spezifikationen

ArchitekturMoE-Transformer
Input Kontextlänge400k
Output Kontextlänge16,38k
TokenizerUnbekannt

Besonderheiten

Context CompactionKomprimiert Kontext-Verlauf dynamisch
Native Windows/PowerShellErstes Frontier-Modell mit Training für Windows-Umgebungen
xHigh Reasoning ModeNeuer "Extra High" Reasoning-Modus

Vorteile & Nachteile

Vorteile

  • Lange autonome Prozesse möglich
    GPT-5.1 Codex-Max kann autonom über 24 Stunden hinweg an Aufgaben arbeiten, ohne den Kontext zu verlieren.
  • Sehr gute Coding-Ergebnisse
    Bei Veröffentlichung führt GPT-5.1 Codex-Max viele Coding Benchmarks an.
  • Effizienter als GPT-5.1 Codex
    Codex-Max verbraucht ca. 30% weniger (Thinking-)Tokens, als das Vorgängermodell GPT-5.1 Codex.

Nachteile

  • Niedriges Token-Output Limit
    Zwar kann GPT-5.1 Codex-Max über den Compaction-Prozess längere Outputs erzeugen, das Basis-Output-Token-Limit von 16k liegt dennoch weit unter dem Durchschnitt moderner SOTA-Modelle.
  • Recht hohe Kosten bei Nutzung über API
    Agentische Loops mit Compaction verbrauchen trotz effizientem Thinking viele Tokens, was insbesondere bei autonomen Arbeiten zu hohen Gesamtkosten führen kann.

Vergleiche GPT-5.1 Codex-Max mit anderen LLMs

Vergleiche GPT-5.1 Codex-Max mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst OpenAI GPT-5.1 Codex-Max über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.