GPT-5.3-Codex
Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
Unbekannt
Modellfamilie
GPT-5.3-Codex
Proprietär
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
400k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
Unbekannt
Output Preis
Unbekannt
Vokabular
Unbekannt
Dateigröße
Unbekannt
GPT-5.3-Codex Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | Transformer-Architektur |
|---|---|
| Input Kontextlänge | 400k |
| Output Kontextlänge | 128k |
| Tokenizer | OpenAI GPT-5 Tokenizer |
Besonderheiten
| Selbstentwickelndes Modell | Erstes OpenAI-Modell, das an seiner eigenen Erstellung beteiligt war. |
|---|---|
| Interaktives Lenken | Echtzeit-Prompting ohne Kontext-Verlust |
| Cybersecurity Klassifizierung | Erstes OpenAI-Modell mit "High Capability"-Einstufung |
Vorteile & Nachteile
Vorteile
- 25% schnellere InferenzGPT-5.3-Codex ist ca. 25% schneller als GPT-5.2-Codex und merzt damit einen der größten Kritikpunkte des Vorgängermodells aus.
- State-of-the-Art Coding-ModellMit Benchmark-Ergebnissen wie 77,3% Terminal-Bench 2.0 setzt sich GPT-5.3-Codex an die Spitze mancher Coding-Benchmarks und eignet sich besonders für das Vibe Coding in bestehenden Codebases. Nur Claude Opus-4.6 erreicht teilweise bessere Ergebnisse.
- Autonome Langzeit-Arbeit möglichGPT-5.3-Codex kann komplexe, mehrstündige Tasks autonom über sein KI-Agenten-System bearbeiten.
- Höhere Token-EffizienzErreicht bessere Ergebnisse mit weniger Tokens als Vorgängermodelle, was die effektiven Kosten senkt. Außerdem unterstützt GPT-5.3-Codex die Context-Compaction, also die Zusammenfassung langer Chatverläufe zur Reduktion von Input-Tokens ohne großen Kontext-Verlust.
- Starke Vision-FähigkeitenIm Vergleich zu den Vorgängermodellen hat GPT-5.3-Codex eine verbesserte Analyse- und Interpretationsfähigkeit von Bildern. Screenshots, UI-Mockups, technischen Diagrammen und Charts können somit für die UI-Entwicklung genutzt werden.
Nachteile
- Kein API-Zugang verfügbarStand Februar 2026 ist der API-Zugang noch nicht freigegeben. Die Nutzung ist entsprechend nur über ChatGPT-Oberflächen und Codex-Tools möglich.
- Inkonsistente Session-QualitätOpenAI geriet in die Kritik, weil Inferenzleistung zwischen verschiedenen Modellen hin- und hergeschoben wurde. Reduzierte Inferenz (= reduziertes Thinking-Budget), kann zu deutlich schlechteren Ergebnissen führen und viele Nutzer befürchten, dass die Qualität der Modelle nicht gleichbleibend sein könnte.
- Wörtliches Befolgen von AnweisungenGPT-5.3 Codex führt Anweisungen wörtlich aus statt die Intention zu interpretieren. Vage Aussagen oder kleine Beschreibungs-Fehler können damit zu Bugs im Code führen.
Vergleiche GPT-5.3-Codex mit anderen LLMs
Vergleiche GPT-5.3-Codex mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst OpenAI GPT-5.3-Codex über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.