Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

GPT-5.3-Codex

Veröffentlichung
Februar 2026
Knowledge Cutoff
Unbekannt
Parameter
Unbekannt
Modellfamilie
GPT-5.3-Codex
Proprietär

GPT-5.3-Codex Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
400k Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
Unbekannt
Output Preis
Unbekannt
Vokabular
Unbekannt
Dateigröße
Unbekannt

GPT-5.3-Codex Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturTransformer-Architektur
Input Kontextlänge400k
Output Kontextlänge128k
TokenizerOpenAI GPT-5 Tokenizer

Besonderheiten

Selbstentwickelndes ModellErstes OpenAI-Modell, das an seiner eigenen Erstellung beteiligt war.
Interaktives LenkenEchtzeit-Prompting ohne Kontext-Verlust
Cybersecurity KlassifizierungErstes OpenAI-Modell mit "High Capability"-Einstufung

Vorteile & Nachteile

Vorteile

  • 25% schnellere Inferenz
    GPT-5.3-Codex ist ca. 25% schneller als GPT-5.2-Codex und merzt damit einen der größten Kritikpunkte des Vorgängermodells aus.
  • State-of-the-Art Coding-Modell
    Mit Benchmark-Ergebnissen wie 77,3% Terminal-Bench 2.0 setzt sich GPT-5.3-Codex an die Spitze mancher Coding-Benchmarks und eignet sich besonders für das Vibe Coding in bestehenden Codebases. Nur Claude Opus-4.6 erreicht teilweise bessere Ergebnisse.
  • Autonome Langzeit-Arbeit möglich
    GPT-5.3-Codex kann komplexe, mehrstündige Tasks autonom über sein KI-Agenten-System bearbeiten.
  • Höhere Token-Effizienz
    Erreicht bessere Ergebnisse mit weniger Tokens als Vorgängermodelle, was die effektiven Kosten senkt. Außerdem unterstützt GPT-5.3-Codex die Context-Compaction, also die Zusammenfassung langer Chatverläufe zur Reduktion von Input-Tokens ohne großen Kontext-Verlust.
  • Starke Vision-Fähigkeiten
    Im Vergleich zu den Vorgängermodellen hat GPT-5.3-Codex eine verbesserte Analyse- und Interpretationsfähigkeit von Bildern. Screenshots, UI-Mockups, technischen Diagrammen und Charts können somit für die UI-Entwicklung genutzt werden.

Nachteile

  • Kein API-Zugang verfügbar
    Stand Februar 2026 ist der API-Zugang noch nicht freigegeben. Die Nutzung ist entsprechend nur über ChatGPT-Oberflächen und Codex-Tools möglich.
  • Inkonsistente Session-Qualität
    OpenAI geriet in die Kritik, weil Inferenzleistung zwischen verschiedenen Modellen hin- und hergeschoben wurde. Reduzierte Inferenz (= reduziertes Thinking-Budget), kann zu deutlich schlechteren Ergebnissen führen und viele Nutzer befürchten, dass die Qualität der Modelle nicht gleichbleibend sein könnte.
  • Wörtliches Befolgen von Anweisungen
    GPT-5.3 Codex führt Anweisungen wörtlich aus statt die Intention zu interpretieren. Vage Aussagen oder kleine Beschreibungs-Fehler können damit zu Bugs im Code führen.

Vergleiche GPT-5.3-Codex mit anderen LLMs

Vergleiche GPT-5.3-Codex mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst OpenAI GPT-5.3-Codex über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.