GPT-5.5
Veröffentlichung
April 2026
Knowledge Cutoff
Dezember 2025
Parameter
Unbekannt
Modellfamilie
GPT-5.5
Proprietär
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
1,05 Mio. Token
Max. Output
128k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$5.00
Output Preis
$30.00
Vokabular
Unbekannt
Dateigröße
Unbekannt
GPT-5.5 Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
| Architektur | Vollständig neu trainiertes proprietäres Transformer-basiertes Reasoning-Modell mit Hardware-Co-Design für NVIDIA GB200/GB300-Systeme. |
|---|---|
| Input Kontextlänge | 1,05 Mio. |
| Output Kontextlänge | 128k |
| Tokenizer | OpenAI tiktoken (o200k-Familie) |
Besonderheiten
| Reasoning-Effort-Stufen | Steuerbare Reasoning-Tiefe über fünf Stufen: none, low, medium (Default), high und xhigh. |
|---|---|
| Self-Improving Infrastructure | Das Modell hat Teile der Serving-Infrastruktur vor dem Launch selbst neu geschrieben. |
| 40% effizientere Token-Nutzung | Verbraucht bei vergleichbaren Aufgaben 40% weniger Output-Tokens als GPT-5.4 bei höherer Intelligenz. |
| 1M-Token-Kontextfenster | Unterstützt Eingaben mit über 1 Million Tokens für Long-Context-Retrieval und große Codebases. |
| Native Agentic Computer Use | Direkte Steuerung von Terminal- und Desktop-Umgebungen mit minimaler menschlicher Aufsicht. |
Vorteile & Nachteile
Vorteile
- State-of-the-Art bei agentischen Coding-Tasks82.7% auf Terminal-Bench 2.0 und 84.9% auf GDPval – Spitzenwerte für autonome Coding- und Knowledge-Work-Aufgaben.
- Exzellente wissenschaftliche Reasoning-Fähigkeiten93.6% auf GPQA Diamond und 51.7% auf FrontierMath T1-3 zeigen starke Performance bei wissenschaftlichen und mathematischen Problemen.
- 1-Million-Token-KontextfensterEines der größten verfügbaren Kontextfenster ermöglicht Long-Context-Workflows mit ganzen Repositories oder umfangreichen Dokumenten.
- Höhere Token-EffizienzVerbraucht 40% weniger Output-Tokens als GPT-5.4 bei vergleichbarer oder besserer Qualität, was effektive Kosten reduziert.
- Verbesserte Faktentreue23% höhere Genauigkeit bei faktischen Aussagen gegenüber dem Vorgänger GPT-5.4.
Nachteile
- Doppelte API-Kosten gegenüber GPT-5.4Mit $5/$30 pro M Token kostet GPT-5.5 doppelt so viel wie GPT-5.4 ($2.50/$15) und ist deutlich teurer als viele Konkurrenten.
- Proprietäres geschlossenes ModellKeine offenen Gewichte verfügbar. Nur über OpenAIs API oder ChatGPT nutzbar, kein lokales Deployment möglich.
- Kein Fine-Tuning verfügbarDirektes Fine-Tuning wird nicht unterstützt. Nur Distillation auf kleinere Modelle ist möglich.
- Nicht für Free-Tier-NutzerGPT-5.5 ist ausschließlich für Plus-, Pro-, Business- und Enterprise-Abonnenten verfügbar.
- Schwächer als Claude Opus 4.7 bei SWE-Bench ProMit 58.6% liegt GPT-5.5 unter Claude Opus 4.7 (64.3%) bei realen GitHub-Issue-Resolutions.
Vergleiche GPT-5.5 mit anderen LLMs
Vergleiche GPT-5.5 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst OpenAI GPT-5.5 über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.