Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Werde Teil der größten AI-Community in Deutschland

o3

Veröffentlichung
Juni 2025
Knowledge Cutoff
Juni 2024
Parameter
Unbekannt
Modellfamilie
o3
Proprietär

OpenAI o3-pro Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
200k Token
Max. Output
100k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$20.00
Output Preis
$80.00
Vokabular
Unbekannt
Dateigröße
Unbekannt

OpenAI o3-pro Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturMultimodaler Transformer
Input Kontextlänge200k
Output Kontextlänge100k
TokenizerUnbekannt

Besonderheiten

ReasoningErweiterte Reasoning-Kapazität
Tool-UseMehrstufig während der Inferenz

Vorteile & Nachteile

Vorteile

  • SOTA-Modell von OpenAI
    OpenAI o3-pro war zur Veröffentlichung das stärkste LLM von OpenAI.
  • Reasoning-Modell mit multimodaler Verarbeitung
    OpenAI o3-pro kann neben Text auch Bilder als Input verarbeiten.
  • Verbesserte Performance durch autonome Nutzung von Tools
    Wie das Hauptmodell auch, kann o3-pro während des Inferenz-Prozesses auf Tools wie Python-Code-Execution oder Websuche zurückgreifen, um den finalen Output zu verbessern.
  • Besserer Output für komplexe Aufgaben
    Durch die erhöhten Reasoning-Kapazitäten kann o3-pro einen besseren, bzw. verlässlicheren Output in komplexen Reasoning- und Planungsaufgaben erzeugen.

Nachteile

  • Kleines Kontextfenster
    o3 hat mit 200k Input-Tokens ein eher kleines Kontextfenster. GPT-4.1, im Vergleich, kann Inputs von bis zu 1 Mio. Token verarbeiten.
  • Eingeschränkte Dev-Funktionen
    Für o3-pro gibt es weder Token-Streaming noch Finetuning-Möglichkeiten.
  • Extrem hoher Kostenfaktor
    OpenAI o3-pro ist eines der teuersten Modelle auf dem Markt.

Vergleiche OpenAI o3-pro mit anderen LLMs

Vergleiche OpenAI o3-pro mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst OpenAI OpenAI o3-pro über die API folgender Anbieter nutzen.