Gemini 2.5 Pro
Veröffentlichung
Juni 2025
Knowledge Cutoff
Januar 2025
Parameter
Unbekannt
Modellfamilie
Gemini 2.5 Pro
Proprietär
Features
Tools
Websuche, Bildgenerierung, Computer Use und MCP-Server.
Multimodalität
Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.
Finetuning
Finetuning des Modells ist aktuell nicht möglich.
Details zum Modell
Max. Input
1,05 Mio. Token
Max. Output
65,54k Token
Trainingsdaten
Unbekannt
Parameter
Unbekannt
Input Preis
$0.30
Output Preis
$2.50
Vokabular
Unbekannt
Dateigröße
Unbekannt
Gemini 2.5 Flash Benchmark Scores
Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.
Technologie & Daten
Technische Spezifikationen
Architektur | Hybrider MoE-Transformer |
---|---|
Input Kontextlänge | 1,05 Mio. |
Output Kontextlänge | 65,54k |
Tokenizer | SentencePiece-Unigram-Tokenizer |
Besonderheiten
Besonderheit 1 | Adaptive Thinking |
---|---|
Besonderheit 2 | Tool-Use Kapazitäten |
Besonderheit 3 | Großes Kontextfenster |
Vorteile & Nachteile
Vorteile
- Extrem großes KontextfensterMit bis zu 1 Mio. Tokens kann Gemini 2.5 Flash ganze Codebasen oder Bücher als Input verarbeiten.
- Günstige PreiseIm Gegensatz zu Gemini 2.5 Pro werden die Kosten bei größeren Kontextfenstern für Gemini 2.5 Flash nicht erhöht.
- Unterstützt viele ModalitätenNeben Text- und Bildeingaben kann Gemini 2.5 Flash auch Audio- und Video-Input nativ im selben Modell verarbeiten.
- Flexibles ReasoningDas hybride Reasoning-LLM lässt sich stufenweise konfigurieren, sodass hochkomplexe Aufgaben genauso sorgfältig bearbeitet werden, wie kleinere Tasks schnell umgesetzt werden können.
- Hohe GeschwindigkeitGemini 2.5 Flash bietet selbst mit aktiviertem "Thinking" einen hohen Token-Throughput von ca. 100 Token pro Sekunde.
Nachteile
- Geringer OutputMit nur 64k Token ist die Länge des Outputs in Gemini 2.5 Flash deutlich eingeschränkt.
- API für Entwickler unübersichtlichDie Einrichtung sowie der Zugriff auf API-Schnittstellen ist bei Google deutlich umständlicher, als bei anderen LLM-Entwicklern.
Vergleiche Gemini 2.5 Flash mit anderen LLMs
Vergleiche Gemini 2.5 Flash mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.
Provider & APIs
Du kannst Google DeepMind Gemini 2.5 Flash über die API folgender Anbieter nutzen.
Das Modell ist derzeit bei keinen Anbietern verfügbar.