Alle AI-Trends
Direkt in dein Postfach
Erhalte exklusive AI-Tutorials, Praxistipps und KI-News direkt in dein Postfach.
*Mit deiner Anmeldung akzeptierst du unsere Datenschutzrichtlinien.
Jetzt neu bei Byte: Unser WhatsApp Channel 📱

DeepSeek-v3.2

Veröffentlichung
Dezember 2025
Knowledge Cutoff
Unbekannt
Parameter
685 Mrd.
Modellfamilie
DeepSeek-v3.2
MIT

DeepSeek-v3.2 Modell-Übersicht

Features

Tools

Websuche, Bildgenerierung, Computer Use und MCP-Server.

Multimodalität

Das Modell kann Text, Bilder, Audio und PDFs als Input verarbeiten.

Finetuning

Finetuning des Modells ist aktuell nicht möglich.

Details zum Modell

Max. Input
131,07k Token
Max. Output
64k Token
Trainingsdaten
Unbekannt
Parameter
685 Mrd.
Input Preis
$0.28
Output Preis
$0.42
Vokabular
Unbekannt
Dateigröße
642,13 GB

DeepSeek-v3.2 Benchmark Scores

Im KI-Kontext bezeichnet Performance die Leistungsfähigkeit eines Modells in Bereichen wie Sprachverständnis, Logik oder Programmierung – gemessen anhand standardisierter Benchmarks zur objektiven Vergleichbarkeit.



Technologie & Daten

Technische Spezifikationen

ArchitekturMixture-of-Experts Transformer mit DSA
Input Kontextlänge131,07k
Output Kontextlänge64k
TokenizerUnbekannt

Besonderheiten

Thinking with ToolsReasoning wurde auf aktive Verwendung von Tools trainiert
DeepSeek Sparse AttentionIndexierungsmechanismus, der relevante Token auswählt, anstatt gesamten Kontext zu betrachten.

Vorteile & Nachteile

Vorteile

  • Für Einsatz als AI Agent trainiert
    DeepSeek v3.2 Thinking kombiniert Chain-of-Thought Thinking mit Tool-Use Fähigkeiten und eignet sich somit hervorragend für den Einsatz als KI Agent.
  • Kontext-Effizienz durch DSA
    Dank DSA kann sehr langer Input-Kontext kostengünstig verarbeitet werden.
  • Absoluter Preis-/ Leistungssieger
    DeepSeek v3.2 Thinking erreicht Benchmark Scores, die sich mit GPT-5 (high) und Claude Sonnet 4.5 vergleichen lassen, zu einem Bruchteil des Preises.

Nachteile

  • Reduzierte Token-Limits
    Sowohl die gesamte Kontextfensterlänge von ca. 131k Tokens, als auch der maximale Output von 64k Tokens sind sehr begrenzt im Vergleich zu anderen Modellen.
  • Politischer Bias
    Wie andere chinesische Modelle auch, muss davon ausgegangen werden, dass ein politischer Bias in die Modelle eintrainiert wurde.

Vergleiche DeepSeek-v3.2 mit anderen LLMs

Vergleiche DeepSeek-v3.2 mit anderen Sprachmodellen anhand wichtiger Metriken wie Kontextgröße, Parameteranzahl, Preisen und Benchmark-Leistung.


Alle Modelle vergleichen

Provider & APIs

Du kannst DeepSeek AI DeepSeek-v3.2 über die API folgender Anbieter nutzen.

Das Modell ist derzeit bei keinen Anbietern verfügbar.