DeepSeek-V4-ProDeepSeek AIDeepSeek-V4-Pro (Preview) ist das neueste Flaggschiff-Modell von DeepSeek AI, veröffentlicht am 24. April 2026. Mit 1,6 Billionen Gesamtparametern (49 Milliarden aktiv) in einer Mixture-of-Experts-Architektur und einem nativen 1-Million-Token-Kontextfenster setzt es neue Maßstäbe unter Open-Weights-Modellen. Das Modell kombiniert Compressed Sparse Attention (CSA) und Heavily Compressed Attention (HCA) zu einem hybriden Attention-Mechanismus, der bei 1M-Token-Kontext nur 27% der Inference-FLOPs und 10% des KV-Cache von DeepSeek-V3.2 benötigt. Drei Reasoning-Modi (Non-Think, Think High, Think Max) ermöglichen feingranulare Steuerung der Reasoning-Tiefe. DeepSeek-V4-Pro schließt die Lücke zu Frontier-Modellen wie GPT-5.5 und Claude Opus 4.7 zu einem Bruchteil der Kosten.Parameter1.600 Mrd.VeröffentlichungApril 2026Training32.000 Mrd.LizenzMIT
GPT-5.5OpenAIGPT-5.5 (Codename 'Spud') ist OpenAIs neuestes Frontier-Modell für komplexe agentische Workloads, veröffentlicht am 23. April 2026. Als vollständig neu trainiertes Basismodell setzt es neue Maßstäbe bei agentischem Coding, Computer-Use und Knowledge-Work-Automatisierung. Mit State-of-the-Art-Ergebnissen auf Terminal-Bench 2.0 (82.7%) und GDPval (84.9%) sowie einer 40% effizienteren Token-Nutzung gegenüber GPT-5.4 erweitert es OpenAIs Lead bei langfristigen, mehrstufigen Aufgaben. GPT-5.5 unterstützt Reasoning-Effort-Stufen (none/low/medium/high/xhigh) und ein 1-Million-Token-Kontextfenster.ParameterUnbekanntVeröffentlichungApril 2026TrainingUnbekanntLizenzProprietärMultimodalWeb Search
Kimi K2.6Moonshot AIKimi K2.6 ist das neueste Open-Weight-Flaggschiffmodell von Moonshot AI mit 1 Billion Parametern in einer Mixture-of-Experts-Architektur (32 Milliarden aktiv pro Token). Der direkte Nachfolger von K2.5 ist auf Long-Horizon Coding und agentische Aufgaben spezialisiert und überzeugt durch native Multimodalität (Text, Bild, Video) sowie eine deutlich erweiterte Agent-Swarm-Technologie mit bis zu 300 Sub-Agenten über 4.000 koordinierte Schritte. Das Modell unterstützt 12+ Stunden autonome Tool-Ausführung und übertrifft auf SWE-Bench Pro sowohl GPT-5.4 als auch Claude Opus 4.6.Parameter1.000 Mrd.VeröffentlichungApril 2026TrainingUnbekanntLizenzAndereMultimodalWeb Search