DeepSeek veröffentlichte 2 Modelle mit einem Durchbruch in agentischen Systemen und KI
Das chinesische Startup DeepSeek veröffentlichte 2 Modelle, die den Titel eines Durchbruchs in agentischen Systemen beanspruchen. Und nach den Metriken zu urteilen, ist dies nicht nur Marketing.
DeepSeek-V3.2 — das ist der offizielle Nachfolger der experimentellen Version. Verfügbar in der App, auf der Website und über API. DeepSeek-V3.2-Speciale — eine verbesserte Version mit Schwerpunkt auf fortgeschrittenem mehrschrittigen Reasoning. Funktioniert bisher nur über API.
Beide Modelle legen den Schwerpunkt auf tiefe Reasoning-Ketten und Verhalten für agentische Szenarien. Das sind Planung, Aufgabenlösung, komplexe Schlussfolgerungen und Arbeit mit strukturierten Daten.
DeepSeek-V3.2-Speciale wurde das erste Open-Source-Modell, das Gold bei Top-Olympiaden gewinnt. Gold bei 4 angesehenen Olympiaden! Nach Metriken überholt Speciale Gemini 3.0 Pro in Mathematik, und das weniger leistungsstarke DeepSeek-V3.2 überholt Claude-4.5 Sonnet im Coding.
Aber es gibt eine Nuance. Test-time compute ist riesig. Speciale spart überhaupt keine Token, sodass die Inferenz teuer wird. Die Autoren selbst räumen ein, dass sie “die Optimierung für zukünftige Forschungen gelassen haben”.
Technische Gründe für den Erfolg: das ist die neue Architektur DeepSeek Sparse Attention, umfangreiches stabiles RL-Training und eine große Pipeline für agentische Aufgaben. Und das ist die Schlüsseländerung der Architektur im Vergleich zur vorherigen Generation.
Beide Modelle sind außerordentlich gut in allen möglichen agentischen Aufgaben, und besonders bei der Suche und Aufgaben mit Browser. Dafür wurden 1800 synthetische Umgebungen generiert, in denen Agenten trainiert wurden, völlig unterschiedliche Aufgaben auszuführen.
Ein sehr cooles Modell ist entstanden, Respekt.