DeepSeek lanzó 2 modelos con un avance en sistemas agénticos e IA
La startup china DeepSeek lanzó 2 modelos que pretenden ser un avance en sistemas agénticos. Y a juzgar por las métricas, esto no es solo marketing.
DeepSeek-V3.2 — este es el sucesor oficial de la versión experimental. Disponible en la aplicación, en el sitio web y a través de API. DeepSeek-V3.2-Speciale — una versión mejorada con énfasis en razonamiento avanzado de múltiples pasos. Por ahora funciona solo a través de API.
Ambos modelos enfatizan cadenas de razonamiento profundas y comportamiento para escenarios agénticos. Esto es planificación, resolución de problemas, inferencias complejas y trabajo con datos estructurados.
DeepSeek-V3.2-Speciale se convirtió en el primer modelo de código abierto que gana oro en olimpiadas de alto nivel. ¡Oro en 4 olimpiadas prestigiosas! Según las métricas, Speciale supera a Gemini 3.0 Pro en matemáticas, y el menos potente DeepSeek-V3.2 supera a Claude-4.5 Sonnet en codificación.
Pero hay un matiz. El test-time compute es enorme. Speciale no ahorra tokens en absoluto, por lo que la inferencia resulta costosa. Los propios autores admiten que “dejaron la optimización para investigaciones futuras”.
Razones técnicas del éxito: esta es la nueva arquitectura DeepSeek Sparse Attention, entrenamiento RL estable a gran escala y un gran pipeline para tareas agénticas. Y este es el cambio clave de arquitectura en comparación con la generación anterior.
Ambos modelos son extremadamente buenos en todo tipo de tareas agénticas, y especialmente en búsqueda y tareas con navegador. Para esto se generaron 1800 entornos sintéticos en los que los agentes se entrenaron para realizar tareas completamente diferentes.
Salió un modelo muy genial, respeto.