DeepSeek V3.2 es el modelo de pesos abiertos más inteligente en el puesto #2 y también se clasifica por delante de Grok 4 y Claude Sonnet 4.5 (Pensamiento) - saca a DeepSeek Sparse Attention del estado de ‘experimental’ y lo combina con un aumento material en la inteligencia. @deepseek_ai V3.2 obtiene una puntuación de 66 en el Índice de Inteligencia de Análisis Artificial; un aumento sustancial de inteligencia sobre DeepSeek V3.2-Exp (+9 puntos) lanzado en septiembre de 2025. DeepSeek ha cambiado su punto final principal de API a V3.2, sin cambios en los precios respecto a la tarifa de V3.2-Exp - esto coloca el precio en solo $0.28/$0.42 por 1M de tokens de entrada/salida, con un 90% de descuento para los tokens de entrada en caché. Desde el lanzamiento original de DeepSeek V3 hace aproximadamente 11 meses a finales de diciembre de 2024, la arquitectura V3 de DeepSeek con 671B de parámetros totales/37B de parámetros activos ha visto cómo pasaron de un modelo que puntuaba 32 a uno que puntúa 66 en el Índice de Inteligencia de Análisis Artificial. DeepSeek también ha lanzado V3.2-Speciale, una variante solo de razonamiento con capacidades mejoradas pero un uso de tokens significativamente mayor. Este es un compromiso común en los modelos de razonamiento, donde un razonamiento más mejorado generalmente produce puntuaciones de inteligencia más altas y más tokens de salida. V3.2-Speciale está disponible a través de la API de primera parte de DeepSeek hasta el 15 de diciembre. V3.2-Speciale actualmente puntúa más bajo en el Índice de Inteligencia de Análisis Artificial (59) que V3.2 (Razonamiento, 66) porque la API de primera parte de DeepSeek aún no admite la llamada a herramientas para este modelo. Si V3.2-Speciale igualara la puntuación tau2 de V3.2 (91%) con la llamada a herramientas habilitada, obtendría una puntuación de aproximadamente 68 en el Índice de Inteligencia, convirtiéndose en el modelo de pesos abiertos más inteligente. V3.2-Speciale utiliza 160M de tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial, casi el doble de la cantidad de tokens utilizados por V3.2 en modo de razonamiento. DeepSeek V3.2 utiliza una arquitectura idéntica a V3.2-Exp, que introdujo DeepSeek Sparse Attention (DSA) para reducir el cómputo requerido para la inferencia de contexto largo. Nuestro benchmark de Razonamiento de Contexto Largo no mostró ningún costo en inteligencia por la introducción de DSA. DeepSeek reflejó esta ventaja de costo de V3.2-Exp al reducir los precios en su API de primera parte de $0.56/$1.68 a $0.28/$0.42 por 1M de tokens de entrada/salida - una reducción del 50% y 75% en los precios de los tokens de entrada y salida respectivamente. Puntos clave de benchmarking: ➤🧠 DeepSeek V3.2: En modo de razonamiento, DeepSeek V3.2 obtiene 66 en el Índice de Inteligencia de Análisis Artificial y se coloca equivalente a Kimi K2 Thinking (67) y por delante de Grok 4 (65), Grok 4.1 Fast (Razonamiento, 64) y Claude Sonnet 4.5 (Pensamiento, 63). Demuestra aumentos notables en comparación con V3.2-Exp (57) en el uso de herramientas, razonamiento de contexto largo y codificación. ➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale puntúa más alto que V3.2 (Razonamiento) en 7 de los 10 benchmarks en nuestro Índice de Inteligencia. V3.2-Speciale ahora tiene las puntuaciones más altas y la segunda más alta entre todos los modelos para AIME25 (97%) y LiveCodeBench (90%) respectivamente. Sin embargo, como se mencionó anteriormente, la API de primera parte de DeepSeek para V3.2-Speciale no admite la llamada a herramientas y el modelo obtiene una puntuación de 0 en el benchmark tau2. ➤📚 Alucinación y Conocimiento: DeepSeek V3.2-Speciale y V3.2 son los modelos de pesos abiertos mejor clasificados en el Índice de Omnisciencia de Análisis Artificial con puntuaciones de -19 y -23 respectivamente. Los modelos propietarios de Google, Anthropic, OpenAI y xAI suelen liderar este índice. ➤⚡ Rendimiento no razonado: En modo no razonado, DeepSeek V3.2 obtiene 52 en el Índice de Inteligencia de Análisis Artificial (+6 puntos frente a V3.2-Exp) y es el modelo no razonado más inteligente en el puesto #3. DeepSeek V3.2 (No razonado) iguala la inteligencia de DeepSeek R1 0528, un modelo de razonamiento de frontera de mayo de 2025, destacando los rápidos avances en inteligencia logrados a través de mejoras en el preentrenamiento y el RL este año. ➤⚙️ Eficiencia de tokens: En modo de razonamiento, DeepSeek V3.2 utilizó más tokens que V3.2-Exp para ejecutar el Índice de Inteligencia de Análisis Artificial (de 62M a 86M). El uso de tokens sigue siendo similar en la variante no razonada. V3.2-Speciale demuestra un uso de tokens significativamente mayor, utilizando aproximadamente 160M de tokens de salida por delante de Kimi K2 Thinking (140M) y Grok 4 (120M). ➤💲Precios: DeepSeek no ha actualizado el precio por token para su primera parte y las tres variantes están disponibles a $0.28/$0.42 por 1M de tokens de entrada/salida. Otros detalles del modelo: ➤ ©️ Licencia: DeepSeek V3.2 está disponible bajo la Licencia MIT. ➤ 🌐 Disponibilidad: DeepSeek V3.2 está disponible a través de la API de DeepSeek, que ha reemplazado a DeepSeek V3.2-Exp. Los usuarios pueden acceder a DeepSeek V3.2-Speciale a través de una API temporal de DeepSeek hasta el 15 de diciembre. Dado el aumento de inteligencia en este lanzamiento, esperamos que varios proveedores de terceros ofrezcan este modelo pronto. ➤ 📏 Tamaño: DeepSeek V3.2 Exp tiene 671B de parámetros totales y 37B de parámetros activos. Esto es lo mismo que todos los modelos anteriores en las series DeepSeek V3 y R1.
Con el precio de la API de primera mano de DeepSeek de $0.28/$0.42 por 1M de tokens de entrada/salida, V3.2 (Razonamiento) se sitúa en la frontera de Pareto del gráfico del Índice de Inteligencia frente al Costo de Ejecutar Análisis de Inteligencia Artificial.
DeepSeek V3.2-Speciale es el modelo de pesos abiertos mejor clasificado en el Índice de Omnisciencia de Análisis Artificial, mientras que V3.2 (Razonamiento) iguala el Pensamiento Kimi K2.
DeepSeek V3.2 es más detallado que su predecesor en modo de razonamiento, utilizando más tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial (86M frente a 62M).
Compara cómo se desempeña DeepSeek V3.2 en relación con los modelos que estás utilizando o considerando en:
66,95K