Estado de los modelos DeepSeek: DeepSeek lanzó sus nuevos modelos de razonamiento híbrido V3.1 Terminus y V3.2 Exp en rápida sucesión en septiembre, dando pasos significativos tanto en inteligencia como en eficiencia de costos. Ambos modelos pueden ser utilizados en modos de razonamiento y no razonamiento, y están destinados a reemplazar tanto los modelos anteriores V3 como R1. DeepSeek V3.1 Terminus subió 4 puntos en el Índice de Inteligencia de Análisis Artificial en comparación con la versión original V3.1 sin un número sustancialmente mayor de tokens, y V3.2 Experimental retuvo la mayor parte de estas ganancias mientras reducía sustancialmente los costos por token gracias a la nueva arquitectura experimental de DeepSeek. DeepSeek V3.1 Terminus y V3.2 Exp obtienen puntuaciones similares en Análisis Artificial, con V3.1 Terminus un punto por encima de V3.2 Exp. Ambos son mejoras materiales respecto a los modelos anteriores V3 y R1. Una variedad de proveedores están ofreciendo ambos modelos, con la disponibilidad de V3.2 aún en expansión: ➤ DeepSeek V3.1 Terminus está disponible en SambaNova, DeepInfra, Fireworks, GMI y Novita, con @SambaNovaAI ofreciendo velocidades de salida de ~250 tokens por segundo (alrededor de 10 veces más rápido que la inferencia de primera parte de DeepSeek). ➤ DeepSeek V3.2 Exp está disponible en la API de primera parte de DeepSeek, DeepInfra, GMI y Novita - con DeepInfra sirviéndolo más rápido a velocidades de hasta 79 tokens por segundo.
Vea a continuación nuestra comparación de proveedores para ambos de estos nuevos modelos DeepSeek:
20,27K