Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
Alibaba ha lanzado Qwen3 Next 80B: un modelo híbrido de razonamiento con pesos abiertos que alcanza un nivel de inteligencia de DeepSeek V3.1 con solo 3B de parámetros activos
Puntos clave:
💡 Arquitectura novedosa: Primer modelo en introducir los modelos de base ‘Qwen3-Next’ de @Alibaba_Qwen, con varias decisiones clave de arquitectura, como un mecanismo de atención híbrido de Gated DeltaNet y Gated Attention, y alta escasez con un 3.8% de participación de parámetros activos, en comparación con el 9.4% de Qwen3 235B
🧠 Inteligencia: Qwen3 Next 80B (Razonamiento) obtiene 54 en el Índice de Inteligencia de Análisis Artificial, colocado junto a DeepSeek V3.1 (Razonamiento). La variante no razonadora obtiene 45, en línea con gpt-oss-20B y Llama Nemotron Super 49B v1.5 (Razonamiento)
💲 Modelo de precios: El precio por token en @alibaba_cloud es de $0.5/$6 por 1M de tokens de entrada/salida para razonamiento y $0.5/$2 para la variante no razonadora. Esto se compara con precios más altos para Qwen3 235B 2507 de $0.7/$8.4 con razonamiento y $0.7/$2.8 sin - una reducción de ≥25% dependiendo de las cargas de trabajo
⚙️ Detalles del modelo: El modelo tiene una ventana de contexto nativa de 256k tokens y es solo de texto, sin entradas o salidas multimodales. Con solo 80B de parámetros en FP8, el modelo se ajusta en una sola GPU H200

124
¡Lanzamos nuestra Encuesta sobre el Estado de los Medios Generativos 2025 apoyada por @fal! Participa para recibir el informe completo de la encuesta y ganar un par de Meta Ray-Bans 🕶️
Estamos realizando la encuesta para recopilar información sobre el estado de los Medios Generativos en 2025. Esto incluye perspectivas sobre cómo las organizaciones están utilizando, eligiendo y accediendo a modelos de Imagen, Video y Música.
¿Por qué participar?
✅ Recibe una copia gratuita del informe extendido de la encuesta (solo una versión limitada estará disponible públicamente)
✅ Una oportunidad de ganar un par de Gafas Ray-Ban Meta AI 🕶️
✅ Contribuye a compartir información sobre las tendencias clave que están dando forma a los Medios Generativos.
¡Enlace en el hilo a continuación! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
201
DeepSeek lanza V3.1, unificando V3 y R1 en un modelo de razonamiento híbrido con un aumento incremental en inteligencia
Aumento incremental de inteligencia: Los resultados iniciales de evaluación para DeepSeek V3.1 muestran un Índice de Inteligencia de Análisis Artificial de 60 en modo de razonamiento, por encima de la puntuación de 59 de R1. En modo no razonamiento, V3.1 alcanza una puntuación de 49, un mayor aumento respecto a la puntuación anterior de V3 0324 de 44. Esto deja a V3.1 (razonamiento) detrás del último Qwen3 235B 2507 de Alibaba (razonamiento) - DeepSeek no ha recuperado el liderazgo.
Razonamiento híbrido: @deepseek_ai ha pasado a un modelo de razonamiento híbrido por primera vez, apoyando tanto modos de razonamiento como no razonamiento. El movimiento de DeepSeek hacia un modelo de razonamiento híbrido unificado imita el enfoque adoptado por OpenAI, Anthropic y Google. Sin embargo, es interesante notar que Alibaba recientemente abandonó su enfoque híbrido que favorecía para Qwen3 con sus lanzamientos separados de los modelos de razonamiento y de instrucción de Qwen3 2507.
Llamadas a funciones / uso de herramientas: Aunque DeepSeek afirma haber mejorado las llamadas a funciones para el modelo, DeepSeek V3.1 no soporta llamadas a funciones cuando está en modo de razonamiento. Esto probablemente limitará sustancialmente su capacidad para soportar flujos de trabajo agentes con requisitos de inteligencia, incluyendo en agentes de codificación.
Uso de tokens: DeepSeek V3.1 obtiene puntuaciones incrementalmente más altas en modo de razonamiento que DeepSeek R1, y utiliza ligeramente menos tokens en las evaluaciones que usamos para el Índice de Inteligencia de Análisis Artificial. En modo no razonamiento, utiliza ligeramente más tokens que V3 0324, pero aún así varias veces menos que en su propio modo de razonamiento.
API: La API de primera parte de DeepSeek ahora sirve el nuevo modelo DeepSeek V3.1 en sus puntos finales de chat y razonamiento, simplemente cambiando si el token de pensamiento final </think> se proporciona al modelo en la plantilla de chat para controlar si el modelo razonará.
Arquitectura: DeepSeek V3.1 es arquitectónicamente idéntico a los modelos anteriores V3 y R1, con 671B de parámetros totales y 37B de parámetros activos.
Implicaciones: Aconsejaríamos precaución al hacer suposiciones sobre lo que esta versión implica sobre el progreso de DeepSeek hacia un futuro modelo referido en rumores como V4 o R2. Notamos que DeepSeek lanzó previamente el modelo final construido sobre su arquitectura V2 el 10 de diciembre de 2024, solo dos semanas antes de lanzar V3.


457
Parte superior
Clasificación
Favoritos