Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Notable. China de nuevo…

7 nov, 05:10
MoonshotAI ha lanzado Kimi K2 Thinking, una nueva variante de razonamiento de Kimi K2 que alcanza el #1 en el benchmark agentic Tau2 Bench Telecom y es potencialmente el nuevo modelo líder de pesos abiertos.
Kimi K2 Thinking es uno de los modelos de pesos abiertos más grandes jamás creados, con 1T de parámetros totales y 32B activos. K2 Thinking es el primer lanzamiento de un modelo de razonamiento dentro de la familia de modelos Kimi K2 de @Kimi_Moonshot, siguiendo los modelos Kimi K2 Instruct no razonadores lanzados anteriormente en julio y septiembre de 2025.
Puntos clave:
➤ Fuerte rendimiento en tareas agentic: Kimi K2 Thinking logra un 93% en 𝜏²-Bench Telecom, un benchmark de uso de herramientas agentic donde el modelo actúa como un agente de servicio al cliente. Esta es la puntuación más alta que hemos medido de forma independiente. El uso de herramientas en contextos agentic de largo horizonte fue una fortaleza de Kimi K2 Instruct y parece que esta nueva variante Thinking hace ganancias sustanciales.
➤ Variante de razonamiento de Kimi K2 Instruct: El modelo, como su nombre indica, es una variante de razonamiento de Kimi K2 Instruct. El modelo tiene la misma arquitectura y el mismo número de parámetros (aunque con diferente precisión) que Kimi K2 Instruct y, al igual que K2 Instruct, solo admite texto como modalidad de entrada (y salida).
➤ 1T de parámetros pero INT4 en lugar de FP8: A diferencia de los lanzamientos anteriores de Kimi K2 Instruct de Moonshot que usaron precisión FP8, este modelo se ha lanzado de forma nativa en precisión INT4. Moonshot utilizó entrenamiento consciente de cuantización en la fase de post-entrenamiento para lograr esto. El impacto de esto es que K2 Thinking ocupa solo ~594GB, en comparación con poco más de 1TB para K2 Instruct y K2 Instruct 0905, lo que se traduce en ganancias de eficiencia para la inferencia y el entrenamiento. Una posible razón para INT4 es que las GPU NVIDIA anteriores a Blackwell no tienen soporte para FP4, lo que hace que INT4 sea más adecuado para lograr ganancias de eficiencia en hardware más antiguo.
Nuestro conjunto completo de benchmarks del Índice de Análisis de Inteligencia Artificial está en progreso y proporcionaremos una actualización tan pronto como estén completos.

Inversores principales en @Kimi_Moonshot :
Alibaba (propietario del 40%), Tencent, Meituan, Ant Group, Hongshan … ¡y Microsoft participó!
3,6K
Parte superior
Clasificación
Favoritos

