Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Notable. China otra vez...

7 nov, 05:10
MoonshotAI ha lanzado Kimi K2 Thinking, una nueva variante de razonamiento de Kimi K2 que alcanza el #1 en el punto de referencia agentelógico Tau2 Bench Telecom y es potencialmente el nuevo modelo líder de pesos abiertos
Kimi K2 Thinking es uno de los modelos de pesos abiertos más grandes de la historia, con parámetros totales de 1T con 32B activo. K2 Thinking es el primer lanzamiento del modelo de razonamiento dentro de la familia de modelos Kimi K2 de @Kimi_Moonshot, después de los modelos Kimi K2 Instruct sin razonamiento lanzados anteriormente en julio y septiembre de 2025.
Conclusiones clave:
➤ Fuerte rendimiento en tareas agenciales: Kimi K2 Thinking logra el 93% en τ²-Bench Telecom, un benchmark de uso de herramientas agenciales donde el modelo actúa como agente de servicio al cliente. Esta es la puntuación más alta que hemos medido de forma independiente. El uso de herramientas en contextos agenciales de largo horizonte fue una fortaleza de Kimi K2 Instruct y parece que esta nueva variante de pensamiento logra ganancias sustanciales
➤ Variante de razonamiento de Kimi K2 Instruir: El modelo, según su nombre, es una variante de razonamiento de Kimi K2 Instruir. El modelo tiene la misma arquitectura y el mismo número de parámetros (aunque con diferente precisión) que Kimi K2 Instruct y, al igual que K2 Instruct, solo admite texto como modalidad de entrada (y salida)
➤ Parámetros 1T pero INT4 en lugar de FP8: A diferencia de las versiones anteriores de Kimi K2 Instruct de Moonshot que usaban precisión FP8, este modelo se ha lanzado de forma nativa con precisión INT4. Moonshot utilizó el entrenamiento consciente de la cuantificación en la fase posterior al entrenamiento para lograr esto. El impacto de esto es que K2 Thinking es de solo ~ 594 GB, en comparación con poco más de 1 TB para K2 Instruct y K2 Instruct 0905, lo que se traduce en ganancias de eficiencia para la inferencia y el entrenamiento. Una posible razón para INT4 es que las GPU NVIDIA anteriores a Blackwell no son compatibles con FP4, lo que hace que INT4 sea más adecuado para lograr ganancias de eficiencia en hardware anterior.
Nuestro conjunto completo de puntos de referencia del Índice de Inteligencia de Análisis Artificial está en progreso y proporcionaremos una actualización tan pronto como estén completos.

Principales inversores en @Kimi_Moonshot :
Alibaba (40% propietario), Tencent, Meituan, Ant Group, Hongshan... y Microsoft participó!
3.53K
Populares
Ranking
Favoritas

