Jag påbörjar en ny serie intervjuer på @interconnectsai med alla ledande öppna modelllabb runt om i världen för att visa varför människor gör detta, hur människor tränar bra modeller och vart ekosystemet är på väg. Den första är Ant Groups Ling (@AntLingAGI) / InclusionAI (@TheInclusionAI) team som släppte fantastiska modeller i somras efter att ha startat projektet som en reaktion på DeepSeek. Endast 6-8 månader! Dessa modeller, Ling (instruct/base model), Ring (reasoner) och Ming (multilingual) är en ganska vanlig blandning av experter (MoE) modeller från 300B till 1T parametrar. De hade också massor av bra saker nyligen om att skala sin RL-infrastruktur här (se inlägget för en genomgång av alla deras senaste publikationer och modeller). Ant Ling/InclusionAI känns som ett av de labb som skulle kunna ta steget till Kimi/Qwen-nivån 2026 om tärningarna landar korrekt. Fler är på gång, eftersom det känns som ett perfekt tillfälle att göra detta, när de öppna modellerna för närvarande är både många och extremt högpresterande.