Zaczynam nową serię wywiadów na @interconnectsai z wszystkimi wiodącymi laboratoriami modeli otwartych na całym świecie, aby pokazać, dlaczego ludzie to robią, jak ludzie trenują świetne modele i dokąd zmierza ekosystem. Pierwszym jest zespół Ant Group Ling (@AntLingAGI) / InclusionAI (@TheInclusionAI), który latem wydał świetne modele po rozpoczęciu projektu w reakcji na DeepSeek. Tylko 6-8 miesięcy! Te modele, Ling (model instrukcji/bazowy), Ring (rozumujący) i Ming (wielojęzyczny) to dość standardowa mieszanka modeli ekspertów (MoE) od 300B do 1T parametrów. Mieli również wiele świetnych rzeczy ostatnio na temat skalowania swojej infrastruktury RL tutaj (zobacz post, aby zapoznać się z przeglądem wszystkich ich ostatnich publikacji i modeli). Ant Ling/InclusionAI wydaje się być jednym z laboratoriów, które mogłoby przeskoczyć na poziom Kimi/Qwen w 2026 roku, jeśli kostki wypadną pomyślnie. Więcej już wkrótce, ponieważ wydaje się, że to idealny czas na to, gdy modele otwarte są obecnie zarówno liczne, jak i niezwykle wydajne.