> ser arcee > olhar ao redor > perceber que o MoE de pesos abertos é basicamente um monopólio Qwen/DeepSeek > decidir “não, vamos construir o nosso próprio” > pré-treinamento real de ponta a ponta > em solo americano > apresentando Trinity > Nano (6B MoE) e Mini (26B MoE) > pesos abertos, Apache 2.0 > grátis no OpenRouter por enquanto > Nano: modelo de personalidade com 800M de parâmetros ativos > Mini: modelo de raciocínio com 3B ativos > Grande: treinamento agora em 2048 B300s porque por que não > o futuro é óbvio > os modelos não serão aparelhos estáticos > eles serão sistemas que crescem > se adaptam > aprendem com seus usuários > re-treinamento a partir do uso ao vivo > você não pode fazer isso se não possui os pesos > ou o ciclo de treinamento > então arcee vira a mesa > decide pré-treinar tudo sozinhos > passo 1: AFM-4.5B > 8T de tokens curados > treinados com DatologyAI > experimento “podemos até fazer isso”...