> ser Arcee > olhe ao redor > percebo que o MoE fronteiriço de peso aberto é basicamente um monopólio Qwen/DeepSeek > decidir: "não, vamos construir a nossa própria" > pré-treinamento completo > em solo americano > apresentando Trinity > Nano (6B MoE) e Mini (26B MoE) > pesos abertos, Apache 2.0 > gratuito no OpenRouter por enquanto > Nano: modelo de personalidade com parâmetros ativos de 800M > Mini: modelo de raciocínio com 3B ativo > Grande: estou treinando agora com 2048 B300s porque por que não > futuro é óbvio > modelos não serão eletrodomésticos estáticos > serão sistemas que crescerão > adaptação > aprender com seus usuários > retreinar a partir do uso ao vivo > você não pode fazer isso se não tiver os pesos > ou o ciclo de treinamento > então Arcee vira a mesa > decide pré-treinar tudo sozinho > passo 1: AFM-4.5B > tokens curados 8T > treinado com DatologyAI > experimento de "será que podemos fazer isso?"...