> vara Arcee > titta dig omkring > inser att öppen vikt frontier MoE i princip är ett Qwen/DeepSeek-monopol > bestämmer mig för "nej, vi bygger vår egen" > faktisk förträning från början till slut > på amerikansk mark > introduktion av Trinity > Nano (6B MoE) och Mini (26B MoE) > öppna vikter, Apache 2.0 > gratis på OpenRouter för tillfället > Nano: personlighetsmodell med 800 miljoner aktiva parametrar > Mini: resonemangsmodell med 3B aktiv > Large: tränar just nu på 2048 B300 för varför inte > framtid är uppenbar > modeller kommer inte att vara statiska apparater > kommer de att vara system som växer > anpassa sig > lär dig av dina användare > omskola från levande användning > du kan inte göra det om du inte äger vikterna > eller träningsloopen > så vänder Arcee på steken > bestämmer sig för att förträna allt själv > steg 1: AFM-4.5B > 8T kurerade tokens > tränad med DatologyAI > "kan vi ens göra det här"-experimentet...