> fi Arcee > uită-te în jur > realizez că MoE de frontieră cu greutate deschisă este practic un monopol Qwen/DeepSeek > decid "nu, ne construim propriul nostru proiect" > preantrenament end-to-end real > pe teritoriul SUA > prezentarea trupei Trinity > Nano (6B MoE) și Mini (26B MoE) > greutăți deschise, Apache 2.0 > gratuit pe OpenRouter deocamdată > Nano: model de personalitate cu parametri activi de 800M > Mini: model de raționament cu 3B activ > Mare: mă antrenez acum pe 2048 de B300, pentru că de ce nu > viitor este evident > modele nu vor fi aparate statice > vor fi sisteme care cresc > adaptare > învață de la utilizatorii tăi > reantrenare din utilizarea live > nu poți face asta dacă nu deții greutățile > sau bucla de antrenament > așa că Arcee întoarce masa > decide să pre-antreneze totul singur > pasul 1: AFM-4.5B > tokenuri curatoriate 8T > antrenat cu DatologyAI > experiment "putem face asta?"...