> olla Arcee > katsoa ympärillesi > ymmärrän, että avoimen painoluokan rajaministeriö on käytännössä Qwen/DeepSeek-monopoli > päättävät "ei, rakennamme omamme" > varsinaista alusta päähän -esikoulutusta > Yhdysvaltojen maaperällä > Trinityn esittely > Nano (6B MoE) ja Mini (26B MoE) > avoimet painot, Apache 2.0 > toistaiseksi ilmainen OpenRouterissa > Nano: persoonallisuusmalli, jossa on 800M aktiivista paramia > Mini: päättelymalli, jossa 3B on aktiivinen > Large: harjoittelen nyt 2048 B300-malleilla, koska miksi ei > tulevaisuus on ilmeinen > mallit eivät ole staattisia laitteita > ne ovat järjestelmiä, jotka kasvavat > sopeutua > oppia käyttäjiltäsi > uudelleenkoulutus live-käytöstä > et voi tehdä sitä, jos et omista painoja > tai harjoitussilmukkaa > Arcee kääntää pöydän ympäri > päättää esikouluttaa kaiken itse > vaihe 1: AFM-4.5B > 8T-kuratoidut tokenit > koulutettu DatologyAI:lla > "voimmeko edes tehdä tämän" -kokeen...