> Arcee > etrafa bak > açık ağırlıklı sınır MoE'nin temelde bir Qwen/DeepSeek tekeli olduğunu biliyorum > "Hayır, kendi kendimizi inşa ediyoruz" dediler. > gerçek uçtan uca ön eğitim > ABD topraklarında > Trinity'yi tanıtıyor > Nano (6B MoE) ve Mini (26B MoE) > açık ağırlıklar, Apache 2.0 > için OpenRouter'da ücretsiz > Nano: 800M aktif paramlı kişilik modeli > Mini: 3B aktif olan akıl yürütme modeli > Büyük: şu anda 2048 B300'lerle antrenman yapıyorum çünkü neden olmasın > gelecek açık > modeller statik cihaz olmayacak > büyüyen sistemler olacak > uyum sağlayacak > kullanıcılarınızdan öğrenin > canlı kullanımdan yeniden eğitim > ağırlıklara sahip değilseniz bunu yapamazsınız > ya da eğitim döngüsü > Arcee masayı ters çeviriyor > her şeyi kendisi önceden eğitmeye karar verir > adım 1: AFM-4.5B > 8T seçilmiş jetonlar > DatologyAI ile eğitim aldı > "bunu yapabilir miyiz" deneyi...