Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ahmad
Ricercatore di intelligenza artificiale e ingegnere del software, in missione per costruire un cluster di GPU DGX B200
ROBA PERICOLOSA
> oltre 20 milioni di conversazioni ChatGPT
> sono ora prove... un giudice ha appena ordinato
> a OpenAI di consegnarle in una causa legale
se qualcosa ha mai urlato
> Compra una GPU
> esegui la tua AI localmente
> proteggi i tuoi dannati dati
è proprio questo qui


Adam Eisgrau4 dic, 02:12
ULTIME NOTIZIE: @OpenAI deve consegnare oltre 20 milioni di chat log ai querelanti, ha stabilito il giudice Ona Wang in un'ordinanza di 9 pagine appena emessa:

626,01K
segnale estremamente ribassista
> invitare e intrattenere potenziali assunzioni
> avviene per generosità
> o per disperazione
> in questo caso è la seconda
Mark Zuckerberg sarà ricordato per
> aver assunto Alexandr Wang,
> rendendolo capo di Yann LeCun &
> distruggendo FAIR
raggiunto il picco con Llama3 ig


Yuchen Jin3 dic, 02:47
Mark Chen di OpenAI:
- “Meta ha cercato di assumere metà dei miei diretti collaboratori e tutti hanno rifiutato.”
- “Meta ha $10 miliardi di capitale all'anno da investire in talenti.”
- “Zuck ha cucinato e consegnato a mano la zuppa alle persone che stava cercando di assumere da OpenAI.”
Una guerra folle per il talento nell'AI.
13,61K
> essere arcee
> guardarsi intorno
> rendersi conto che l'open-weight frontier MoE è fondamentalmente un monopolio Qwen/DeepSeek
> decidere “no, stiamo costruendo il nostro”
> pre-addestramento end-to-end effettivo
> su suolo statunitense
> presentiamo Trinity
> Nano (6B MoE) e Mini (26B MoE)
> pesi aperti, Apache 2.0
> gratis su OpenRouter per ora
> Nano: modello di personalità con 800M di parametri attivi
> Mini: modello di ragionamento con 3B attivi
> Large: in fase di addestramento ora su 2048 B300s perché no
> il futuro è ovvio
> i modelli non saranno apparecchi statici
> saranno sistemi che crescono
> si adattano
> apprendono dai tuoi utenti
> si riaddestrano dall'uso dal vivo
> non puoi farlo se non possiedi i pesi
> o il ciclo di addestramento
> quindi arcee rovescia il tavolo
> decide di pre-addestrare tutto da soli
> passo 1: AFM-4.5B
> 8T di token curati
> addestrati con DatologyAI
> esperimento “possiamo anche farlo”
> risposta: sì
> inoltre: la matematica e il codice fanno ancora male
> procedere comunque
> passo 2: Trinity Nano & Mini
> saltare direttamente nel territorio MoE
> 56 strati, 128 esperti
> routing sigmoidale, esperto condiviso, nessuna perdita ausiliaria
> attenzione gated, QK-norm, query raggruppate
> pattern locale/globale
> ottimizzatore muon
> addestramento bf16 su 512 H200s
> il tutto speciale Dion/TorchTitan/HSDP
> lunghezza del contesto?
> Nano addestrato a 256k (inferire a 128k)
> Mini addestrato a 128k
> dati?
> 10T di token attraverso 3 fasi
> ampio → affilato → pesante STEM
> Datology che sforna un idrante sintetico
> Prime Intellect mantiene in vita i cluster H100
> e sì
> addestrare MoE a questa scala è un dolore
> “non c'è modo educato per dirlo,” dolore
> 20T di token per Trinity Large
> 2048 H100s generando dati sintetici
> 2048 B300s addestrando il modello effettivo
> (il debug è uno stile di vita btw)
> ma qui inizia il divertimento
> perché una volta che possiedi il pre-addestramento
> possiedi tutto ciò che è a monte del “prodotto”
> provenienza dei dati
> obiettivi
> deriva comportamentale
> riaddestramento on-prem
> veri sistemi a lungo termine
> non purgatorio API-come-dipendenza
> quindi, cosa c'è dopo?
> Trinity Large
> 420B parametri
> 13B attivi per token
> completamente aperto
> obiettivo gennaio 2026
> il momento in cui “American MoE” diventa una Cosa™
> Nano + Mini sono il riscaldamento
> modelli che puoi effettivamente usare ora
> scarica
> ospita
> affina
> rompi
> segnala bug
> plasma l'addestramento di Large
> ciclo comunitario sbloccato
> se ti interessa il peso aperto
> o non esternalizzare l'intero stack a laboratori black-box
> Trinity è fondamentalmente la sfida
> prendi Nano + Mini su Hugging Face
> o eseguili su OpenRouter
> stressali
> trova le crepe
> invia il feedback
> il punto è la proprietà
mi piace arcee, stanno costruendo questi modelli così non devi affittare la tua intelligenza da qualcun altro

27,61K
Principali
Ranking
Preferiti

