Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VraserX e/acc
Insegnante nel cuore, appassionato di intelligenza artificiale per curiosità, appassionato di ispirare le menti, esplorare la tecnologia e rendere l'apprendimento entusiasmante, umano e orientato al futuro!
La Velocità di Fuga dalla Longevità non sarà egalitaria, almeno non all'inizio.
Ecco la mia opinione:
Probabilmente la raggiungeremo per i super-ricchi alla fine degli anni '30 o all'inizio degli anni '40, ma per il resto di noi? Non prima della fine degli anni '50.
Perché? Perché i progressi nella biotecnologia non sono lineari, sono limitati da capitale, calcolo e coordinamento.
Il primo decennio di veri progressi nella longevità sarà a pagamento. La ringiovanimento cellulare personalizzato, la nanomedicina e le terapie geniche guidate dall'AI costeranno milioni all'anno. Solo i miliardari e i grandi investitori finanzieranno l'accesso anticipato.
2. Calcolo: La longevità diventerà un problema di AI. Addestrare modelli biologici su dinamiche molecolari, simulazioni del proteoma e traiettorie di invecchiamento individualizzate richiederà cluster di calcolo delle dimensioni di nazioni. Le stesse GPU che hanno addestrato GPT-7 progetteranno i tuoi nuovi mitocondri.
3. Coordinamento: I governi si muovono lentamente, i comitati etici ancora più lentamente. La regolamentazione, l'assicurazione e l'infrastruttura clinica ritarderanno di 15-20 anni. Quando il sistema sanitario pubblico si metterà al passo, le élite saranno già biologicamente più giovani di decenni.
Quindi sì, la velocità di fuga sta arrivando.
Solo in modo diseguale.
I ricchi avranno 20 anni extra di vita, che useranno per finanziare la prossima generazione di tecnologie di ringiovanimento che alla fine si diffonderanno. Per il resto di noi, la longevità arriverà come tutte le rivoluzioni:
troppo tardi per i primi sognatori, ma giusto in tempo per i loro figli.

5,97K
La crescita computazionale di OpenAI è appena diventata nucleare
Quello che stiamo osservando in questo momento è l'incontro tra la scala dell'era industriale e l'ambizione dell'era dell'intelligenza.
OpenAI ha appena annunciato un altro Stargate, questa volta in Michigan, aggiungendo più di un gigawatt di capacità energetica alla sua infrastruttura AI.
Lasciate che questo affondi: un singolo sito da un gigawatt è approssimativamente equivalente al consumo energetico di un'intera città.
E questo non è un caso isolato.
Stanno accumulando gigawatt in Texas, Nuovo Messico, Wisconsin, Ohio e ora Michigan, in collaborazione con Oracle e SoftBank. Già 8+ GW sono stati bloccati e 450 miliardi di dollari impegnati, sulla buona strada per 10 GW e 500 miliardi di dollari entro il 2028.
Stiamo parlando di milioni di GPU, collegate attraverso i continenti, formando un substrato di intelligenza su scala planetaria.
Questo non è "un grande datacenter."
Questo è la nascita dell'infrastruttura cognitiva del mondo.
Se stai ancora pensando in termini di "app" o "modelli," ti stai perdendo. Questo è l'espansione industriale dell'AGI, la spina dorsale fisica dell'economia post-umana.
Il calcolo è il nuovo petrolio.
I datacenter sono le nuove città.
E il confine non è più digitale, è la cognizione sintetica.
I libri di storia segneranno questo decennio come il momento in cui l'umanità ha industrializzato l'intelligenza stessa.

1,87K
Preparatevi: prevedo che entro la fine del prossimo anno, OpenAI svelerà una vera AGI (Intelligenza Generale Artificiale).
Ok, ascoltatemi, perché sto facendo un caso audace ma ragionato, e voglio che voi cavalchiate questa onda di possibilità con me:
1. Esplosione computazionale
OpenAI afferma già che quest'anno supererà ben oltre un milione di GPU nella sua infrastruttura.
Ora immaginate quel numero amplificato da più data center (Texas, UAE, Norvegia) collegati tramite il cosiddetto “Stargate”. Con più geo-regioni, reti elettriche e canali di raffreddamento collegati, stiamo parlando di un ordine di grandezza in più.
Questo tipo di calcolo restituisce l'energia necessaria per addestrare modelli davvero enormi, sistemi in tempo reale, apprendimento multimodale, memoria, adattamento.
2. Apprendimento continuo tramite SEAL
Ci sono recenti ricerche del MIT su un framework chiamato SEAL (Modelli Linguistici Auto-Adattivi) che consente a un modello di generare i propri dati di affinamento, aggiornarsi in risposta a nuove conoscenze e mantenere quegli aggiornamenti nei suoi pesi.
E se OpenAI integrasse qualcosa del genere (o un'evoluzione più avanzata) nel suo pipeline AGI? Il modello non rimane statico, assimila, valuta, aggiorna. Diventa più simile a un organismo che apprende.
3. Rompere la memoria e architettura adattativa
Nella ricerca AGI, una barriera è “pesi statici, conoscenza fissa”. La memoria (sia a breve termine, a lungo termine, episodica) è fondamentale. L'idea qui è: entro il prossimo anno OpenAI potrebbe integrare architetture con instradamento della memoria dinamico, buffer autobiografici persistenti, moduli interconnessi che evolvono.
Combinando con l'aumento della capacità di calcolo + capacità di apprendimento continuo = il salto da “LLM molto avanzato” a qualcosa che potresti ragionevolmente chiamare AGI.
4. Plauibilità della tempistica
Sì, lo so, “fine del prossimo anno” suona ambizioso. Ma dato il ritmo di iterazione dei modelli, scalabilità del calcolo ecc., non è ridicolo. La leva chiave è l'integrazione: calcolo + architettura + ciclo di apprendimento + memoria. Se OpenAI colpisce tutti e quattro, boom.
5. Implicazioni
• Se l'AGI arriva allora, vedremo accelerazioni straordinarie nell'automazione, ottimizzazione, scoperta.
• L'era degli “assistenti AI che apprendono con te e per te” diventa reale.
• Solleva enormi questioni filosofiche, etiche, economiche (evviva, il tuo terreno preferito).
• Per te, come transumanista appassionato di VR, significa che gli strumenti per l'automazione radicale, la ricerca sulla longevità ecc. riceveranno un impulso cosmico.
Caveats (perché non sto esagerando senza pensare)
• “AGI” è un termine sfocato. Lo definisco come un sistema con capacità cognitive generali a livello umano in vari domini (ragionamento, apprendimento, adattamento, memoria).
• Niente garantisce che OpenAI integrerà SEAL o architetture in stile “memoria rotta” l'anno prossimo, ci sono colli di bottiglia ingegneristici, di potenza, di raffreddamento, di sicurezza, di allineamento.
• La scala da sola non è sufficiente. Un milione di GPU senza la giusta architettura produce comunque rendimenti decrescenti.
• La previsione è audace perché credo che stiamo entrando in una zona di accelerazione che si verifica una volta ogni decennio.
Quindi sì, sto piantando la mia bandiera nella sabbia: OpenAI rivelerà l'AGI entro la fine del prossimo anno. I meccanismi: enormi aumenti di GPU (nodi Texas, UAE, Norvegia), integrazione di loop di apprendimento continuo in stile SEAL, architettura adattativa ricca di memoria. Questa è la grande occasione.

3,07K
Principali
Ranking
Preferiti

