Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC a @FirstMarkCap. Conduttore: MAD Podcast; Organizzatore: Data Driven NYC, Autore: MAD Landscape.
. @lukaszkaiser di @OpenAI sul perché la generalizzazione sia ancora il punto cruciale:
“Sono affascinato dalla generalizzazione. Ho sempre pensato che fosse l'argomento chiave nell'apprendimento automatico in generale e nella comprensione dell'intelligenza. Il pre-addestramento è un po' diverso... non aumenta necessariamente la generalizzazione. Semplicemente utilizza più conoscenza.”
“Spingiamo i modelli. Loro apprendono cose che sono attorno a ciò che insegniamo loro. Hanno ancora delle limitazioni perché non vivono nel mondo fisico, perché non sono molto bravi nel multimodale, perché il ragionamento è molto giovane e ci sono ancora molti bug nel modo in cui lo facciamo.”
“Qualcuno ha detto, è come guidare veloce nella nebbia. Non sai mai molto chiaramente quanto sei lontano o vicino.”
Episodio completo con Łukasz qui sotto - oppure cerca "MAD Podcast con Matt Turck" su YouTube, Spotify o Apple Podcasts.

Matt Turck27 nov 2025
Trattamento della settimana del Ringraziamento: una conversazione epica su Frontier AI con @lukaszkaiser - co-autore di “Attention Is All You Need” (Transformers) e principale ricercatore presso @OpenAI che lavora sui modelli di ragionamento dell'era GPT-5.1.
00:00 – Apertura e introduzione
01:29 – “Rallentamento dell'AI” vs una settimana selvaggia di nuovi modelli di frontiera
08:03 – Frutti a portata di mano, infrastruttura, addestramento RL e dati migliori
11:39 – Cos'è un modello di ragionamento, in parole semplici
17:02 – Catena di pensiero e addestramento del processo di pensiero con RL
21:39 – Il percorso di Łukasz: dalla logica e dalla Francia a Google e Kurzweil
24:20 – Dentro la storia del Transformer e cosa significa davvero “attenzione”
28:42 – Da Google Brain a OpenAI: cultura, scala e GPU
32:49 – Cosa c'è in serbo per il pre-addestramento, GPU e distillazione
37:29 – Possiamo ancora comprendere questi modelli? Circuiti, scarsità e scatole nere
39:42 – GPT-4 → GPT-5 → GPT-5.1: cosa è realmente cambiato
42:40 – Post-addestramento, sicurezza e insegnare a GPT-5.1 toni diversi
46:16 – Quanto tempo dovrebbe pensare GPT-5.1? Token di ragionamento e abilità irregolari
47:43 – Il puzzle dei punti del bambino di cinque anni che continua a rompere i modelli di frontiera
52:22 – Generalizzazione, apprendimento infantile e se il ragionamento sia sufficiente
53:48 – Oltre i Transformers: ARC, idee di LeCun e colli di bottiglia multimodali
56:10 – GPT-5.1 Codex Max, agenti a lungo termine e compattazione
1:00:06 – I modelli fondazionali mangeranno la maggior parte delle app? L'analogia della traduzione e fiducia
1:02:34 – Cosa deve ancora essere risolto e dove potrebbe andare l'AI dopo
3,18K
Principali
Ranking
Preferiti


