Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC di @FirstMarkCap. Pembawa acara: Podcast MAD; Penyelenggara: Data Driven NYC, Penulis: MAD Landscape.
. @lukaszkaiser @OpenAI tentang mengapa generalisasi masih menjadi intinya:
"Saya terpesona oleh generalisasi. Saya selalu berpikir ini adalah topik utama dalam pembelajaran mesin secara umum dan dalam memahami kecerdasan. Pra-pelatihan sedikit berbeda ... itu tidak serta merta meningkatkan generalisasi. Itu hanya menggunakan lebih banyak pengetahuan."
"Kami mendorong model. Mereka mempelajari hal-hal yang ada di sekitar apa yang kita ajarkan kepada mereka. Mereka masih memiliki keterbatasan karena mereka tidak hidup di dunia fisik, karena mereka tidak terlalu pandai dalam multimodal, karena penalaran masih sangat muda dan ada banyak bug dalam cara kita melakukannya."
"Seseorang berkata, itu seperti mengemudi kencang dalam kabut. Anda tidak pernah tahu dengan jelas seberapa jauh atau dekat Anda."
Episode lengkap dengan Łukasz di bawah ini - atau cari "MAD Podcast dengan Matt Turck" di YouTube, Spotify, atau Apple Podcasts.

Matt Turck27 Nov, 01.07
Suguhan minggu Thanksgiving: percakapan epik tentang Frontier AI dengan @lukaszkaiser rekan penulis "Attention Is All You Need" (Transformers) dan ilmuwan peneliti terkemuka di @OpenAI yang mengerjakan model penalaran era GPT-5.1.
00:00 – Buka dingin dan intro
01:29 – "Perlambatan AI" vs minggu liar model perbatasan baru
08:03 – Buah yang menggantung rendah, infra, pelatihan RL, dan data yang lebih baik
11:39 – Apa itu model penalaran, dalam bahasa sederhana
17:02 – Rantai pemikiran dan melatih proses berpikir dengan RL
21:39 – Jalan Łukasz: dari logika dan Prancis ke Google dan Kurzweil
24:20 – Di dalam cerita Transformer dan apa arti "perhatian" sebenarnya
28:42 – Dari Google Brain ke OpenAI: budaya, skala, dan GPU
32:49 – Apa selanjutnya untuk pra-pelatihan, GPU, dan distilasi
37:29 – Apakah kita masih bisa memahami model-model ini? Sirkuit, jarang, dan kotak hitam
39:42 – GPT-4 → GPT-5 → GPT-5.1: apa yang sebenarnya berubah
42:40 – Pasca-pelatihan, keselamatan, dan pengajaran GPT-5.1 nada berbeda
46:16 – Berapa lama GPT-5.1 harus berpikir? Token penalaran dan kemampuan bergerigi
47:43 – Teka-teki titik anak berusia lima tahun yang masih mendobrak model perbatasan
52:22 – Generalisasi, pembelajaran seperti anak kecil dan apakah penalaran sudah cukup
53:48 – Beyond Transformers: ARC, ide LeCun dan kemacetan multimoda
56:10 – GPT-5.1 Codex Max, agen dan pemadatan yang berjalan lama
1:00:06 – Akankah model foundation memakan sebagian besar aplikasi? Analogi terjemahan dan kepercayaan
1:02:34 – Apa yang masih perlu diselesaikan, dan ke mana AI akan pergi selanjutnya
2,09K
Teratas
Peringkat
Favorit


