Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Treat-ul săptămânii de Ziua Recunoștinței: o conversație epică despre Frontier AI cu @lukaszkaiser coautor al cărții "Attention Is All You Need" (Transformers) și cercetător de top la @OpenAI care lucrează la modele de raționament din era GPT-5.1.
00:00 – Deschidere la rece și introducere
01:29 – "Încetinirea AI" vs o săptămână sălbatică plină de noi modele de frontieră
08:03 – Fructe la îndemână, infrastructură, antrenament RL și date mai bune
11:39 – Ce este un model de raționament, în limbaj simplu
17:02 – Lanțul de gândire și antrenarea procesului de gândire cu RL
21:39 – Drumul lui Łukasz: de la logică și Franța la Google și Kurzweil
24:20 – În interiorul poveștii Transformerilor și ce înseamnă cu adevărat "atenția"
28:42 – De la Google Brain la OpenAI: cultură, scară și GPU-uri
32:49 – Ce urmează pentru pre-antrenament, GPU-uri și distilare
37:29 – Putem încă să înțelegem aceste modele? Circuite, scaritate și cutii negre
39:42 – GPT-4 → GPT-5 → GPT-5.1: ce s-a schimbat de fapt
42:40 – Post-antrenament, siguranță și predarea tonurilor diferite GPT-5.1
46:16 – Cât timp ar trebui să se gândească GPT-5.1? Jetoane de raționament și abilități zimțate
47:43 – Puzzle-ul cu puncte al copilului de cinci ani care încă sparge modelele de frontieră
...
Limită superioară
Clasament
Favorite

