. @lukaszkaiser de @OpenAI despre motivul pentru care generalizarea este încă esențialul: "Sunt fascinat de generalizări. Am crezut mereu că acesta este subiectul cheie în învățarea automată în general și în înțelegerea inteligenței. Pre-antrenamentul e puțin diferit... Nu crește neapărat generalizarea. Doar că folosește mai multă cunoaștere." "Împingem modelele. Ei învață lucruri care țin de ceea ce îi învățăm noi. Încă au limitări pentru că nu trăiesc în lumea fizică, pentru că nu sunt foarte buni la multimodal, pentru că raționamentul este foarte tânăr și există multe bug-uri în modul în care procedăm încă." "Cineva a spus că e ca și cum ai conduce repede în ceață. Niciodată nu știi foarte clar cât de departe sau aproape ești." Episodul complet cu Łukasz mai jos - sau caută "MAD Podcast with Matt Turck" pe YouTube, Spotify sau Apple Podcasts.