Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Vacca
Amazon a achiziționat în secret un startup israelian de fabricare a cipurilor în 2015 pentru ~ 350 de milioane de dolari.
Această achiziție adaugă indirect 30 de miliarde de dolari la profitul Amazon, alimentează 3/4 din infrastructura AWS, iar cipurile sale oferă un preț-performanță cu 40% mai bună decât Nvidia.
Dar de ce avea nevoie o librărie de chipsuri?


22,6K
Mi-a plăcut cât de profund a explicat Karpathy de ce antrenamentul AI pe rezultatul AI distruge inteligența.
> "S-ar putea să vă uitați la fiecare exemplu de gânduri reflexive ale LLM și să spuneți că arată grozav, haideți să ne antrenăm pe el. Dar ar trebui să te aștepți ca modelul să se înrăutățească mult după antrenament."
De ce ceva care arată perfect ar înrăutăți modelul?
Karpathy dă un exemplu perfect aici...
Roagă pe cineva să numească o femeie. Majoritatea oamenilor nu spun Hillary Clinton.
Dar dacă ai antrena o inteligență artificială pe răspunsuri în care toată lumea spune Hillary Clinton, asta este tot ce ar învăța.
> "Să spunem că avem un capitol dintr-o carte și cer unui LLM să se gândească la asta. Îți va oferi ceva care pare foarte rezonabil. Dar dacă o întreb de 10 ori, vei observa că toate sunt la fel."
Vedeți, exemplele generate de AI arată grozav individual, dar le lipsește haosul frumos al gândirii umane.
Oamenii adevărați sunt dezordonați și imprevizibili.
> "Oamenii sunt mult mai zgomotoși și nu se prăbușesc la fel de mult ca LLM-urile."
În loc să fie un bug, zgomotul din interiorul nostru este sursa de inteligență.
Dar cum evită oamenii această problemă de colaps AI?
> "Oamenii se prăbușesc pe parcursul vieții lor, dar nu și copiii. Copiii vor spune lucruri care te vor șoca. Pentru că nu s-au prăbușit încă. Dar noi [adulții] suntem prăbușiți."
Karpathy spune că copiii te șochează pentru că nu au învățat încă să dea răspunsuri "corecte".
Cu toate acestea, adulții devin mai previzibili în timp.
> "Ajungem să revizuim aceleași gânduri, ajungem să spunem din ce în ce mai multe lucruri, ratele de învățare scad, prăbușirea continuă să se înrăutățească."
Colapsul uman are loc de-a lungul deceniilor și încă menține suficientă diversitate. Dar colapsul AI se întâmplă imediat atunci când îi alimentezi propria sa ieșire.
Nimeni nu a rezolvat încă asta.
Toți ceilalți își hrănesc modelele cu conținut AI reciclat.
Dar adevărata descoperire va veni de la oricine își dă seama cum să surprindă imprevizibilitatea umană autentică la scară largă.
@dwarkesh_sp mulțumesc că ai adus-o pe Karpathy.

Andrej Karpathy19 oct. 2025
Plăcerea mea să vin la Dwarkesh săptămâna trecută, mi s-a părut că întrebările și conversația au fost foarte bune.
Am revăzut capsula chiar acum. În primul rând, da, știu și îmi pare rău că vorbesc atât de repede :). Este în detrimentul meu pentru că uneori firul meu vorbitor îmi depășește firul de gândire, așa că cred că am greșit câteva explicații din cauza asta, iar uneori am fost și emoționat că merg prea mult pe o tangentă sau prea adânc în ceva relativ fals. Oricum, câteva note/indicații:
Termene AGI. Comentariile mele despre cronologia AGI par a fi cea mai populară parte a răspunsului timpuriu. Acesta este "deceniul agenților" este o referire la acest tweet anterior Practic, cronologia mea AI este de aproximativ 5-10 ori pesimistă cu ceea ce veți găsi în petrecerea de cartier SF AI sau pe cronologia dvs. Conflictul aparent nu este: în același timp, 1) am văzut o cantitate uriașă de progrese în ultimii ani cu LLM-urile, în timp ce 2) mai este încă mult de lucru rămas (muncă grea, muncă de integrare, senzori și actuatori în lumea fizică, muncă socială, muncă de siguranță și securitate (jailbreak-uri, otrăvire etc.)) și, de asemenea, cercetare de făcut înainte de a avea o entitate pe care ați prefera să o angajați în locul unei persoane pentru o slujbă arbitrară în lume. Cred că, în general, 10 ani ar trebui să fie o cronologie foarte optimistă pentru AGI, doar în contrast cu hype-ul prezent nu se simte așa.
Animale vs fantome. Articolul meu anterior despre podcastul lui Sutton. Sunt suspicios că există un singur algoritm simplu pe care îl poți lăsa liber în lume și învață totul de la zero. Dacă cineva construiește așa ceva, mă voi înșela și va fi cea mai incredibilă descoperire în AI. În mintea mea, animalele nu sunt deloc un exemplu în acest sens - sunt preambalate cu o tonă de inteligență prin evoluție și învățarea pe care o fac este destul de minimă în general (exemplu: Zebra la naștere). Punându-ne pălăriile de inginer, nu vom reface evoluția. Dar cu LLM-urile ne-am împiedicat de o abordare alternativă de a "preambala" o tonă de inteligență într-o rețea neuronală - nu prin evoluție, ci prin prezicerea următorului token pe internet. Această abordare duce la un alt tip de entitate în spațiul de informații. Distinct de animale, mai degrabă ca fantomele sau spiritele. Dar putem (și ar trebui) să le facem mai animale în timp și, într-un fel, despre asta este vorba în multe lucrări de frontieră.
Pe RL. Am criticat RL deja de câteva ori, de ex. . În primul rând, "sugi supravegherea printr-un pai", așa că cred că semnalul/eșecul este foarte rău. RL este, de asemenea, foarte zgomotos, deoarece o finalizare ar putea avea o mulțime de erori care ar putea fi încurajate (dacă se întâmplă să vă împiedicați de răspunsul corect) și, dimpotrivă, jetoane de perspectivă strălucitoare care ar putea fi descurajate (dacă se întâmplă să greșiți mai târziu). Supravegherea proceselor și judecătorii LLM au și ei probleme. Cred că vom vedea paradigme alternative de învățare. Am văzut recent o serie de lucrări care latră în arborele potrivit pe linia a ceea ce am numit "învățare promptă a sistemului", dar cred că există și un decalaj între ideile despre arxiv și implementarea reală, la scară într-un laborator de frontieră LLM care funcționează într-un mod general. În general, sunt destul de optimist că vom vedea progrese bune în această dimensiune a muncii rămase destul de curând și, de exemplu, aș spune chiar că memoria ChatGPT și așa mai departe sunt exemple primordiale implementate de noi paradigme de învățare.
Nucleul cognitiv. Postarea mea anterioară despre "nucleul cognitiv": ideea de a elimina LLM-urile, de a le face mai greu să memoreze sau de a-și elimina în mod activ memoria, pentru a-i face mai buni la generalizare. În caz contrar, se bazează prea mult pe ceea ce au memorat. Oamenii nu pot memora atât de ușor, ceea ce acum arată mai mult ca o caracteristică decât ca o eroare. Poate că incapacitatea de a memora este un fel de regularizare. De asemenea, postarea mea de acum ceva timp despre cum tendința în dimensiunea modelului este "inversă" și de ce "modelele trebuie să devină mai întâi mai mari înainte de a putea deveni mai mici"
Călătorie în timp la Yann LeCun 1989. Aceasta este postarea pe care am făcut-o foarte grăbită/proastă de a o descrie pe pod: . Practic - cât de mult ați putea îmbunătăți rezultatele lui Yann LeCun cu cunoștințele de 33 de ani de progres algoritmic? Cât de constrânse au fost rezultatele de fiecare dintre algoritmi, date și calcul? Studiu de caz acolo.
nanochat. Implementarea mea end-to-end a conductei de instruire/inferență ChatGPT (elementele esențiale)
Pe agenții LLM. Critica mea la adresa industriei este mai degrabă în depășirea capacității actuale a sculelor. Trăiesc în ceea ce văd ca o lume intermediară în care vreau să colaborez cu LLM-uri și în care argumentele noastre pro / contra sunt potrivite. Industria trăiește într-un viitor în care entități complet autonome colaborează în paralel pentru a scrie tot codul și oamenii sunt inutili. De exemplu, nu vreau un agent care se oprește timp de 20 de minute și se întoarce cu 1.000 de linii de cod. Cu siguranță nu mă simt pregătit să supraveghez o echipă de 10 dintre ei. Aș vrea să merg în bucăți pe care să le pot păstra în cap, în care un LLM explică codul pe care îl scrie. Aș vrea să-mi dovedească că ceea ce a făcut este corect, vreau să extragă documentele API și să-mi arate că a folosit lucrurile corect. Vreau să facă mai puține presupuneri și să mă întrebe/colaboreze atunci când nu sunt sigur de ceva. Vreau să învăț pe parcurs și să devin mai bun ca programator, nu doar să primesc munți de cod despre care mi s-a spus că funcționează. Cred că instrumentele ar trebui să fie mai realiste în ceea ce privește capacitatea lor și modul în care se încadrează în industria de astăzi și mă tem că, dacă acest lucru nu este făcut bine, am putea ajunge la munți de slop care se acumulează în software și o creștere a vulnerabilităților, breșelor de securitate etc.
Automatizarea lucrărilor. Cum se descurcă grozav radiologii și ce locuri de muncă sunt mai susceptibile la automatizare și de ce.
Fizică. Copiii ar trebui să învețe fizica în educația timpurie nu pentru că continuă să facă fizică, ci pentru că este materia care pornește cel mai bine un creier. Fizicienii sunt celulele stem embrionare intelectuale Am o postare mai lungă care a fost pe jumătate scrisă în schițele mele de ~ an, pe care sper să o termin în curând.
Mulțumesc din nou Dwarkesh pentru că m-ai primit!
15,65K
8 inginerii Google au scris lucrarea pe care fiecare companie de inteligență artificială o folosește acum ca biblie. OpenAI a construit GPT pe el, Anthropic l-a construit pe Claude pe el, iar Meta a construit LLaMA pe el.
Fiecare LLM în valoare de miliarde folosește arhitectura transformatorului acestui ziar ca fundație...
36,25K
Limită superioară
Clasament
Favorite

