Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
"Eine der sehr verwirrenden Dinge an den Modellen im Moment: wie man die Tatsache in Einklang bringt, dass sie bei den Bewertungen so gut abschneiden.
Und man schaut sich die Bewertungen an und denkt: 'Das sind ziemlich schwierige Bewertungen.'
Aber der wirtschaftliche Einfluss scheint dramatisch hinterherzuhinken.
Es gibt [eine mögliche] Erklärung. Als die Leute mit dem Pre-Training beschäftigt waren, wurde die Frage, welche Daten man verwenden sollte, beantwortet, denn die Antwort war alles. Man muss also nicht darüber nachdenken, ob es diese Daten oder jene Daten sein werden.
Wenn die Leute RL-Training durchführen, sagen sie: 'Okay, wir wollen diese Art von RL-Training für das eine und jene Art von RL-Training für das andere.'
Man sagt: 'Hey, ich würde mir wünschen, dass unser Modell wirklich gut abschneidet, wenn wir es veröffentlichen. Ich möchte, dass die Bewertungen großartig aussehen. Was wäre ein RL-Training, das bei dieser Aufgabe helfen könnte?'
Wenn man dies mit der Tatsache kombiniert, dass die Generalisierung der Modelle tatsächlich unzureichend ist, könnte das viel von dem erklären, was wir sehen, diese Diskrepanz zwischen der Bewertungsleistung und der tatsächlichen Leistung in der realen Welt."

Dwarkesh Patel26. Nov., 01:29
Die @ilyasut Episode
0:00:00 – Erklärung der Modell-Zackigkeit
0:09:39 - Emotionen und Wertfunktionen
0:18:49 – Was skalieren wir?
0:25:13 – Warum Menschen besser generalisieren als Modelle
0:35:45 – Direkter Weg zur Superintelligenz
0:46:47 – Das Modell von SSI wird aus dem Einsatz lernen
0:55:07 – Ausrichtung
1:18:13 – „Wir sind eindeutig ein Forschungsunternehmen“
1:29:23 – Selbstspiel und Multi-Agenten
1:32:42 – Forschungsgeschmack
Schau dir den Dwarkesh Podcast auf YouTube, Apple Podcasts oder Spotify an. Viel Spaß!
361,84K
„Es gibt deutlich mehr Unternehmen als Ideen.
Die Rechenleistung ist groß genug, sodass es nicht offensichtlich ist, dass man so viel mehr Rechenleistung benötigt, um eine Idee zu beweisen.
AlexNet wurde auf 2 GPUs entwickelt. Der Transformer wurde auf 8 bis 64 GPUs entwickelt. Was wären das, 2 GPUs von heute? Man könnte argumentieren, dass o1-Reasoning nicht das rechenintensivste Ding der Welt war.
Für die Forschung benötigt man definitiv eine gewisse Menge an Rechenleistung, aber es ist alles andere als offensichtlich, dass man die absolut größte Menge an Rechenleistung benötigt.
Wenn alle im selben Paradigma sind, dann wird Rechenleistung zu einem der großen Unterscheidungsmerkmale.“
@ilyasut

Dwarkesh Patel26. Nov., 01:29
Die @ilyasut Episode
0:00:00 – Erklärung der Modell-Zackigkeit
0:09:39 - Emotionen und Wertfunktionen
0:18:49 – Was skalieren wir?
0:25:13 – Warum Menschen besser generalisieren als Modelle
0:35:45 – Direkter Weg zur Superintelligenz
0:46:47 – Das Modell von SSI wird aus dem Einsatz lernen
0:55:07 – Ausrichtung
1:18:13 – „Wir sind eindeutig ein Forschungsunternehmen“
1:29:23 – Selbstspiel und Multi-Agenten
1:32:42 – Forschungsgeschmack
Schau dir den Dwarkesh Podcast auf YouTube, Apple Podcasts oder Spotify an. Viel Spaß!
169,63K
Top
Ranking
Favoriten
