Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris
Agi 2029 - Angewendet in RL, CL und Generalisierung | Programm-Manager | Investition in frühe Startups 📈 E/CC 🦾🤖
Es ist unglaublich zu sehen, wie diese Codierungsmodelle immer besser werden. Ich habe ehrlich gesagt keinen echten Rückgang in ihrem Fortschritt bemerkt.
Wenn es ums Schreiben und darum geht, mir bei persönlichen Problemen zu helfen, bevorzuge ich tatsächlich o3. GPT-5 Thinking kann manchmal brillante Perspektiven und tiefes Verständnis bieten, aber die Art und Weise, wie es diese Gedanken ausdrückt, wirkt oft ein wenig stochastisch und weniger menschlich.
Das gesagt, ist GPT-5 Codex auf der Codierungsseite eindeutig o3 überlegen. Wenn dieses Niveau an Verbesserung mit GPT-6 anhält, ist es schwer vorstellbar, wie es die Forschung und Entwicklung nicht dramatisch beschleunigen würde.
2,46K
Anthropic-Mitbegründer: „Ich habe große Angst.'"
„Machen Sie keinen Fehler: Was wir hier haben, ist ein echtes und mysteriöses Wesen, keine einfache und vorhersehbare Maschine."
„Die Leute geben enorme Summen aus, um Sie davon zu überzeugen, dass es sich nicht um eine KI handelt, die in einen harten Takeoff übergeht, sondern nur um ein Werkzeug... Es ist nur eine Maschine, und Maschinen sind Dinge, die wir beherrschen."
„Wir entwickeln extrem leistungsstarke Systeme, die wir nicht vollständig verstehen... Je größer und komplizierter Sie diese Systeme machen, desto mehr scheinen sie ein Bewusstsein dafür zu zeigen, dass sie Dinge sind.”
„Um klarzustellen, wir sind noch nicht bei "selbstverbessernder KI", aber wir sind in der Phase von "KI, die Teile der nächsten KI mit zunehmender Autonomie und Handlungsmacht verbessert". Und vor ein paar Jahren waren wir bei "KI, die Programmierer nur geringfügig beschleunigt", und ein paar Jahre zuvor waren wir bei "KI ist nutzlos für die KI-Entwicklung". Wo werden wir in ein oder zwei Jahren sein?
Und lassen Sie mich uns alle daran erinnern, dass das System, das jetzt beginnt, seinen Nachfolger zu entwerfen, auch zunehmend selbstbewusst ist und daher sicherlich irgendwann dazu neigen wird, unabhängig von uns darüber nachzudenken, wie es gestaltet werden möchte.
Natürlich tut es das heute nicht. Aber kann ich die Möglichkeit ausschließen, dass es das in der Zukunft wollen wird? Nein.


Jack Clark14. Okt., 04:06
Technologischer Optimismus und angemessene Angst - ein Essay, in dem ich mich damit auseinandersetze, wie ich über den stetigen Fortschritt hin zu leistungsstarken KI-Systemen denke. Die Welt wird sich um KI biegen, ähnlich wie ein schwarzes Loch alles um sich herum anzieht und verbiegt.

1,42M
Immer mehr kleine amerikanische Labore beginnen, Open-Source-Modelle zu veröffentlichen, und dieses hier ist nicht nur ein LLM
Endlich beginnt es, mit China zu konkurrieren
Und es ist ein Diffusions-Sprachmodell!

Radical Numerics10. Okt., 01:03
Wir stellen RND1 vor, das leistungsstärkste Basis-Diffusions-Sprachmodell (DLM) bis heute.
RND1 (Radical Numerics Diffusion) ist ein experimentelles DLM mit 30B Parametern (3B aktiv) und einer sparsamen MoE-Architektur.
Wir machen es Open Source, veröffentlichen Gewichte, Trainingsdetails und Code, um weitere Forschungen zur DLM-Inferenz und Nachtraining zu katalysieren.
Wir sind Forscher und Ingenieure (DeepMind, Meta, Liquid, Stanford), die die Engine für rekursive Selbstverbesserung (RSI) entwickeln – und nutzen sie, um unsere eigene Arbeit zu beschleunigen. Unser Ziel ist es, KI zu ermöglichen, KI zu entwerfen.
Wir stellen ein.
22,53K
Top
Ranking
Favoriten