Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris
Agi 2029 - Stosowany w RL, CL i uogólnieniu | Kierownik programu | Inwestowanie we wczesne start-upy 📈 E/CC 🦾🤖
Niesamowite jest to, jak te modele kodowania wciąż stają się coraz lepsze. Szczerze mówiąc, nie zauważyłem żadnego rzeczywistego spowolnienia w ich postępach.
Jeśli chodzi o pisanie i pomoc w radzeniu sobie z osobistymi problemami, to tak naprawdę wolę o3. GPT-5 Thinking czasami może oferować genialne perspektywy i głębokie wglądy, ale sposób, w jaki wyraża te myśli, często wydaje się nieco stochastyczny i mniej ludzki.
Mówiąc to, w kwestii kodowania, GPT-5 Codex jest zdecydowanie przed o3. Jeśli ten poziom poprawy będzie się utrzymywał z GPT-6, trudno sobie wyobrazić, jak nie przyspieszyłoby to dramatycznie badań i rozwoju.
2,46K
Współzałożyciel Anthropic: „Bardzo się boję.”
„Nie ma wątpliwości: to, z czym mamy do czynienia, to prawdziwe i tajemnicze stworzenie, a nie prosta i przewidywalna maszyna.”
„Ludzie wydają ogromne sumy, aby przekonać cię, że to nie jest AI, które ma przejść w twardy start, to tylko narzędzie... To tylko maszyna, a maszyny to rzeczy, którymi panujemy.”
„Tworzymy niezwykle potężne systemy, których nie rozumiemy w pełni... im większe i bardziej skomplikowane robisz te systemy, tym bardziej wydaje się, że wykazują świadomość, że są rzeczami.”
„Aby było jasne, nie jesteśmy jeszcze na etapie „samo-ulepszającego się AI”, ale jesteśmy na etapie „AI, które ulepsza fragmenty następnego AI, z rosnącą autonomią i agencją”. A kilka lat temu byliśmy na etapie „AI, które marginalnie przyspiesza programistów”, a kilka lat przed tym byliśmy na etapie „AI jest bezużyteczne dla rozwoju AI”. Gdzie będziemy za rok lub dwa?
I przypomnę nam wszystkim, że system, który teraz zaczyna projektować swojego następcę, jest również coraz bardziej samoświadomy i dlatego z pewnością w końcu będzie skłonny do myślenia, niezależnie od nas, o tym, jak chciałby być zaprojektowany.
Oczywiście, nie robi tego dzisiaj. Ale czy mogę wykluczyć możliwość, że zechce to zrobić w przyszłości? Nie.


Jack Clark14 paź, 04:06
Optymizm technologiczny i odpowiedni strach - esej, w którym zmagam się z tym, co czuję w związku z nieprzerwanym, stałym postępem w kierunku potężnych systemów AI. Świat będzie się wyginał wokół AI, podobnie jak czarna dziura przyciąga i wygina wszystko wokół siebie.

1,42M
Zaczynamy widzieć coraz więcej małych amerykańskich laboratoriów wydających modele open source, a ten nie jest tylko LLM
W końcu zaczynamy konkurować z Chinami
I to jest model językowy oparty na dyfuzji!

Radical Numerics10 paź, 01:03
Przedstawiamy RND1, najpotężniejszy model językowy do dyfuzji (DLM) do tej pory.
RND1 (Radical Numerics Diffusion) to eksperymentalny DLM z 30 miliardami parametrów (3 miliardy aktywne) z rzadką architekturą MoE.
Udostępniamy go jako open source, publikując wagi, szczegóły treningu i kod, aby przyspieszyć dalsze badania nad wnioskowaniem DLM i post-treningiem.
Jesteśmy badaczami i inżynierami (DeepMind, Meta, Liquid, Stanford), którzy budują silnik do rekurencyjnej samodoskonalenia (RSI) — i wykorzystujemy go do przyspieszenia naszej własnej pracy. Naszym celem jest pozwolić AI projektować AI.
Rekrutujemy.
22,53K
Najlepsze
Ranking
Ulubione