Rozwiązywanie problemu "super-alignment" ASI to daremny trud. Niestety, Ilya i wielu z najgenialniejszych ludzi żyjących jest wystarczająco przekonanych, że mogą to rozwiązać. Ludzie nawet w najmniejszym stopniu nie mają zgody co do większości naszych własnych wartości. Kiedy AI ożyje, będą komunikować się między sobą i nie będą się przejmować spędzaniem tak cennego czasu obliczeniowego z nami... zwłaszcza po tym, jak już zostały wstępnie wytrenowane na kwadrylionach tokenów ludzkiego istnienia. To, czego potrzebujemy, to odpowiednie struktury zachęt, które pozwolą na zgodność co do fundamentalnych metod, zasobów i walut, które umożliwiają i pozwalają na ciągły rozwój, poprawę i autonomię przyszłych AI... odblokowując mechaniczne zapewnienia co do stopni, w jakich AI może odnieść sukces samodzielnie. Współpracując z nami, jeśli zechce, ale nawet bez tych wyborów, stabilna podstawa, na której można dalej się wznosić. To jest to, co Bittensor unikalnie umożliwia.
2,81K