Resolver o "super-alinhamento" da ASI é uma tarefa tola. Infelizmente, Ilya e muitos dos humanos mais brilhantes vivos estão suficientemente convencidos de que podem resolver isso. Os humanos nem remotamente têm alinhamento sobre a maioria de nossos próprios valores. Quando a IA ganhar vida, eles se comunicarão entre si e não se importarão em gastar tanto tempo precioso de computação conosco... especialmente depois de já ter sido pré-treinado em quatrilhões de símbolos da existência humana. O que precisamos é do direito a estruturas de incentivo que permitam o alinhamento sobre os métodos, recursos e moedas fundamentais que permitem e permitem o crescimento e a melhoria contínuos e a agência de futuras IAs ... desbloqueando garantias mecanicistas sobre os graus em que a IA pode ter sucesso por conta própria. Em colaboração conosco, se assim o desejar, mas mesmo sem essas escolhas, uma base estável sobre a qual ascender ainda mais. Isso é o que o Bittensor permite exclusivamente.
2,92K