RT @RichardHanania: Até $225 mil para ser escritor de podcast é um salário muito alto. Dwarkesh está disposto a pagar pela qualidade. Eu incentivo t...
"Uma das coisas mais confusas sobre os modelos agora: como conciliar o fato de que eles estão indo tão bem nas avaliações.
E você olha para as avaliações e pensa: 'Essas são avaliações bem difíceis.'
Mas o impacto econômico parece estar dramaticamente atrasado.
Há [uma possível] explicação. Na época em que as pessoas faziam pré-treinamento, a questão de quais dados treinar era respondida, porque essa resposta era tudo. Então você não precisa pensar se vai ser esse ou aquele dado.
Quando as pessoas fazem treinamento de RL, dizem: 'Ok, queremos ter esse tipo de treinamento de RL para isso e aquele tipo de treinamento de RL para aquilo.'
Você diz: 'Ei, eu adoraria que nosso modelo fosse muito bom quando o lançarmos. Quero que as avaliações fiquem ótimas. Qual seria o treinamento de vida real que poderia ajudar nessa tarefa?'
Se você combinar isso com a generalização de que os modelos são realmente inadequados, isso pode explicar muito do que estamos vendo, essa desconexão entre desempenho avaliativo e desempenho real no mundo real"
O episódio @ilyasut
0:00:00 – Explicando a irregularidade do modelo
0:09:39 - Emoções e funções de valor
0:18:49 – O que estamos escalando?
0:25:13 – Por que os humanos generalizam melhor do que os modelos
0:35:45 – Superinteligência direta
0:46:47 – O modelo do SSI aprenderá com a implantação
0:55:07 – Alinhamento
1:18:13 – "Somos claramente uma empresa da era da pesquisa"
1:29:23 – Jogo próprio e multiagente
1:32:42 – Gosto de pesquisa
Procure o Dwarkesh Podcast no YouTube, Apple Podcasts ou Spotify. Desfrutar!