Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ruben Hassid
NOVO ARTIGO: Os LLMs são incríveis a explicar coisas e terríveis a fazê-las.
Pergunte a um modelo "como" comparar dois decimais, e ele lhe dará um algoritmo perfeito passo a passo.
Peça-lhe para realmente "fazer" a comparação… e de repente “9.11 é maior que 9.9 porque 90 é mais que 11.”
Os pesquisadores chamam isso de "síndrome do cérebro dividido computacional". Os LLMs desenvolvem um caminho para explicar um procedimento e um caminho completamente diferente para executá-lo.
Esses dois caminhos vivem em partes diferentes da geometria do modelo (como mostrado nos gráficos t-SNE nas páginas 14–16 deste artigo) e eles não se comunicam entre si.
É por isso que um modelo pode ensinar-lhe a divisão longa, mas não consegue fazê-la de forma confiável.
Ou porque pode articular regras lógicas, mas falha em inferências básicas.
Ou porque produz uma linguagem impecável e um raciocínio frágil.
Explicação é recordação de padrões.
Execução é computação.
Os LLMs se destacam no primeiro e lutam fundamentalmente com o segundo.
No fundo da arquitetura, as incorporações borram significados que os humanos mantêm separados.
O artigo dá um exemplo hilário: “9.11” está mais próximo de "11 de setembro" do que de "nove ponto onze" porque as incorporações de tokens fazem uma média em todos os contextos que já viram. Essa “contaminação contextual” torna impossível um raciocínio simbólico limpo.
Além disso...
Transformers só podem produzir "médias ponderadas" do que já viram. Eles não conseguem gerar novos valores simbólicos como “3354” a partir de “43 × 78” usando matemática real.
Suas redes feed-forward entram em cena, mas os FFNs são lineares por partes, o que significa que eles literalmente não podem implementar aritmética exata. O melhor que podem fazer é aproximar ou memorizar padrões (provado formalmente no Apêndice A).
Como resultado, eles soam competentes, mas se comportam de forma incompetente.
Os LLMs podem descrever o algoritmo de multiplicação perfeitamente porque já viram milhões de explicações. Mas quando solicitados a "executar" o algoritmo, eles voltam a heurísticas de conclusão de padrões, ou em outras palavras, fragmentos de aritmética meio lembrados, costurados com confiança.
Essa distinção é importante porque as pessoas confundem “saídas semelhantes à compreensão” com competência.
Um modelo que dá uma explicação detalhada de como resolver um quebra-cabeça lógico "parece" inteligente.
Mas como os experimentos mostram em aritmética, raciocínio relacional e tarefas simbólicas, esse caminho de instrução nunca se liga ao caminho de execução. Eles são geometricamente disjuntos; mesmo explicações perfeitas não melhoram a execução.
E esta é a verdadeira lição para quem está construindo com LLMs:
"Use-os como críticos, não como calculadoras."
Se você quer insight, enquadramento, perspectiva, diagnóstico, explicação... os LLMs são surpreendentemente bons.
Se você quer raciocínio correto em múltiplos passos ou precisão simbólica: dirija-se a uma ferramenta, um sistema estruturado ou uma arquitetura híbrida.
Em outras palavras:
Os LLMs são espetaculares a dizer-lhe *como* fazer a coisa.
Mas ainda precisam de algo mais para realmente "fazer" a coisa.
Você pode ler o artigo completo aqui:

11,32K
Elon Musk diz que trabalhar será "opcional" em breve.
Robôs e IA eliminarão empregos não físicos, criando um "Rendimento Universal Alto" onde todos obtêm o que desejam.
Mas um artigo de Yale mostra que a economia por trás de sua previsão é muito mais brutal do que ele sugere.
Estou falando do artigo intitulado "Não Sentiremos Sua Falta."
Ele conclui:
"Metade da força de trabalho poderia parar de trabalhar amanhã e o PIB não se moveria."
o que significa que os humanos se tornam economicamente irrelevantes.
O artigo divide todo o trabalho em duas categorias:
1) Trabalho de Gargalo
Este trabalho é essencial para o crescimento. Produção de energia, logística, descoberta científica e infraestrutura. A economia não pode crescer a menos que esse trabalho se expanda.
2) Trabalho Acessório
É não essencial. Artes, hospitalidade, terapia e alta gastronomia. É bom ter, mas não é necessário para o crescimento.
A AGI assume sistematicamente tudo que é crítico para a missão.
Algum trabalho acessório permanece humano, não porque a AGI não possa fazê-lo, mas porque temos trabalhadores em excesso e não vale a pena o processamento.
Em outras palavras, seu salário futuro será baseado no custo computacional de replicar seu trabalho.
À medida que o processamento se torna exponencialmente mais barato, seu teto salarial despenca.
A economia cresce, a produtividade aumenta, mas seu valor está atrelado à queda dos custos tecnológicos.
O artigo de Yale concluiu:
A parte do trabalho no PIB converge para zero. Todos os rendimentos fluem para os proprietários de recursos computacionais.
A velocidade da transição determina quão doloroso isso se torna.
Se a tecnologia se desenvolve mais rápido do que a computação se expande, teremos uma interrupção irregular, com alguns trabalhadores recebendo enormes prêmios antes de uma queda.
Se a computação se expande mais rápido, teremos uma queda gradual e previsível nos salários.
Na minha opinião, há um paradoxo que Musk perdeu aqui.
O trabalho ser "opcional" é uma ilusão.
Os humanos precisam de trabalho, talvez não para a sobrevivência, mas para um propósito.
A questão existencial é:
As pessoas ainda escolheriam trabalhar quando isso for economicamente irrelevante... e quando sua contribuição não importa para o progresso ou a prosperidade?
42,71K
O ChatGPT acabou de proibir conselhos médicos e jurídicos
Já não pode fornecer consultas que exigem licenciamento profissional, como conselhos médicos, jurídicos ou financeiros.
Esta é uma correção excessiva que apenas tornou a internet menos segura enquanto finge proteger as pessoas.
Imagine a mãe solteira em áreas rurais que não pode pagar uma consulta de $200 com um dermatologista para identificar a erupção cutânea do seu filho.
Ela poderia ter usado o ChatGPT, recebido indicações sobre tratamentos potenciais, economizado dinheiro e uma longa viagem.
Existem muitos casos de pessoas usando o GPT para diagnosticar seus problemas de saúde antes que os médicos possam.
(Você pode encontrá-los no Reddit)
Infelizmente...
A nova política da OpenAI não distingue entre "substitui o cuidado profissional" e "melhora o acesso à informação."
Proíbe ambos.
O problema deles é a paranoia de responsabilidade.
Estão se protegendo de processos judiciais.
Enquanto isso, as pessoas que não têm acesso a cuidados de saúde, recursos legais ou alfabetização médica básica acabaram de perder sua ferramenta mais acessível.
Olha, eu venho de uma família de médicos.
Minha mãe é farmacêutica, minha irmã é gastroenterologista, o marido dela é urologista e meu irmão é dentista.
Eu sei em primeira mão que a IA não os substituirá.
Esta proibição não "parará" a substituição e perde completamente o ponto.
Esta proibição está bloqueando o acesso a informações básicas que ajudam as pessoas a saber quando precisam de um médico de verdade.
Considere a absurdidade por um segundo.
O ChatGPT pode escrever código que opera usinas nucleares, mas não pode dizer quando você deve ver um médico por dor no peito.
Uma abordagem muito melhor seria ter isenções claras, pontuações de confiança e limites explícitos ("Isto é informativo, não diagnóstico").
Em vez disso, a OpenAI escolheu a opção de proibir tudo que requer uma licença.
A consequência não intencional deste ato é que
as pessoas não vão parar de fazer essas perguntas.
(Eu sei que eu não vou)
Elas apenas usarão fontes piores, como fóruns de saúde não regulamentados, sites duvidosos, ou evitarão obter ajuda completamente.
É engraçado como cada tentativa de tornar a internet "mais segura" na verdade a torna menos segura.


35,98K
Top
Classificação
Favoritos

