Sou um grande fã de sistemas multiagente, modelagem baseada em agentes e inteligência social – esses frames ainda parecem estar muito ausentes do discurso mainstream sobre IA, exceto em alguns lugares estranhos. Algumas ideias mal preparadas: 1. Esperar que um modelo faça todo o trabalho, resolva tudo, crie novas inovações etc., provavelmente não é certo. Essa era meio que a suposição implícita por trás de *algumas* interpretações do progresso das capacidades. O 'modelo do gênio único' ignora o fato de que custos de inferência e janelas de contexto são finitos. 2. As pessoas superestimam a inteligência individual: a maioria das inovações é produto de organizações sociais (cooperação) e dinâmicas de mercado (competição), não de um único gênio savant. Embora isso também importe, claro: quanto mais inteligentes os agentes, melhor. 3. Ainda há muito a ser extraído dos modelos, mas eu acho que tem mais a ver com a forma como elas são organizadas. AI Village é uma vinheta interessante e também destaca as muitas formas pelas quais os modelos falham e o que precisa ser corrigido. 4. Quando você entra no mundo multi-agente, as instituições e a cultura também começam a importar: quais são as regras do jogo? O que é incentivado versus o que é punido? O que os agentes podem fazer e dizer uns aos outros? Como os conflitos são resolvidos? Tem sido interessante ver como alguns protocolos surgiram recentemente. Ainda estamos muito cedo! 5. A maioria das mudanças de *valor* e transformadoras que teremos da IA virá dos produtos, não dos modelos. Os modelos são o poder bruto cognitivo, os produtos são o que os torna úteis e adaptados ao que alguma classe de usuário realmente precisa. Um produto é basicamente a ponte entre o potencial bruto e a utilidade específica; na verdade, muitos IDEs hoje são essencialmente sistemas multiagente cristalizados.