Sou um grande fã de sistemas multiagente, modelagem baseada em agentes e inteligência social - esses quadros ainda parecem realmente ausentes do discurso mainstream sobre IA, exceto em alguns lugares estranhos. Algumas reflexões mal elaboradas: 1. Esperar que um modelo faça todo o trabalho, resolva tudo, crie novas inovações, etc., provavelmente não está certo. Essa era meio que a suposição implícita por trás de *algumas* interpretações do progresso das capacidades. O 'modelo do gênio solitário' ignora o fato de que os custos de inferência e as janelas de contexto são finitos. 2. As pessoas superestimam a inteligência individual: a maioria das inovações é produto de organizações sociais (cooperação) e dinâmicas de mercado (competição), não de um único gênio savant. Embora este último também importe, é claro: quanto mais inteligentes os agentes, melhor. 3. Ainda há muito suco a ser extraído dos modelos, mas eu pensaria que isso tem mais a ver com como eles estão organizados. A AI Village é uma boa vinheta e também destaca as muitas maneiras pelas quais os modelos falham e o que precisa ser corrigido. 4. Uma vez que você entra no mundo multiagente, então instituições e cultura começam a importar também: quais são as regras do jogo? O que é incentivado versus o que é punido? O que os agentes podem fazer e dizer uns aos outros? Como os conflitos são resolvidos? Tem sido interessante ver como alguns protocolos surgiram recentemente. Ainda estamos muito no início! 5. A maior parte do *valor* e das mudanças transformadoras que obteremos da IA virá de produtos, não de modelos. Os modelos são a potência cognitiva bruta, os produtos são o que os torna úteis e adaptados ao que alguma classe de usuários realmente precisa. Um produto é basicamente a ponte entre o potencial bruto e a utilidade específica; na verdade, muitas IDEs hoje são essencialmente sistemas multiagente cristalizados.