Aqui está o Digest do Ritual Research desta semana, um boletim informativo que cobre as últimas novidades no mundo dos LLMs e a interseção entre Crypto x AI. Com centenas de artigos publicados semanalmente, é impossível manter-se atualizado com o que há de mais recente. Nós fazemos a leitura para que você não precise.
DeepSeekMath-V2: Rumo ao Raciocínio Matemático Auto-Verificável Este artigo apresenta o DSMath-V2, um modelo treinado no deepseek-3.2-exp para a prova em linguagem natural na matemática. A lacuna entre geração e verificação é um grande obstáculo para a prova informal.
Eles primeiro treinam um verificador para o modelo usando anotações de especialistas para avaliar tanto a correção das respostas quanto a análise. Este verificador é usado para treinar o modelo final de provador, que tanto escreve provas quanto analisa sua correção. Eles alcançam ouro na IMO 2025.
Hivemind Artificial: A Homogeneidade Sem Fim dos Modelos de Linguagem (e Além) O artigo apresenta o INFINITY-CHAT, um conjunto de dados com 26K consultas do mundo real que aceitam múltiplas respostas. Usando isso, eles estudam o colapso de modo intra- e inter-modelo em mais de 70 LMs.
Eles descobrem um efeito de Hivemind Artificial com repetição intra-modelo, onde um modelo gera repetidamente saídas semelhantes, e homogeneidade inter-modelo, onde diferentes modelos convergem em ideias semelhantes com pequenas mudanças de frase. Isso levanta questões sobre a diversidade dos modelos.
Colaboração Latente em Sistemas Multi-Agente O trabalho apresenta o Latent MAS, uma estrutura colaborativa de ponta a ponta que opera em um espaço latente contínuo. O design integra tanto a geração de pensamento latente quanto a transferência de memória latente entre agentes.
LatentMAS é baseado na expressividade do raciocínio, fidelidade de comunicação e complexidade de colaboração. Em configurações de MAS sequenciais e hierárquicas, o Qwen 3 (4B, 8B e 14B) supera as linhas de base de MAS baseadas em texto, melhorando a precisão e reduzindo o uso de tokens de saída.
ToolOrchestra: Elevando a Inteligência através da Orquestração Eficiente de Modelos e Ferramentas Os autores propõem um paradigma de orquestração onde a inteligência emerge de um sistema composto. Um modelo de orquestrador invoca as ferramentas certas na ordem certa para uma tarefa.
Usando o ToolOrchestra, um modelo 8B é treinado com RL para decidir quando e como invocar outros LMs e ferramentas. As recompensas equilibram a correção, eficiência e alinhamento com as preferências do usuário. No HLE, o Orchestrator supera métodos anteriores com um custo computacional muito mais baixo.
Siga-nos @ritualdigest para mais informações sobre tudo relacionado a pesquisa em cripto x IA, e @ritualnet para saber mais sobre o que a Ritual está construindo.
3,13K