Uau! DeepSeekMath-V2 Arquitetura Gerador-Verificador novamente! ... Em busca de um raciocínio matemático auto-verificável, investigamos como treinar um verificador baseado em LLM preciso e fiel para a demonstração de teoremas. Em seguida, treinamos um gerador de provas usando o verificador como modelo de recompensa, e incentivamos o gerador a identificar e resolver o máximo possível de questões em suas próprias provas antes de finalizá-las. Para manter a lacuna entre geração e verificação à medida que o gerador se fortalece, propomos escalar o cálculo de verificação para rotular automaticamente novas provas difíceis de verificar, criando dados de treinamento para aprimorar ainda mais o verificador. Nosso modelo resultante, DeepSeekMath-V2, demonstra fortes capacidades de demonstração de teoremas, alcançando pontuações ouro no IMO 2025 e CMO 2024 e quase perfeitas 118/120 no Putnam 2024 com computação escalonada no tempo de teste. Embora ainda haja muito trabalho, esses resultados sugerem que o raciocínio matemático auto-verificável é uma direção viável de pesquisa que pode ajudar a desenvolver sistemas de IA matemática mais capazes.