Adotei uma abordagem semelhante de Gerador-Verificador para o uso de modelos na pesquisa em física teórica. Especialistas humanos na vanguarda da ciência podem melhorar os modelos Verificadores a um ponto em que a operação autônoma é extremamente forte, mesmo em problemas de pesquisa do mundo real (não apenas problemas de concursos matemáticos artificiais = problemas bem definidos que podem ser resolvidos em um tempo finito por humanos). DeepSeekMathV2 Sinergia Entre Gerador e Verificador O gerador de provas e o verificador formam um ciclo de feedback autoaperfeiçoante. À medida que o gerador produz provas cada vez mais complexas, estas desafiam o verificador, expondo fraquezas que se tornam novos dados de treinamento. Inicialmente, especialistas humanos orientaram o re-treinamento do verificador revisando suas questões sinalizadas — um processo tornado eficiente pela geração de múltiplas tentativas de verificação por prova. Esta “meta-verificação” (verificando as descobertas do verificador em vez das provas diretamente) provou ser mais fácil para os humanos e mais aprendível para LLMs. Ao escalar o número de análises do verificador e treinar com essas anotações assistidas por IA, o verificador eventualmente alcançou um nível de confiabilidade onde a intervenção humana não era mais necessária nas execuções finais — fechando o ciclo entre a geração automatizada de provas e a verificação.
steve hsu
steve hsu28/11/2025
Uau! DeepSeekMath-V2 Arquitetura Gerador-Verificador novamente! ... Rumo ao raciocínio matemático auto-verificável, investigamos como treinar um verificador baseado em LLM que seja preciso e fiel para a prova de teoremas. Em seguida, treinamos um gerador de provas usando o verificador como modelo de recompensa, e incentivamos o gerador a identificar e resolver o maior número possível de problemas em suas próprias provas antes de finalizá-las. Para manter a lacuna de geração-verificação à medida que o gerador se torna mais forte, propomos escalar a computação de verificação para rotular automaticamente novas provas difíceis de verificar, criando dados de treinamento para melhorar ainda mais o verificador. Nosso modelo resultante, DeepSeekMath-V2, demonstra fortes capacidades de prova de teoremas, alcançando pontuações de nível ouro no IMO 2025 e CMO 2024 e um quase perfeito 118/120 no Putnam 2024 com computação escalada em tempo de teste. Embora muito trabalho permaneça, esses resultados sugerem que o raciocínio matemático auto-verificável é uma direção de pesquisa viável que pode ajudar a desenvolver sistemas de IA matemática mais capazes.
Isto descreve a transição de um pipeline básico de Gerador-Verificador utilizando modelos prontos a um em que o Verificador em si foi melhorado através de dados de treinamento de especialistas humanos usados na meta-verificação.
5,55K