Podemos construir chips de IA que geram imagens de alta qualidade usando 10.000× menos energia do que as GPUs de hoje? Artigo de pesquisa: "Uma arquitetura de hardware probabilística eficiente para modelos semelhantes a difusão" Este trabalho revela uma arquitetura CMOS completa (tudo em transistor) que executa nativamente modelos generativos estilo difusão—não com redes neurais que consomem muita energia, mas com amostragem probabilística baseada em energia. Ao encadear modelos de desnoising compactos (DTMs) e explorar a aleatoriedade física em chips padrão de 65 nm, o sistema produz imagens comparáveis às GPUs, mas consome apenas 1,6 nanojoules por amostra Fashion-MNIST—reduzindo a energia em quatro ordens de magnitude. O treinamento é estabilizado por meio de uma nova penalidade adaptativa, e a abordagem escala para silício do tamanho de milímetros sem hardware exótico. Resultados: Igual ou superior à qualidade GAN/VAE/difusão com ~10.000× menos energia; grades de 70×70, pilhas de 8 camadas, ferramentas de código aberto lançadas. Obtenha a análise completa aqui: // alpha identificado // $yne