Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
FLUX.2 [dev] é o novo modelo líder de texto para imagem com pesos abertos, superando HunyuanImage 3.0, Qwen-Image e HiDream-I1-Dev na Arena de Análise de Imagens Artificial!
A última versão de @bfl_ml reivindica o primeiro lugar na geração de imagens a partir de texto com pesos abertos, enquanto também ocupa a 2ª posição na Edição de Imagens com pesos abertos, ficando atrás apenas do Qwen Image Edit 2509 da Alibaba.
FLUX.2 [dev] é lançado sob a Licença Não Comercial FLUX [dev] com pesos disponíveis em @huggingface. Aplicações comerciais requerem uma licença separada da Black Forest Labs.
O modelo está disponível via API em @fal, @replicate, @runware, Verda, @togethercompute, @Cloudflare e @DeepInfra.
A Black Forest Labs também anunciou o FLUX.2 [klein], que será lançado sob a licença Apache 2.0, permitindo que desenvolvedores e empresas construam aplicações comerciais sem requisitos de licenciamento separados da Black Forest Labs.

12,05K
DeepSeek V3.2 é o modelo de pesos abertos mais inteligente em 2º lugar e também está à frente do Grok 4 e do Claude Sonnet 4.5 (Pensamento) - ele tira a DeepSeek Sparse Attention do status de ‘experimental’ e a combina com um aumento material de inteligência.
@deepseek_ai V3.2 pontua 66 no Índice de Inteligência de Análise Artificial; um aumento substancial de inteligência em relação ao DeepSeek V3.2-Exp (+9 pontos) lançado em setembro de 2025. A DeepSeek mudou seu endpoint principal da API para V3.2, sem alteração de preços em relação ao preço do V3.2-Exp - isso coloca o preço em apenas $0.28/$0.42 por 1M de tokens de entrada/saída, com 90% de desconto para tokens de entrada em cache.
Desde o lançamento original do DeepSeek V3 há cerca de 11 meses, no final de dezembro de 2024, a arquitetura V3 da DeepSeek com 671B de parâmetros totais/37B de parâmetros ativos viu sua pontuação subir de 32 para 66 no Índice de Inteligência de Análise Artificial.
A DeepSeek também lançou o V3.2-Speciale, uma variante apenas de raciocínio com capacidades aprimoradas, mas com uso de tokens significativamente maior. Este é um compromisso comum em modelos de raciocínio, onde um raciocínio mais aprimorado geralmente resulta em pontuações de inteligência mais altas e mais tokens de saída. O V3.2-Speciale está disponível através da API de primeira parte da DeepSeek até 15 de dezembro.
O V3.2-Speciale atualmente pontua mais baixo no Índice de Inteligência de Análise Artificial (59) do que o V3.2 (Raciocínio, 66) porque a API de primeira parte da DeepSeek ainda não suporta chamadas de ferramentas para este modelo. Se o V3.2-Speciale igualasse a pontuação tau2 do V3.2 (91%) com chamadas de ferramentas habilitadas, ele pontuaria cerca de 68 no Índice de Inteligência, tornando-se o modelo de pesos abertos mais inteligente. O V3.2-Speciale usa 160M de tokens de saída para executar o Índice de Inteligência de Análise Artificial, quase 2x o número de tokens usados pelo V3.2 em modo de raciocínio.
O DeepSeek V3.2 usa uma arquitetura idêntica ao V3.2-Exp, que introduziu a DeepSeek Sparse Attention (DSA) para reduzir o cálculo necessário para inferência de longo contexto. Nosso benchmark de Raciocínio de Longo Contexto não mostrou custo para a inteligência da introdução da DSA. A DeepSeek refletiu essa vantagem de custo do V3.2-Exp cortando o preço de sua API de primeira parte de $0.56/$1.68 para $0.28/$0.42 por 1M de tokens de entrada/saída - uma redução de 50% e 75% nos preços de tokens de entrada e saída, respectivamente.
Principais conclusões de benchmarking:
➤🧠 DeepSeek V3.2: Em modo de raciocínio, o DeepSeek V3.2 pontua 66 no Índice de Inteligência de Análise Artificial e se coloca equivalentemente ao Kimi K2 Thinking (67) e à frente do Grok 4 (65), Grok 4.1 Fast (Raciocínio, 64) e Claude Sonnet 4.5 (Pensamento, 63). Demonstra aumentos notáveis em comparação ao V3.2-Exp (57) em uso de ferramentas, raciocínio de longo contexto e codificação.
➤🧠 DeepSeek V3.2-Speciale: O V3.2-Speciale pontua mais alto que o V3.2 (Raciocínio) em 7 dos 10 benchmarks em nosso Índice de Inteligência. O V3.2-Speciale agora detém as pontuações mais alta e segunda mais alta entre todos os modelos para AIME25 (97%) e LiveCodeBench (90%), respectivamente. No entanto, como mencionado acima, a API de primeira parte da DeepSeek para o V3.2-Speciale não suporta chamadas de ferramentas e o modelo recebe uma pontuação de 0 no benchmark tau2.
➤📚 Alucinação e Conhecimento: O DeepSeek V3.2-Speciale e o V3.2 são os modelos de pesos abertos mais bem classificados no Índice de Onisciência de Análise Artificial, pontuando -19 e -23, respectivamente. Modelos proprietários do Google, Anthropic, OpenAI e xAI geralmente lideram este índice.
➤⚡ Desempenho não-raciocínio: Em modo não-raciocínio, o DeepSeek V3.2 pontua 52 no Índice de Inteligência de Análise Artificial (+6 pontos em relação ao V3.2-Exp) e é o 3º modelo não-raciocínio mais inteligente. O DeepSeek V3.2 (Não-raciocínio) iguala a inteligência do DeepSeek R1 0528, um modelo de raciocínio de fronteira de maio de 2025, destacando os rápidos ganhos de inteligência alcançados através de pré-treinamento e melhorias de RL este ano.
➤⚙️ Eficiência de tokens: Em modo de raciocínio, o DeepSeek V3.2 usou mais tokens do que o V3.2-Exp para executar o Índice de Inteligência de Análise Artificial (de 62M para 86M). O uso de tokens permanece semelhante na variante não-raciocínio. O V3.2-Speciale demonstra um uso de tokens significativamente maior, usando ~160M de tokens de saída à frente do Kimi K2 Thinking (140M) e do Grok 4 (120M).
➤💲Preços: A DeepSeek não atualizou o preço por token para sua primeira parte e todas as três variantes estão disponíveis a $0.28/$0.42 por 1M de tokens de entrada/saída.
Outros detalhes do modelo:
➤ ©️ Licenciamento: O DeepSeek V3.2 está disponível sob a Licença MIT.
➤ 🌐 Disponibilidade: O DeepSeek V3.2 está disponível através da API da DeepSeek, que substituiu o DeepSeek V3.2-Exp. Os usuários podem acessar o DeepSeek V3.2-Speciale através de uma API temporária da DeepSeek até 15 de dezembro. Dado o aumento de inteligência neste lançamento, esperamos que vários provedores de terceiros sirvam este modelo em breve.
➤ 📏 Tamanho: O DeepSeek V3.2 Exp tem 671B de parâmetros totais e 37B de parâmetros ativos. Isso é o mesmo que todos os modelos anteriores nas séries DeepSeek V3 e R1.

78,17K
A Revelação Whisper-Thunder: Runway Gen-4.5 é agora o modelo líder de Texto para Vídeo nas Tabelas de Líderes de Vídeo de Análise Artificial, superando Veo 3, Kling 2.5 Turbo e Sora 2 Pro!
Runway Gen-4.5 é o mais recente lançamento da @runwayml, sucedendo ao Runway Gen-4 lançado em março. Enquanto o Gen-4 apenas suportava Imagem para Vídeo, o Runway Gen-4.5 introduz a geração de Texto para Vídeo. Ainda não avaliámos as capacidades de geração de Imagem para Vídeo do Runway Gen-4.5.
Runway Gen-4.5 está a ser gradualmente disponibilizado para os utilizadores da aplicação Runway, com uma disponibilidade mais ampla esperada nos próximos dias.
Veja abaixo as comparações entre o Runway Gen-4.5 e outros modelos líderes na nossa Arena de Vídeo de Análise Artificial 🧵

9,97K
Top
Classificação
Favoritos

