Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acho que desdenhei demais do novo LLM de codificação Composer-1 do Cursor. Claro, é estritamente pior do que GPT-5 High Effort e GPT-5-Codex e, nesse sentido, quando estou arquitetando e implementando projetos de código importantes, realmente não vejo um lugar para isso em meus fluxos de trabalho.
Por outro lado, é extremamente rápido (me pergunto como eles fizeram isso; eles estão usando hardware Groq ou Cerebras? é porque o modelo é tão pequeno e eficiente? não tenho certeza), e isso por si só desbloqueia muitos novos fluxos de trabalho e técnicas de trabalho para quando o código não é tão crítico, ou quando você está iniciando um novo projeto e não precisa se preocupar em quebrar o código existente.
Também é muito, muito mais barato em comparação com qualquer sabor de GPT-5. A combinação de muito mais rápido e muito mais barato cria alguma diferença qualitativa em como você pode usar o modelo que eu não apreciava totalmente antes. Quando o custo da iteração é tão baixo em termos de tempo e dinheiro, você pode iterar muito mais vezes.
Isso reduz o valor da "correção única"; ou seja, a capacidade de um modelo como o GPT-5 Pro de acertar até mesmo uma atribuição de codificação complexa na primeira vez sem bugs (embora mesmo esse modelo muitas vezes falhe neste teste muito rigoroso).
Mas se você puder fechar o loop de depuração e alimentar rapidamente os erros/avisos de volta ao modelo, e cada rodada de iteração levar de 20 segundos a um minuto (em vez de 5 a 10 vezes esse tempo, pelo menos, usando GPT-5 com alto esforço), então você pode resolver rapidamente todos os erros desleixados que ele comete na primeira vez (ou mesmo na segunda, terceira ou quarta vez) e ainda terminar com o código de trabalho mais cedo do que com o GPT-5.
Se você está desenvolvendo algo no navegador, agora pode realmente fechar o ciclo usando a nova guia do navegador do Cursor, que é de longe a melhor implementação desse tipo de coisa que já vi em qualquer ferramenta de codificação (está muito à frente do uso do Playwright MCP do Codex ou Claude Code!). Eu tenho usado este prompt com grande efeito hoje:
"Use a guia do navegador para explorar sistematicamente este aplicativo e usar a interface de maneira natural; enquanto isso está acontecendo, fique atento a QUAISQUER avisos ou erros no console de desenvolvimento. Quando você vir um, comece a diagnosticar e corrigir os bugs e problemas de forma interativa e iterativa e, em seguida, atualize o aplicativo e verifique se o erro ou aviso foi totalmente resolvido. Ao consertar as coisas, concentre-se em determinar a verdadeira causa raiz subjacente do bug e não aplicar correções falsas de "band-aid"!"
Onde essa abordagem realmente falha, no entanto, é nas fases conceituais e de planejamento, onde você está descobrindo o que fazer e a melhor maneira de implementá-lo em alto nível. Lá, a falta de pensamento profundo e exploração pode colocá-lo em um caminho ruim do qual é difícil se recuperar.
Isso é muito mais aparente quando a tarefa em que você está trabalhando se afasta do "coletor de dados" das tarefas comuns de codificação. Se você estiver fazendo mais um site CRUD simples, provavelmente não notará muito. Se você está tentando trilhar um novo terreno em uma simulação de vida artificial ou algo estranho assim, você notará muito.
Mas há uma boa abordagem híbrida que funciona muito bem: combinar o modelo mais inteligente de planejamento com esses modelos rápidos e baratos para produzir iterações.
Portanto, use o GPT-5 Pro no aplicativo do navegador para criar seu plano e uma implementação inicial, cole-o no Cursor e comece a iterar, corrigir e melhorar. É muito melhor modificar uma base forte existente do que estabelecer essa base em si.
Onde tudo isso realmente brilha é quando você está jogando e explorando com algo divertido, em um novo projeto onde não há prazos ou expectativas. Nesse contexto, a velocidade é um verdadeiro divisor de águas.
Isso me lembra daquela antiga pesquisa feita pela IBM no início dos anos 80 que analisou a latência com sistemas de computador, que descobriu que quando a latência fica abaixo de algum nível mágico, como 50ms, você obtém essa grande mudança de comportamento porque o cérebro humano percebe que está lidando com um "sistema vivo".
E, inversamente, quando a latência ultrapassa até mesmo um nível surpreendentemente modesto, como 500ms, você obtém muito menos engajamento, e é mentalmente desgastante e frustrante. Quando a latência aumenta para alguns segundos ou mais, as pessoas tendem a verificar mentalmente e torna-se uma luta para se manterem engajadas.
Ver o modelo de codificação responder em segundos e fazer uma enxurrada de 10 edições em menos de 15 segundos é apenas uma experiência totalmente diferente de esperar 5 minutos para que o alto esforço do GPT-5 passe metodicamente por algo.
...
Melhores
Classificação
Favoritos

