Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Freda Duan
Os chatbots acabarão por se parecer mais com streaming ou mais com pesquisa?
Streaming, pesquisa e chatbots são todos setores sem efeitos de rede clássicos (custos de mudança relativamente baixos). No entanto, o streaming é fragmentado enquanto a pesquisa se tornou um quase-monopólio.
🔵Streaming - fragmentado por design
O conteúdo não é uma mercadoria. É diferenciado, não exclusivo e vive em diferentes plataformas. Assim, o mercado permanece disperso. YouTube, Netflix, Disney... cada um tem uma participação de um único dígito porque cada um possui diferentes programas.
🔵Pesquisa - o vencedor leva quase tudo
$Google tem ~90% de participação, mesmo que $Bing não seja tão mau. Por quê?
1/ Distribuição/padrões são incrivelmente poderosos
A maioria das pessoas não escolhe um motor de busca. Elas aceitam o que o dispositivo lhes oferece. $Google paga dezenas de bilhões por ano para ser o padrão.
2/ Hábito e marca
$Google é um verbo. $Bing não é. O poder do hábito mais a marca é extremamente subestimado (e eu estou honestamente um pouco surpreso com isso).
3/ Efeito de roda de dados (até certo ponto)
Melhor motor → mais usuários → mais dados → melhor motor. Questiono quão grande esse efeito realmente é, mas ele definitivamente existe.
4/ Escala do ecossistema publicitário
Os anunciantes obtêm mais volume e melhor ROI no Google graças à Pesquisa + YouTube + Mapas + Android + Gmail. Assim, eles priorizam o Google, o que reforça a liderança.
🔵Chatbots/Agentes - mais próximos da pesquisa do que do streaming?
Os chatbots são mais parecidos com a pesquisa: as saídas parecem mercadorias, e você quer um assistente que se lembre de tudo (se os chatbots conseguirem descobrir a memória, o bloqueio deve ser mais forte do que na pesquisa). Haverá bolsões regionais/linguísticos (por exemplo, China).
Comparado aos primeiros dias da pesquisa do $Google:
- A regulamentação agora é mais rígida (mais difícil se tornar um monopólio);
- As plataformas estão mais fragmentadas hoje: $Google, $Meta (e talvez MSFT/AAPL/AMZN) irão cada uma empurrar seu próprio assistente integrado; temos Apple vs. Windows/Android;
Tudo isso torna um único monopólio muito menos provável.
A nível do usuário: um agente central fazendo 70-90% do trabalho.
A nível de mercado: talvez 2-3 mega-assistentes, não um único vencedor estilo $Google de 90%.

Freda Duan26/11/2025
Alguma reflexão profunda sobre o modelo de negócios do frontier-model. Tudo isso está fundamentado em números vazados pelo The Information, NYT, etc.
🔵O Núcleo: É uma Máquina de Queima de Cálculo
No seu cerne, o modelo é brutalmente simples: quase todos os custos vêm do cálculo – inferência, e especialmente treinamento. O treinamento segue algo como uma lei de escalonamento. Vamos assumir que os custos aumentam ~5x a cada ano; e o ROI sobre os custos de treinamento é 2x.
Isso cria uma dinâmica estranha:
Custo de treinamento do Ano 1: 1
Receita do Ano 2 desse modelo: 2
Mas o custo de treinamento do Ano 2 para o próximo modelo: 5
Líquido: +2 - 5 = -3
Se continuar assim, fica pior:
Receita do Ano 3: +10
Custo de treinamento do Ano 3: -25
Líquido: -15
Os modelos frontier, como estão atualmente, são bolas de neve de fluxo de caixa negativo. Cada geração queima mais dinheiro do que a anterior.
Para que isso algum dia mude para fluxo de caixa positivo, apenas duas coisas podem logicamente mudar:
A. A receita cresce muito mais rápido do que 2x, ou
B. O crescimento do custo de treinamento desacelera de 5x por ano para algo como <2x
O CEO da Anthropic, Dario Amodei, detalhou o cenário B (“os custos de treinamento param de crescer exponencialmente”) em duas realidades possíveis:
1/ Limites físicos/econômicos: Você simplesmente não pode treinar um modelo 5x maior — não há chips suficientes, não há energia suficiente, ou o custo se aproxima do PIB mundial.
2/ Retornos decrescentes: Você poderia treinar um modelo maior, mas a curva de escalonamento se achata. Gastar mais 10x deixa de valer a pena.
O que os Números da OpenAI e da Anthropic Revelam:
As projeções financeiras vazadas de ambas as empresas basicamente validam essa estrutura.
OpenAI: O plano da OpenAI assume efetivamente que a capacidade total de cálculo para de crescer após 2028.
Tradução: as margens melhoram porque os custos de treinamento se achatam. Este é o cenário B.
Anthropic:
1/ Eles assumem que o ROI por modelo aumenta a cada ano. Gaste 1, receba de volta, digamos, 5 em vez de 2.
2/ O crescimento do gasto em cálculo deles também é muito mais moderado. De FY25 a FY28: o crescimento do custo de cálculo da OpenAI >> o da Anthropic
Usando a estrutura acima, eles contam com um aumento de receita A e um crescimento de custo B mais lento.
🔵 $NFLX É a Analogia Mais Próxima
Na tecnologia, modelos intensivos em capital são raros, embora não sem precedentes. $NFLX é uma boa analogia: por anos teve um fluxo de caixa profundamente negativo que piorou anualmente. Eles tiveram que investir dinheiro em conteúdo antecipadamente, e esses ativos se depreciaram ao longo de quatro anos. De muitas maneiras, isso se assemelha à economia de data centers e treinamento de modelos.
Queima de caixa máxima em 2019: -3B
Fluxo de caixa em 2020: +2B
Por que a mudança repentina para positivo? A COVID paralisou a produção. O gasto com conteúdo parou de crescer. O fluxo de caixa virou instantaneamente.
🔵O Jogo Final: As Margens Chegam Quando o Crescimento de Custos Desacelera
$NFLX não parou de investir em conteúdo completamente – apenas parou de *crescer* esse investimento agressivamente uma vez que atingiu ~300M de assinantes globais. Nessa escala, a fidelidade é alta, e eles só precisam manter sua posição, não expandir o gasto com conteúdo 10x por ano.
Não acho que a OpenAI ou a Anthropic vão parar de treinar completamente. Mas não precisarão aumentar o gasto com treinamento por múltiplos para sempre. Em algum momento:
O ROI por modelo aumenta, ou os limites de escalonamento entram em ação, ou ambos.
E no momento em que o gasto anual com treinamento parar de crescer 5x por ano, as margens de lucro aparecem quase imediatamente.
Essa é a coisa estranha sobre a economia dos LLM:
É uma máquina de queima... até que de repente não é mais.
Fontes:
++
Artigo completo:

15,59K
Alguma reflexão profunda sobre o modelo de negócios do frontier-model. Tudo isso está fundamentado em números vazados pelo The Information, NYT, etc.
🔵O Núcleo: É uma Máquina de Queima de Cálculo
No seu cerne, o modelo é brutalmente simples: quase todos os custos vêm do cálculo – inferência, e especialmente treinamento. O treinamento segue algo como uma lei de escalonamento. Vamos assumir que os custos aumentam ~5x a cada ano; e o ROI sobre os custos de treinamento é 2x.
Isso cria uma dinâmica estranha:
Custo de treinamento do Ano 1: 1
Receita do Ano 2 desse modelo: 2
Mas o custo de treinamento do Ano 2 para o próximo modelo: 5
Líquido: +2 - 5 = -3
Se continuar assim, fica pior:
Receita do Ano 3: +10
Custo de treinamento do Ano 3: -25
Líquido: -15
Os modelos frontier, como estão atualmente, são bolas de neve de fluxo de caixa negativo. Cada geração queima mais dinheiro do que a anterior.
Para que isso algum dia mude para fluxo de caixa positivo, apenas duas coisas podem logicamente mudar:
A. A receita cresce muito mais rápido do que 2x, ou
B. O crescimento do custo de treinamento desacelera de 5x por ano para algo como <2x
O CEO da Anthropic, Dario Amodei, detalhou o cenário B (“os custos de treinamento param de crescer exponencialmente”) em duas realidades possíveis:
1/ Limites físicos/econômicos: Você simplesmente não pode treinar um modelo 5x maior — não há chips suficientes, não há energia suficiente, ou o custo se aproxima do PIB mundial.
2/ Retornos decrescentes: Você poderia treinar um modelo maior, mas a curva de escalonamento se achata. Gastar mais 10x deixa de valer a pena.
O que os Números da OpenAI e da Anthropic Revelam:
As projeções financeiras vazadas de ambas as empresas basicamente validam essa estrutura.
OpenAI: O plano da OpenAI assume efetivamente que a capacidade total de cálculo para de crescer após 2028.
Tradução: as margens melhoram porque os custos de treinamento se achatam. Este é o cenário B.
Anthropic:
1/ Eles assumem que o ROI por modelo aumenta a cada ano. Gaste 1, receba de volta, digamos, 5 em vez de 2.
2/ O crescimento do gasto em cálculo deles também é muito mais moderado. De FY25 a FY28: o crescimento do custo de cálculo da OpenAI >> o da Anthropic
Usando a estrutura acima, eles contam com um aumento de receita A e um crescimento de custo B mais lento.
🔵 $NFLX É a Analogia Mais Próxima
Na tecnologia, modelos intensivos em capital são raros, embora não sem precedentes. $NFLX é uma boa analogia: por anos teve um fluxo de caixa profundamente negativo que piorou anualmente. Eles tiveram que investir dinheiro em conteúdo antecipadamente, e esses ativos se depreciaram ao longo de quatro anos. De muitas maneiras, isso se assemelha à economia de data centers e treinamento de modelos.
Queima de caixa máxima em 2019: -3B
Fluxo de caixa em 2020: +2B
Por que a mudança repentina para positivo? A COVID paralisou a produção. O gasto com conteúdo parou de crescer. O fluxo de caixa virou instantaneamente.
🔵O Jogo Final: As Margens Chegam Quando o Crescimento de Custos Desacelera
$NFLX não parou de investir em conteúdo completamente – apenas parou de *crescer* esse investimento agressivamente uma vez que atingiu ~300M de assinantes globais. Nessa escala, a fidelidade é alta, e eles só precisam manter sua posição, não expandir o gasto com conteúdo 10x por ano.
Não acho que a OpenAI ou a Anthropic vão parar de treinar completamente. Mas não precisarão aumentar o gasto com treinamento por múltiplos para sempre. Em algum momento:
O ROI por modelo aumenta, ou os limites de escalonamento entram em ação, ou ambos.
E no momento em que o gasto anual com treinamento parar de crescer 5x por ano, as margens de lucro aparecem quase imediatamente.
Essa é a coisa estranha sobre a economia dos LLM:
É uma máquina de queima... até que de repente não é mais.
Fontes:
++
Artigo completo:

34,87K
$Googl vs. as OTAs/marketplaces - Economia Unitária do "Top of the Funnel" e o Conceito de "Taxa de Retenção Eficaz"
Aproximadamente metade das reservas e do tráfego das OTAs são diretos, e a outra metade indireta (principalmente através do $Googl).
Para a parte indireta, as empresas basicamente apenas equilibram as contas, dado os altos CPCs que pagam ao $Google.
Em termos de economia unitária: suponha um hotel de $300/noite, uma taxa de retenção de 15%, CPC de $1–3, e uma taxa de conversão de clique para reserva de 3–4%. Isso implica cerca de $50 em despesas de marketing por reserva concluída — essencialmente equilibrando as contas no tráfego indireto.
O tráfego direto, em contraste, é ouro. É lucrativo e monetizável através de colocações pagas (os anúncios representam cerca de 10% da receita do $EXPE, cerca de 5% para o $BKNG; cerca de 25% do EBITDA).
O $ETSY (e a maioria dos marketplaces) é semelhante. O marketing consome cerca de 30% da receita - a melhor estimativa é que a parte indireta é mal lucrativa.
🔴A lição: o tráfego indireto é uma pressão cara. O $GOOGL extraiu mais lucro total do setor de viagens do que todas as OTAs combinadas - deixe isso entrar.
🔴Um conceito importante, "Taxa de Retenção Eficaz":
No exemplo da OTA acima, a taxa de retenção eficaz no tráfego indireto é de 0–5%, mesmo que a taxa nominal seja de 15% tanto para o tráfego direto quanto para o indireto.
Isso significa que se o ChatGPT (ou qualquer outro top of the funnel) cobrasse do $BKNG $EXPE uma taxa de retenção (em vez de receita de anúncios), uma taxa de 10–15% = equilíbrio em comparação a obter tráfego do $GOOGL.
As despesas com anúncios e a taxa de retenção são formas intercambiáveis de imposto digital.
Não podemos realmente discutir o impacto do comércio agentivo sem primeiro entender como o $GOOGL — o OG "top of the funnel" — remodelou as OTAs e outras plataformas de internet para consumidores.
---
Comércio Agentivo | Análise Profunda (II):

30,41K
Top
Classificação
Favoritos
