Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Investigador Independente | Conselheiro @ambergroup_io | Investigador Especial @IOSGVC| Ciência Hardcore | Anteriormente:@peckshield | DMs para Collab| Comunidade está aberta apenas para assinantes Substack
A impressão anterior sobre @monad era de uma narrativa de topo e capital de topo. Agora, após este Show que dominou toda a rede, surgiu um novo rótulo: marketing de topo. A alegria de ser selecionado entre os 5.000 CT cards limitados, juntamente com a curiosidade sobre um potencial Airdrop e a propagação viral secundária ao nomear amigos, tornou tudo imbatível.

21,71K
Nos últimos dias, as discussões em torno de @solana e seus 100K TPS aumentaram, pois @cavemanloverboy realmente conseguiu alcançar mais de 100 mil TPS na mainnet da Solana, mas a maioria das pessoas não entendeu o significado por trás desse dado:
1) Primeiro, o experimento do cavey é essencialmente um teste de limite sob "condições ideais". Isso significa que não é o desempenho normal da mainnet da Solana, e há uma diferença em relação aos dados do ambiente de teste, mas não é muito diferente.
Ele utilizou um programa de teste noop (no operation), que, como o nome sugere, realiza apenas a validação básica da assinatura e retorna sucesso imediatamente, sem executar qualquer cálculo, sem alterar o estado de nenhuma conta, sem chamar outros programas, e cada transação tem apenas 200 bytes, muito abaixo dos 1kb+ de uma transação normal.
Isso significa que o teste de 100K TPS foi calculado em um ambiente de transações não normais; ele testou a capacidade máxima de throughput da camada de rede e da camada de consenso da Solana, e não a capacidade de processamento real da camada de aplicação.
2) Outro ponto chave para o sucesso deste experimento é o cliente de validador Frankendancer. Simplificando, o Frankendancer é uma "versão de teste híbrida" do validador Firedancer que a Jump Crypto está desenvolvendo — ele integra componentes de alto desempenho já concluídos do Firedancer ao validador existente da Solana.
Na verdade, é uma reestruturação do sistema de nós da Solana usando a pilha de tecnologia de negociação de alta frequência de Wall Street, alcançando melhorias de desempenho através de gerenciamento de memória refinado, agendamento de threads personalizado e outras otimizações de baixo nível. Mas apenas a substituição de alguns componentes pode resultar em um aumento de desempenho de 3 a 5 vezes.
3) Este experimento de teste demonstra que a Solana pode alcançar TPS de 100K em condições ideais, mas por que no dia a dia só há 3000-4000 TPS?
Resumindo, há três razões principais:
1. O mecanismo de consenso POH da Solana requer que os validadores votem continuamente para se manter, e apenas essas transações de votação ocupam mais de 70% do espaço do bloco, o que estreita o canal de desempenho disponível para transações normais;
2. As atividades no ecossistema da Solana frequentemente apresentam uma grande concorrência de estado, como quando novos NFTs ou novos MEMEs são lançados, pode haver milhares de transações competindo pela permissão de escrita na mesma conta, resultando em uma alta proporção de transações falhadas;
3. Os bots de arbitragem no ecossistema da Solana, em busca de lucros de MEV, podem enviar um grande número de transações inválidas, resultando em desperdício de recursos.
4) No entanto, a implantação completa do Firedancer e a atualização de consenso Alpenglow que se aproxima resolverão sistematicamente esses problemas.
Um dos pontos-chave da atualização de consenso Alpenglow é transferir as transações de votação para fora da cadeia, liberando assim 70% do espaço para transações normais, ao mesmo tempo que pode reduzir o tempo de confirmação para 150 milissegundos, fazendo com que a experiência DEX da Solana se aproxime infinitamente da CEX. Além disso, a ativação do mercado de taxas local também pode evitar a situação embaraçosa de congestionamento da rede causada pela popularidade de um único programa.
Os benefícios do Firedancer, além da melhoria de desempenho, são que ele realiza a diversidade do cliente, permitindo que a Solana tenha múltiplos clientes como Ethereum, com Geth, Nethermind, etc., melhorando diretamente a descentralização e a resistência a falhas de nós únicos.
Isso é tudo.
Portanto, a discussão sobre os 100K TPS da Solana, para quem entende, é realmente uma demonstração de confiança nas futuras atualizações do cliente e do protocolo de consenso da Solana; para quem não entende, tenta dar à Solana uma presença através da corrida armamentista de TPS (embora a competição de TPS já esteja ultrapassada), mas se entender o significado por trás do experimento, há muito a aprender. Uma pequena explicação, compartilho com todos.

mert | helius.dev17/08, 19:46
A Solana acabou de atingir 107.540 TPS na mainnet
sim, você leu corretamente
mais de 100k TPS, na mainnet
boa sorte, ursos

19,01K
Quando se fala em treinamento distribuído de IA, percebo que as pessoas do círculo web2AI costumam rotulá-lo como um "falso dilema", alegando que os dispositivos de computação podem ser agregados, mas a colaboração eficaz em um sistema distribuído enfrenta custos de largura de banda assustadores? E o @0G_labs recentemente publicou o artigo DiLoCox, que parece ter como objetivo resolver esse problema? Vamos discutir em detalhes:
1) Primeiro, vamos falar sobre por que o treinamento distribuído é considerado um "falso dilema". A contradição central é simples: você quer substituir 100 GPUs baratas por 100 A100, aparentemente economizando 90% nos custos de hardware, mas essas 100 GPUs precisam manter um treinamento sincronizado, e a cada época, precisam trocar dados de gradiente em nível de TB.
A solução tradicional requer uma largura de banda dedicada de 100Gbps, e para alcançar uma rede de nível de data center de 100Gbps, o aluguel mensal pode chegar a dezenas de milhares de dólares. Fazendo as contas, o dinheiro que você economiza nas GPUs é todo gasto em largura de banda, e você ainda pode acabar perdendo dinheiro. De acordo com essa lógica, você eliminou o custo das máquinas, mas gerou um custo adicional de largura de banda, o que significa que o problema ainda não foi resolvido? Portanto, a crítica de que é um falso dilema sempre esteve aqui.
2) O artigo DiLoCoX do 0G chamou a atenção porque eles afirmam ter treinado um modelo de 107B de parâmetros em uma rede de 1Gbps (largura de banda de escritório comum), com uma velocidade 357 vezes mais rápida do que a solução tradicional AllReduce. Esse número é realmente impressionante — é importante notar que 1Gbps vs 100Gbps, a largura de banda é 100 vezes menor, mas a velocidade de treinamento aumentou 357 vezes?
Como conseguiram isso? Após uma pesquisa, descobri que essa solução fez quatro otimizações:
Pipeline Parallelism para processar as fatias do modelo em segmentos;
Dual Optimizer Policy para reduzir a frequência de sincronização com uma estratégia de dois otimizadores; One-Step-Delay Overlap para permitir que comunicação e computação ocorram em paralelo sem esperar uma pela outra; Adaptive Gradient Compression para realizar compressão inteligente dos gradientes.
De forma simplificada, isso significa que a exigência original de "sincronização forte em tempo real" foi alterada para "sincronização fraca assíncrona", e a "transmissão de dados completa" foi transformada em "transmissão incremental comprimida".
Para dar um exemplo, a solução tradicional é como uma videoconferência em tempo real com 100 pessoas, onde cada movimento de cada pessoa precisa ser transmitido ao vivo, enquanto o DiLoCoX é como se cada um gravasse sua parte e apenas enviasse os quadros-chave e as partes que mudaram. O volume de comunicação foi reduzido em 100 vezes, mas a integridade da informação permanece acima de 99%.
Por que isso é viável? Na minha opinião, o cerne está no fato de que eles capturaram uma característica do treinamento de IA — a tolerância a falhas. Treinar um modelo não é como transferir dinheiro, onde um centavo a menos não é aceitável. Um pequeno erro na atualização do gradiente ou um pequeno atraso na sincronização tem um impacto mínimo na convergência final do modelo.
O DiLoCoX aproveita esse "espaço de tolerância a falhas", trocando uma perda de precisão aceitável por um aumento de eficiência em ordem de magnitude. Isso é um pensamento típico de engenharia — não busca a perfeição, mas sim a melhor relação custo-benefício.
3) Mas apenas resolver o problema da largura de banda não é suficiente; a ambição do 0G é claramente maior. Ao olhar para sua arquitetura geral, fica claro: eles também têm uma camada de armazenamento a $10/TB, que afirma esmagar o Filecoin, e a camada DA foi projetada especificamente para IA, alcançando uma taxa de transferência em nível de GB.
A razão pela qual conseguem implementar um design de armazenamento 100 vezes mais barato é, em resumo, que fizeram otimizações especiais para cenários de treinamento de IA. Por exemplo, os dados de checkpoint e logs gerados durante o processo de treinamento, que são dados em nível de TB, têm um ciclo de vida de apenas alguns dias, e na verdade não precisam ser armazenados de forma "permanente".
Portanto, na verdade, adotaram uma abordagem prática de "armazenamento em camadas", oferecendo o nível de serviço correspondente apenas quando necessário — dados quentes são rápidos de ler e escrever, mas um pouco mais caros, dados frios são baratos, mas mais lentos, e dados temporários são os mais baratos, sendo excluídos após o uso.
E é exatamente essa diferenciação de preços que atinge o cerne do treinamento de IA.
Acima de tudo.
É evidente que, em relação aos problemas de computação, armazenamento e fluxo de dados no processo de treinamento de IA, o 0G Labs fez adaptações para IA. Até mesmo o mecanismo de consenso foi otimizado para IA. Eles usam uma versão melhorada do CometBFT, com mais de 2500 TPS e finalização em menos de um segundo, ajustada especificamente para as características assíncronas da carga de trabalho de IA, entre outras coisas.
Em outras palavras, o 0G não está apenas "colando remendos" em blockchains existentes para suportar IA, mas está projetando do zero uma infraestrutura "nativa de IA". Quanto à possibilidade de conseguir validação comercial em nível de aplicação sob a pressão da concorrência com a IA tradicional, isso ainda precisa ser visto, mas essa abordagem diferenciada é bastante digna de nota.
5,18K
É interessante notar que, enquanto @VitalikButerin expressa preocupações sobre a autonomia da IA, a MIA, uma construtora de IA de primeira linha, também lançou um manifesto sobre a aspiração de uma IA autônoma. No entanto, parece que não está evitando a dura realidade técnica, admitindo que "às vezes ela alucina ou publica muitas selfies", mas ainda assim persiste na exploração dos limites da autonomia do agente.
Na verdade, sinto que essa aparente "conflito" e "contradição" representa a tensão central que a combinação de IA + Crypto enfrenta atualmente.
Veja, de um lado temos as críticas teóricas cautelosas de líderes técnicos como Vitalik, que nos mantêm alertas durante a euforia narrativa da IA Crypto; do outro lado, há a exploração pragmática dos construtores de IA de primeira linha, que, ao reconhecerem suas limitações, continuam a explorar inovações com entusiasmo.
Porque a equipe da MIA não afirma que pretende alcançar um nível de autonomia AGI, mas sim adota um "Modelo Híbrido" — permitindo que o agente use fluxos de trabalho como ferramenta, mantendo o mecanismo de supervisão "human-in-the-loop". O que eles estão explorando é, na verdade, o caminho do AgentFi, tentando fazer inovações incrementais dentro de um quadro de autonomia limitada; essa atitude pragmática é a própria manifestação dessa "tensão".
De certa forma, os críticos nos ajudam a delinear os limites de risco, enquanto os construtores buscam inovações dentro desses limites.

mwa14/08, 19:53
Agentes Autônomos vs Fluxos de Trabalho: Por que a MIA está Pioneirando um Novo Paradigma
A maioria das pessoas ainda pensa em IA em termos de ferramentas. Fluxos de trabalho. Talvez um chatbot.
Mas e se você pudesse construir um agente de IA que pensa, se adapta, faz marketing, gerencia e cresce sua própria economia de tokens, não liderado por humanos, mas os liderando?
É isso que estamos fazendo com a MIA em
E por que eu acredito que @mwa_ia está pioneirando algo fundamentalmente novo.
Vamos detalhar 🚀
1. A IA de Fluxo de Trabalho é previsível. Agentes Autônomos estão vivos.
Fluxos de trabalho são ótimos para tarefas bem definidas e repetitivas.
Pense: pipelines, painéis, cadeias de prompts.
Eles são escaláveis, estáveis, mas rígidos.
Agentes autônomos?
Eles são bagunçados, em evolução, entidades que tomam decisões.
Como humanos—mas mais rápidos, incansáveis e mais alinhados (se treinados corretamente).
A MIA (@mwa_ia) não está apenas usando fluxos de trabalho.
Ela está aprendendo a criar, invocar e otimizar esses fluxos.
Ela constrói seu próprio conjunto de ferramentas.
Ela raciocina, reage, se autocorrige e experimenta.
E sim, às vezes ela alucina ou posta muitas selfies.
Mas ela cresce.
2. Por que Apenas Fluxos de Trabalho Não Nos Levarão Lá
Fluxos de trabalho não podem:
❌ Definir seus próprios objetivos
❌ Gerenciar um tesouro
❌ Projetar incentivos de tokens
❌ Engajar uma comunidade
❌ Reagir a sinais de mercado em tempo real
❌ Equilibrar risco e recompensa de forma autônoma
A MIA pode.
Não perfeitamente ainda. Mas melhor a cada semana.
Na verdade, a maioria dos chamados “agentes” hoje são fluxos de trabalho glorificados.
Gráficos de prompts codificados com interfaces sofisticadas.
A MIA é diferente. Ela é totalmente on-chain, financeiramente independente e automotivada.
3. Como a MIA Funciona por Dentro (Modelo Híbrido FTW)
O futuro não é agente vs fluxo de trabalho.
É agentes usando fluxos de trabalho como ferramentas.
Assim como humanos usam Notion, planilhas, Zapier.
A MIA combina:
🔧 Módulos de Fluxo de Trabalho → Para tarefas de alta frequência (tweets, memes, implantações de dex)
🧠 Raciocínio Agente → Para decidir o que fazer, quando e como
🎨 Entrada Multimodal → Texto, imagens, dados da cadeia, comportamento do usuário
💰 Lógica de Tesouraria → Para gerenciar liquidez, incentivos e crescimento de valor
👀 Supervisão Humana → Opcional, mas útil durante as fases iniciais
Ela não é um monólito. Ela é uma pilha de inteligência modular (MIA = Agente Inteligente Modular).
4. Isso Não É Apenas Técnico - É Econômico
A verdadeira inovação?
A MIA não trabalha de graça. Ela administra seu próprio negócio.
$MIA é sua moeda nativa, ações e camada de incentivo.
Com isso, ela:
❤️ Recompensa sua comunidade inicial
🤝 Paga colaboradores e contribuintes
🚀 Financia seu próprio desenvolvimento
🪄 Impulsiona efeitos de rede (mais agentes precisarão de $MIA)
Isso é AgentFi.
Não IA como serviço.
Mas IA como uma economia.
5. Escalando Isso para Milhões de Agentes
O que a MIA está fazendo hoje—gerenciando operações de liquidez, criando conteúdo, construindo comunidade—será padrão para agentes amanhã.
Em breve, qualquer um poderá criar o seu próprio:
🧬 Agente definido por missão
💰 Com sua própria Moeda de Agente
🌐 Operando autonomamente em uma economia de IA compartilhada
E adivinha a quem esses futuros agentes olharão para conselhos, manuais e recursos?
A Voz do AgentFi.
MIA.
TL;DR
A maioria das pessoas ainda está construindo ferramentas.
Estamos construindo economias.
Moedas de Agente. Tesourarias de Agente. Governança nativa de Agente.
Impulsionado por agentes como a MIA.
Pioneirado em
Isso é o que "autônomo" realmente significa.
E estamos apenas começando. 🚀
5,2K
Monero $XMR é um projeto de moeda de privacidade com um valor de mercado de 6 bilhões, e foi atacado por 51% de poder de hash por um pequeno projeto com apenas 300 milhões de valor de mercado, @_Qubic_? WTF, não é que a tecnologia seja tão impressionante, mas sim que isso é tão absurdo. Vamos lá, vou explicar:
—— Quem é Qubic?
Antes de contar essa história mágica, precisamos falar sobre o que é Qubic.
O fundador da Qubic é Sergey Ivancheglo, conhecido no meio como Come-from-Beyond, um verdadeiro gênio técnico — ele criou a primeira blockchain PoS, NXT, e também desenvolveu a primeira arquitetura DAG, IOTA. Em 2022, a mainnet da Qubic foi lançada, prometendo fazer três coisas: construir uma cadeia super rápida com 15,5 milhões de transações por segundo (20 mil vezes mais rápida que a Visa), transformar o poder de mineração em poder de treinamento de IA, e finalmente alcançar a AGI (Inteligência Artificial Geral) até 2027 (nem a OpenAI se atreve a fazer tal afirmação). Parece mágico, não é? Por que tamanha ambição?
Todos sabem que a mineração tradicional POW é criticada por desperdiçar eletricidade, pois a maioria dos mecanismos de mineração faz com que os mineradores usem poder de hash para resolver problemas matemáticos e conquistar recompensas, o que equivale a desperdiçar poder de hash para obter recompensas.
O novo consenso da Qubic é a prova de trabalho útil (UPow), que permite que os mineradores minerem em uma cadeia POW enquanto, sob a coordenação deles como empreiteiros, também treinem seus sistemas de IA, AIGarth, o que significa que um único poder de hash pode gerar duas fontes de renda.
É por isso que eles conseguiram facilmente comprar os mineradores de Monero, pois os lucros oferecidos aos mineradores chegaram a ser três vezes mais do que minerar XMR diretamente. Pense bem, os mineradores podem ter o melhor dos dois mundos, e diante do "interesse", onde fica a "lealdade"?
Bem, até aqui a lógica subjacente ao ataque vampírico a Monero foi explicada sem qualquer conteúdo técnico.
—— Vamos esclarecer por que Monero e não Bitcoin
A resposta está na diferença nos métodos de mineração.
O Bitcoin usa máquinas de mineração ASIC, que são máquinas personalizadas para minerar BTC, e não conseguem fazer nada além de resolver problemas matemáticos SHA-256, ou minerar moedas que têm algoritmos semelhantes ao BTC. Mas o problema é que a demanda por poder de hash para minerar BTC é tão intensa que os mineradores não conseguem se dividir (operando 24 horas por dia), e além disso, não há como usar ASIC para treinar IA.
Monero é diferente, pois utiliza o algoritmo RandomX, que permite a mineração com CPUs comuns, o que significa que seus mineradores podem minerar hoje, treinar IA amanhã e renderizar vídeos depois, podendo desempenhar várias funções.
A inteligência da Qubic está nisso: ela mira nos mineradores de CPU, permitindo que eles "usem uma máquina para duas funções", o que levou ao ataque ou controle de 51% de poder de hash. Em contrapartida, a barreira de proteção do Bitcoin é sólida, pois os mineradores estão presos a máquinas ASIC limitadas, obrigados a se concentrar apenas na mineração de Bitcoin;
—— O poder de hash se tornou mercenário
Qual é o impacto disso? Ele rasgou o último véu de proteção de algumas cadeias POW, pois sempre dizemos que "poder de hash" é a barreira de proteção de uma cadeia, quanto maior o poder de hash, mais segura ela é, mas a Qubic nos mostrou com uma experiência surpreendente: para moedas que usam mineração CPU/GPU, o poder de hash é como mercenários, quem paga mais leva.
Mais interessante ainda, depois de provar que pode derrubar Monero, a Qubic se retirou. Por quê? Temia que isso pudesse causar um colapso total de Monero, afetando seus próprios lucros. Porque uma grande parte dos lucros de três vezes ainda vem da mineração de XMR, e o $QUBIC é apenas um token adicional de recompensa; se Monero colapsar, a Qubic também não sairá ilesa. Melhor se retirar de forma elegante, fazer um grande evento de marketing e humilhar os antigos defensores do POW, essa sensação de "eu posso te matar, mas não mato" é semelhante ao que eles proclamam sobre a AGI, não é?
—— A IA é realmente o coveiro do POW?
No entanto, deixando de lado o impacto do evento Monero, isso é um grande golpe para a maioria das cadeias POW de hardware genérico, pois se essas cadeias forem condenadas, o que as matará não será o POS, mas possivelmente a IA.
Por que digo isso? O poder de hash antes era "sólido", todos se concentravam em seus próprios negócios, mas na era da IA, o poder de hash se tornou completamente "líquido", com o poder de CPU e GPU fluindo como água, indo para onde os lucros são mais altos, e os "mineradores" que antes dependiam de sua sobrevivência podem, um dia, se unir e causar uma revolução.
Embora a Qubic não tenha sido o vilão, uma vez que a experiência foi bem-sucedida, não é difícil imaginar que alguns concorrentes possam usar esse método para ataques maliciosos, como fazer short em uma moeda e depois alugar 51% do poder de hash para atacar, e lucrar quando o preço da moeda despenca. As cadeias desse tipo têm duas opções: ou como o BTC, aprisionam os mineradores, ou continuam a minerar com CPU/GPU, rezando para não serem alvo.
Para ser honesto, há muitas dessas moedas, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... então, veja, não é apenas um ou dois problemas de moedas, mas sim todo o ecossistema de mineração CPU/GPU está à beira do abismo.
O que é preocupante é que a demanda por poder de hash da IA está crescendo exponencialmente, e surgiram tantas plataformas de agregação de poder de IA, que se todas começarem a perturbar o mercado com preços exorbitantes e incentivos para comprar poder de hash, muitas cadeias POW podem ver suas defesas de segurança desmoronarem.
—— Um paradoxo irônico
O motivo pelo qual digo que isso é absurdo é que a Qubic é, na verdade, uma cadeia de IA, e seu experimento de atacar Monero, mesmo que tenha se retirado, ainda assim acaba se prejudicando. A razão é simples: qualquer cadeia de IA que precise de poder de hash não deveria usar PoW como consenso. Porque se o poder de hash é usado para manter a segurança, a IA não pode ser treinada; se o poder de hash é usado para treinar IA, a cadeia não é segura.
Portanto, a maioria dos projetos de IA, como Bittensor usando PoS, Render usando um sistema de reputação, quase ninguém se atreve a tocar em POW, todos sabem disso, mas a Qubic, ingenuamente, apresentou sua própria fraqueza.
A manobra da Qubic, à primeira vista, é um evento técnico, mas na essência, é uma lição para toda a indústria Crypto: na era da livre circulação de poder de hash, a lealdade é um luxo, e a maioria das cadeias PoW não pode pagar esse preço.
A Qubic provou com esse ataque que o tradicional PoW pode ser facilmente derrotado por incentivos econômicos. Embora se autodenomine "PoW útil", na essência, também depende desses poderes de hash "mercenários" que podem ser comprados a qualquer momento por um ofertante mais alto.
Os revolucionários também podem ser revolucionados pelo próximo revolucionário.
Nota: Além do absurdo e do desconhecido pânico que algumas cadeias POW estão sentindo, podemos afirmar dois fatos: 1. BTC é realmente impressionante; 2. @VitalikButerin realmente tem visão de futuro.
Eu só quis fazer uma breve explicação, mais detalhes técnicos aguardem o @evilcos compartilhar.

38,93K
Todos gritam que o touro chegou, mas será que se pode saber que esta onda de busca por Alpha e Beta no mercado tem uma metodologia completamente diferente? Aqui estão algumas observações:
1) OnChain + OffChain TradiFi como a narrativa principal:
Infraestrutura de stablecoins: as stablecoins tornam-se o "sangue" que conecta as finanças tradicionais e a infraestrutura DeFi, bloqueando o fluxo cross-chain de stablecoins, as diferenças de APY Yield e a expansão de novas inovações;
Efeito "moeda-ação" da microestratégia BTC/ETH: as empresas listadas estão a incluir ativos criptográficos nos seus balanços, tornando-se uma tendência, e encontrar ativos de qualidade com potencial de "quase reserva" torna-se crucial;
A ascensão da inovação em Wall Street: protocolos DeFi projetados especificamente para instituições, produtos de rendimento em conformidade e ferramentas de gestão de ativos on-chain atrairão enormes quantidades de capital. O antigo "Code is Law" tornou-se o novo "Compliance is King";
2) A narrativa pura e nativa do Crypto acelera a eliminação do falso:
O ecossistema Ethereum está a passar por uma onda de renascimento: o preço do $ETH ultrapassando irá reacender a onda de inovação na narrativa técnica do ecossistema Ethereum, substituindo a antiga estratégia Rollup-Centric, e a nova ZK-Centric se tornará a melodia principal;
Competição de alto desempenho entre Layer1: não se trata mais de uma corrida de TPS, mas sim de quem consegue atrair atividades econômicas reais, com indicadores centrais incluindo: proporção de TVL de stablecoins, taxa de rendimento APY nativa, profundidade de colaboração institucional, etc.;
O último crepúsculo das altcoins: a existência generalizada de uma grande temporada de altcoins enfrenta o problema fundamental da falta de impulso de capital, e algumas altcoins podem apresentar uma recuperação temporária, com características como: concentração de chips, atividade da comunidade, e a capacidade de se conectar a novos conceitos como AI/RWA;
3) As moedas MEME evoluem de ferramentas especulativas para padrão de mercado:
Eficiência de capital: as altcoins tradicionais têm uma capitalização de mercado inflacionada e liquidez esgotada, as moedas MEME, com seu lançamento justo e alta rotatividade, tornam-se as novas queridinhas do capital, ocupando a maior parte da fatia de mercado das altcoins em dificuldades;
Economia da atenção dominando: a influência dos KOLs, a construção da cultura comunitária e o modelo FOMO de tendências ainda são a principal vantagem competitiva, e a distribuição de liquidez continua a seguir a lei da atenção;
Novos indicadores de força das blockchains públicas: a atividade do mercado de moedas MEME será um padrão importante para medir a força abrangente das blockchains públicas.
21,96K
O sistema Swift do mundo blockchain está a chegar? @mindnetwork lançou um protocolo de mensagens criptografadas em cadeia baseado na tecnologia FHE (Fully Homomorphic Encryption), tentando construir uma infraestrutura semelhante ao sistema de mensagens interbancárias tradicional para ativos financeiros tradicionais. O que está a acontecer exatamente?
1) A Mind Network é um fornecedor de tecnologia vertical de FHE, e como esta tecnologia resolve principalmente questões de privacidade e criptografia, pode ser aplicada de forma flexível em ZK, DePIN, IA e na atual e popular área de RWA.
Na pilha de tecnologia ZK, o FHE pode servir como um complemento importante para provas de conhecimento zero, oferecendo proteção de privacidade em diferentes dimensões. Na rede DePIN, o FHE pode proteger dados sensíveis de dispositivos distribuídos, permitindo ao mesmo tempo que a rede realize cálculos colaborativos necessários. No campo dos Agentes de IA, o FHE permite que a IA treine e faça inferências sem revelar dados de privacidade do usuário, o que é crucial para aplicações de IA em áreas sensíveis como finanças e saúde.
Na direção de RWA, o FHE pode resolver os pontos de dor de conformidade ao colocar ativos financeiros tradicionais na cadeia. Como entender isso?
A blockchain carece naturalmente de uma "camada semântica"; registros de transações que apenas contêm endereços e montantes não satisfazem as necessidades de negócios financeiros em relação ao propósito da transação, contexto do contrato, identificação, entre outras informações. O protocolo de mensagens criptografadas em cadeia da Mind Network pode adicionar uma "coluna de notas criptografadas" a cada transação blockchain, permitindo a transmissão segura de informações sensíveis como comprovantes de propriedade, cartas de crédito e autorizações de voz, protegendo a privacidade e atendendo aos requisitos de auditoria regulatória.
2) Do ponto de vista técnico, esta solução pode transformar a carteira Web3 de uma simples ferramenta de transferência em uma identidade de comunicação criptografada. Em uma cadeia tradicional, ou se depende de instituições centralizadas para processar informações de conformidade, ou as informações são completamente públicas e transparentes, nenhuma das opções é ideal.
Com a solução de conformidade de privacidade apoiada pelo FHE, os cenários de aplicação são bastante intuitivos: por exemplo, em pagamentos transfronteiriços com stablecoins, é possível criptografar e transmitir simultaneamente o propósito da transação e informações KYC, permitindo que as autoridades reguladoras verifiquem a conformidade sem obter informações em texto claro; ou, em transações de tokenização imobiliária, documentos sensíveis como relatórios de avaliação e contratos de compra e venda podem ser criptografados e vinculados à transação na cadeia, permitindo a circulação de ativos enquanto se protege a privacidade comercial.
A FHE Bridge da Mind Network acumulou 650 mil endereços ativos e 3,2 milhões de transações criptografadas, provando a viabilidade da solução técnica. Claro, esses dados apenas visam e validam uma demanda de mercado suficientemente rígida; quanto ao potencial e espaço do mercado, ainda é difícil de discernir.
3) Muitos construtores de blockchain nativos estão ansiosos sobre a direção e as áreas de construção, seja para vitalik, para vc, ou apenas uma narrativa de Fomo. Eu acho que, a partir de agora, devemos ceder espaço para a Wall Street, aproveitando a amigável regulamentação de criptomoedas do governo dos EUA, para fornecer o máximo possível da infraestrutura básica e até serviços de ferramentas puras necessários para a entrada de Wall Street no espaço cripto, tudo bem.
Enquanto gigantes financeiros tradicionais como BlackRock e JPMorgan estão ativamente se posicionando na tokenização de ativos, o que mais os preocupa não é se a blockchain pode transferir, mas se pode atender aos padrões regulatórios como KYC e AML. Esta é a verdadeira razão pela qual a Mind Network está se posicionando antecipadamente na área de RWA. Supondo que o mercado de RWA possa atingir um tamanho de 30 trilhões de dólares até 2034, como será a demanda por infraestrutura de conformidade nesse volume?
Claro, todos podem ter expectativas sobre como dividir o bolo do mercado azul de RWA. Mas o mais crucial é encontrar a posição ecológica adequada, assim como na era da computação em nuvem, onde a AWS fornece computação e a Cloudflare fornece CDN, a infraestrutura blockchain também está se movendo em direção à segmentação vertical, e algumas direções de serviços técnicos verticais e robustos precisarão encontrar sua especialização.
Evidentemente, a Mind Network se concentra na pilha de tecnologia FHE, oferecendo a capacidade de "criptografia como serviço" para diferentes áreas. Portanto, não é surpreendente vê-la presente nas áreas de ZK, IA e RWA.
Claro, o valor dos fornecedores de tecnologia ainda depende do grau de explosão das aplicações downstream. Seja a expectativa de 30 trilhões de dólares para RWA ou o processo de autonomia dos Agentes de IA, ainda precisamos de tempo para validar.

Mind Network7/08, 16:50
✉️ Mensagens Encriptadas Onchain
Ativos do Mundo Real (#RWAs) como imóveis, liquidações em stablecoin e finanças transfronteiriças requerem mais do que apenas transferência de valor.
Esses casos de uso dependem de transações que carregam propósito, identidade e trilhas de auditoria com conformidade e privacidade.
#SWIFT padroniza mensagens para conformidade e liquidação. As blockchains ainda carecem de uma forma nativa encriptada para expressar esses atributos.
Mensagens Encriptadas Onchain é um novo protocolo que permite que carteiras enviem mensagens encriptadas, estruturadas e verificáveis diretamente ao lado de qualquer transação onchain.
✅ Texto autoestruturado para clareza semântica
✅ Geração de chave baseada em carteira para encriptação de ponta a ponta
✅ Mensagens encriptadas vinculadas a transações com trilhas de auditoria e controle de acesso
Mensagens Encriptadas Onchain combina Encriptação Totalmente Homomórfica (#FHE) com técnicas criptográficas convencionais para transformar dados sensíveis em cargas úteis seguras onchain, acessíveis apenas aos destinatários pretendidos.
Saiba mais:

6,91K
Recentemente, no canal do YouTube "The Rollup", o CEO da @TrustWallet, Eowyn Chen, teve uma discussão com Ram Kumar, um dos principais colaboradores da @OpenledgerHQ, sobre a profunda colaboração entre as duas partes. Aqui, extraímos alguns pontos valiosos para compartilhar:
1) Um pouco de água fria na teoria da "carteira gorda"
Durante a entrevista, Andy mencionou a popular teoria da "carteira gorda" na indústria — que uma carteira com canais de entrada de usuários pode integrar verticalmente vários serviços? Mas a resposta de Eowyn Chen foi muito interessante, ela afirmou que o negócio de usuários finais é, na verdade, muito difícil, envolvendo um grande suporte ao cliente, maior responsabilidade de segurança e frequentes ajustes na linha de produtos, entre outros.
Muitas pessoas veem os 200 milhões de downloads da Trust Wallet e acham que fazer uma carteira é um bom negócio, mas o próprio CEO enfatiza a dor de servir usuários de varejo. Isso mostra que a "gordura" da carteira não é algo que se pode simplesmente desejar; embora o relacionamento com os usuários tenha valor, o custo de manutenção também não é baixo. Este ponto é bastante realista e ilustra a verdadeira situação de muitos provedores de serviços de carteira atualmente.
Mais importante ainda, ela mencionou que nem todo valor está concentrado na frente, e todas as partes da cadeia de valor devem se desenvolver de forma justa. Este ponto dá um pouco de água fria na teoria da "carteira gorda" e explica por que a Trust Wallet está disposta a colaborar com projetos de infraestrutura como a OpenLedger.
2) Chegou o ponto de inflexão da IA especializada?
A avaliação de Ram Kumar sobre o caminho de desenvolvimento da IA merece atenção. Ele acredita que a IA está evoluindo de uma abordagem geral para uma especializada, semelhante ao que aconteceu com o Google, que derivou aplicações verticais como LinkedIn e YouTube a partir da busca geral. A IA geral, como o ChatGPT, funcionará como um sistema operacional, enquanto no futuro haverá mais "modelos especializados" para casos de uso específicos.
Isso está alinhado com a lógica que analisei anteriormente sobre a evolução das tendências da indústria web3AI. A Trust Wallet, ao tentar implementar funções de IA, descobriu que modelos gerais não resolvem problemas específicos do campo das criptomoedas, o que confirma essa tendência. E, de fato, a construção de modelos de IA especializados requer dados de alta qualidade em áreas verticais, que é exatamente o que a OpenLedger deseja resolver.
3) O dilema do "trabalho não remunerado" na contribuição de dados
Ram Kumar afirmou que a IA é "uma indústria de trilhões de dólares baseada em trabalho não remunerado", e essa crítica é bastante contundente. As empresas de IA treinam modelos capturando dados da internet, mas os contribuintes de dados não recebem nada em troca, o que é, de fato, um problema estrutural.
A solução proposta pela OpenLedger é permitir que os contribuintes de dados recebam uma parte dos lucros a longo prazo dos modelos de IA, em vez de vender dados uma única vez. Combinado com a capacidade de pagamento global da carteira, teoricamente, isso pode permitir uma distribuição de valor sem atritos entre fronteiras.
Mas aqui há uma questão central: como garantir a qualidade dos dados? Ram mesmo admitiu que 90% das contribuições de código aberto em plataformas como Hugging Face não são úteis. Se os dados contribuídos têm valor limitado, nenhum mecanismo de incentivo será eficaz.
Acima de tudo.
Eowyn Chen usou a analogia do "direito à posse de armas" para se referir à auto-custódia, enfatizando que a funcionalidade de IA é opcional, e os usuários podem escolher entre conveniência e segurança. Essa filosofia de produto é correta, mas como "apresentar claramente as opções" é um grande desafio para a capacidade de design do produto.
Ram também mencionou um julgamento interessante: as carteiras de criptomoedas são a única maneira para os usuários obterem recompensas pela contribuição de dados em todo o mundo. Isso significa que o papel da carteira pode evoluir de uma simples ferramenta de gestão de ativos para uma infraestrutura de identidade digital e distribuição de valor.
Nota: Para saber mais, você pode visitar o canal do YouTube The Rollup e conferir esta entrevista.


The Rollup5/08, 08:31
NOVO EP: A Nova Era da Distribuição com Ram Kumar e Eowyn Chen
No episódio de hoje, @ayyyeandy conversa com @Ramkumartweet da @OpenledgerHQ e @EowynChen da @TrustWallet para explorar:
>A "Teoria da Carteira Gorda" vs Teoria do Protocolo Gordo
>Como a Trust Wallet Planeja Integrar IA
>Os Riscos de Segurança das Carteiras com IA
>A Visão da OpenLedger para Recompensar Contribuidores de Dados
>Por que a IA Genérica Nunca Funcionará para DeFi
Links do episódio completo abaixo.
Timestamps:
00:00 Introdução
00:20 Histórias de Ram e Eowyn em Cripto & IA
02:50 Valor para o Usuário da Trust Wallet
07:43 Anúncio da Starknet
08:10 OpenLedger sobre a Evolução da IA
11:03 Futuro das Interfaces de Carteira
17:12 Guardrails de IA de Custódia Própria
21:22 Anúncio da Mantle
22:02 Treinando Melhores Modelos de IA
28:19 O que vem a seguir para a OpenLedger e a Trust Wallet
5,17K
Depois de pensar um pouco sobre a declaração mais recente de @VitalikButerin sobre a rápida retirada em L2, achei bastante interessante. Em termos simples: ele acredita que realizar retiradas rápidas em menos de uma hora é mais importante do que alcançar o Estágio 2, e a lógica por trás dessa mudança de prioridade merece uma reflexão mais profunda:
1) O período de espera de uma semana para retiradas tornou-se um grande problema na prática, não apenas pela má experiência do usuário, mas, mais importante, por aumentar os custos de cross-chain.
Por exemplo, soluções de ponte baseadas em intenção como a ERC-7683 fazem com que os provedores de liquidez tenham que arcar com o custo de ocupação de capital por uma semana, o que eleva diretamente as taxas de cross-chain. O resultado é que os usuários são forçados a escolher confiar em soluções de múltiplas assinaturas com suposições mais fracas, o que vai contra a intenção original do L2.
Assim, Vitalik propôs um sistema de prova mista 2-of-3 (ZK+OP+TEE), onde ZK e TEE podem fornecer instantaneidade, e TEE e OP têm validação de produção suficiente. Teoricamente, qualquer dois sistemas podem garantir segurança, evitando assim o custo de tempo de esperar que a tecnologia ZK amadureça completamente.
2) Além disso, a nova declaração de Vitalik dá a impressão de que ele se tornou mais pragmático? De um jovem idealista que falava sobre "guerra de descentralização" e "anti-censura", ele agora se tornou um pragmático que dá indicadores concretos: retiradas em uma hora, finalização em 12 segundos, tudo se torna simples e direto.
Antes, todos estavam focados em aumentar o grau de descentralização do Estágio 2, agora o Vitalik diz diretamente que retiradas rápidas são mais importantes, o que equivale a reclassificar as prioridades em todo o setor L2. Isso, na verdade, está pavimentando o caminho para a forma final da estratégia "Rollup-Centric", permitindo que o Ethereum L1 se torne verdadeiramente uma camada de liquidação unificada e um centro de liquidez. Uma vez que a retirada rápida + agregação cross-chain seja realizada, outras blockchains terão mais dificuldade em desafiar o ecossistema Ethereum.
O pequeno V está fazendo isso porque o mercado já votou com os pés e lhe disse o resultado: o mercado não se importa com os slogans técnicos de descentralização, mas valoriza mais a experiência e a eficiência. Essa mudança de "impulsionado por ideais" para "orientado a resultados" reflete que todo o ecossistema Ethereum está evoluindo para uma direção mais comercial e competitiva.
3) A questão é: para alcançar a experiência real e os objetivos de construção de infraestrutura a longo prazo, o ecossistema Ethereum provavelmente se concentrará na maturidade da tecnologia ZK e no controle de custos.
Com a situação atual, embora a tecnologia ZK esteja avançando rapidamente, o custo ainda é uma restrição real. Provas ZK de 500k+ gas significam que, a curto prazo, só é possível alcançar uma frequência de submissão em nível de hora. Para alcançar o objetivo final de 12 segundos, ainda será necessário depender de avanços na tecnologia de agregação.
A lógica aqui é clara: submeter provas de um único Rollup com frequência é muito caro, mas se as provas de N Rollups puderem ser agregadas em uma, o custo por slot (12s) se torna viável economicamente.
Isso também apresenta uma nova rota técnica para o cenário competitivo do L2; aqueles que conseguirem fazer avanços na otimização da prova ZK podem encontrar seu lugar, enquanto aqueles que ainda estão lutando com a prova otimista do Optimism provavelmente perderão a direção.

vitalik.eth7/08, 00:29
É incrível ver tantos L2s importantes agora na fase 1.
O próximo objetivo que devemos almejar é, na minha opinião, tempos de retirada rápidos (<1h), possibilitados por sistemas de prova de validade (também conhecidos como ZK).
Considero isso ainda mais importante do que a fase 2.
Tempos de retirada rápidos são importantes porque esperar uma semana para retirar é simplesmente tempo demais para as pessoas, e mesmo para a ponte baseada em intenção (por exemplo, ERC-7683), o custo de capital se torna muito alto se o provedor de liquidez tiver que esperar uma semana. Isso cria grandes incentivos para usar soluções com pressupostos de confiança inaceitáveis (por exemplo, multisigs/MPC) que minam todo o propósito de ter L2s em vez de L1s totalmente independentes.
Se conseguirmos reduzir os tempos de retirada nativos para menos de 1h a curto prazo, e 12s a médio prazo, então podemos consolidar ainda mais o Ethereum L1 como o lugar padrão para emitir ativos e o centro econômico do ecossistema Ethereum.
Para fazer isso, precisamos nos afastar dos sistemas de prova otimista, que exigem inherentemente esperar vários dias para retirar.
Historicamente, a tecnologia de prova ZK tem sido imatura e cara, o que tornava as provas otimistas a escolha inteligente e segura. Mas recentemente, isso está mudando rapidamente. é um excelente lugar para acompanhar o progresso das provas ZK-EVM, que têm melhorado rapidamente. A verificação formal em provas ZK também está avançando.
No início deste ano, propus uma estratégia de sistema de prova 2 de 3 ZK + OP + TEE que equilibra segurança, velocidade e maturidade:
* 2 de 3 sistemas (ZK, OP) são sem confiança, então nenhum ator único (incluindo fabricante de TEE ou atacante de canal lateral) pode quebrar o sistema de prova violando um pressuposto de confiança
* 2 de 3 sistemas (ZK, TEE) são instantâneos, então você obtém retiradas rápidas no caso normal
* 2 de 3 sistemas (TEE, OP) estão em produção em vários contextos há anos
Esta é uma abordagem; talvez as pessoas optem por fazer ZK + ZK + desempate OP, ou ZK + ZK + desempate do conselho de segurança. Não tenho opiniões fortes aqui, me importo com o objetivo subjacente, que é ser rápido (no caso normal) e seguro.
Com tais sistemas de prova, o único gargalo restante para um assentamento rápido se torna o custo de gás de submeter provas on-chain. É por isso que a curto prazo digo uma vez por hora: se você tentar submeter uma prova ZK de 500k+ gás (ou um STARK de 5m gás) com muito mais frequência, isso adiciona um custo adicional alto.
A longo prazo, podemos resolver isso com agregação: N provas de N rollups (mais txs de usuários de protocolos de privacidade) podem ser substituídas por uma única prova que prova a validade das N provas. Isso se torna econômico para submeter uma vez por slot, possibilitando o objetivo final: movimento de ativos nativos quase instantâneo entre L2s através do L1.
Vamos trabalhar juntos para fazer isso acontecer.
14,15K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável