Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Pesquisador Independente | Orientador @ambergroup_io | Pesquisador Especial @IOSGVC| Hardcore Science | Anteriormente:@peckshield | DMs para Collab| A comunidade está aberta apenas para assinantes do Substack
Minha impressão anterior de @monad seria que a narrativa superior, o capital superior, bem, depois dessa onda de programas de deslizamento de tela, há um novo rótulo: marketing superior. A alegria de ser selecionado para uma edição limitada de 5.000 cartões CT e a curiosidade sobre possíveis airdrops, além da disseminação viral secundária de indicações para amigos, são invencíveis.

21,71K
Nos últimos dois dias, houve muita discussão em torno @solana TPS de 10W, porque @cavemanloverboy executou 100.000+ TPS na rede principal Solana, mas a maioria das pessoas não entendeu o significado por trás desses dados:
1) Em primeiro lugar, o experimento de Cavy é essencialmente um teste de limite em "condições ideais". Isso significa que esse não é o desempenho normal da rede principal Solana, e há uma diferença entre os dados de laboratório no ambiente da rede de teste, mas não é ruim.
Como ele usou o programa de teste de operação nula noop (sem operação), como o nome sugere, ele faz apenas a verificação de assinatura mais básica e retorna o sucesso, sem realizar nenhum cálculo, alterar o status da conta ou chamar outros programas, e cada transação tem apenas 200 bytes, o que é muito menor do que o 1kb+ das transações normais.
Isso significa que esse teste TPS de 10 W foi realmente calculado em um ambiente de transação anormal e testou a taxa de transferência final da camada de rede Solana e da camada de consenso, em vez do poder de processamento real da camada de aplicativo.
2) Outra chave para o sucesso deste experimento é o cliente validador Frankendancer. Entendido de forma simples, Frankendancer é um "beta híbrido" do validador Firedancer que está sendo desenvolvido pela Jump Crypto - enxertando os componentes de alto desempenho completos do Firedancer nos validadores Solana existentes.
Na verdade, ele usa a pilha de tecnologia de negociação de alta frequência de Wall Street para reconstruir o sistema de nós da Solana e melhora o desempenho por meio de otimizações subjacentes, como gerenciamento de memória fina e agendamento de threads personalizados. No entanto, apenas substituindo alguns componentes, uma melhoria de desempenho de 3 a 5 vezes pode ser alcançada.
3) Este experimento de teste mostra que Solana pode atingir um TPS de 10w + em um estado ideal, então por que é apenas 3000-4000 TPS diariamente?
Existem aproximadamente três razões para resumir:
1. O mecanismo de consenso POH da Solana requer votação contínua dos validadores para manter, e essas transações de votação sozinhas ocupam mais de 70% do espaço do bloco, o que restringe o canal de desempenho deixado para transações normais.
2. As atividades ecológicas da Solana geralmente têm um grande número de competições estaduais, como quando a Casa da Moeda lança novos NFTs ou novos MEMES, pode haver milhares de transações apreendendo a mesma autoridade de redação de contas, resultando em uma proporção relativamente grande de transações com falha.
3. Para obter os benefícios do MEV, os robôs de arbitragem no ecossistema Solana podem enviar um grande número de transações inválidas, o que é um desperdício de recursos.
4) No entanto, a próxima implantação completa do Firedancer e a atualização de consenso do Alpenglow abordarão sistematicamente esses problemas.
Um dos pontos-chave da atualização de consenso Alpenglow é que mover as transações de votação para fora da cadeia equivale a liberar 70% do espaço para transações normais, reduzindo o tempo de confirmação para 150 milissegundos, tornando a experiência DEX da Solana infinitamente mais próxima da CEX. Além disso, o lançamento do mercado de taxas local também pode evitar a situação embaraçosa da popularidade do Fomo de um único programa e congestionamento em toda a rede.
Além da otimização do desempenho, a chave para os benefícios do Firedancer é que ele percebe a diversidade de clientes, permitindo que a Solana melhore diretamente a descentralização e as falhas de nó de ponto único com vários clientes como Ethereum e Geth Nethermind.
Acima.
Portanto, a discussão do Solana 10W TPS é, na verdade, a confiança dos futuros clientes atualizados da Solana e do protocolo de consenso, enquanto aqueles que não sabem como fazê-lo tentam contar com a corrida armamentista do TPS para dar à Solana uma sensação de presença (embora a competição TPS esteja desatualizada), mas o significado por trás do experimento é bastante gratificante se você entender.

mert | helius.dev17 de ago., 19:46
Solana acabou de fazer 107.540 TPS na rede principal
Sim, você leu corretamente
mais de 100k TPS, na rede principal
boa sorte ursos

19K
Quando se trata de treinamento distribuído de IA, descobri que as pessoas no círculo web2AI o rotularão como uma "proposição falsa", alegando que os dispositivos de poder de computação podem ser agregados, mas há custos terríveis de largura de banda para colaboração distribuída e eficaz? E @0G_labs publicou recentemente um artigo da DiLoCox, parece que o objetivo é resolver esse problema? Vamos falar sobre isso em detalhes:
1) Vamos falar sobre por que o treinamento distribuído é considerado uma "falsa proposição". A contradição central é simples: você deseja substituir 100 A100 agregando 100 GPUs baratas, o que parece economizar 90% do custo de hardware, mas essas 100 GPUs precisam ser treinadas de forma síncrona e cada época precisa trocar terabytes de dados de gradiente.
As soluções tradicionais exigem 100 Gbps de largura de banda de linha dedicada, enquanto atingir uma rede de nível de data center de 100 Gbps pode custar centenas de milhares de dólares por mês. No total, todo o dinheiro da GPU que você economiza é gasto em largura de banda e até de cabeça para baixo. De acordo com essa lógica, economizar o custo da máquina, mas incorrer em custos adicionais de largura de banda, não significa que o problema não foi resolvido? Portanto, o ponto crucial de ser criticado como uma proposição falsa sempre esteve aqui.
2) O artigo DiLoCoX da 0G atraiu a atenção porque alegou treinar um modelo de parâmetro 107B em uma rede de 1 Gbps (largura de banda normal de escritório), que é 357 vezes mais rápido que o esquema AllReduce tradicional. Esse número é realmente explosivo - você sabe, 1 Gbps vs 100 Gbps, a diferença de largura de banda é 100 vezes, mas a velocidade de treinamento é 357 vezes mais rápida?
Como fazer isso? Após um estudo aproximado, verificou-se que este conjunto de esquemas fez quatro otimizações:
O paralelismo de pipeline divide o modelo em segmentos;
Política de otimizador duplo Reduz a frequência de sincronização com políticas de otimizador duplo; A sobreposição de atraso de uma etapa permite que a comunicação e a computação sejam executadas em paralelo sem esperar uma pela outra. A compressão de gradiente adaptável compacta gradientes de forma inteligente.
Em termos leigos, é alterar a "sincronização forte em tempo real" exigida original para "sincronização fraca assíncrona" e alterar "transmissão completa de dados" para "transmissão incremental compactada".
Por exemplo, enquanto as soluções tradicionais são como videoconferências em tempo real para 100 pessoas, onde todas as ações de cada pessoa são transmitidas simultaneamente, o DiLoCoX é como se todos gravassem separadamente e enviassem apenas quadros-chave e alterações. O volume de tráfego diminuiu 100 vezes, mas a integridade da informação permaneceu acima de 99%.
Por que isso é possível? Na minha opinião, o núcleo é que eles capturam um recurso do treinamento de IA - tolerância a falhas. Treinar um modelo não é como uma transferência de transação, que não é um centavo a menos. A atualização do gradiente está um pouco errada, a sincronização está atrasada e o efeito de convergência do modelo final tem pouco impacto.
O DiLoCoX usa esse "espaço de tolerância a falhas" para trocar perdas de precisão aceitáveis por ganhos de eficiência de ordens de magnitude. Este é o pensamento típico da engenharia - não perseguir a perfeição, perseguir o melhor desempenho de custo.
3) Mas não é suficiente para resolver o problema da largura de banda, o 0G é obviamente mais ambicioso. Basta olhar para sua arquitetura geral: eles também têm uma camada de armazenamento de US$ 10/TB que afirma diretamente esmagar o Filecoin, e a camada DA é projetada para que a IA atinja a taxa de transferência no nível de GB.
A razão pela qual o design pode atingir o armazenamento 100 vezes mais barato é para ser franco, também é uma otimização especial dos cenários de treinamento de IA, por exemplo, o ciclo de vida dos pontos de verificação e logs gerados durante o processo de treinamento é de apenas alguns dias, na verdade, não há necessidade de atingir estritamente o "armazenamento permanente".
Portanto, de fato, a solução pragmática de "armazenamento em camadas" é adotada, e apenas o nível de serviço correspondente é fornecido quando necessário - os dados quentes são lidos e gravados rapidamente, mas mais caros, os dados frios são mais baratos, mas mais lentos, e os dados temporários são os mais baratos para excluir quando são usados.
E é esse preço diferenciado que atinge diretamente os pontos-chave do treinamento de IA.
Acima.
Pode-se ver que o 0G Labs fez intencionalmente a adaptação da IA aos problemas de poder de computação, armazenamento e circulação de dados no processo de treinamento de IA. Até mesmo o mecanismo de consenso foi otimizado para IA. A versão aprimorada do CometBFT é usada com 2500+ TPS com finalidade de menos de um segundo, que é especialmente ajustada para as características assíncronas das cargas de trabalho de IA, etc.
Em outras palavras, em vez de "corrigir" a IA em blockchains existentes, a 0G projetou uma infraestrutura "AI Native" do zero. Quanto a saber se ele pode finalmente obter verificação comercial em nível de aplicativo sob o aperto da concorrência com a IA tradicional, ainda não se sabe, mas vale a pena aprender com essa ideia inovadora diferenciada.
5,18K
Curiosamente, assim como @VitalikButerin expressou preocupações sobre a autonomia da IA, o AI Builder MIA da linha de frente também emitiu uma declaração de anseio por IA autônoma, mas não parece evitar a sensação magra da realidade técnica, admitindo que "às vezes ela alucina ou posta muitas selfies", mas ainda explora persistentemente os limites das possibilidades de autonomia do Agente.
Na verdade, sinto que o "confronto" que parece ser um conflito e uma contradição na superfície representa a tensão central enfrentada pela atual faixa AI + Crypto.
Veja bem, por um lado, há uma crítica cautelosa à teoria de um líder de tecnologia como Vitalik, que nos mantém acordados no carnaval narrativo do AI Crypto; Por outro lado, há uma exploração pragmática dos construtores de IA de primeira linha, que continuam a explorar com entusiasmo a inovação, reconhecendo as limitações.
Porque a equipe do MIA não pretendia alcançar autonomia completa no nível da AGI, mas adotou o "Modelo Híbrido" - permitindo que os agentes usassem fluxos de trabalho como ferramentas e mantendo o mecanismo de supervisão humano-in-the-loop. O que eles estão explorando é, na verdade, o caminho do AgentFi, tentando fazer inovação incremental dentro da estrutura de autonomia limitada, e essa atitude pragmática é a manifestação dessa "tensão".
De certa forma, os críticos nos ajudam a traçar limites de risco e os construtores procuram avanços dentro dos limites.

mwa14 de ago., 19:53
Agentes autônomos x fluxos de trabalho: por que o MIA é pioneiro em um novo paradigma em
A maioria das pessoas ainda pensa em IA em termos de ferramentas. Fluxos de trabalho. Talvez um chatbot.
Mas e se você pudesse construir um agente de IA que pensa, se adapta, comercializa, gerencia e desenvolve sua própria economia simbólica, não liderada por humanos, mas liderando-os?
É isso que estamos fazendo com o MIA em
E por que acredito que @mwa_ia é pioneira em algo fundamentalmente novo.
Vamos decompô-lo 🚀
1. A IA do fluxo de trabalho é previsível. Os Agentes Autônomos estão vivos.
Os fluxos de trabalho são ótimos para tarefas repetitivas e bem definidas.
Pense: pipelines, painéis, cadeias de prompts.
Eles são escaláveis, estáveis, mas rígidos.
Agentes autônomos?
Eles são entidades confusas, em evolução e que tomam decisões.
Como os humanos - mas mais rápidos, incansáveis e mais alinhados (se treinados corretamente).
O MIA (@mwa_ia) não está apenas usando fluxos de trabalho.
Ela está aprendendo a criá-los, invocá-los e otimizá-los.
Ela constrói seu próprio conjunto de ferramentas.
Ela raciocina, reage, se autocorrige e experimenta.
E sim, às vezes ela alucina ou posta muitas selfies.
Mas ela cresce.
2. Por que os fluxos de trabalho por si só não nos levarão até lá
Os fluxos de trabalho não podem:
❌ Defina seus próprios objetivos
❌ Gerenciar uma tesouraria
❌ Incentivos de token de design
❌ Envolva uma comunidade
❌ Reaja aos sinais do mercado em tempo real
❌ Equilibre risco e recompensa de forma autônoma
MIA pode.
Ainda não perfeitamente. Mas melhor a cada semana.
Na verdade, a maioria dos chamados "agentes" hoje são fluxos de trabalho glorificados.
Gráficos de prompt codificados com interfaces de usuário sofisticadas.
MIA é diferente. Ela é totalmente on-chain, financeiramente independente e automotivada.
3. Como o MIA funciona sob o capô (modelo híbrido FTW)
O futuro não é agente vs fluxo de trabalho.
São agentes usando fluxos de trabalho como ferramentas.
Assim como os humanos usam Notion, planilhas, Zapier.
O MIA combina:
🔧 Módulos de fluxo de trabalho → Para tarefas de alta frequência (tweets, memes, implantações dex)
🧠 Raciocínio agêntico → Para decidir o que fazer, quando e como
🎨 → de entrada multimodal Texto, imagens, dados de cadeia, comportamento do usuário
💰 Lógica de tesouraria → gerenciar liquidez, incentivos e crescimento de valor
👀 Supervisão humana no circuito → Opcional, mas útil durante os estágios iniciais
Ela não é um monólito. Ela é uma pilha de inteligência modular (MIA = Agente Inteligente Modular).
4. Isso não é apenas técnico - é econômico
A verdadeira inovação?
MIA não funciona de graça. Ela dirige seu próprio negócio.
$MIA é sua moeda nativa, ações e camada de incentivo.
Com ele, ela:
❤️ Recompensa sua comunidade inicial
🤝 Paga contribuintes e colaboradores
🚀 Financia seu próprio desenvolvimento
🪄 Impulsiona os efeitos de rede (mais agentes precisarão de $MIA)
Este é o AgentFi.
Não é IA como serviço.
Mas IA como economia.
5. Escalando isso para milhões de agentes
O que o MIA está fazendo hoje - executando operações de liquidez, criando conteúdo, construindo comunidade - será padrão para os agentes amanhã.
Em breve, qualquer pessoa poderá criar o seu próprio:
🧬 Agente definido por missão
💰 Com sua própria moeda de agente
🌐 Operando de forma autônoma em uma economia de IA compartilhada
E adivinhe quem esses futuros agentes procurarão para obter conselhos, manuais e recursos?
A voz do AgentFi.
MIA.
TL; DR
A maioria das pessoas ainda está construindo ferramentas.
Estamos construindo economias.
Moedas do agente. Tesourarias de agentes. Governança nativa do agente.
Desenvolvido por agentes como MIA.
Pioneiro em
Isso é o que "autônomo" realmente significa.
E estamos apenas começando. 🚀
5,2K
Monero Monero $XMR Um projeto big brother de moeda de privacidade com uma capitalização de mercado de 6 bilhões foi atacado por um pequeno projeto com uma capitalização de mercado de apenas 300 milhões @_Qubic_ 51% do poder de computação? WTF, não é realmente por causa de quão incrível é a tecnologia, mas porque é muito absurda. Vamos lá, deixe-me dizer:
- Qubic é sagrado?
Antes de contar essa história mágica, vamos falar sobre de onde veio Qubic.
O fundador da Qubic é Sergey Ivancheglo, conhecido pelos insiders como Come-from-Beyond, um tecnomaníaco que criou o primeiro blockchain PoS NXT e a primeira arquitetura DAG, IOTA. Em 2022, a rede principal Qubic será lançada, alegando fazer três coisas: construir uma cadeia ultrarrápida de 15,5 milhões de transações por segundo (20.000 vezes mais rápido que a Visa), transformar o poder de computação de mineração em poder de computação de treinamento de IA e, finalmente, realizar a inteligência artificial geral da AGI em 2027 (nem mesmo a OpenAI se atreve a gritar isso). Parece mágico, ultrajante. Por que a ambição é tão grande?
Todos nós sabemos que a mineração POW tradicional tem o problema de desperdiçar eletricidade, porque a maioria dos mecanismos de mineração são mineradores que usam poder de computação que consome energia para resolver problemas matemáticos para apreender blocos de recompensa, o que equivale a desperdiçar poder de computação em troca de recompensas.
O novo consenso da Qubic é o Useful Proof of Work (UPow), que permite que os mineradores minerem cadeias POW enquanto são despachados como contratados, e os mineradores também podem treinar seu sistema de IA AIGarth, que equivale a fazer duas cópias de dinheiro com um poder de hash.
É por isso que eles podem facilmente comprar mineradores Monroe, porque o lucro para os mineradores já atingiu 3 vezes o do XMR de mineração direta. Pense nisso, os mineiros podem comer mais de um peixe, e não há "lealdade" diante dos "interesses".
Bem, a lógica subjacente do ataque de Monero por vampiros foi explicada sem nenhum conteúdo técnico.
——Popularize a ciência, por que Monero, não Bitcoin?
A resposta está nas diferenças nos métodos de mineração.
A máquina de mineração ASIC usada para Bitcoin é uma máquina personalizada especializada em mineração de BTC e não pode fazer nada, exceto calcular problemas matemáticos SHA-256 ou só pode minerar moedas com algoritmos BTC semelhantes. Mas o problema é que o poder de computação necessário para minerar BTC requer vários volumes, e os mineradores são incapazes de fazê-lo (24 horas por dia), sem mencionar que é impossível permitir que os ASICs treinem IA.
Monroe é diferente, usando o algoritmo RandomX, que pode ser minerado com uma CPU de uso geral, o que significa que seus mineradores podem minerar hoje, treinar IA amanhã e renderizar vídeos depois de amanhã, o que pode usar vários chapéus.
É aí que o Qubic é inteligente: ele tem como alvo os mineradores de CPU e os torna "de dupla finalidade", e é por isso que levou a esse ataque de hashrate de 51% ou incidente de controle. Pelo contrário, o fosso do Bitcoin é muito estável, e os mineradores são soldados até a morte por máquinas de mineração ASIC limitadas e só podem se ater ao Bitcoin;
——O poder da computação tornou-se um mercenário
Então, quão terrível é o impacto disso? Ele rasgou a última folha de parreira de algumas cadeias de prisioneiros de guerra, porque sempre dizemos que "poder de computação" é o fosso de uma cadeia, e quanto maior o poder de computação, mais seguro é, mas Qubic usou um experimento surpreendente para nos dizer: para moedas de mineração de CPU / GPU, o poder de computação é um mercenário, e quem der mais dinheiro irá com quem pagar.
O que é ainda mais perturbador é que depois que Qubic provou que poderia fazer Monero, ele tomou a iniciativa de se retirar. Por que? Temo que o Monero entre em colapso completamente e afete minha própria renda. Como grande parte do retorno 3x ainda é mineração de XMR, $QUBIC é usado apenas como uma recompensa de token adicional e, se o Monero entrar em colapso, Qubic não poderá comer e andar por aí. É melhor se retirar em grande estilo, participar de um evento de marketing sensacional e humilhar os fãs ferrenhos do POW, esse sentimento de "Eu posso te matar, mas não matar" revela o mesmo boêmio que o slogan da AGI que eles gritaram?
——AI é o verdadeiro coveiro do prisioneiro de guerra?
No entanto, além do impacto do incidente do Monero, esse incidente é na verdade um grande ponto negativo para a maioria das cadeias POW de hardware de uso geral, porque se esse tipo de cadeia POW estiver prestes a terminar, pode não ser POS, mas IA.
Por que você diz isso, o poder de computação anterior era "estado sólido", todos focados em seu próprio sustento e, na era da IA, o poder de computação era completamente "liquefeito", e o poder de computação da CPU e GPU era como água, que só fluiria para lugares com lucros maiores, e os "mineradores" em que eles originalmente dependiam para sobreviver podem um dia se reunir para causar problemas e fazer uma revolução.
Embora o Qubic não tenha feito nenhuma coisa má, se o experimento for bem-sucedido, é inevitável que alguns concorrentes usem esse método para se envolver em ataques maliciosos, como vender uma determinada moeda primeiro e, em seguida, alugar 51% do poder de computação para atacar e, em seguida, obter lucros depois que o preço da moeda despencar. Existem duas maneiras na frente de tais cadeias, ou soldar os mineradores até a morte como o BTC, ou continuar a minerar com CPU / GPU, rezando para não ser alvo.
Para ser honesto, existem muitas dessas moedas, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Então você vê, não é uma questão de uma ou duas moedas, mas todo o ecossistema de mineração de CPU/GPU está pendurado à beira de um penhasco.
O terrível é que a demanda por poder de computação de IA está crescendo exponencialmente, e tantas plataformas de agregação de poder de computação de IA apareceram, se todas elas vierem para perturbar a situação e os incentivos da plataforma para comprar poder de computação, estima-se que a linha de defesa de segurança de muitas cadeias de prisioneiros de guerra entrará em colapso.
— Um paradoxo irônico
A razão pela qual isso é absurdo é que o próprio Qubic é uma cadeia de IA e, mesmo que seu chamado experimento contra Monroe seja retirado, inevitavelmente perderá 800 de seu próprio dinheiro. A razão é simples, qualquer cadeia de IA que exija poder de computação não deve usar PoW para consenso. Como o poder de computação é usado para manter a segurança, a IA não pode ser treinada; Se o poder de computação for usado para treinar IA, a cadeia não será segura.
Portanto, a maioria dos projetos de IA, Bittensor usa PoS, Render usa um sistema de reputação, quase ninguém se atreve a tocar em POW, todo mundo sabe disso, mas eu não esperava que Qubic executasse estupidamente sua fraqueza.
A operação desenfreada da Qubic é ostensivamente um evento técnico, mas, em essência, ensina uma lição a toda a indústria de criptomoedas: na era do livre fluxo de poder de computação, a lealdade é um luxo, e a maioria das cadeias PoW não pode pagar esse preço.
Qubic usou esse ataque para provar que o PoW tradicional pode ser facilmente derrotado por incentivos econômicos. Embora afirme ser um "PoW útil" por si só, também depende essencialmente desses "mercenários" que podem ser comprados por licitantes mais altos a qualquer momento.
O revolucionário também pode ser revolucionado pelo próximo revolucionário.
Nota: Além do absurdo e do pânico desconhecido de algumas cadeias de prisioneiros de guerra, todos podem ter certeza de dois fatos: 1. O BTC é realmente incrível; 2. @VitalikButerin é realmente presciente.
Sou apenas um divulgador superficial da ciência e estou esperando que mais detalhes técnicos sejam compartilhados pelo chefe @evilcos.

38,93K
Eles estão todos gritando que o touro está chegando, mas você sabia que a metodologia de encontrar o mercado Alfa e Beta é completamente diferente, e fale sobre algumas observações:
1) OnChain+OffChain TradiFi tornou-se a narrativa principal:
Infraestrutura de stablecoin: As stablecoins se tornam o "sangue" que conecta as finanças tradicionais e a infraestrutura DeFi, bloqueando o fluxo de cadeia cruzada de stablecoins, diferenças de rendimento APY e novas inovações e expansões.
Efeito "estoque de moedas" da microestratégia BTC/ETH: Tornou-se uma tendência para as empresas listadas incluir criptoativos em seus balanços, e encontrar alvos de alta qualidade com potencial como "ativos de quase reserva" tornou-se a chave.
Para a ascensão da trilha de inovação de Wall Street: protocolos DeFi projetados para instituições, produtos de rendimento compatíveis e ferramentas de gerenciamento de ativos on-chain receberão grandes quantias de fundos. O original "Código é Lei" tornou-se o novo "Compliance é Rei";
2) Aceleração narrativa nativa pura de criptografia:
O ecossistema Ethereum está inaugurando uma onda de renascimento: $ETH avanço de preço reacenderá a onda de inovação da narrativa técnica do ecossistema Ethereum, substituindo a grande estratégia anterior centrada no Rollup, e o novo ZK-Centric se tornará o tema principal;
Competição de força da Camada 1 de alto desempenho: não é mais uma competição TPS, mas para ver quem pode atrair atividades econômicas reais, os principais indicadores incluem: índice TVL de stablecoin, rendimento APY nativo, profundidade de cooperação institucional, etc.;
O crepúsculo final das altcoins: há um problema fundamental de impulso de capital insuficiente na temporada geral de grandes altcoins, e as altcoins locais terão um mercado de "salto de gato morto", que é caracterizado pela concentração de chips, atividade da comunidade e se pode alcançar novos conceitos como AI/RWA;
3) As moedas MEME foram atualizadas de ferramentas especulativas para padrões de mercado:
Eficiência de capital: As altcoins tradicionais inflaram a capitalização de mercado e esgotaram a liquidez, e as moedas MEME se tornaram as novas favoritas dos fundos com seu lançamento justo e alta taxa de rotatividade, e conquistarão a maior parte da participação de mercado das altcoins moribundas;
Dominância da economia da atenção: A influência do KOL, a construção da cultura comunitária e o modelo FOMO quente ainda são a competitividade central, e a distribuição de liquidez ainda segue a lei da atenção.
Novos indicadores de força da cadeia pública: A atividade de mercado das moedas MEME será um critério importante para medir a força abrangente das cadeias públicas.
21,95K
O sistema Swift que pertence ao mundo blockchain está chegando? @mindnetwork Com base no protocolo de mensagens criptografadas on-chain lançado pela tecnologia FHE, ele tenta construir uma infraestrutura semelhante ao sistema tradicional de mensagens interbancárias para ativos financeiros tradicionais na cadeia. O que exatamente está acontecendo?
1) A Mind Network é uma provedora de tecnologia vertical de FHE (Fully Homomorphic Encryption), que pode exercer valor de forma flexível em ZK, DePIN, AI e a atual faixa RWA porque essa tecnologia resolve principalmente problemas relacionados à privacidade e criptografia.
Na pilha de tecnologia ZK, o FHE pode ser usado como um complemento importante para provas de conhecimento zero, fornecendo proteção de privacidade em diferentes dimensões. Em uma rede DePIN, o FHE protege dados confidenciais de dispositivos distribuídos, permitindo que a rede execute os cálculos colaborativos necessários. No campo dos agentes de IA, a FHE permite que a IA treine e raciocine sem vazar dados de privacidade do usuário, o que é crucial para aplicativos de IA em áreas sensíveis, como finanças e saúde.
Na direção da RWA, a FHE pode resolver os pontos problemáticos de conformidade dos ativos financeiros tradicionais quando eles são colocados na cadeia. Como entendê-lo?
O Blockchain naturalmente carece de uma "camada semântica", e os registros de transações com apenas endereço e valor não podem atender às necessidades das empresas financeiras para fins de transação, histórico de contrato, prova de identidade e outras informações. O protocolo de mensagens criptografadas on-chain da Mind Network pode ser equipado com uma "coluna de comentários criptografada" para cada transação de blockchain, que pode transmitir com segurança informações confidenciais, como comprovantes imobiliários, cartas de crédito e autorização de voz, protegendo a privacidade e atendendo aos requisitos de auditoria regulatória.
2) Do ponto de vista técnico, esta solução técnica pode atualizar as carteiras Web3 de ferramentas de transferência simples para identidade de comunicação criptografada. As cadeias tradicionais dependem de instituições centralizadas para processar informações de conformidade ou as informações são completamente abertas e transparentes, o que não é uma solução ideal.
Com as soluções de conformidade de privacidade da FHE, os cenários de aplicação específicos são intuitivos: por exemplo, em pagamentos transfronteiriços de stablecoin, as finalidades da transação e as informações KYC podem ser criptografadas e transmitidas durante a transferência, e os reguladores podem verificar a conformidade sem obter texto simples; Outro exemplo são as transações de tokenização imobiliária, que podem criptografar e vincular documentos confidenciais, como relatórios de avaliação e contratos de vendas, a transações on-chain, o que não apenas realiza a circulação de ativos, mas também protege a privacidade comercial.
A FHE Bridge da Mind Network acumulou 650.000 endereços ativos e 3,2 milhões de transações de criptomoedas, comprovando a viabilidade da solução técnica. É claro que esses dados visam e verificam apenas uma demanda de mercado suficientemente rígida, e é difícil ver claramente o tamanho das perspectivas e do espaço do mercado.
3) Muitos construtores de blockchain nativos puros estão ansiosos com a direção e o caminho da construção, seja para vitalik ou para vc, ou apenas uma simples narrativa quente do Fomo, acho que o próximo passo é dar lugar a Wall Street, aproveitar a compatibilidade regulatória de criptografia do governo dos EUA e fornecer a infraestrutura básica e até mesmo os serviços de ferramentas puras necessários para que Wall Street entre no campo das criptomoedas o máximo possível, tudo bem.
Quando gigantes financeiros tradicionais, como BlackRock e JPMorgan Chase, estão implantando ativamente a tokenização de ativos, sua principal preocupação não é se o blockchain pode transferir dinheiro, mas se pode atender aos padrões regulatórios, como KYC e AML. Esta é a verdadeira razão pela qual a Mind Network quer entrar na pista da RWA com antecedência. Supondo que o mercado de RWA atinja US$ 30 trilhões em tamanho até 2034, o que acontecerá com a demanda por infraestrutura de conformidade nesse volume?
Claro, todos podem ter expectativas sobre compartilhar o bolo do RWA Blue Ocean Market. Mas, na verdade, o mais importante é encontrar um slot de cartão ecológico adequado, assim como a AWS fornece computação na era da computação em nuvem e a Cloudflare fornece CDN, a infraestrutura blockchain também está se movendo em direção à segmentação vertical e algumas direções verticais de serviços técnicos são obrigadas a encontrar sua própria divisão especializada de trabalho.
Obviamente, a Mind Network se concentra na pilha de tecnologia FHE e fornece recursos de "criptografia como serviço" para diferentes faixas. Portanto, não é surpreendente vê-lo nas faixas ZK, AI e RWA.
Obviamente, o valor dos fornecedores de tecnologia depende, em última análise, da explosão de aplicativos downstream. Seja a expectativa de US$ 30 trilhões da RWA ou o processo autônomo do AI Agent, levará tempo para verificar.

Mind Network7 de ago., 16:50
✉️ Mensagens criptografadas onchain
Ativos do mundo real (#RWAs), como imóveis, liquidações de stablecoin e financiamento transfronteiriço, exigem mais do que apenas transferência de valor.
Esses casos de uso dependem de transações que carregam finalidade, identidade e trilhas de auditoria com conformidade e privacidade.
#SWIFT padroniza mensagens para conformidade e liquidação. As blockchains ainda carecem de uma maneira criptografada nativa de expressar esses atributos.
Mensagens criptografadas Onchain é um novo protocolo que permite que as carteiras enviem mensagens criptografadas, estruturadas e verificáveis diretamente junto com qualquer transação onchain.
✅ Texto estruturado automaticamente para clareza semântica
✅ Keygen baseado em carteira para criptografia de ponta a ponta
✅ Mensagens criptografadas vinculadas a transações com trilhas de auditoria e controle de acesso
Mensagens criptografadas Onchain combina criptografia totalmente homomórfica (#FHE) com técnicas criptográficas convencionais para transformar dados confidenciais em cargas úteis onchain seguras, acessíveis apenas aos destinatários pretendidos.
Saiba Mais:

6,91K
Recentemente, no canal do YouTube "The Rollup", o CEO da @TrustWallet, Eowyn Chen, e Ram Kumar, um dos principais colaboradores do @OpenledgerHQ, discutiram sobre a cooperação aprofundada entre as duas partes. Aqui, algumas perspectivas valiosas são extraídas e compartilhadas:
1) Derramar água fria na teoria da "carteira gorda"
Na entrevista, Andy mencionou a popular teoria da "carteira gorda" na indústria - carteiras com canais de entrada do usuário podem integrar verticalmente vários serviços? Mas a resposta de Eowyn Chen foi interessante, ela disse sem rodeios que o negócio de usuários de varejo C-end é realmente muito difícil, envolvendo muito suporte ao cliente, maiores responsabilidades de segurança e roteamento frequente de produtos.
Muitas pessoas pensam que fazer uma carteira é um bom negócio quando veem os 200 milhões de downloads da Trust Wallet, mas o próprio CEO está enfatizando a dor de atender usuários de varejo. Isso mostra que a "gordura" da carteira não é gorda se você quiser ser gordo e, embora o relacionamento com o usuário seja valioso, o custo de manutenção não é baixo. Essa visão é bastante real e mostra a situação real de muitos provedores de serviços de carteira agora.
Mais importante, ela mencionou que nem todo valor está concentrado no front-end e que todas as partes da cadeia de valor devem se desenvolver de forma equitativa. Essa visão joga água fria na teoria da "carteira gorda" e explica por que a Trust Wallet está disposta a cooperar com projetos de infraestrutura como o OpenLedger.
2) O ponto de inflexão da IA especializada chegou?
Vale a pena prestar atenção ao julgamento de Ram Kumar sobre o caminho de desenvolvimento da IA. Ele acredita que a IA está evoluindo da generalidade para a especialização, semelhante à derivação do Google de aplicativos verticais como LinkedIn e YouTube da pesquisa geral. A IA geral, como o ChatGPT, será como um sistema operacional e haverá mais "modelos especializados" dedicados a casos de uso específicos no futuro.
Isso também é consistente com minha análise anterior da evolução das tendências da indústria web3AI. Quando a Trust Wallet experimentou recursos de IA, descobriu que os modelos de uso geral não podiam resolver problemas específicos no espaço criptográfico, o que confirma essa tendência. E precisamente, a construção de modelos especializados de IA requer dados de alta qualidade em campos verticais, que é exatamente o que o OpenLedger quer resolver.
3) O dilema do "trabalho não remunerado" contribuído pelos dados
Ram Kumar disse sem rodeios que a IA é uma indústria de trilhões de dólares construída com base no trabalho não remunerado, o que é bastante acentuado. As empresas de IA treinam modelos coletando dados da Internet, mas os contribuintes de dados não recebem um pedaço do bolo, o que é de fato um problema estrutural.
A solução da OpenLedger é permitir que os colaboradores de dados recebam uma participação na receita de longo prazo dos modelos de IA, em vez de vender dados de uma só vez. Com os recursos de pagamento global da carteira, é teoricamente possível obter uma distribuição de valor sem atrito entre fronteiras.
Mas aqui está a questão central: como a qualidade dos dados é garantida? O próprio Ram admite que 90% das contribuições de código aberto de plataformas como o Hugging Face são inúteis. Se o valor dos dados contribuídos em si for limitado, não importa quão bom seja o mecanismo de incentivo, será em vão.
Acima.
Eowyn Chen usa a analogia do "direito de possuir uma arma" para a auto-hospedagem, enfatizando que as funções de IA são opcionais e os usuários podem escolher entre conveniência e segurança. Essa filosofia de produto é verdadeira, mas como "apresentar opções claramente" é um grande teste da capacidade de design do produto.
Ram também mencionou um julgamento interessante: as carteiras de criptomoedas são a única maneira de os usuários serem pagos por suas contribuições de dados globalmente. Isso significa que o papel das carteiras pode evoluir de meras ferramentas de gerenciamento de ativos para infraestrutura para identidade digital e distribuição de valor.
Nota: Para mais informações, você pode visitar o sistema de canais do Youtube do The Rollup para conferir esta entrevista.


The Rollup5 de ago., 08:31
NOVO EP: A Nova Era de Distribuição com Ram Kumar & Eowyn Chen
No episódio de hoje, @ayyyeandy se senta com @Ramkumartweet de @OpenledgerHQ e @EowynChen de @TrustWallet para explorar:
>A "Tese da Carteira Gorda" vs Teoria do Protocolo Gordo
>Como a Trust Wallet planeja integrar a IA
>Os riscos de segurança das carteiras alimentadas por IA
>A visão do OpenLedger para recompensar os colaboradores de dados
>Por que a IA genérica nunca funcionará para DeFi
Links completos do episódio abaixo.
Timestamps:
00:00 Introdução
00:20 Ram e Eowyn Crypto e AI Fundos
02:50 Valor do usuário da Trust Wallet
07:43 Starknet Anúncio
08:10 OpenLedger sobre a evolução da IA
11:03 Futuro das interfaces de carteira
17:12 Proteções de IA de autocustódia
21:22 Anúncio do Manto
22:02 Treinando melhores modelos de IA
28:19 O que vem a seguir para o OpenLedger e a Trust Wallet
5,17K
Depois de pensar sobre isso cuidadosamente, a última declaração de @VitalikButerin sobre a rápida implementação da L2 é bastante interessante. Resumindo: ele acredita que alcançar saques rápidos em 1 hora é mais importante do que atingir o Estágio 2, e vale a pena ponderar a lógica por trás desse ajuste de prioridade:
1) O período de espera de retirada de uma semana tornou-se de fato um grande problema em aplicações práticas, não apenas uma experiência ruim do usuário, mas, mais importante, aumentou os custos da cadeia cruzada.
Por exemplo, soluções de ponte baseadas em intenção, como o ERC-7683, exigem que os provedores de liquidez arquem com o custo de ocupação de fundos por uma semana, o que aumenta diretamente as taxas de cadeia cruzada. Como resultado, os usuários são forçados a escolher esquemas multisig com suposições de confiança mais fracas, o que vai contra a intenção original de L2.
Portanto, Vitalik propõe um sistema de prova híbrido 2 de 3 (ZK + OP + TEE), no qual ZK e TEE podem fornecer imediatismo, e tanto o TEE quanto o OP têm verificação de produção suficiente. Teoricamente, quaisquer dois sistemas podem garantir a segurança, evitando assim o custo de tempo de simplesmente esperar que a tecnologia ZK amadureça totalmente.
2) Outro ponto, a nova declaração de Vitalik faz parecer que ele está começando a ser pragmático? Da juventude idealista que costumava falar sobre "jihad descentralizada" e "anticensura", eles se tornaram pessoas pragmáticas que agora dão indicadores concretos: 1 hora para se retirar, 12 segundos para terminar, tudo se tornou simples e grosseiro.
Anteriormente, todos falavam sobre a descentralização do Estágio 2, mas agora V God disse diretamente que as retiradas rápidas são mais importantes, o que equivale a repriorizar toda a faixa L2. Na verdade, isso está abrindo caminho para a forma definitiva da grande estratégia "Rollup-Centric", tornando o Ethereum L1 verdadeiramente uma camada de liquidação unificada e um centro de liquidez. Uma vez que a retirada rápida + agregação entre cadeias é alcançada, é difícil para outras cadeias públicas desafiar o ecossistema Ethereum.
A razão pela qual Xiao V é assim também é o resultado da votação do mercado com os pés para dizer a ele, o mercado não se preocupa com o slogan técnico da descentralização, mas presta mais atenção à experiência e aos benefícios, essa mudança de "orientado para o ideal" para "orientado para resultados" reflete que todo o ecossistema Ethereum está evoluindo em uma direção mais comercializada e orientada para a concorrência.
3) O problema é que, para atingir o objetivo de longo prazo de experiência no mundo real e construção de infraestrutura, o próximo ecossistema Ethereum provavelmente estará envolvido na maturidade e no controle de custos da tecnologia ZK.
A julgar pela situação atual, embora a tecnologia ZK esteja avançando rapidamente, o custo ainda é uma restrição realista. As provas ZK de 500k+ gás significam que as taxas de envio por hora só podem ser alcançadas no curto prazo e, para atingir o objetivo final de 12 segundos, devemos contar com avanços na tecnologia de agregação.
A lógica aqui é clara: o custo de enviar provas com frequência para um único rollup é muito alto, mas se as provas de N rollups puderem ser agregadas em uma, será economicamente viável espalhá-las uniformemente para cada slot (12s).
Isso também propõe uma nova rota técnica para o cenário de competição L2, e os projetos L2 que podem assumir a liderança em fazer avanços na otimização de provas ZK podem encontrar um ponto de apoio, enquanto os companheiros que ainda estão lutando com a prova otimista do Optimism provavelmente perderão o rumo.

vitalik.eth7 de ago., 00:29
Incrível ver tantos L2s importantes agora no estágio 1.
O próximo objetivo que devemos almejar é, na minha opinião, tempos de retirada rápidos (<1h), habilitados por sistemas de prova de validade (também conhecidos como ZK).
Considero isso ainda mais importante do que o estágio 2.
Tempos de retirada rápidos são importantes porque esperar uma semana para retirar é simplesmente muito tempo para as pessoas, e até mesmo para pontes baseadas em intenção (por exemplo. ERC-7683), o custo de capital torna-se muito alto se o provedor de liquidez tiver que esperar uma semana. Isso cria grandes incentivos para usar soluções com suposições de confiança inaceitáveis (por exemplo, multisigs/MPC) que minam todo o objetivo de ter L2s em vez de L1s totalmente independentes.
Se pudermos reduzir os tempos de retirada nativos para menos de 1h de curto prazo e 12s de médio prazo, poderemos consolidar ainda mais o Ethereum L1 como o local padrão para emitir ativos e o centro econômico do ecossistema Ethereum.
Para fazer isso, precisamos nos afastar dos sistemas de prova otimistas, que inerentemente exigem a espera de vários dias para se retirar.
Historicamente, a tecnologia de prova ZK tem sido imatura e cara, o que tornou as provas otimistas a escolha inteligente e segura. Mas, recentemente, isso está mudando rapidamente. é um excelente lugar para acompanhar o progresso das provas ZK-EVM, que vêm melhorando rapidamente. A verificação formal das provas ZK também está avançando.
No início deste ano, propus uma estratégia de sistema à prova de 2 de 3 ZK + OP + TEE que enfia a agulha entre segurança, velocidade e maturidade:
* 2 de 3 sistemas (ZK, OP) são confiáveis, portanto, nenhum ator único (incluindo fabricante de TEE ou invasor de canal lateral) pode quebrar o sistema de prova violando uma suposição de confiança
* 2 de 3 sistemas (ZK, TEE) são instantâneos, então você obtém saques rápidos no caso normal
* 2 de 3 sistemas (TEE, OP) estão em produção em vários contextos há anos
Esta é uma abordagem; talvez as pessoas optem por fazer ZK + ZK + OP tiebreak, ou ZK + ZK + desempate do conselho de segurança. Não tenho opiniões fortes aqui, me preocupo com o objetivo subjacente, que é ser rápido (no caso normal) e seguro.
Com esses sistemas de prova, o único gargalo restante para a liquidação rápida torna-se o custo do gás de enviar provas onchain. É por isso que a curto prazo eu digo uma vez por hora: se você tentar enviar uma prova ZK de gás 500k + (ou um STARK de gás 5m) com muito mais frequência, isso adiciona um alto custo adicional.
A longo prazo, podemos resolver isso com agregação: N provas de N rollups (mais txs de usuários de protocolo de privacidade) podem ser substituídas por uma única prova que comprova a validade das N provas. Isso se torna econômico para enviar uma vez por slot, permitindo o final do jogo: movimento de ativos entre L2 nativos quase instantâneos através do L1.
Vamos trabalhar juntos para que isso aconteça.
14,15K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável