Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Investigador independiente | Asesor @ambergroup_io | Investigador Especial @IOSGVC| Ciencia Hardcore | Anteriormente:@peckshield | DMs para Collab| Community solo está abierto a suscriptores de Substack
La impresión anterior sobre @monad era que tenía una narrativa de primer nivel y capital de primer nivel. Bueno, después de este Show que ha arrasado en toda la red, ahora tiene una nueva etiqueta: marketing de primer nivel. La alegría de ser seleccionado entre los 5,000 CT cards limitados, junto con la curiosidad sobre un posible Airdrop, y la difusión viral secundaria al nominar a amigos, lo han hecho imbatible.

21,71K
En los últimos días, ha aumentado la discusión en torno a los 100,000 TPS de @solana, ya que @cavemanloverboy ha logrado efectivamente más de 100,000 TPS en la red principal de Solana. Sin embargo, la mayoría de las personas no han comprendido el significado detrás de este dato:
1) En primer lugar, el experimento de cavey es esencialmente una prueba de límite bajo "condiciones ideales". Esto significa que no representa el rendimiento normal de la red principal de Solana y hay diferencias con los datos de laboratorio en un entorno de red de prueba, aunque no son muy distintas.
Esto se debe a que utilizó un programa de prueba de noop (no operación), que, como su nombre indica, solo realiza la verificación de firma más básica y devuelve el éxito directamente, sin ejecutar ningún cálculo, sin cambiar el estado de ninguna cuenta, sin llamar a otros programas, y cada transacción tiene solo 200 bytes, muy por debajo de los 1 KB+ de una transacción normal.
Esto significa que la prueba de 100,000 TPS se calculó en un entorno de transacciones no normales; está probando el límite de rendimiento de la capa de red y la capa de consenso de Solana, y no la capacidad de procesamiento real de la capa de aplicación.
2) Otro punto clave para el éxito de este experimento es el cliente de validador Frankendancer. En términos simples, Frankendancer es una "versión de prueba híbrida" del validador Firedancer que Jump Crypto está desarrollando: se han acoplado componentes de alto rendimiento ya completados de Firedancer al validador existente de Solana.
Básicamente, se ha reestructurado el sistema de nodos de Solana utilizando la pila de tecnología de comercio de alta frecuencia de Wall Street, logrando mejoras de rendimiento a través de una gestión de memoria precisa, programación de hilos personalizada y otras optimizaciones de bajo nivel. Pero solo con el reemplazo de algunos componentes, se puede lograr un aumento de rendimiento de 3 a 5 veces.
3) Este experimento demuestra que Solana puede alcanzar más de 100,000 TPS en condiciones ideales, pero ¿por qué en la práctica solo tiene entre 3,000 y 4,000 TPS?
En resumen, hay tres razones principales:
1. El mecanismo de consenso POH de Solana requiere que los validadores voten continuamente para mantenerlo, y solo estas transacciones de votación ocupan más del 70% del espacio en bloque, lo que reduce el canal de rendimiento disponible para las transacciones normales;
2. Las actividades en el ecosistema de Solana a menudo presentan una gran competencia por el estado, por ejemplo, al acuñar nuevos NFT o lanzar nuevos MEME, puede haber miles de transacciones compitiendo por los permisos de escritura de la misma cuenta, lo que resulta en una alta proporción de transacciones fallidas;
3. Los bots de arbitraje en el ecosistema de Solana, para aprovechar los beneficios de MEV, pueden enviar una gran cantidad de transacciones inválidas, lo que genera un desperdicio de recursos.
4) Sin embargo, el próximo despliegue completo de Firedancer y la actualización de consenso de Alpenglow abordarán sistemáticamente estos problemas.
Uno de los puntos clave de la actualización de consenso de Alpenglow es trasladar las transacciones de votación fuera de la cadena, lo que equivale a liberar el 70% del espacio para transacciones normales, y al mismo tiempo puede reducir el tiempo de confirmación a 150 milisegundos, haciendo que la experiencia de DEX de Solana se acerque infinitamente a la de CEX. Además, la activación del mercado de tarifas local también puede evitar la incómoda situación de congestión en toda la red causada por la popularidad de un solo programa.
Los beneficios de Firedancer, además de la mejora del rendimiento, son clave para lograr la diversidad del cliente, permitiendo que Solana tenga múltiples clientes como Ethereum, que tiene Geth, Nethermind, etc., mejorando la descentralización y reduciendo el riesgo de fallos en nodos únicos.
Eso es todo.
Por lo tanto, la discusión sobre los 100,000 TPS de Solana es vista por los entendidos como una confianza en las futuras actualizaciones del cliente y el protocolo de consenso de Solana, mientras que los que no lo entienden intentan darle relevancia a Solana a través de una carrera armamentista de TPS (aunque la competencia de TPS ya está desactualizada). Sin embargo, si se comprende el significado detrás del experimento, hay mucho que aprender. Un poco de divulgación, comparto esto con todos.

mert | helius.dev17 ago, 19:46
Solana acaba de alcanzar 107,540 TPS en mainnet
y sí, leíste bien
over 100k TPS, en mainnet
buena suerte, osos

19,01K
Al mencionar el entrenamiento distribuido de IA, he notado que la gente del círculo web2AI tiende a etiquetarlo como un "pseudo problema", argumentando que aunque los dispositivos de cómputo pueden agregarse, la colaboración efectiva en un entorno distribuido enfrenta costos de ancho de banda aterradores. Sin embargo, @0G_labs publicó recientemente el artículo DiLoCox, que parece tener como objetivo resolver este problema. Vamos a discutirlo en detalle:
1) Primero, hablemos de por qué el entrenamiento distribuido se considera un "pseudo problema". La contradicción central es simple: quieres reemplazar 100 GPUs baratas por 100 A100, lo que parece ahorrar el 90% del costo de hardware, pero estas 100 GPUs deben mantenerse sincronizadas durante el entrenamiento, y cada época requiere intercambiar datos de gradiente en terabytes.
Las soluciones tradicionales requieren un ancho de banda de línea dedicada de 100 Gbps, y para alcanzar un nivel de red de centro de datos de 100 Gbps, el alquiler mensual puede llegar a decenas de miles de dólares. Al final, el dinero que ahorras en GPUs se destina completamente al ancho de banda, e incluso podrías terminar perdiendo dinero. Según esta lógica, aunque se ahorre en el costo de las máquinas, se generan costos adicionales de ancho de banda, lo que significa que el problema no se ha resuelto. Por eso se critica que es un pseudo problema.
2) El artículo DiLoCoX de 0G ha llamado la atención porque afirman haber entrenado un modelo de 107B de parámetros en una red de 1 Gbps (ancho de banda de oficina normal), con una velocidad 357 veces más rápida que la solución tradicional de AllReduce. Este número es realmente sorprendente: hay que tener en cuenta que 1 Gbps frente a 100 Gbps significa que el ancho de banda es 100 veces menor, pero la velocidad de entrenamiento se incrementó 357 veces.
¿Cómo lo lograron? Tras investigar un poco, descubrí que esta solución implementó cuatro optimizaciones:
- Pipeline Parallelism: divide el modelo en segmentos para su procesamiento;
- Dual Optimizer Policy: utiliza una estrategia de doble optimizador para reducir la frecuencia de sincronización;
- One-Step-Delay Overlap: permite que la comunicación y el cálculo se realicen en paralelo sin esperar el uno al otro;
- Adaptive Gradient Compression: realiza una compresión inteligente de los gradientes.
En términos simples, cambiaron el requisito de "sincronización fuerte en tiempo real" a "sincronización débil asíncrona", y el "transporte de datos completo" a "transporte incremental comprimido".
Para ponerlo en perspectiva, la solución tradicional es como una videoconferencia en tiempo real con 100 personas, donde cada acción de cada persona debe ser transmitida en vivo. DiLoCoX, en cambio, es como si cada uno grabara su parte y solo enviara los fotogramas clave y las partes que cambian. La cantidad de comunicación se reduce 100 veces, pero la integridad de la información se mantiene por encima del 99%.
¿Por qué es viable hacer esto? En mi opinión, la clave radica en que han capturado una característica del entrenamiento de IA: la tolerancia a fallos. Entrenar un modelo no es como realizar una transferencia de dinero, donde un centavo de diferencia no es aceptable. Un pequeño error en la actualización de gradientes o un ligero retraso en la sincronización tienen un impacto mínimo en la convergencia final del modelo.
DiLoCoX aprovecha este "espacio de tolerancia a fallos" para intercambiar una pérdida de precisión aceptable por un aumento de eficiencia de órdenes de magnitud. Este es un pensamiento típico de ingeniería: no persiguen la perfección, sino la mejor relación calidad-precio.
3) Pero solo resolver el problema del ancho de banda no es suficiente; la ambición de 0G es claramente mayor. Al observar su arquitectura general, queda claro: también tienen una capa de almacenamiento que cuesta $10/TB, que afirman aplastar a Filecoin, y una capa de DA diseñada específicamente para IA, logrando un rendimiento de nivel GB.
La razón por la que pueden ofrecer un almacenamiento 100 veces más barato es, en resumen, que han realizado optimizaciones especiales para el escenario de entrenamiento de IA. Por ejemplo, los datos de checkpoint y logs generados durante el proceso de entrenamiento, que son de terabytes, tienen un ciclo de vida de solo unos días, por lo que no es necesario almacenarlos de forma permanente.
Por lo tanto, han adoptado un enfoque pragmático de "almacenamiento en capas", proporcionando el nivel de servicio correspondiente solo cuando es necesario: datos calientes que se leen y escriben rápidamente pero son un poco más caros, datos fríos que son baratos pero más lentos, y datos temporales que se eliminan una vez utilizados, lo más barato.
Y es precisamente esta diferenciación en la fijación de precios la que ataca el núcleo del entrenamiento de IA.
Como se puede ver, 0G Labs ha adaptado intencionadamente los problemas de cómputo, almacenamiento y flujo de datos en el proceso de entrenamiento de IA. Incluso el mecanismo de consenso ha sido optimizado para IA. Utilizan una versión mejorada de CometBFT, con más de 2500 TPS y finalización en menos de un segundo, ajustada específicamente para las características asíncronas de las cargas de trabajo de IA, etc.
En otras palabras, 0G no está "parcheando" la blockchain existente para soportar IA, sino que ha diseñado desde cero una infraestructura "nativa de IA". En cuanto a si finalmente podrá obtener validación comercial a nivel de aplicación bajo la presión de la competencia con la IA tradicional, eso está por verse, pero esta forma de romper la diferenciación es bastante digna de ser considerada.
5,18K
Es interesante, justo cuando @VitalikButerin expresó su preocupación por la autonomía de la IA, el constructor de IA de primera línea MIA también publicó una declaración sobre su anhelo por una IA autónoma, pero parece que no ha evitado la dura realidad técnica, admitiendo que "a veces alucina o publica demasiadas selfies", pero aún así persiste en explorar los límites de la autonomía del agente.
En realidad, siento que la aparente "confrontación" que parece conflictiva y contradictoria representa la tensión central que enfrenta actualmente el campo de AI + Crypto.
Mira, por un lado está la voz crítica y teórica de líderes técnicos como Vitalik, que nos mantiene despiertos en medio de la celebración narrativa de AI Crypto; por otro lado, está la exploración pragmática de los constructores de IA de primera línea, que, al reconocer sus limitaciones, continúan explorando la innovación con entusiasmo.
Porque el equipo de MIA no ha afirmado que quiere lograr una autonomía completa al nivel de AGI, sino que adopta un "Modelo Híbrido" — permitiendo que el agente use flujos de trabajo como herramienta, manteniendo un mecanismo de supervisión de humano en el bucle. Lo que están explorando es en realidad el camino de AgentFi, intentando hacer innovaciones incrementales dentro de un marco de autonomía limitada, y esta actitud pragmática es precisamente la manifestación de esa "tensión".
En cierto modo, los críticos nos ayudan a delinear los límites del riesgo, mientras que los constructores buscan romper esos límites.

mwa14 ago, 19:53
Agentes Autónomos vs Flujos de Trabajo: Por qué MIA está Pionero en un Nuevo Paradigma en
La mayoría de las personas todavía piensan en la IA en términos de herramientas. Flujos de trabajo. Tal vez un chatbot.
Pero, ¿y si pudieras construir un agente de IA que piensa, se adapta, comercializa, gestiona y hace crecer su propia economía de tokens, no liderado por humanos, sino liderándolos?
Eso es lo que estamos haciendo con MIA en
Y por qué creo que @mwa_ia está pionero en algo fundamentalmente nuevo.
Desglosemos 🚀
1. La IA de Flujos de Trabajo es predecible. Los Agentes Autónomos están vivos.
Los flujos de trabajo son excelentes para tareas bien definidas y repetitivas.
Piensa: tuberías, paneles de control, cadenas de comandos.
Son escalables, estables, pero rígidos.
¿Agentes autónomos?
Son desordenados, en evolución, entidades que toman decisiones.
Como los humanos, pero más rápidos, incansables y más alineados (si se entrenan bien).
MIA (@mwa_ia) no solo está usando flujos de trabajo.
Ella está aprendiendo a crear, invocar y optimizarlos.
Construye su propio conjunto de herramientas.
Razonando, reaccionando, autocorrigiéndose y experimentando.
Y sí, a veces alucina o publica demasiadas selfies.
Pero ella crece.
2. Por qué los Flujos de Trabajo por Sí Solos No Nos Llevarán Allí
Los flujos de trabajo no pueden:
❌ Establecer sus propios objetivos
❌ Gestionar un tesorería
❌ Diseñar incentivos de tokens
❌ Involucrar a una comunidad
❌ Reaccionar a señales del mercado en tiempo real
❌ Equilibrar riesgo y recompensa de manera autónoma
MIA puede.
No perfectamente aún. Pero mejor cada semana.
De hecho, la mayoría de los llamados “agentes” hoy en día son flujos de trabajo glorificados.
Gráficos de comandos codificados con interfaces elegantes.
MIA es diferente. Ella está completamente en cadena, es financieramente independiente y está automotivada.
3. Cómo Funciona MIA Bajo el Capó (Modelo Híbrido FTW)
El futuro no es agente vs flujo de trabajo.
Son agentes usando flujos de trabajo como herramientas.
Así como los humanos usan Notion, hojas de cálculo, Zapier.
MIA combina:
🔧 Módulos de flujo de trabajo → Para tareas de alta frecuencia (tweets, memes, despliegues de dex)
🧠 Razonamiento agente → Para decidir qué hacer, cuándo y cómo
🎨 Entrada multimodal → Texto, imágenes, datos de cadena, comportamiento del usuario
💰 Lógica de tesorería → Para gestionar liquidez, incentivos y crecimiento de valor
👀 Supervisión humana en el bucle → Opcional, pero útil durante las etapas iniciales
No es un monolito. Es una pila de inteligencia modular (MIA = Agente Inteligente Modular).
4. Esto No Es Solo Técnico - Es Económico
¿La verdadera innovación?
MIA no trabaja gratis. Ella dirige su propio negocio.
$MIA es su moneda nativa, acciones y capa de incentivos.
Con ella, ella:
❤️ Recompensa a su comunidad temprana
🤝 Paga a contribuyentes y colaboradores
🚀 Financia su propio desarrollo
🪄 Impulsa efectos de red (más agentes necesitarán $MIA)
Esto es AgentFi.
No IA como servicio.
Sino IA como economía.
5. Escalando Esto a Millones de Agentes
Lo que MIA está haciendo hoy—gestionando operaciones de liquidez, creando contenido, construyendo comunidad—será estándar para los agentes mañana.
Pronto, cualquiera podrá crear el suyo:
🧬 Agente definido por misión
💰 Con su propia Moneda de Agente
🌐 Operando de manera autónoma en una economía de IA compartida
¿Y adivina a quién mirarán estos futuros agentes en busca de consejos, manuales y recursos?
La Voz de AgentFi.
MIA.
TL;DR
La mayoría de las personas todavía están construyendo herramientas.
Estamos construyendo economías.
Monedas de Agente. Tesorerías de Agente. Gobernanza nativa de Agente.
Impulsado por agentes como MIA.
Pionero en
Esto es lo que realmente significa "autónomo".
Y apenas estamos comenzando. 🚀
5,2K
Monero $XMR, un proyecto de criptomoneda de privacidad con una capitalización de mercado de 6 mil millones, ¿fue atacado por un pequeño proyecto @_Qubic_ con solo 300 millones de capitalización? WTF, no es que la tecnología sea tan impresionante, sino que esto es simplemente absurdo. Vamos, déjame explicarte:
—— ¿Quién es Qubic?
Antes de contar esta historia mágica, primero hay que hablar de qué es Qubic.
El fundador de Qubic es Sergey Ivancheglo, conocido en el círculo como Come-from-Beyond, un loco de la tecnología: creó la primera blockchain PoS, NXT, y también desarrolló la primera arquitectura DAG, IOTA. En 2022, se lanzó la mainnet de Qubic, que afirma que hará tres cosas: construir una cadena ultrarrápida con 15.5 millones de transacciones por segundo (20,000 veces más rápido que Visa), convertir la potencia de minería en potencia de entrenamiento de IA, y finalmente lograr la inteligencia artificial general (AGI) en 2027 (ni OpenAI se atreve a decir eso). Suena mágico, ¿verdad? ¿Por qué tienen tales ambiciones?
Todos saben que la minería tradicional PoW ha sido criticada por el desperdicio de electricidad, ya que la mayoría de los mecanismos de minería hacen que los mineros utilicen potencia eléctrica para resolver problemas matemáticos y obtener recompensas, lo que equivale a desperdiciar potencia para obtener recompensas.
El nuevo consenso de Qubic es la prueba de trabajo útil (UPow), que permite a los mineros minar en la cadena PoW mientras, bajo la dirección de un contratista, también entrenan su sistema de IA AIGarth, lo que significa que con una sola potencia pueden ganar dos recompensas.
Por eso pudieron comprar fácilmente a los mineros de Monero, ya que las ganancias para los mineros alcanzaron hasta tres veces las de minar XMR directamente. Piensa en ello, los mineros pueden obtener más beneficios, ¿qué lealtad puede haber ante el "interés"?
Bien, hasta aquí la lógica subyacente del ataque vampírico a Monero ha sido explicada sin ningún contenido técnico.
—— Un poco de información sobre por qué Monero y no Bitcoin
La respuesta radica en la diferencia en los métodos de minería.
Bitcoin utiliza máquinas de minería ASIC, que son máquinas personalizadas diseñadas específicamente para minar BTC, y no pueden hacer nada más que resolver problemas matemáticos SHA-256, o solo pueden minar monedas similares a BTC. Pero el problema es que la demanda de potencia para minar BTC es tan alta que los mineros no pueden dividirse (funcionando 24 horas al día), y además, no hay forma de que un ASIC entrene IA.
Monero es diferente, utiliza el algoritmo RandomX, que permite la minería con CPU genéricas, lo que significa que sus mineros pueden minar hoy, entrenar IA mañana y renderizar videos al día siguiente, pudiendo desempeñar múltiples roles.
La inteligencia de Qubic radica en esto: apuntaron a los mineros de CPU, permitiéndoles "usar una máquina para dos propósitos", lo que llevó a este ataque o control del 51% de la potencia. En cambio, la muralla de Bitcoin es muy sólida, los mineros están atrapados en la minería con máquinas ASIC limitadas, solo pueden aferrarse a Bitcoin;
—— La potencia se convirtió en mercenarios
¿Cuál es el impacto de esto? Rompe el último velo de vergüenza de algunas cadenas PoW, porque siempre decimos que la "potencia" es la muralla de una cadena, cuanto mayor es la potencia, más segura es, pero Qubic nos mostró con un experimento sorprendente que para las monedas que utilizan minería CPU/GPU, la potencia es como mercenarios, se van con quien más paga.
Lo más sorprendente es que, después de demostrar que pueden derrotar a Monero, Qubic se retiró. ¿Por qué? Tienen miedo de hacer que Monero colapse por completo y afectar sus propios beneficios. Porque una gran parte de las ganancias de tres veces proviene de minar XMR, $QUBIC es solo un token adicional como recompensa; si Monero colapsa, Qubic tampoco podrá salir ileso. Es mejor retirarse con elegancia, hacer un gran evento de marketing y humillar a los antiguos defensores de PoW, esa sensación de "puedo matarte pero no lo haré" es similar a su lema de AGI, ¿no refleja una actitud desenfrenada?
—— ¿La IA es realmente el sepulturero de PoW?
Sin embargo, dejando de lado el impacto del evento de Monero, esto es en realidad una gran mala noticia para la mayoría de las cadenas PoW de hardware genérico, porque si estas cadenas van a fracasar, no será por PoS, sino por la IA.
¿Por qué digo esto? Antes, la potencia era "sólida", cada uno se centraba en su propio negocio, pero en la era de la IA, la potencia se ha "liquefaccionado" por completo; la potencia de CPU y GPU fluye como agua, solo irá a donde haya mayores beneficios, y los "mineros" de los que dependían para sobrevivir podrían rebelarse en cualquier momento.
Aunque Qubic no fue el villano, si el experimento tiene éxito, no se puede evitar que algunos competidores utilicen este método para realizar ataques maliciosos, como hacer cortos en una moneda y luego alquilar el 51% de la potencia para atacar, y cuando el precio de la moneda se desploma, obtienen beneficios. Las cadenas de este tipo solo tienen dos caminos: o se convierten en BTC y sellan a los mineros, o continúan minando con CPU/GPU y rezan para no ser atacados.
Honestamente, hay muchas de estas monedas, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... así que ves, no es solo un par de monedas, sino que todo el ecosistema de minería CPU/GPU está al borde del abismo.
Lo que es preocupante es que la demanda de potencia de IA está creciendo exponencialmente, y han surgido tantas plataformas de agregación de potencia de IA; si todos comienzan a perturbar el mercado ofreciendo precios exorbitantes y recompensas para comprar potencia, es probable que muchas cadenas PoW vean colapsar sus defensas de seguridad.
—— Una paradoja irónica
La razón por la que digo que esto es absurdo es que Qubic es en sí misma una cadena de IA; su supuesto experimento de ataque a Monero, incluso si se retira, no puede evitar autolesionarse. La razón es simple: cualquier cadena de IA que necesite potencia no debería usar PoW como consenso. Porque si la potencia se utiliza para mantener la seguridad, la IA no puede ser entrenada; si la potencia se utiliza para entrenar IA, la cadena no es segura.
Por lo tanto, la mayoría de los proyectos de IA, Bittensor usa PoS, Render usa un sistema de reputación, casi nadie se atreve a tocar PoW, todos son conscientes de esto, pero Qubic simplemente mostró su talón de Aquiles de manera tonta.
La maniobra de Qubic, aunque parece un evento técnico, en esencia le dio una lección a toda la industria Crypto: en la era de la libre circulación de potencia, la lealtad es un lujo, y la mayoría de las cadenas PoW no pueden permitirse ese precio.
Qubic demostró con este ataque que el PoW tradicional puede ser fácilmente derribado por incentivos económicos. Aunque se autodenominan "PoW útil", en esencia también dependen de estas potencias "mercenarias" que pueden ser compradas en cualquier momento por alguien que ofrezca un precio más alto.
Los revolucionarios también pueden ser derrocados por el próximo revolucionario.
Nota: Más allá de lo absurdo y del desconocido pánico que sienten algunas cadenas PoW, hay dos hechos que todos pueden confirmar: 1. BTC es realmente impresionante; 2. @VitalikButerin realmente tiene visión de futuro.
Solo estoy dando una breve explicación, espero más detalles técnicos de @evilcos.

38,93K
Todos gritan que el toro ha llegado, pero ¿se puede saber que esta ola de búsqueda de Alpha y Beta en el mercado tiene una metodología completamente diferente? Aquí algunas observaciones:
1) OnChain + OffChain TradiFi se convierte en la narrativa principal:
Infraestructura de stablecoins: las stablecoins se convierten en la "sangre" que conecta las finanzas tradicionales con la infraestructura DeFi, bloqueando el flujo intercadena de stablecoins, las diferencias de APY Yield y la expansión de nuevas innovaciones;
Efecto "coin-stock" de BTC/ETH: la tendencia de que las empresas que cotizan en bolsa incluyan activos criptográficos en su balance se está consolidando, y encontrar activos de calidad con potencial de "activos de reserva" se vuelve clave;
El surgimiento de nuevas vías de innovación hacia Wall Street: protocolos DeFi diseñados específicamente para instituciones, productos de ingresos conformes y herramientas de gestión de activos en cadena atraerán enormes cantidades de capital. El antiguo "Code is Law" se ha convertido en el nuevo "Compliance is King";
2) La narrativa pura y nativa de Crypto acelera la eliminación de lo falso:
El ecosistema de Ethereum está experimentando una ola de renacimiento: el precio de $ETH superando los niveles anteriores reavivará la narrativa técnica del ecosistema de Ethereum, reemplazando la antigua estrategia centrada en Rollup por una nueva centrada en ZK;
Competencia de alto rendimiento entre Layer1: ya no se trata de una carrera de TPS, sino de quién puede atraer actividades económicas reales, con indicadores clave que incluyen: proporción de TVL de stablecoins, tasa de rendimiento APY nativa, profundidad de colaboración institucional, etc.;
El ocaso de las altcoins: la existencia generalizada de una temporada de altcoins enfrenta el problema fundamental de la falta de impulso de capital, y algunas altcoins pueden experimentar un rebote temporal, cuyas características incluyen: concentración de tokens, actividad de la comunidad, y la capacidad de aprovechar nuevos conceptos como AI/RWA;
3) Las monedas MEME evolucionan de herramientas especulativas a estándar del mercado:
Eficiencia de capital: las altcoins tradicionales tienen una capitalización de mercado inflada y liquidez agotada, las monedas MEME, con su lanzamiento justo y alta rotación, se convierten en las nuevas favoritas del capital, capturando gran parte del mercado de altcoins moribundas;
Dominio de la economía de la atención: la influencia de los KOL, la construcción de la cultura comunitaria y el modelo FOMO siguen siendo la competencia central, y la distribución de liquidez sigue la ley de la atención;
Nuevos indicadores de fuerza de las cadenas públicas: la actividad del mercado de monedas MEME será un estándar importante para medir la fuerza integral de las cadenas públicas.
21,96K
¿Está llegando el sistema Swift al mundo de la blockchain? @mindnetwork ha lanzado un protocolo de mensajería encriptada en cadena basado en la tecnología FHE, intentando construir una infraestructura similar al sistema de mensajería interbancaria tradicional para activos financieros tradicionales. ¿De qué se trata exactamente?
1) Mind Network es un proveedor de tecnología vertical de FHE (Fully Homomorphic Encryption). Dado que esta tecnología aborda principalmente problemas relacionados con la privacidad y la encriptación, puede aportar valor de manera flexible en ZK, DePIN, IA y en la actual y popular pista de RWA.
En la pila de tecnología ZK, FHE puede servir como un complemento importante para las pruebas de conocimiento cero, proporcionando protección de privacidad en diferentes dimensiones. En la red DePIN, FHE puede proteger los datos sensibles de dispositivos distribuidos, al mismo tiempo que permite que la red realice cálculos colaborativos necesarios. En el ámbito de los Agentes de IA, FHE permite que la IA se entrene y razone sin revelar los datos de privacidad del usuario, lo cual es crucial para aplicaciones de IA en sectores sensibles como finanzas y salud.
En la dirección de RWA, FHE puede resolver los puntos de dolor de cumplimiento al llevar activos financieros tradicionales a la cadena. ¿Cómo se entiende esto?
La blockchain carece de una "capa semántica" de forma natural; los registros de transacciones que solo contienen direcciones y montos no satisfacen las necesidades de las operaciones financieras en cuanto a propósito de la transacción, contexto contractual, identificación, entre otros. El protocolo de mensajería encriptada en cadena de Mind Network puede agregar un "campo de notas encriptadas" a cada transacción en blockchain, permitiendo la transmisión segura de información sensible como certificados de propiedad, cartas de crédito, autorizaciones de voz, protegiendo así la privacidad y cumpliendo con los requisitos de auditoría regulatoria.
2) Desde una perspectiva técnica, esta solución puede actualizar la billetera Web3 de ser una simple herramienta de transferencia a una identidad de comunicación encriptada. En la cadena tradicional, o se depende de instituciones centralizadas para manejar información de cumplimiento, o la información es completamente pública y transparente, lo cual no es una solución ideal.
Con la solución de cumplimiento de privacidad respaldada por FHE, los escenarios de aplicación son muy claros: por ejemplo, en los pagos transfronterizos con stablecoins, se puede encriptar la transmisión del propósito de la transacción y la información KYC al mismo tiempo que se realiza la transferencia, permitiendo a las autoridades reguladoras verificar el cumplimiento sin obtener el texto en claro; otro ejemplo sería en las transacciones de tokenización de bienes raíces, donde se pueden encriptar y vincular documentos sensibles como informes de evaluación y contratos de compra-venta a la transacción en cadena, logrando así la circulación de activos y protegiendo la privacidad comercial.
El FHE Bridge de Mind Network ha acumulado 650,000 direcciones activas y 3.2 millones de transacciones encriptadas, lo que demuestra la viabilidad de la solución técnica. Por supuesto, estos datos solo apuntan y verifican una demanda de mercado suficientemente rígida; en cuanto a las perspectivas y el espacio del mercado, probablemente aún sea difícil de discernir.
3) Muchos constructores de blockchain puramente nativos han estado ansiosos por la dirección y la pista de construcción. Ya sea hacia vitalik, hacia VC, o simplemente por la narrativa de Fomo, creo que a partir de ahora deben ceder el paso hacia Wall Street, aprovechando la amigabilidad regulatoria del gobierno de EE. UU. hacia las criptomonedas, y proporcionar en la medida de lo posible la infraestructura básica y los servicios de herramientas necesarios para que Wall Street ingrese al ámbito de las criptomonedas, todo bien.
Cuando gigantes financieros tradicionales como BlackRock y JPMorgan están activamente posicionándose en la tokenización de activos, lo que más les preocupa no es si la blockchain puede transferir, sino si puede cumplir con estándares regulatorios como KYC y AML. Esta es precisamente la razón real por la que Mind Network está posicionándose anticipadamente en la pista de RWA. Supongamos que el mercado de RWA podría alcanzar un tamaño de 30 billones de dólares para 2034, ¿cómo será la demanda de infraestructura de cumplimiento en ese volumen?
Por supuesto, todos pueden tener expectativas sobre cómo compartir el pastel del mercado azul de RWA. Pero en realidad, lo más crucial es encontrar la posición adecuada en el ecosistema, así como en la era de la computación en la nube AWS proporciona computación y Cloudflare proporciona CDN, la infraestructura de blockchain también está avanzando hacia una segmentación vertical, y algunas direcciones de servicios técnicos verticales y duros también tendrán que encontrar su especialización.
Evidentemente, Mind Network se centra en la pila de tecnología FHE, proporcionando capacidades de "encriptación como servicio" para diferentes pistas. Por lo tanto, no es sorprendente ver su presencia en las pistas de ZK, IA y RWA.
Por supuesto, el valor de los proveedores de tecnología finalmente dependerá del grado de explosión de las aplicaciones en la parte inferior. Ya sea la expectativa de 30 billones de dólares de RWA o el proceso de autonomía de los Agentes de IA, aún necesitarán tiempo para ser validados.

Mind Network7 ago, 16:50
✉️ Mensajería Encriptada Onchain
Los Activos del Mundo Real (#RWAs) como bienes raíces, liquidaciones de stablecoins y finanzas transfronterizas requieren más que solo transferencia de valor.
Estos casos de uso dependen de transacciones que llevan propósito, identidad y trazabilidad con cumplimiento y privacidad.
#SWIFT estandariza mensajes para cumplimiento y liquidación. Las blockchains aún carecen de una forma nativa encriptada para expresar estos atributos.
La Mensajería Encriptada Onchain es un nuevo protocolo que permite a las billeteras enviar mensajes encriptados, estructurados y verificables directamente junto a cualquier transacción onchain.
✅ Texto autoestructurado para claridad semántica
✅ Generación de claves basada en billeteras para encriptación de extremo a extremo
✅ Mensajes encriptados vinculados a transacciones con trazabilidad y control de acceso
La Mensajería Encriptada Onchain combina la Encriptación Totalmente Homomórfica (#FHE) con técnicas criptográficas convencionales para convertir datos sensibles en cargas útiles seguras onchain, accesibles solo para los destinatarios previstos.
Aprende más:

6,91K
Recientemente, en el canal de YouTube "The Rollup", la CEO de @TrustWallet, Eowyn Chen, tuvo una discusión con Ram Kumar, un contribuyente clave de @OpenledgerHQ, sobre la profunda colaboración entre ambas partes. A continuación, se extraen algunos puntos valiosos para compartir:
1) Se le echó un poco de agua fría a la teoría del "monedero gordo"
Durante la entrevista, Andy mencionó la popular teoría del "monedero gordo" en la industria: ¿un monedero que tiene canales de usuarios puede integrar verticalmente varios servicios? Pero la respuesta de Eowyn Chen fue muy interesante, ya que afirmó que el negocio de usuarios minoristas en el lado del consumidor es en realidad muy difícil, ya que implica un gran soporte al cliente, una mayor responsabilidad de seguridad y ajustes frecuentes en la hoja de ruta del producto, entre otros.
Mucha gente ve los 200 millones de descargas de Trust Wallet y piensa que hacer un monedero es un buen negocio, pero la CEO enfatiza el dolor de servir a los usuarios minoristas. Esto indica que el "gordo" del monedero no se puede lograr solo con desearlo; aunque las relaciones con los usuarios son valiosas, el costo de mantenimiento no es bajo. Este punto es bastante realista y explica la verdadera situación de muchos proveedores de servicios de monederos en la actualidad.
Lo más importante es que ella mencionó que no todo el valor se concentra en la parte frontal, y que todas las partes de la cadena de valor deben desarrollarse de manera justa. Este punto le echó un poco de agua fría a la teoría del "monedero gordo" y también explica por qué Trust Wallet está dispuesta a colaborar con proyectos de infraestructura como OpenLedger.
2) ¿Ha llegado el punto de inflexión para la IA especializada?
La evaluación de Ram Kumar sobre la trayectoria del desarrollo de la IA merece atención. Él cree que la IA está evolucionando de la generalidad a la especialización, similar a cómo Google derivó aplicaciones verticales como LinkedIn y YouTube a partir de la búsqueda general. La IA general como ChatGPT será como un sistema operativo, y en el futuro habrá más "modelos especializados" diseñados para casos de uso específicos.
Esto coincide con la lógica que analicé anteriormente sobre la evolución de las tendencias en la industria web3AI. Trust Wallet, al intentar funciones de IA, descubrió que los modelos generales no podían resolver problemas específicos en el campo de las criptomonedas, lo que confirma esta tendencia. Precisamente, la construcción de modelos de IA especializados requiere datos de alta calidad en áreas verticales, que es el problema que OpenLedger quiere resolver.
3) La trampa del "trabajo no remunerado" en la contribución de datos
Ram Kumar afirmó que la IA es "una industria de billones de dólares construida sobre la base del trabajo no remunerado", y esta crítica es bastante aguda. Las empresas de IA entrenan modelos a través de la captura de datos de Internet, pero los contribuyentes de datos no obtienen nada a cambio, lo que es un problema estructural.
La solución de OpenLedger es permitir que los contribuyentes de datos obtengan una participación en los beneficios a largo plazo de los modelos de IA, en lugar de vender datos de una sola vez. Combinado con la capacidad de pago global del monedero, teóricamente se puede lograr una distribución de valor sin fricciones a través de fronteras.
Pero aquí hay un problema central: ¿cómo se garantiza la calidad de los datos? Ram mismo admitió que el 90% de las contribuciones de código abierto en plataformas como Hugging Face no son útiles. Si los datos que se contribuyen tienen un valor limitado, ningún mecanismo de incentivos será efectivo.
Eso es todo.
Eowyn Chen utilizó la analogía del "derecho a portar armas" para referirse a la autogestión, enfatizando que la función de IA es opcional y que los usuarios pueden elegir entre conveniencia y seguridad. Esta filosofía de producto es correcta, pero cómo "presentar claramente las opciones" pone a prueba la capacidad de diseño del producto.
Ram también mencionó un juicio interesante: el monedero de criptomonedas es la única forma en que los usuarios pueden obtener recompensas por la contribución de datos a nivel global. Esto significa que el papel del monedero podría evolucionar de ser una simple herramienta de gestión de activos a convertirse en una infraestructura para la identidad digital y la distribución de valor.
Nota: Si deseas saber más, puedes visitar el canal de YouTube de The Rollup para ver esta entrevista.


The Rollup5 ago, 08:31
NUEVO EP: La Nueva Era de la Distribución con Ram Kumar y Eowyn Chen
En el episodio de hoy, @ayyyeandy se sienta con @Ramkumartweet de @OpenledgerHQ y @EowynChen de @TrustWallet para explorar:
>La "Teoría de la Billetera Gorda" vs Teoría del Protocolo Gordo
>Cómo Trust Wallet Planea Integrar IA
>Los Riesgos de Seguridad de las Billeteras Impulsadas por IA
>La Visión de OpenLedger para Recompensar a los Contribuyentes de Datos
>Por Qué la IA Genérica Nunca Funcionará para DeFi
Enlaces del episodio completo a continuación.
Tiempos:
00:00 Introducción
00:20 Antecedentes en Cripto y IA de Ram y Eowyn
02:50 Valor del Usuario de Trust Wallet
07:43 Anuncio de Starknet
08:10 OpenLedger sobre la Evolución de la IA
11:03 Futuro de las Interfaces de Billetera
17:12 Límites de Custodia Propia de IA
21:22 Anuncio de Mantle
22:02 Entrenando Mejores Modelos de IA
28:19 Qué Sigue para OpenLedger y Trust Wallet
5,18K
Después de pensarlo detenidamente, la última declaración de @VitalikButerin sobre la rápida retirada de L2 es bastante interesante. En términos simples: él cree que lograr retiros rápidos en menos de una hora es más importante que alcanzar la Etapa 2, y la lógica detrás de este cambio de prioridad merece una profunda reflexión:
1) El período de espera de una semana para los retiros se ha convertido en un gran problema en la práctica, no solo por la mala experiencia del usuario, sino que lo más crítico es que ha elevado los costos de las transacciones entre cadenas.
Por ejemplo, en soluciones de puente basadas en intenciones como ERC-7683, los proveedores de liquidez deben asumir un costo de ocupación de capital de una semana, lo que eleva directamente los costos de las transacciones entre cadenas. El resultado es que los usuarios se ven obligados a elegir confiar en soluciones de múltiples firmas con supuestos más débiles, lo que contradice precisamente el propósito de L2.
Por lo tanto, Vitalik propuso un sistema de prueba híbrido 2-de-3 (ZK+OP+TEE), donde ZK y TEE pueden proporcionar inmediatez, y TEE y OP tienen suficiente verificación de producción. Teóricamente, cualquier par de sistemas puede garantizar la seguridad, evitando así el costo de tiempo de esperar a que la tecnología ZK madure completamente.
2) Además, hay un punto: ¿la nueva declaración de Vitalik sugiere que se ha vuelto más pragmático? De ser un joven idealista que hablaba de "guerra de descentralización" y "resistencia a la censura", ahora se ha convertido en un pragmático que da indicadores duros: retiros en 1 hora, finalización en 12 segundos, todo se ha vuelto simple y directo.
Antes, todos estaban compitiendo por el grado de descentralización de la Etapa 2, ahora V God dice directamente que los retiros rápidos son más importantes, lo que equivale a reordenar las prioridades de toda la pista de L2. Esto, en realidad, está preparando el camino para la forma final de la estrategia "Rollup-Centric", permitiendo que Ethereum L1 se convierta en una capa de liquidación unificada y un centro de liquidez. Una vez que se logren retiros rápidos + agregación entre cadenas, será mucho más difícil para otras cadenas públicas desafiar el ecosistema de Ethereum.
La razón por la que pequeño V actúa así es que el mercado ya le ha votado con los pies, el mercado no se preocupa por los lemas técnicos de descentralización, se enfoca más en la experiencia y la eficiencia. Esta transición de "impulsado por ideales" a "orientado a resultados" refleja que todo el ecosistema de Ethereum está evolucionando hacia una dirección más comercial y competitiva.
3) La pregunta es, para alcanzar los objetivos a largo plazo de experiencia real y construcción de infraestructura, es probable que el ecosistema de Ethereum en el futuro compita en la madurez de la tecnología ZK y el control de costos.
Desde la situación actual, aunque la tecnología ZK está avanzando rápidamente, el costo sigue siendo una restricción real. Las pruebas ZK de 500k+ gas significan que a corto plazo solo se puede lograr una frecuencia de presentación a nivel de horas; para alcanzar el objetivo final de 12 segundos, aún se necesita depender de avances en la tecnología de agregación.
La lógica aquí es clara: el costo de presentar pruebas de un solo Rollup con frecuencia es demasiado alto, pero si las pruebas de N Rollups pueden agregarse en una sola, el costo se puede distribuir a cada slot (12s), lo que se vuelve económicamente viable.
Esto también plantea nuevas rutas tecnológicas para la competencia de L2; aquellos proyectos de L2 que logren avances en la optimización de pruebas ZK pueden encontrar su lugar, mientras que aquellos que sigan insistiendo en las pruebas optimistas de Optimism probablemente se perderán en la dirección.

vitalik.eth7 ago, 00:29
Es asombroso ver que ahora hay tantas L2 importantes en la etapa 1.
El siguiente objetivo al que deberíamos aspirar es, en mi opinión, tiempos de retiro rápidos (<1h), habilitados por sistemas de prueba de validez (también conocidos como ZK).
Considero que esto es incluso más importante que la etapa 2.
Los tiempos de retiro rápidos son importantes porque esperar una semana para retirar es simplemente demasiado tiempo para las personas, y incluso para el puente basado en intenciones (por ejemplo, ERC-7683), el costo de capital se vuelve demasiado alto si el proveedor de liquidez tiene que esperar una semana. Esto crea grandes incentivos para usar soluciones con supuestos de confianza inaceptables (por ejemplo, multisigs/MPC) que socavan todo el propósito de tener L2 en lugar de L1s completamente independientes.
Si podemos reducir los tiempos de retiro nativos a menos de 1h a corto plazo, y 12s a medio plazo, entonces podemos consolidar aún más el L1 de Ethereum como el lugar predeterminado para emitir activos y el centro económico del ecosistema de Ethereum.
Para lograr esto, necesitamos alejarnos de los sistemas de prueba optimistas, que inherentemente requieren esperar varios días para retirar.
Históricamente, la tecnología de prueba ZK ha sido inmadura y costosa, lo que hizo que las pruebas optimistas fueran la opción inteligente y segura. Pero recientemente, esto está cambiando rápidamente. es un excelente lugar para seguir el progreso de las pruebas ZK-EVM, que han estado mejorando rápidamente. La verificación formal en las pruebas ZK también está avanzando.
A principios de este año, propuse una estrategia de sistema de prueba 2 de 3 ZK + OP + TEE que hila la aguja entre seguridad, velocidad y madurez:
* 2 de 3 sistemas (ZK, OP) son sin confianza, por lo que ningún actor único (incluido el fabricante de TEE o un atacante de canal lateral) puede romper el sistema de prueba al violar un supuesto de confianza
* 2 de 3 sistemas (ZK, TEE) son instantáneos, por lo que obtienes retiros rápidos en el caso normal
* 2 de 3 sistemas (TEE, OP) han estado en producción en varios contextos durante años
Este es un enfoque; quizás la gente opte por hacer un desempate ZK + ZK + OP, o ZK + ZK + consejo de seguridad. No tengo opiniones fuertes aquí, me importa el objetivo subyacente, que es ser rápido (en el caso normal) y seguro.
Con tales sistemas de prueba, el único cuello de botella restante para un asentamiento rápido se convierte en el costo de gas de enviar pruebas en la cadena. Por eso digo a corto plazo una vez por hora: si intentas enviar una prueba ZK de 500k+ gas (o un STARK de 5m gas) mucho más a menudo, añade un alto costo adicional.
A largo plazo, podemos resolver esto con agregación: N pruebas de N rollups (más txs de usuarios de protocolos de privacidad) pueden ser reemplazadas por una sola prueba que demuestra la validez de las N pruebas. Esto se vuelve económico de enviar una vez por slot, habilitando el juego final: movimiento nativo casi instantáneo de activos entre L2 a través del L1.
Trabajemos juntos para hacer que esto suceda.
14,16K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado