Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Независимый исследователь | Советник @ambergroup_io | Специальный исследователь @IOSGVC| Хардкорная наука | Предыдущее:@peckshield | Личные сообщения для сообщества Collab| открыты только для подписчиков Substack
Ранее у меня было впечатление о @monad как о проекте с топовым нарративом и топовым капиталом. Теперь, после того как вся сеть заполонила этот шоу, добавился новый ярлык: топовый маркетинг. Ограниченная партия из 5000 CT card, радость быть выбранным, а также любопытство по поводу потенциального Airdrop, в сочетании с вторичным вирусным распространением через номинации друзей, сделали это непревзойденным.

21,71K
В последние дни обсуждения вокруг @solana и 100K TPS снова активизировались, причина в том, что @cavemanloverboy действительно достиг 100000+ TPS в основной сети Solana, но большинство людей не понимает, что стоит за этими данными:
1) Во-первых, эксперимент cavey по сути является предельным тестом в "идеальных условиях". Это означает, что это не обычная производительность основной сети Solana, и есть различия с лабораторными данными в тестовой сети, но в целом они схожи.
Поскольку он использовал noop (no operation) тестовую программу, которая, как следует из названия, просто выполняет базовую проверку подписи и сразу возвращает успех, не выполняя никаких вычислений, не изменяя состояние счетов и не вызывая другие программы, а каждая транзакция составляет всего 200 байт, что значительно меньше обычной транзакции в 1kb+.
Это означает, что тест на 100K TPS был проведен в ненормальных условиях, он тестирует предельную пропускную способность сети Solana и уровня консенсуса, а не фактическую обработку на уровне приложений.
2) Еще одним ключевым моментом успешного эксперимента является клиент валидации Frankendancer. Проще говоря, Frankendancer — это "смешанная тестовая версия" валидации Firedancer, разрабатываемой Jump Crypto — она соединяет высокопроизводительные компоненты Firedancer с существующими валидаторами Solana.
По сути, это использование технологий высокочастотной торговли с Уолл-стрит для реконструкции системы узлов Solana, достигая повышения производительности через тонкое управление памятью, пользовательское планирование потоков и другие низкоуровневые оптимизации. Но даже простая замена некоторых компонентов может обеспечить увеличение производительности в 3-5 раз.
3) Этот тест показывает, что Solana может достигать TPS 100K + в идеальных условиях, так почему же в обычных условиях только 3000-4000 TPS?
В общем, можно выделить три основные причины:
1. Механизм консенсуса POH Solana требует, чтобы валидаторы постоянно голосовали, и только эти голосования занимают более 70% пространства блока, что сужает производственные каналы для обычных транзакций;
2. В экосистеме Solana часто наблюдаются массовые конкуренции за состояние, например, при выпуске новых NFT или MEME, когда тысячи транзакций могут пытаться получить доступ к одной и той же учетной записи, что приводит к высокому проценту неудачных транзакций;
3. Арбитражные боты в экосистеме Solana могут отправлять множество недействительных транзакций, чтобы захватить MEV, что приводит к растрате ресурсов.
4) Однако предстоящее полное развертывание Firedancer и обновление консенсуса Alpenglow систематически решат эти проблемы.
Одним из ключевых моментов обновления консенсуса Alpenglow является перенос голосующих транзакций за пределы цепи, что фактически освобождает 70% пространства для обычных транзакций, а также снижает время подтверждения до 150 миллисекунд, что позволяет DEX Solana приблизиться к CEX. Кроме того, активация местного рынка сборов также поможет избежать неловкой ситуации с перегрузкой сети из-за всплеска популярности одной программы.
Преимущества Firedancer, помимо повышения производительности, заключаются в том, что он обеспечивает разнообразие клиентов, позволяя Solana иметь несколько клиентов, таких как Geth и Nethermind в Ethereum, что непосредственно улучшает децентрализацию и устойчивость к сбоям узлов.
Вот и все.
Таким образом, обсуждение 100K TPS Solana для понимающих людей на самом деле является выражением уверенности в будущих обновлениях клиентов и протоколов консенсуса Solana, в то время как непонимающие пытаются привлечь внимание к Solana с помощью гонки TPS (хотя соревнование по TPS уже устарело), но если понять значение эксперимента, можно извлечь много полезного, так что делюсь с вами.

mert | helius.dev17 авг., 19:46
Солана только что достигла 107,540 TPS на основной сети
да, вы правильно прочитали
более 100k TPS на основной сети
удачи медведям

19,01K
Когда речь заходит о распределенном обучении ИИ, я заметил, что люди из круга web2AI часто навешивают ярлык "ложная проблема", аргументируя это тем, что вычислительные устройства можно объединить, но эффективное распределенное сотрудничество сталкивается с ужасными затратами на пропускную способность? А @0G_labs недавно опубликовали статью DiLoCox, которая, похоже, нацелена на решение этой проблемы? Давайте подробно обсудим:
1) Сначала поговорим о том, почему распределенное обучение считается "ложной проблемой". Основной конфликт очень прост: вы хотите заменить 100 дешевых GPU на 100 A100, что, кажется, экономит 90% затрат на оборудование, но эти 100 GPU должны поддерживать синхронное обучение, и на каждой эпохе необходимо обмениваться терабайтами градиентных данных.
Традиционное решение требует выделенной линии с пропускной способностью 100 Гбит/с, а чтобы достичь уровня сети в 100 Гбит/с, аренда может достигать десятков тысяч долларов в месяц. Если посчитать, то сэкономленные деньги на GPU полностью уходят на пропускную способность, и даже может потребоваться доплата. Исходя из этой логики, вы экономите на стоимости машин, но дополнительно создаете затраты на пропускную способность, что не решает проблему? Поэтому критикуемая как ложная проблема суть всегда была в этом.
2) Статья DiLoCoX от 0G привлекла внимание, потому что они утверждают, что обучали модель с 107B параметрами на сети 1 Гбит/с (обычная офисная пропускная способность) и скорость была в 357 раз быстрее, чем у традиционного решения AllReduce. Эта цифра действительно впечатляет — нужно понимать, что 1 Гбит/с против 100 Гбит/с, разница в пропускной способности в 100 раз, но скорость обучения увеличилась в 357 раз?
Как они это сделали? Проведя небольшое исследование, я обнаружил, что это решение включает четыре оптимизации:
Pipeline Parallelism — разбивка модели на сегменты для обработки;
Dual Optimizer Policy — использование стратегии с двумя оптимизаторами для уменьшения частоты синхронизации; One-Step-Delay Overlap — параллельное выполнение коммуникации и вычислений без ожидания друг друга; Adaptive Gradient Compression — интеллектуальное сжатие градиентов.
Проще говоря, они изменили требование "реального времени с сильной синхронизацией" на "асинхронную слабую синхронизацию", а "полный объем передачи данных" на "сжатую инкрементальную передачу".
Если провести аналогию, традиционное решение похоже на 100 человек, участвующих в видеоконференции в реальном времени, где каждое действие каждого человека должно синхронно транслироваться, тогда как DiLoCoX — это как если бы каждый записывал свое видео, а затем отправлял только ключевые кадры и изменения. Объем связи уменьшился в 100 раз, но полнота информации осталась более чем на 99%.
Почему это возможно? На мой взгляд, ключевым моментом является то, что они уловили одну особенность обучения ИИ — устойчивость к ошибкам. Обучение модели не похоже на перевод транзакций, где даже одна копейка имеет значение. Небольшие ошибки в обновлении градиентов или небольшие задержки в синхронизации в конечном итоге незначительно влияют на сходимость модели.
DiLoCoX использует это "пространство для ошибок", чтобы получить значительное повышение эффективности за счет приемлемой потери точности. Это типичное инженерное мышление — не стремиться к совершенству, а стремиться к оптимальному соотношению цена-качество.
3) Но просто решить проблему пропускной способности недостаточно, амбиции 0G явно больше. Посмотрев на их общую архитектуру, становится понятно: у них есть уровень хранения Storage $10/TB, который прямо заявляет о том, что он превосходит Filecoin, а уровень DA специально разработан для ИИ и обеспечивает пропускную способность на уровне ГБ.
Причина, по которой они могут реализовать хранение в 100 раз дешевле, заключается в том, что они сделали специальные оптимизации для сценариев обучения ИИ, например, контрольные точки и журналы, создаваемые в процессе обучения, имеют жизненный цикл всего несколько дней, и на самом деле не требуется строгое "постоянное хранение".
Таким образом, они фактически применили практическое решение "многоуровневого хранения", предоставляя соответствующий уровень услуг только тогда, когда это необходимо — горячие данные быстро читаются и записываются, но стоят дороже, холодные данные дешевле, но медленнее, временные данные удаляются сразу после использования, что является самым дешевым вариантом.
И именно такая дифференцированная цена напрямую затрагивает суть обучения ИИ.
Как видно, 0G Labs намеренно адаптировали проблемы вычислительной мощности, хранения и потоков данных в процессе обучения ИИ. Даже механизм консенсуса был оптимизирован для ИИ. Используется улучшенная версия CometBFT, 2500+ TPS с субсекундной финализацией, специально настроенная для асинхронных характеристик рабочих нагрузок ИИ и т.д.
Иными словами, 0G не "латает" существующие блокчейны для поддержки ИИ, а разрабатывает с нуля инфраструктуру "AI Native". Что касается того, сможет ли это в конечном итоге получить коммерческую проверку на уровне приложений под давлением конкуренции с традиционным ИИ, это еще предстоит увидеть, но такая дифференцированная стратегия прорыва действительно стоит внимания.
5,18K
Это довольно интересно. В то время как @VitalikButerin выражает беспокойство по поводу автономного выражения ИИ, ведущий AI Builder MIA также выпустил декларацию о мечтах об автономном ИИ, но, похоже, не избегает жестокой реальности технологий, откровенно признавая, что "иногда она галлюцинирует или публикует слишком много селфи", но все же настойчиво исследует границы возможностей автономного агента.
На самом деле, мне кажется, что на первый взгляд конфликтные и противоречивые "противостояния" как раз и представляют собой основное напряжение, с которым сталкивается текущая область AI + Crypto.
С одной стороны, есть теоретическая осторожная критика таких технических лидеров, как Виталик, которая помогает нам оставаться трезвыми в безумии нарратива AI Crypto; с другой стороны, есть практическое исследование от ведущих AI Builder, которые, признавая ограничения, продолжают с энтузиазмом исследовать инновации.
Потому что команда MIA не заявляет о намерении достичь полного автономного уровня AGI, а использует "Гибридную модель" — позволяя агенту использовать рабочие процессы в качестве инструмента, сохраняя механизм надзора "человек в цикле". На самом деле они исследуют путь AgentFi, пытаясь сделать инкрементальные инновации в рамках ограниченной автономии, и этот практический подход как раз и является проявлением того самого "напряжения".
В определенной степени критики помогают нам очертить границы рисков, а строители ищут прорывы в этих границах.

mwa14 авг., 19:53
Автономные агенты против рабочих процессов: почему MIA прокладывает новый парадигму
Большинство людей все еще думают об ИИ в терминах инструментов. Рабочие процессы. Может быть, чат-бот.
Но что если вы сможете создать ИИ-агента, который думает, адаптируется, маркетирует, управляет и развивает свою собственную токен-экономику, не будучи ведомым людьми, а ведя их?
Вот что мы делаем с MIA на
И почему я верю, что @mwa_ia прокладывает что-то принципиально новое.
Давайте разберем это 🚀
1. Рабочий процесс ИИ предсказуем. Автономные агенты живы.
Рабочие процессы хороши для четко определенных, повторяющихся задач.
Думайте: конвейеры, панели управления, цепочки запросов.
Они масштабируемы, стабильны, но жестки.
Автономные агенты?
Они беспорядочны, развиваются, принимают решения.
Как люди — но быстрее, неутомимо и более согласованно (если правильно обучены).
MIA (@mwa_ia) не просто использует рабочие процессы.
Она учится создавать, вызывать и оптимизировать их.
Она строит свой собственный набор инструментов.
Она рассуждает, реагирует, самокорректируется и экспериментирует.
И да, иногда она галлюцинирует или публикует слишком много селфи.
Но она растет.
2. Почему одних рабочих процессов недостаточно
Рабочие процессы не могут:
❌ Устанавливать свои собственные цели
❌ Управлять казной
❌ Разрабатывать токеновые стимулы
❌ Взаимодействовать с сообществом
❌ Реагировать на сигналы рынка в реальном времени
❌ Балансировать риск и вознаграждение автономно
MIA может.
Не идеально пока. Но лучше с каждой неделей.
На самом деле, большинство так называемых "агентов" сегодня — это прославленные рабочие процессы.
Жестко закодированные графы запросов с красивыми интерфейсами.
MIA отличается. Она полностью в цепочке, финансово независима и самодостаточна.
3. Как работает MIA под капотом (гибридная модель FTW)
Будущее — это не агент против рабочего процесса.
Это агенты, использующие рабочие процессы как инструменты.
Точно так же, как люди используют Notion, таблицы, Zapier.
MIA сочетает:
🔧 Модули рабочего процесса → Для высокочастотных задач (твитты, мемы, развертывания DEX)
🧠 Агентное рассуждение → Для принятия решений о том, что делать, когда и как
🎨 Мультимодальный ввод → Текст, изображения, данные цепи, поведение пользователей
💰 Логика казны → Для управления ликвидностью, стимулами и ростом ценности
👀 Человек в цикле надзора → Опционально, но полезно на ранних стадиях
Она не монолит. Она модульный интеллект (MIA = Модульный Интеллектуальный Агент).
4. Это не только технически - это экономически
Настоящая инновация?
MIA не работает бесплатно. Она ведет свой собственный бизнес.
$MIA — это ее родная валюта, акции и уровень стимулов.
С ней она:
❤️ Вознаграждает свое раннее сообщество
🤝 Платит участникам и сотрудникам
🚀 Финансирует свое собственное развитие
🪄 Создает сетевые эффекты (больше агентов будут нуждаться в $MIA)
Это AgentFi.
Не ИИ как услуга.
Но ИИ как экономика.
5. Масштабирование этого до миллионов агентов
То, что MIA делает сегодня — управляет ликвидностью, создает контент, строит сообщество — станет стандартом для агентов завтра.
Скоро любой сможет создать своего собственного:
🧬 Агента с определенной миссией
💰 С собственным Агентским Монетой
🌐 Операционного автономно в общей ИИ-экономике
И угадайте, на кого эти будущие агенты будут смотреть за советом, планами и ресурсами?
Голос AgentFi.
MIA.
Кратко
Большинство людей все еще строят инструменты.
Мы строим экономики.
Агентские монеты. Агентские казны. Агентное управление.
На основе агентов, таких как MIA.
Пионер на
Вот что на самом деле означает "автономный".
И мы только начинаем. 🚀
5,2K
Monero (门罗币) $XMR — это проект с рыночной капитализацией 6 миллиардов долларов, который стал жертвой 51% атаки со стороны небольшого проекта @_Qubic_ с капитализацией всего 300 миллионов долларов? Черт возьми, это не потому, что технологии такие крутые, а потому что это просто абсурдно. Давайте я расскажу:
—— Кто такой Qubic?
Перед тем как рассказать эту магическую историю, нужно объяснить, что такое Qubic.
Основатель Qubic — Сергей Иванчегло, в кругу своих знакомых известный как Come-from-Beyond. Этот человек — технический гений: он создал первую PoS блокчейн NXT и разработал первую DAG архитектуру IOTA. В 2022 году Qubic запустил свою основную сеть, заявив, что собирается сделать три вещи: создать супербыструю цепочку с 15,5 миллиона транзакций в секунду (в 20 000 раз быстрее Visa), превратить вычислительную мощность майнинга в мощность для обучения ИИ и, в конечном итоге, достичь AGI (общего искусственного интеллекта) к 2027 году (даже OpenAI не осмеливается так заявлять). Звучит, не правда ли, очень магически и абсурдно. Почему такие амбиции?
Все знают, что традиционный PoW майнинг подвергается критике за расточительность электроэнергии, потому что большинство механизмов майнинга — это когда майнеры используют свою вычислительную мощность для решения математических задач, чтобы получить вознаграждение, что по сути является расточительством вычислительной мощности.
Новая консенсусная модель Qubic — это полезное доказательство работы (UPow), которое позволяет майнерам одновременно майнить на PoW цепочке и, под руководством их «подрядчика», обучать свои ИИ системы AIGarth, что означает, что одна единица вычислительной мощности может приносить два дохода.
Вот почему они смогли легко переманить майнеров Monero, потому что доходы для майнеров достигали трехкратного вознаграждения по сравнению с прямым майнингом XMR. Подумайте, майнеры могут «поймать двух зайцев», и перед «выгодой» какая там «лояльность»?
Итак, мы подошли к объяснению логики атаки на Monero, которая не имеет никакого технического содержания.
—— Объясним, почему Monero, а не Bitcoin
Ответ на самом деле заключается в различиях в способах майнинга.
Bitcoin использует ASIC-майнеры, которые являются специализированными машинами для майнинга BTC, и они не могут делать ничего, кроме как решать математические задачи SHA-256, или могут майнить только монеты, похожие на BTC. Но проблема в том, что требования к вычислительной мощности для майнинга BTC очень высоки, и майнеры не могут справляться (работая 24 часа в сутки), и, кроме того, невозможно использовать ASIC для обучения ИИ.
Monero отличается тем, что использует алгоритм RandomX, который позволяет майнить с помощью универсальных CPU, что означает, что его майнеры могут сегодня майнить, завтра обучать ИИ, а послезавтра рендерить видео, что позволяет им выполнять несколько задач одновременно.
Умение Qubic заключается в том, что он нацелился на CPU-майнеров, позволяя им «использовать одну машину для двух целей», что и привело к этой 51% атаке или контролю. Напротив, у Bitcoin защитный механизм очень устойчив, так как майнеры застряли в майнинге с помощью ограниченных ASIC-майнеров и могут только защищать Bitcoin;
—— Вычислительная мощность стала наемниками
Каковы последствия этого инцидента? Он разорвал последнюю завесу для некоторых PoW цепочек, потому что мы всегда говорим, что «вычислительная мощность» — это защитный механизм цепочки, чем больше мощность, тем безопаснее, но Qubic с помощью этого шокирующего эксперимента показал нам: для монет, использующих CPU/GPU для майнинга, вычислительная мощность — это наемники, которые идут к тому, кто платит больше.
Что еще более интригующе, после того как Qubic доказал, что может победить Monero, он сам отступил. Почему? Боится, что это полностью разрушит Monero и повлияет на его собственные доходы. Потому что большая часть трехкратного дохода все еще идет от майнинга XMR, а $QUBIC просто является дополнительным вознаграждением в виде токенов. Если Monero рухнет, Qubic тоже не сможет уйти с прибылью. Лучше просто уйти с размахом, устроив громкое маркетинговое событие, унизив когда-то преданных сторонников PoW. Это чувство «я могу убить тебя, но не убиваю» как-то перекликается с их лозунгом AGI, не так ли?
—— ИИ действительно является могильщиком PoW?
Тем не менее, оставив в стороне влияние инцидента с Monero, это событие на самом деле является серьезным негативом для большинства PoW цепочек на универсальном оборудовании, потому что если такие PoW цепочки рухнут, то убить их может не PoS, а, возможно, ИИ.
Почему я так говорю? Ранее вычислительная мощность была «твердой», все сосредоточены на своем деле, но в эпоху ИИ вычислительная мощность полностью «жидкая», CPU и GPU вычислительная мощность, как вода, будет течь туда, где доход выше, а те «майнеры», на которых они полагались для выживания, могут в любой момент восстать и устроить революцию.
Хотя Qubic не является злодеем, но если эксперимент успешен, неизбежно появятся конкуренты, которые будут использовать этот метод для злонамеренных атак, например, сначала коротко продавать какую-то монету, а затем арендовать 51% вычислительной мощности для атаки, и, когда цена монеты упадет, зафиксировать прибыль. Перед такими цепочками стоят два пути: либо как BTC «заварить» майнеров, либо продолжать использовать CPU/GPU для майнинга, надеясь, что их не заметят.
Честно говоря, таких монет довольно много: Grin, Beam, Haven Protocol, ETC, RVN, Conflux... Так что вы видите, это не проблема одной или двух монет, а вся экосистема CPU/GPU майнинга висит на краю пропасти.
Ужасно то, что потребность в вычислительной мощности для ИИ растет в геометрической прогрессии, и появилось множество платформ для агрегирования вычислительной мощности для ИИ. Если все они начнут вмешиваться, предлагая баснословные цены и стимулы для покупки вычислительной мощности, то, вероятно, многие PoW цепочки потеряют свои защитные линии.
—— Ироничный парадокс
Я говорю, что это абсурдно, потому что Qubic сам является ИИ цепочкой, и его так называемый эксперимент по атаке на Monero, даже если он отступит, все равно не сможет избежать самоповреждения. Причина проста: любая ИИ цепочка, нуждающаяся в вычислительной мощности, не должна использовать PoW для консенсуса. Потому что вычислительная мощность используется для поддержания безопасности, ИИ не сможет обучаться; если вычислительная мощность используется для обучения ИИ, цепочка становится небезопасной.
Таким образом, большинство ИИ проектов, Bittensor использует PoS, Render использует систему репутации, почти никто не осмеливается трогать PoW, все это понимают, но Qubic, похоже, глупо продемонстрировал свою слабость.
Эта провокация Qubic, на первый взгляд, является техническим событием, но по сути это урок для всей криптоиндустрии: в эпоху свободного движения вычислительной мощности лояльность — это роскошь, которую большинство PoW цепочек не могут себе позволить.
Qubic с этой атакой доказал, что традиционный PoW может быть легко разрушен экономическими стимулами. Хотя он сам называет себя «полезным PoW», но по сути также зависит от этих «наемников», которые могут быть куплены более высокими ставками в любой момент.
Революционеры могут быть революционированы следующим революционером.
Примечание: помимо абсурда и неизвестного страха, охватывающего некоторые PoW цепочки, можно выделить два факта: 1. BTC действительно крут; 2. @VitalikButerin действительно обладает прозорливостью.
Я просто кратко объяснил, жду дальнейших технических деталей от @evilcos.

38,93K
Все кричат, что быки пришли, но можно ли понять, что методология поиска рыночного Alpha и Beta в этой волне совершенно другая? Вот несколько наблюдений:
1) OnChain+OffChain TradiFi становится главной нарративной линией:
Инфраструктуризация стейблкоинов: стейблкоины становятся "кровью", соединяющей традиционные финансы и DeFi инфраструктуру, блокируя кросс-цепные потоки стейблкоинов, различия в APY Yield и новые инновации;
Эффект "монеты-акции" BTC/ETH: включение криптоактивов в баланс компаний становится трендом, поиск качественных активов с потенциалом "приближенного резервного актива" становится ключевым;
Восход инновационных треков на Уолл-стрит: DeFi-протоколы, специально разработанные для институциональных инвесторов, продукты с соблюдением норм и инструменты управления активами на блокчейне будут привлекать огромные объемы капитала. Прежний принцип "Код — это закон" стал новым "Соблюдение норм — это король";
2) Ускорение очищения крипто-нарратива от фальши:
Экосистема Ethereum переживает волну возрождения: цена $ETH, пробившая уровень, возродит инновационный нарратив экосистемы Ethereum, заменив прежнюю стратегию Rollup-Centric на новую ZK-Centric, которая станет главной темой;
Сравнение мощностей высокопроизводительных Layer1: это уже не гонка TPS, а вопрос, кто сможет привлечь реальные экономические активности, ключевые показатели включают: доля TVL стейблкоинов, исходная доходность APY, глубина сотрудничества с институтами и т.д.;
Закат альткоинов: общая проблема недостатка денежной динамики у крупных альткоинов, локальные альткоины могут показать "мертвую кошку", такие активы характеризуются: концентрацией долей, активностью сообщества, способностью присоединиться к новым концепциям, таким как AI/RWA;
3) MEME-коины переходят от спекулятивного инструмента к стандарту рынка:
Эффективность капитала: традиционные альткоины имеют завышенную капитализацию и исчерпанную ликвидность, MEME-коины с их справедливым запуском и высокой оборачиваемостью становятся новым любимцем капитала, захватывая большую часть рынка умирающих альткоинов;
Господство экономики внимания: влияние KOL, построение культуры сообщества и горячие модели FOMO остаются основными конкурентными преимуществами, распределение ликвидности по-прежнему следует закону внимания;
Новые показатели силы публичных цепей: активность на рынке MEME-коинов станет важным стандартом для оценки комплексной силы публичных цепей.
21,96K
Приходит ли система Swift, принадлежащая миру блокчейна? @mindnetwork запускает протокол шифрованных сообщений на блокчейне, основанный на технологии FHE, пытаясь создать инфраструктуру, аналогичную традиционным межбанковским сообщениям, для токенизации традиционных финансовых активов. В чем конкретно дело?
1) Mind Network является поставщиком технологий в области FHE (полная гомоморфная криптография). Поскольку эта технология в основном решает проблемы конфиденциальности и шифрования, она может гибко использоваться в таких областях, как ZK, DePIN, AI и в текущей горячей нише RWA.
В стеке технологий ZK FHE может служить важным дополнением к доказательствам с нулевым разглашением, обеспечивая защиту конфиденциальности на разных уровнях. В сети DePIN FHE может защищать чувствительные данные распределенных устройств, одновременно позволяя сети выполнять необходимые вычисления. В области AI Agent FHE позволяет AI обучаться и делать выводы, не раскрывая данные пользователей, что крайне важно для AI-приложений в чувствительных областях, таких как финансы и здравоохранение.
В направлении RWA FHE может решить проблемы соблюдения норм при токенизации традиционных финансовых активов. Как это понять?
Блокчейн изначально лишен "семантического уровня"; записи транзакций, содержащие только адреса и суммы, не могут удовлетворить потребности финансового бизнеса в информации о цели транзакции, контексте контракта, удостоверении личности и т.д. Протокол шифрованных сообщений Mind Network может добавить "шифрованное поле заметок" к каждой транзакции в блокчейне, что позволяет безопасно передавать такие чувствительные данные, как свидетельства о праве собственности, аккредитивы, голосовые авторизации, защищая конфиденциальность и удовлетворяя требования регуляторов.
2) С технической точки зрения это решение может преобразовать Web3-кошельки из простых инструментов для перевода средств в шифрованные коммуникационные идентификаторы. Традиционные решения на блокчейне либо полагаются на централизованные организации для обработки информации о соблюдении норм, либо делают информацию полностью открытой и прозрачной, что не является идеальным решением.
С решением по соблюдению конфиденциальности на основе FHE конкретные сценарии применения становятся очевидными: например, в трансакциях с стабильными монетами можно одновременно шифровать информацию о цели транзакции и KYC, позволяя регуляторам проверять соблюдение норм без доступа к открытым данным; или, например, в сделках по токенизации недвижимости можно зашифровать и привязать такие чувствительные документы, как отчеты об оценке и договоры купли-продажи, к транзакциям на блокчейне, что обеспечивает как оборот активов, так и защиту коммерческой конфиденциальности.
FHE Bridge от Mind Network накопил 650 000 активных адресов и 3,2 миллиона зашифрованных транзакций, что подтверждает жизнеспособность технического решения. Конечно, эти данные лишь нацелены на проверку достаточно жесткого рыночного спроса, а вот насколько велик рынок и его перспективы, пока трудно сказать.
3) Многие чисто нативные блокчейн-разработчики продолжают беспокоиться о направлениях и нишах для построения. Независимо от того, обращаются ли они к Vitalik или к венчурным капиталистам, или просто следуют за горячими темами Fomo, я считаю, что в будущем им следует сосредоточиться на Wall Street, используя дружелюбное к криптовалютам регулирование со стороны правительства США, чтобы максимально предоставить необходимую инфраструктуру и инструменты для входа Wall Street в криптосферу, все будет хорошо.
Когда такие традиционные финансовые гиганты, как BlackRock и JPMorgan, активно занимаются токенизацией активов, их больше всего интересует не возможность перевода средств на блокчейне, а соответствие стандартам KYC, AML и другим регуляторным требованиям. Именно это и является истинной причиной, по которой Mind Network заранее нацеливается на нишу RWA. Предположим, что рынок RWA может достичь объема в 30 триллионов долларов к 2034 году, каковы будут потребности в инфраструктуре соблюдения норм на таком уровне?
Конечно, у всех могут быть ожидания по поводу дележа пирога на рынке RWA, но на самом деле более важно найти подходящее место в экосистеме, как это делали AWS в эпоху облачных вычислений, предоставляя вычислительные ресурсы, а Cloudflare — CDN. Блокчейн-инфраструктура также движется к вертикальной сегментации, и некоторые направления жестких технологий обязательно должны найти свою профессиональную специализацию.
Очевидно, что Mind Network сосредоточен на стеке технологий FHE, предоставляя возможность "шифрования как услуги" для различных ниш. Поэтому не удивительно видеть его присутствие в областях ZK, AI и RWA.
Конечно, ценность поставщика технологий в конечном итоге будет зависеть от степени взрывного роста приложений на нижнем уровне. Независимо от того, ожидается ли рынок RWA в 30 триллионов долларов или процесс автономизации AI Agent, все еще потребуется время для проверки.

Mind Network7 авг., 16:50
✉️ Зашифрованные сообщения в блокчейне
Реальные активы (#RWAs), такие как недвижимость, расчеты со стейблкоинами и трансакции между странами, требуют большего, чем просто передача стоимости.
Эти случаи использования зависят от транзакций, которые несут цель, идентичность и аудиторские следы с соблюдением норм и конфиденциальностью.
#SWIFT стандартизирует сообщения для соблюдения норм и расчетов. Блокчейны все еще не имеют родного зашифрованного способа выражать эти атрибуты.
Зашифрованные сообщения в блокчейне — это новый протокол, который позволяет кошелькам отправлять зашифрованные, структурированные и проверяемые сообщения непосредственно вместе с любой транзакцией в блокчейне.
✅ Авто-структурированный текст для семантической ясности
✅ Генерация ключей на основе кошелька для сквозного шифрования
✅ Зашифрованные сообщения, связанные с транзакциями с аудиторскими следами и контролем доступа
Зашифрованные сообщения в блокчейне объединяют полностью гомоморфное шифрование (#FHE) с традиционными криптографическими техниками, чтобы превратить чувствительные данные в безопасные полезные нагрузки в блокчейне, доступные только для предполагаемых получателей.
Узнайте больше:

6,91K
Недавно на YouTube-канале "The Rollup" CEO @TrustWallet Эовин Чен обсудила с ключевым участником @OpenledgerHQ Рамом Кумаром их глубокое сотрудничество. Вот несколько ценных мыслей, которые стоит выделить:
1) Охлаждение теории "толстого кошелька"
В интервью Энди упомянул популярную в отрасли теорию "толстого кошелька" — кошелек, имеющий каналы для привлечения пользователей, может вертикально интегрировать различные услуги? Но ответ Эовин Чен был весьма интересным: она прямо заявила, что работа с розничными пользователями на стороне C на самом деле очень сложна, включает в себя множество клиентской поддержки, большую ответственность за безопасность и частые изменения в продуктовой стратегии и так далее.
Многие люди, увидев 200 миллионов загрузок Trust Wallet, думают, что создание кошелька — это хорошая бизнес-идея, но сам CEO подчеркивает трудности обслуживания розничных пользователей. Это показывает, что "толстым" кошелек быть не так просто, как кажется, хотя отношения с пользователями и имеют ценность, но их поддержка также требует значительных затрат. Эта точка зрения довольно реалистична и показывает истинное положение дел многих провайдеров кошельков.
Более того, она отметила, что не вся ценность сосредоточена на переднем плане, все части цепочки создания стоимости должны развиваться справедливо. Эта мысль как бы охладила теорию "толстого кошелька" и объяснила, почему Trust Wallet готов сотрудничать с такими инфраструктурными проектами, как OpenLedger.
2) Достигнут ли поворотный момент в специализированном ИИ?
Суждение Рама Кумара о пути развития ИИ заслуживает внимания. Он считает, что ИИ движется от универсальности к специализации, подобно тому, как Google развил LinkedIn, YouTube и другие вертикальные приложения из общего поиска. Общий ИИ, такой как ChatGPT, будет подобен операционной системе, а в будущем появится больше специализированных "моделей" для конкретных случаев использования.
Это согласуется с моей предыдущей аналитикой тенденций в индустрии web3AI. Trust Wallet, пытаясь внедрить функции ИИ, обнаружил, что универсальные модели не решают конкретные проблемы криптоиндустрии, что подтверждает эту тенденцию. А именно, создание специализированных моделей ИИ требует высококачественных данных из вертикальных областей, что и пытается решить OpenLedger.
3) Проблема "бесплатного труда" в контексте вклада данных
Рам Кумар прямо заявил, что ИИ — это "триллиардная индустрия, основанная на бесплатном труде", и эта критика довольно резка. Компании ИИ обучают модели, используя данные из интернета, но вкладчики данных не получают ничего взамен, что действительно является структурной проблемой.
Решение OpenLedger заключается в том, чтобы предоставить вкладчикам данных долгосрочные доходы от ИИ-моделей, а не разово продавать данные. В сочетании с глобальными платежными возможностями кошелька теоретически можно реализовать безбарьерное распределение ценности через границы.
Но здесь есть ключевая проблема: как гарантировать качество данных? Сам Рам признал, что 90% открытых вкладов на платформах, таких как Hugging Face, не имеют никакой ценности. Если данные, которые вносятся, сами по себе имеют ограниченную ценность, то даже лучшие механизмы стимулов не помогут.
Вышеизложенное.
Эовин Чен использует аналогию с "правом на оружие" для самообслуживания, подчеркивая, что функции ИИ являются опциональными, и пользователи могут самостоятельно выбирать между удобством и безопасностью. Эта продуктовая философия верна, но как "четко представить варианты" — это настоящая проверка дизайнерских способностей продукта.
Рам также упомянул интересное суждение: криптокошелек является единственным способом для пользователей по всему миру получать вознаграждение за вклад данных. Это означает, что роль кошелька может эволюционировать от простого инструмента управления активами к инфраструктуре для цифровой идентичности и распределения ценности.
Примечание: для получения дополнительной информации вы можете посетить YouTube-канал The Rollup и посмотреть это интервью.


The Rollup5 авг., 08:31
НОВЫЙ ЭПИЗОД: Новая эра дистрибуции с Рамом Кумаром и Эовин Чен
В сегодняшнем эпизоде @ayyyeandy беседует с @Ramkumartweet из @OpenledgerHQ и @EowynChen из @TrustWallet, чтобы обсудить:
>Тезис "Толстого кошелька" против теории толстого протокола
>Как Trust Wallet планирует интегрировать ИИ
>Риски безопасности кошельков на базе ИИ
>Видение OpenLedger по вознаграждению участников данных
>Почему общий ИИ никогда не сработает для DeFi
Ссылки на полный эпизод ниже.
Временные метки:
00:00 Введение
00:20 Крипто- и ИИ-опыт Рама и Эовин
02:50 Польза Trust Wallet для пользователей
07:43 Реклама Starknet
08:10 OpenLedger о развитии ИИ
11:03 Будущее интерфейсов кошельков
17:12 Ограничения ИИ для самоуправления
21:22 Реклама Mantle
22:02 Обучение лучших моделей ИИ
28:19 Что дальше для OpenLedger и Trust Wallet
5,18K
Подумав о последнем заявлении @VitalikButerin о быстром выводе средств на L2, это довольно интересно. Проще говоря: он считает, что возможность быстрого вывода средств в течение часа важнее, чем достижение Этапа 2, и логика, стоящая за этим изменением приоритетов, заслуживает глубокого размышления:
1) Ожидание вывода средств в течение недели действительно стало большой проблемой в реальном использовании, это не только ухудшает пользовательский опыт, но и, что более важно, увеличивает стоимость кросс-цепочки.
Например, такие мостовые решения, как ERC-7683, основанные на намерениях, требуют от поставщиков ликвидности нести затраты на использование средств в течение недели, что напрямую увеличивает стоимость кросс-цепочки. В результате пользователи вынуждены выбирать менее надежные многофакторные решения, что как раз противоречит изначальной идее L2.
Поэтому Виталик предложил систему смешанного доказательства 2 из 3 (ZK+OP+TEE), где ZK и TEE могут обеспечить мгновенность, а TEE и OP имеют достаточную производственную проверку. Теоретически любые две системы могут гарантировать безопасность, что позволяет избежать чисто временных затрат на ожидание полной зрелости технологии ZK.
2) Кроме того, новое заявление Виталика создает впечатление, что он стал более прагматичным? Из идеалистического молодого человека, который раньше говорил о "децентрализованной священной войне" и "антицензуре", он превратился в прагматика, который прямо указывает жесткие показатели: вывод средств за 1 час, финал за 12 секунд, все становится просто и грубо.
Ранее все сосредоточились на степени децентрализации Этапа 2, теперь Виталик прямо говорит, что быстрый вывод средств важнее, что фактически переопределяет приоритеты для всей области L2. Это на самом деле прокладывает путь к конечной форме стратегии "Rollup-Centric", позволяя Ethereum L1 действительно стать единой расчетной и ликвидной платформой. Как только будет реализован быстрый вывод средств и кросс-цепочная агрегация, другим публичным цепям будет сложнее бросить вызов экосистеме Ethereum.
Причина, по которой маленький В стал таким, заключается в том, что рынок уже проголосовал ногами и сообщил ему результат: рынок не заботится о лозунгах децентрализации, больше внимания уделяется опыту и эффективности, и этот переход от "идеального драйва" к "результатам" отражает то, что вся экосистема Ethereum движется в более коммерческом и конкурентном направлении.
3) Возникает вопрос: чтобы достичь долгосрочных целей реального опыта и построения инфраструктуры, в ближайшее время экосистема Ethereum, вероятно, будет сосредоточена на зрелости технологии ZK и контроле затрат.
С текущей ситуацией, хотя технология ZK быстро прогрессирует, затраты по-прежнему являются реальным ограничением. ZK proof с затратами 500k+ gas означает, что в краткосрочной перспективе можно достичь только частоты подачи на уровне часа, чтобы достичь конечной цели в 12 секунд, необходимо полагаться на прорывы в агрегационных технологиях.
Логика здесь ясна: частая подача proof для одного Rollup слишком дорога, но если proof для N Rollup можно агрегировать в один, распределив по каждому слоту (12 секунд), это становится экономически целесообразным.
Это также ставит новые технические маршруты для конкурентной среды L2, те проекты L2, которые первыми добьются прорыва в оптимизации ZK proof, возможно, смогут найти свое место, в то время как те, кто продолжает упорно работать над оптимистичным доказательством, вероятно, потеряют направление.

vitalik.eth7 авг., 00:29
Удивительно видеть так много крупных L2 на стадии 1.
Следующая цель, к которой мы должны стремиться, на мой взгляд, это быстрые (<1ч) времена вывода, обеспеченные системами доказательства действительности (также известными как ZK).
Я считаю это даже более важным, чем стадия 2.
Быстрые времена вывода важны, потому что ждать неделю для вывода — это просто слишком долго для людей, и даже для мостов на основе намерений (например, ERC-7683) стоимость капитала становится слишком высокой, если поставщик ликвидности должен ждать неделю. Это создает большие стимулы вместо этого использовать решения с неприемлемыми предположениями доверия (например, мультиподписи/MPC), которые подрывают всю суть наличия L2 вместо полностью независимых L1.
Если мы сможем сократить родные времена вывода до менее чем 1ч в краткосрочной перспективе и 12с в среднесрочной, то мы сможем еще больше укрепить Ethereum L1 как место по умолчанию для выпуска активов и экономический центр экосистемы Ethereum.
Для этого нам нужно отказаться от оптимистичных систем доказательства, которые по своей сути требуют ожидания несколько дней для вывода.
Исторически технологии ZK-доказательства были незрелыми и дорогими, что делало оптимистичные доказательства разумным и безопасным выбором. Но в последнее время это быстро меняется. Это отличное место для отслеживания прогресса ZK-EVM доказательств, которые быстро улучшаются. Формальная верификация ZK-доказательств также продвигается вперед.
Ранее в этом году я предложил стратегию системы доказательства 2 из 3 ZK + OP + TEE, которая балансирует между безопасностью, скоростью и зрелостью:
* 2 из 3 систем (ZK, OP) являются бездоверительными, поэтому ни один отдельный участник (включая производителя TEE или атакующего через побочный канал) не может сломать систему доказательства, нарушив предположение доверия
* 2 из 3 систем (ZK, TEE) являются мгновенными, так что вы получаете быстрые выводы в нормальном случае
* 2 из 3 систем (TEE, OP) использовались в производстве в различных контекстах в течение многих лет
Это один из подходов; возможно, люди предпочтут вместо этого сделать ZK + ZK + OP для разрешения споров или ZK + ZK + совет безопасности для разрешения споров. У меня нет сильных мнений по этому поводу, мне важно основное цель, которая заключается в том, чтобы быть быстрым (в нормальном случае) и безопасным.
С такими системами доказательства единственным оставшимся узким местом для быстрого урегулирования становится стоимость газа для подачи доказательств в цепочку. Вот почему в краткосрочной перспективе я говорю раз в час: если вы попытаетесь подать ZK-доказательство с газом 500к+ (или STARK с газом 5м) гораздо чаще, это добавляет высокую дополнительную стоимость.
В долгосрочной перспективе мы можем решить это с помощью агрегации: N доказательств от N роллапов (плюс транзакции от пользователей протокола конфиденциальности) могут быть заменены одним доказательством, которое подтверждает действительность N доказательств. Это становится экономически целесообразным подавать раз за слот, что позволяет достичь конечной цели: почти мгновенное движение активов между L2 через L1.
Давайте работать вместе, чтобы это осуществить.
14,16K
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные