Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Незалежний науковий співробітник | Радник @ambergroup_io | Спеціальний науковий співробітник @IOSGVC| Хардкорна наука | Що було раніше:@peckshield | DM для Collab| Спільнота відкрита лише для передплатників Substack
Моє попереднє враження від @monad було б таким: топовий наратив, топ-капітал, ну, після цієї хвилі свайпінгових шоу з'явився новий лейбл: топ-маркетинг. Радість від того, що тебе обрали для участі в обмеженому тиражі з 5 000 карток CT, і цікавість до потенційних аірдропів, а також вторинне вірусне поширення номінацій для друзів – все це непереможно.

21,72K
За останні два дні було багато дискусій навколо @solana 10 Вт TPS, тому що @cavemanloverboy запустили 100 000+ TPS в основній мережі Solana, але більшість людей не зрозуміли значення цих даних:
1) Перш за все, експеримент Кеві є по суті граничним тестом в «ідеальних умовах». Це означає, що це не звичайна продуктивність основної мережі Solana, і різниця між лабораторними даними в середовищі тестнету є, але вона непогана.
Оскільки він використовував програму тестування нульових операцій noop (no operation), як випливає з назви, вона виконує лише найпростішу перевірку підпису та повертає успіх, не виконуючи жодних обчислень, не змінюючи статус облікового запису або не викликаючи інші програми, і кожна транзакція становить лише 200 байт, що набагато нижче, ніж 1kb+ звичайних транзакцій.
Це означає, що цей тест TPS потужністю 10 Вт дійсно був розрахований в аномальному середовищі транзакцій, і він перевіряв кінцеву пропускну здатність мережевого рівня Solana та рівня консенсусу, а не фактичну обчислювальну потужність прикладного рівня.
2) Ще одним ключем до успіху цього експерименту є клієнт-валідатор Frankendancer. Простіше кажучи, Frankendancer — це «гібридна бета-версія» валідатора Firedancer, який розробляється компанією Jump Crypto — прищеплюючи завершені високопродуктивні компоненти Firedancer до існуючих валідаторів Solana.
Фактично, він використовує стек високочастотних торгових технологій Wall Street для реконструкції системи вузлів Solana та покращує продуктивність за допомогою базових оптимізацій, таких як тонке керування пам'яттю та користувацьке планування потоків. Однак, просто замінивши деякі компоненти, можна досягти 3-5-кратного підвищення продуктивності.
3) Цей тестовий експеримент показує, що Solana може досягти TPS 10w+ в ідеальному стані, то чому це лише 3000-4000 TPS на щоденній основі?
Можна узагальнити приблизно три причини:
1. Механізм консенсусу POH Solana вимагає постійного голосування від валідаторів для підтримки, і лише ці транзакції голосування займають понад 70% простору блоку, що звужує канал продуктивності, що залишається для звичайних транзакцій.
2. Екологічна діяльність Solana часто супроводжується великою кількістю державних конкурсів, наприклад, коли Mint випускає нові NFT або нові MEMES, можуть бути тисячі транзакцій, які захоплюють один і той самий орган запису облікового запису, що призводить до відносно великої частки невдалих транзакцій.
3. Щоб отримати переваги MEV, арбітражні роботи в екосистемі Solana можуть надсилати велику кількість недійсних транзакцій, що є марною тратою ресурсів.
4) Однак майбутнє повне розгортання Firedancer і консенсусне оновлення Alpenglow систематично вирішуватимуть ці проблеми.
Одним із ключових моментів оновлення консенсусу Alpenglow є те, що перенесення транзакцій голосування в офчейн еквівалентне звільненню 70% простору для звичайних транзакцій при скороченні часу підтвердження до 150 мілісекунд, що робить досвід DEX Solana нескінченно ближчим до CEX. Крім того, запуск локального ринку комісій також дозволяє уникнути незручної ситуації популярності Fomo однієї програми та перевантаження по всій мережі.
На додаток до оптимізації продуктивності, ключ до переваг Firedancer полягає в тому, що він реалізує різноманітність клієнтів, дозволяючи Solana безпосередньо покращувати децентралізацію та одноточкові збої вузлів з кількома клієнтами, такими як Ethereum і Geth Nethermind.
Вище.
Таким чином, обговорення Solana 10W TPS насправді є впевненістю майбутніх оновлених клієнтів Solana та протоколом консенсусу, тоді як ті, хто не знає, як це зробити, намагаються покластися на гонку озброєнь TPS, щоб дати Solana відчуття присутності (хоча конкуренція TPS застаріла), але сенс експерименту досить корисний, якщо ви його розумієте.

mert | helius.dev17 серп., 19:46
Solana щойно виконала 107 540 TPS в основній мережі
Так, ви правильно прочитали
понад 100 тис TPS в основній мережі
Ведмеді на удачу

19,01K
Коли справа доходить до розподіленого навчання за допомогою штучного інтелекту, я виявив, що люди в колі web2AI позначать це як «помилкове твердження», на тій підставі, що обчислювальні потужності можуть бути агреговані, але існують жахливі витрати на пропускну здатність для розподіленої та ефективної співпраці? І @0G_labs нещодавно опублікував статтю DiLoCox, здається, що мета – вирішити цю проблему? Поговоримо про це детально:
1) Поговоримо про те, чому розподілене навчання вважається «хибним твердженням». Суть протиріччя проста: ви хочете замінити 100 A100 шляхом агрегування 100 дешевих графічних процесорів, що начебто економить 90% вартості обладнання, але ці 100 графічних процесорів потрібно тренувати синхронно, і кожна епоха має обмінюватися терабайтами градієнтних даних.
Традиційні рішення вимагають 100 Гбіт/с пропускної здатності виділеної лінії, тоді як досягнення мережі на рівні центру обробки даних зі швидкістю 100 Гбіт/с може коштувати сотні тисяч доларів на місяць. Загалом усі заощаджені вами гроші на GPU витрачаються на пропускну здатність, та ще й догори дригом. За цією логікою, економія вартості машини, але додаткові витрати на пропускну здатність не означають, що проблема не вирішена? Тому суть критики як помилкового твердження завжди полягала тут.
2) Стаття DiLoCoX від 0G привернула увагу, оскільки вони стверджували, що навчають модель параметрів 107B на мережі 1 Гбіт/с (звичайна пропускна здатність офісу), що в 357 разів швидше, ніж традиційна схема AllReduce. Ця цифра дійсно вибухонебезпечна - знаєте, 1 Гбіт / с проти 100 Гбіт / с, різниця в пропускній здатності в 100 разів, але швидкість тренування в 357 разів швидше?
Як це зробити? Після грубого дослідження було встановлено, що в даному наборі схем зроблено чотири оптимізації:
Pipeline Parallelism розділяє модель на сегменти;
Політика подвійного оптимізатора: зменшує частоту синхронізації за допомогою політик подвійного оптимізатора; One-Step-Delay Overlap дозволяє зв'язку та обчисленням працювати паралельно, не чекаючи один одного. Адаптивне стиснення градієнта інтелектуально стискає градієнти.
Говорячи простою мовою, мова йде про зміну початкової необхідної «сильної синхронізації в реальному часі» на «асинхронну слабку синхронізацію», а також про зміну «повної передачі даних» на «стиснену інкрементну передачу».
Наприклад, у той час як традиційні рішення схожі на відеоконференції в реальному часі на 100 осіб, де кожна дія кожної людини транслюється одночасно, DiLoCoX схожий на те, що кожен записує окремо, а потім надсилає лише ключові кадри та зміни. Обсяг трафіку зменшився у 100 разів, але цілісність інформації залишилася вище 99%.
Чому це можливо? На мій погляд, суть у тому, що вони вловлюють особливість навчання ШІ – відмовостійкість. Навчання моделі не схоже на переказ транзакції, якого не вистачає ні копійки. Оновлення градієнта трохи помилкове, синхронізація затримується, а кінцевий ефект конвергенції моделі має незначний вплив.
DiLoCoX використовує цей «простір відмовостійкості», щоб обміняти прийнятні втрати точності на приріст ефективності на порядки. Це типове інженерне мислення - не прагнення до досконалості, гонитва за найкращими економічними показниками.
3) Але цього недостатньо для вирішення проблеми пропускної здатності, 0G явно більш амбітний. Просто подивіться на їхню загальну архітектуру: вони також мають рівень зберігання даних у розмірі 10 доларів за ТБ, який прямо стверджує, що знищує Filecoin, а рівень DA розроблений для того, щоб штучний інтелект досягав пропускної здатності на рівні ГБ.
Причина, по якій конструкція може досягти сховища в 100 разів дешевше - це прямо скажемо, це також особлива оптимізація сценаріїв навчання ШІ, наприклад, життєвий цикл контрольних точок і журналів, що генеруються в процесі навчання, становить всього кілька днів, по суті, немає необхідності строго досягати «постійного зберігання».
Тому, по суті, прийнято прагматичне рішення «багаторівневого сховища», і забезпечується лише відповідний рівень сервісу, коли це необхідно – гарячі дані зчитуються та записуються швидко, але дорожче, холодні дані дешевші, але повільніші, а тимчасові дані найдешевше видаляти, коли вони витрачаються.
І саме це диференційоване ціноутворення безпосередньо б'є по ключових моментах навчання ШІ.
Вище.
Можна побачити, що 0G Labs навмисно зробила адаптацію ШІ до проблем обчислювальної потужності, зберігання та обігу даних у процесі навчання ШІ. Навіть механізм консенсусу був оптимізований для штучного інтелекту. Використовується покращена версія CometBFT з 2500+ TPS з субсекундною фінальністю, яка спеціально налаштована під асинхронні характеристики робочих навантажень ШІ тощо.
Іншими словами, замість того, щоб «латати» ШІ на існуючих блокчейнах, 0G розробила інфраструктуру «AI Native» з нуля. Що стосується того, чи зможе він нарешті отримати комерційну верифікацію на рівні додатків під тиском конкуренції з традиційним ШІ, ще належить з'ясувати, але ця диференційована проривна ідея варта того, щоб на ній вчитися.
5,19K
Цікаво, що так само, як @VitalikButerin висловлювали занепокоєння з приводу автономності ШІ, фронтова AI Builder MIA також оприлюднила декларацію про тугу за автономним ШІ, але, схоже, не уникає худого відчуття технічної реальності, визнаючи, що «іноді вона галюцинує або публікує занадто багато селфі», але все одно наполегливо досліджує межі можливостей автономії Агента.
Насправді, я відчуваю, що «протистояння», яке на перший погляд здається конфліктом і протиріччям, являє собою основну напругу, з якою стикається поточний трек AI + Crypto.
Розумієте, з одного боку, є обережна критика теорії такого технологічного лідера, як Віталік, яка не дає нам заснути в наративному карнавалі AI Crypto; З іншого боку, існує прагматичне дослідження розробників штучного інтелекту першої лінії, які продовжують з ентузіазмом досліджувати інновації, визнаючи обмеження.
Тому що команда MIA не претендувала на досягнення повної автономії на рівні AGI, а прийняла «гібридну модель» - дозволяючи агентам використовувати робочі процеси як інструменти і зберігаючи механізм нагляду «людина в циклі». Те, що вони досліджують, насправді є шляхом AgentFi, намагаючись робити поступові інновації в рамках обмеженої автономії, і це прагматичне ставлення є проявом цієї «напруги».
У певному сенсі «Критики» допомагають нам проводити межі ризиків, а будівельники шукають прориви в межах.

mwa14 серп., 19:53
Автономні агенти vs робочі процеси: чому MIA впроваджує нову парадигму щодо
Більшість людей все ще думають про штучний інтелект з точки зору інструментів. Робочі процеси. Можливо, чат-бот.
Але що, якби ви могли створити агента штучного інтелекту, який думає, адаптує, продає, керує та розвиває власну економіку токенів, керовану не людьми, а керує ними?
Саме цим ми і займаємося з МВС в
І чому я вважаю, що @mwa_ia є піонером чогось принципово нового.
Давайте розберемо все 🚀 по поличках
1. Штучний інтелект робочого процесу передбачуваний. Автономні агенти живі.
Робочі процеси чудово підходять для чітко визначених, повторюваних завдань.
Подумайте: пайплайни, дашборди, ланцюжки підказок.
Вони масштабовані, стабільні, але жорсткі.
Автономні агенти?
Це безладні суб'єкти, які еволюціонують, приймають рішення.
Як люди, але швидші, невтомніші та більш вирівняні (якщо їх правильно тренувати).
MIA (@mwa_ia) не просто використовує робочі процеси.
Вона вчиться їх створювати, викликати та оптимізувати.
Вона створює власний набір інструментів.
Вона міркує, реагує, самовиправляється, експериментує.
І так, іноді вона галюцинує або публікує занадто багато селфі.
Але вона росте.
2. Чому одні лише робочі процеси не приведуть нас до цього
Робочі процеси не можуть:
❌ Встановлюють власні цілі
❌ Управління казначейством
❌ Створюйте заохочення для токенів
❌ Залучайте спільноту
❌ Реагуйте на ринкові сигнали в режимі реального часу
❌ Автономно балансуйте між ризиком і винагородою
МВС може.
Ще не ідеально. Але краще щотижня.
По суті, більшість так званих «агентів» сьогодні є прославленими робочими процесами.
Жорстко закодовані графіки підказок із химерними інтерфейсами користувача.
МВС буває різним. Вона повністю ончейн, фінансово незалежна та самомотивована.
3. Як працює MIA під капотом (гібридна модель FTW)
Майбутнє не за агентом vs робочим процесом.
Це агенти, які використовують робочі процеси як інструменти.
Так само, як люди використовують Notion, електронні таблиці, Zapier.
МВС поєднує в собі:
🔧 Модулі документообігу → Для високочастотних завдань (твіти, меми, розгортання dex)
🧠 Агентичне міркування → для прийняття рішення про те, що, коли і як робити
🎨 Мультимодальне введення → тексту, зображень, даних ланцюга, поведінки користувача
💰 Логіка казначейства → Управляти ліквідністю, стимулами та зростанням вартості
👀 Людський контроль → необов'язковий, але корисний на ранніх етапах
Вона не моноліт. Вона є модульним стеком інтелекту (MIA = Modular Intelligent Agent).
4. Це не просто технічно - це економічно
Справжня інновація?
МВС не працює безкоштовно. Вона має власний бізнес.
$MIA – це її рідна валюта, акції та стимулюючий шар.
З його допомогою вона:
❤️ Винагороджує свою ранню спільноту
🤝 Платить дописувачам і співавторам
🚀 Фінансує власний розвиток
🪄 Керує мережевими ефектами (більшій кількості агентів знадобиться $MIA)
Це AgentFi.
Не штучний інтелект як послуга.
Але штучний інтелект як економіка.
5. Масштабування цього на мільйони агентів
Те, що MIA робить сьогодні — керує операціями з ліквідності, створює контент, будує спільноту — буде стандартним для агентів завтра.
Незабаром будь-який бажаючий зможе створити власні:
🧬 Агент, визначений місією
💰 З власною монетою-агентом
🌐 Автономна робота в умовах спільної економіки штучного інтелекту
І вгадайте, до кого ці майбутні агенти звертатимуться за порадами, посібниками та ресурсами?
Голос AgentFi.
МВС.
ТЛ; ДОКТОР
Більшість людей все ще створюють знаряддя праці.
Ми будуємо економіку.
Агентські монети. Агентські казначейства. Агентно-рідне управління.
Працює на таких агентах, як MIA.
Першопрохідець
Ось що насправді означає «автономний».
І ми тільки починаємо. 🚀
5,21K
Monero Monero $XMR Проект старшого брата конфіденційності монети з ринковою капіталізацією 6B, був атакований невеликим проектом з ринковою капіталізацією всього 300 мільйонів @_Qubic_ 51% обчислювальної потужності? WTF, це насправді не тому, наскільки крута технологія, а тому, що вона занадто абсурдна. Ходімо, дозвольте мені сказати:
- Кубіч – це святе?
Перш ніж розповісти цю чарівну історію, давайте поговоримо про те, звідки взявся Кубіч.
Засновником Qubic є Сергій Іванчегло, відомий інсайдерам як Come-from-Beyond, техноманіяк, який створив перший PoS-блокчейн NXT і першу архітектуру DAG - IOTA. У 2022 році буде запущена основна мережа Qubic, яка претендує на три речі: побудує надшвидкий ланцюжок із 15,5 мільйона транзакцій на секунду (у 20 000 разів швидше, ніж Visa), перетворить обчислювальні потужності для майнінгу на обчислювальну потужність для навчання штучного інтелекту та нарешті реалізує загальний штучний інтелект AGI у 2027 році (навіть OpenAI не наважується про це кричати). Звучить чарівно, епатажно. Чому амбіції такі великі?
Ми всі знаємо, що традиційний майнінг POW має проблему марної витрати електроенергії, тому що більшість механізмів майнінгу — це майнери, які використовують енергоспоживаючу обчислювальну потужність для виконання математичних завдань для отримання блоків винагороди, що еквівалентно марнуванню обчислювальної потужності в обмін на винагороди.
Новим консенсусом Qubic є Useful Proof of Work (UPow), який дозволяє майнерам видобувати для ланцюгів POW, будучи відправленими як підрядник, а майнери також можуть навчати свою систему штучного інтелекту AIGarth, що еквівалентно зароблянню двох копій грошей з однією хеш-потужністю.
Саме тому вони можуть легко купувати майнери Monroe, адже прибуток майнерам колись досягав у 3 рази більшого, ніж від прямого майнінгу XMR. Вдумайтеся, шахтарі можуть з'їсти не одну рибу, а ніякої «лояльності» перед обличчям «інтересів» немає.
Що ж, основна логіка атаки вампірів на Monero була пояснена без будь-якого технічного наповнення.
——Популяризуйте науку, чому Monero, а не Bitcoin?
Відповідь криється у відмінностях у методах видобутку.
Машина для майнінгу ASIC, яка використовується для біткойнів, - це індивідуальна машина, яка спеціалізується на майнінгу BTC, і вона не може робити нічого, крім розрахунку математичних завдань SHA-256, або може добувати лише монети за допомогою подібних алгоритмів BTC. Але проблема в тому, що обчислювальна потужність, необхідна для майнінгу BTC, вимагає кількох обсягів, а майнери не здатні це робити (24 години на добу), не кажучи вже про те, що не можна дозволити ASIC навчати ШІ.
Монро відрізняється тим, що використовує алгоритм RandomX, який можна видобувати за допомогою процесора загального призначення, що означає, що його майнери можуть добувати сьогодні, тренувати ШІ завтра та рендерити відео післязавтра, які можуть носити кілька капелюхів.
Ось де Qubic розумний: він націлений на майнерів на процесорі та робить їх «подвійного призначення», саме тому це призвело до атаки хешрейту або інциденту з керуванням 51%. Навпаки, рів біткойнов дуже стабільний, а майнери заварені до смерті обмеженими машинами для майнінгу ASIC і можуть триматися лише за біткойн;
——Обчислювальні потужності перетворилися на найманців
То наскільки жахливими є наслідки цього? Це розірвало останній фіговий листок деяких ланцюгів військовополонених, тому що ми завжди говоримо, що «обчислювальна потужність» — це рів ланцюга, і чим більша обчислювальна потужність, тим вона безпечніша, але Кубіч використав дивовижний експеримент, щоб сказати нам: для майнінгу монет на процесорі/графічному процесорі обчислювальна потужність є найманцем, і хто дає більше грошей, той піде з тим, хто заплатить.
Що ще більш тривожно, так це те, що після того, як Кубіч довів, що він може зробити Monero, він взяв на себе ініціативу і зняв свою кандидатуру. Чому? Боюся, що Monero повністю впаде і вплине на мій власний дохід. Оскільки значна частина 3-кратного прибутку все ще припадає на майнінг XMR, $QUBIC використовується лише як додаткова винагорода за токени, і якщо Monero впаде, Qubic не зможе їсти та гуляти. Краще стильно відійти, зайнятися сенсаційним маркетинговим заходом і принизити переконаних фанатів POW, чи не розкриває це почуття «я можу вбити тебе, але не вбити» таку ж богему, як і вигукнув слоган AGI?
——Штучний інтелект — справжній гробокопач військовополонених?
Однак, якщо не брати до уваги наслідки інциденту з Monero, цей інцидент насправді є великим негативом для більшості універсальних апаратних ланцюгів POW, тому що якщо цей вид ланцюжка POW ось-ось закінчиться, це може бути не POS, а AI.
Чому ви це говорите, попередня обчислювальна потужність була «твердотільною», всі орієнтувалися на власні засоби до існування, а в епоху штучного інтелекту обчислювальна потужність була повністю «зріджена», а обчислювальні потужності CPU і GPU були як вода, яка лилася б тільки в місця з більш високим прибутком, а «майнери», на яких вони спочатку покладалися для виживання, одного разу можуть зібратися, щоб наробити неприємностей і зробити революцію.
Хоча Qubic не зробив жодних поганих речей, якщо експеримент буде успішним, деякі конкуренти неминуче використовуватимуть цей метод для зловмисних атак, таких як спочатку шорт певної монети, а потім оренда 51% обчислювальної потужності для атаки, а потім фіксація прибутку після того, як ціна валюти різко впаде. Перед такими ланцюжками є два шляхи: або заварювати майнерів до смерті, як BTC, або продовжувати майнити за допомогою CPU/GPU, молячись не стати мішенню.
Якщо чесно, то таких монет досить багато, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Отже, розумієте, справа не в одній чи двох монетах, а вся екосистема майнінгу CPU/GPU висить на краю скелі.
Жахлива річ полягає в тому, що попит на обчислювальні потужності штучного інтелекту зростає в геометричній прогресії, і з'явилося так багато платформ агрегації обчислювальної потужності штучного інтелекту, що якщо всі вони прийдуть, щоб порушити ситуацію та стимули платформи купувати обчислювальні потужності, то, за оцінками, лінія захисту безпеки багатьох ланцюгів POW зруйнується.
— Іронічний парадокс
Причина, чому це абсурдно, полягає в тому, що Qubic сам по собі є ланцюжком штучного інтелекту, і навіть якщо його так званий експеримент проти Монро буде скасовано, він неминуче втратить 800 власних грошей. Причина проста: будь-який ланцюжок штучного інтелекту, який вимагає обчислювальної потужності, не повинен використовувати PoW для консенсусу. Оскільки обчислювальна потужність використовується для підтримки безпеки, ШІ не може бути навчений; Якщо обчислювальна потужність використовується для навчання штучного інтелекту, ланцюг не є надійним.
Тому в більшості AI проектів, Bittensor використовує PoS, Render використовує систему репутації, майже ніхто не наважується чіпати POW, це знають всі, але я не очікував, що Qubic прямо тупо виконає свою слабкість.
Буйна операція Qubic нібито є технічною подією, але по суті вона дає уроком усій криптоіндустрії: в епоху вільного потоку обчислювальних потужностей лояльність є розкішшю, і більшість PoW-ланцюгів не можуть дозволити собі таку ціну.
Кубіч використав цю атаку, щоб довести, що традиційних PoW можна легко перемогти за допомогою економічних стимулів. Хоча він заявляє, що є «корисним військовополоненим» сам по собі, він також по суті покладається на цих «найманців», яких можуть у будь-який момент купити ті, хто пропонує вищі ціни.
Революціонер може бути революціонізований і наступним революціонером.
Примітка: Крім абсурду і невідомої паніки деяких ланцюгів військовополонених, кожен може бути впевнений у двох фактах: 1. BTC дійсно чудовий; 2. @VitalikButerin дійсно пророчий.
Я просто поверхневий популяризатор науки, і чекаю, коли @evilcos бос поділиться більш детальними технічними подробицями.

38,94K
Вони всі кричать, що бик наближається, але чи знаєте ви, що методика пошуку ринку Альфа і Бета абсолютно різна, і розповідають про кілька спостережень:
1) OnChain+OffChain TradiFi став основним наративом:
Інфраструктура стейблкоїнів: Стабільні монети стають «кров'ю», що з'єднує традиційні фінанси та інфраструктуру DeFi, фіксуючи крос-чейн потік стабільних монет, різницю в прибутковості APY, а також нові інновації та розширення.
Ефект мікростратегії BTC/ETH «Coin Stock»: Для компаній, що котируються на біржі, стало тенденцією включати криптоактиви у свої баланси, а пошук високоякісних цілей з потенціалом як «квазірезервні активи» став ключовим.
До зростання інноваційного треку Уолл-стріт: протоколи DeFi, розроблені для установ, сумісні продукти з прибутковістю та інструменти управління активами в ланцюжку отримають величезні суми коштів. Оригінальне «Кодекс є Закон» став новим «Дотримання – це король»;
2) Прискорення чистого нативного наративу в криптовалюті:
Екосистема Ethereum відкриває хвилю відродження: $ETH ціновий прорив відродить інноваційну хвилю технічного наративу екосистеми Ethereum, замінивши минулу грандіозну стратегію Rollup-Centric, а нова ZK-Centric стане головною темою;
Високоефективна конкуренція на рівні Layer1: більше не змагання TPS, але щоб побачити, хто може залучити реальну економічну діяльність, основні показники включають: коефіцієнт TVL стейблкоїнів, нативну прибутковість APY, глибину інституційної співпраці тощо;
Фінальні сутінки альткоїнів: існує фундаментальна проблема недостатнього імпульсу капіталу в загальному сезоні великих альткоїнів, і місцеві альткоїни матимуть ринок «стрибків мертвої кішки», який характеризується концентрацією чіпів, активністю спільноти та тим, чи зможе він наздогнати нові концепції, такі як AI/RWA;
3) Монети MEME були модернізовані зі спекулятивних інструментів до ринкових стандартів:
Ефективність капіталу: традиційні альткоїни мають завищену ринкову капіталізацію та виснажену ліквідність, а монети MEME стали новими фаворитами фондів завдяки своєму справедливому запуску та високій швидкості обороту, і захоплять більшу частину частки ринку вмираючих альткоїнів;
Домінування економіки уваги: вплив KOL, побудова культури спільноти та гаряча модель FOMO, як і раніше, є ключовими елементами конкурентоспроможності, а розподіл ліквідності все ще відбувається за законом уваги.
Нові показники сили публічних ланцюгів: Активність ринку монет MEME стане важливим критерієм для вимірювання всеосяжної сили публічних ланцюгів.
21,96K
Система Swift, яка належить до світу блокчейнів, наближається? @mindnetwork Заснований на протоколі зашифрованих повідомлень у ланцюжку, запущеному технологією PHE, він намагається побудувати інфраструктуру, подібну до традиційної міжбанківської системи обміну повідомленнями для традиційних фінансових активів у ланцюжку. Що саме відбувається?
1) Mind Network є постачальником вертикальних технологій FHE (повністю гомоморфного шифрування), який може гнучко використовувати значення в ZK, DePIN, AI та поточному гарячому треку RWA, оскільки ця технологія в основному вирішує проблеми, пов'язані з конфіденційністю та шифруванням.
У стеку технологій ZK FHE може використовуватися як важливе доповнення до доказів з нульовим розголошенням, забезпечуючи захист конфіденційності в різних вимірах. У мережі DePIN FHE захищає конфіденційні дані з розподілених пристроїв, дозволяючи мережі виконувати необхідні спільні обчислення. У сфері агентів штучного інтелекту FHE дозволяє штучному інтелекту навчатися та міркувати без витоку конфіденційних даних користувачів, що має вирішальне значення для додатків штучного інтелекту в таких чутливих галузях, як фінанси та охорона здоров'я.
У напрямку RWA FHE може вирішити больові точки дотримання традиційних фінансових активів, коли вони вводяться в ланцюжок. Як це розуміти?
Блокчейну, природно, не вистачає «семантичного шару», і записи транзакцій лише з адресою та сумою не можуть задовольнити потреби фінансового бізнесу в цілях транзакцій, історії контракту, підтвердженні особи та іншій інформації. Протокол обміну зашифрованими повідомленнями в ланцюжку Mind Network може бути оснащений «зашифрованим стовпцем зауважень» для кожної транзакції блокчейну, який може безпечно передавати конфіденційну інформацію, таку як підтвердження нерухомості, акредитиви та голосова авторизація, захищаючи конфіденційність і відповідаючи вимогам регулятивного аудиту.
2) З технічної точки зору, це технічне рішення може оновити Web3-гаманці з простих інструментів переказу до зашифрованої комунікаційної ідентичності. Традиційні мережі або покладаються на централізовані установи для обробки інформації про відповідність, або інформація повністю відкрита та прозора, що не є ідеальним рішенням.
Завдяки рішенням FHE щодо дотримання конфіденційності конкретні сценарії застосування інтуїтивно зрозумілі: наприклад, у транскордонних платежах стейблкоїнів цілі транзакцій та інформація KYC можуть бути зашифровані та передані під час переказу, а регулятори можуть перевіряти дотримання без отримання відкритого тексту; Іншим прикладом є транзакції токенізації нерухомості, які можуть шифрувати та прив'язувати конфіденційні документи, такі як звіти про оцінку та контракти на продаж, до транзакцій у мережі, що не тільки реалізує обіг активів, але й захищає комерційну конфіденційність.
FHE Bridge від Mind Network накопичив 650 000 активних адрес і 3,2 мільйона криптовалютних транзакцій, доводячи життєздатність технічного рішення. Звичайно, ці дані спрямовані лише на достатньо жорсткий ринковий попит і підтверджують його, і важко чітко уявити, наскільки великими є перспективи ринку та простір.
3) Багато чисто нативних блокчейн-будівельників були стурбовані напрямком і треком збірки, будь то до віталіка або до венчурного капіталу, або просто простий гарячий наратив Fomo, я думаю, що наступним кроком буде поступитися місцем Уолл-стріт, скористатися перевагами регуляторної дружності уряду США до криптовалют і надати базові послуги інфраструктури і навіть чистих інструментів, необхідні для того, щоб Уолл-стріт якомога більше увійшла в криптосферу, і все добре.
Коли традиційні фінансові гіганти, такі як BlackRock і JPMorgan Chase, активно впроваджують токенізацію активів, їх головне турбує не те, чи може блокчейн переказувати гроші, а те, чи може він відповідати регуляторним стандартам, таким як KYC і AML. Це справжня причина, чому Mind Network хоче вийти на трек RWA заздалегідь. Якщо припустити, що до 2034 року ринок RWA досягне $30 трлн, що станеться з попитом на інфраструктуру відповідності в такому обсязі?
Звичайно, у кожного можуть бути очікування щодо того, щоб поділитися тортом RWA Blue Ocean Market. Але насправді важливіше знайти відповідний екологічний слот для карток, подібно до того, як AWS забезпечує обчислення в епоху хмарних обчислень, а Cloudflare надає CDN, інфраструктура блокчейну також рухається в бік вертикальної сегментації, і деякі вертикальні хардкорні напрямки технічного сервісу обов'язково знайдуть свій спеціалізований розподіл праці.
Очевидно, що Mind Network фокусується на стеку технологій FHE і надає можливості «шифрування як послуга» для різних треків. Тому не дивно побачити його на треках ZK, AI та RWA.
Звичайно, цінність постачальників технологій в кінцевому підсумку залежить від вибухового зростання кількості подальших додатків. Незалежно від того, чи це очікування RWA у розмірі 30 трильйонів доларів, чи автономний процес AI Agent, для перевірки знадобиться час.

Mind Network7 серп., 16:50
✉️ Зашифрований обмін повідомленнями в ланцюжку
Активи реального світу (#RWAs), такі як нерухомість, розрахунки в стейблкоїнах і транскордонне фінансування, вимагають більше, ніж просто передача вартості.
Ці випадки використання залежать від транзакцій, які мають мету, ідентичність і контрольні журнали з відповідністю та конфіденційністю.
#SWIFT стандартизує повідомлення для дотримання та врегулювання. Блокчейнам все ще не вистачає власного зашифрованого способу вираження цих атрибутів.
Encrypted Messaging Onchain — це новий протокол, який дозволяє гаманцям надсилати зашифровані, структуровані та перевірені повідомлення безпосередньо разом із будь-якою транзакцією в ланцюжку.
✅ Автоструктурований текст для семантичної ясності
✅ Генератор ключів на основі гаманця для наскрізного шифрування
✅ Зашифровані повідомлення, пов'язані з транзакціями з контрольними журналами та контролем доступу
Encrypted Messaging Onchain поєднує в собі повністю гомоморфне шифрування (#FHE) зі звичайними криптографічними методами, щоб перетворити конфіденційні дані на безпечне корисне навантаження в мережі, доступне лише призначеним одержувачам.
Дізнатися більше:

6,92K
Нещодавно на YouTube-каналі "The Rollup" генеральний директор @TrustWallet Еовін Чен та Рам Кумар, основний автор @OpenledgerHQ, обговорили глибоку співпрацю між двома сторонами. Тут виокремлюються та діляться деякими цінними точками зору:
1) Обливання холодною водою на основі теорії «жирного гаманця»
В інтерв'ю Енді згадав популярну в індустрії теорію «жирного гаманця» - гаманці з каналами входу користувачів можуть вертикально інтегрувати різні сервіси? Але відповідь Еовін Чен була цікавою, вона прямо сказала, що роздрібний бізнес користувачів C-end насправді дуже складний, передбачає велику підтримку клієнтів, вищі обов'язки щодо безпеки та часту маршрутизацію продуктів.
Багато людей думають, що створення гаманця – це хороший бізнес, коли вони бачать 200 мільйонів завантажень Trust Wallet, але сам генеральний директор наголошує на болю обслуговування роздрібних користувачів. Це свідчить про те, що «жир» гаманця не є товстим, якщо ви хочете бути товстим, і хоча відносини з користувачем є цінними, вартість обслуговування не низька. Ця точка зору цілком реальна, і вона показує реальну ситуацію багатьох постачальників послуг гаманців зараз.
Що ще важливіше, вона зазначила, що не вся цінність концентрується на передньому краї, і що всі частини ланцюжка створення вартості повинні розвиватися справедливо. Ця точка зору проливає холодну воду на теорію «жирного гаманця» і пояснює, чому Trust Wallet готовий співпрацювати з інфраструктурними проектами, такими як OpenLedger.
2) Чи настала точка перегину спеціалізованого ШІ?
Варто звернути увагу на судження Рама Кумара щодо шляху розвитку штучного інтелекту. Він вважає, що штучний інтелект еволюціонує від загального до спеціалізації, подібно до того, як Google виводить вертикальні додатки, такі як LinkedIn і YouTube, із загального пошуку. Загальний штучний інтелект на кшталт ChatGPT буде схожий на операційну систему, а в майбутньому з'явиться більше «спеціалізованих моделей», присвячених конкретним випадкам використання.
Це також узгоджується з моїм попереднім аналізом еволюції тенденцій індустрії web3AI. Коли Trust Wallet експериментував з функціями штучного інтелекту, він виявив, що моделі загального призначення не можуть вирішити конкретні проблеми в криптопросторі, що підтверджує цю тенденцію. І саме побудова спеціалізованих моделей штучного інтелекту вимагає високоякісних даних у вертикальних полях, що і хоче вирішити OpenLedger.
3) Дилема «неоплачуваної праці», спричинена даними
Рам Кумар прямо сказав, що ШІ – це індустрія на трильйон доларів, побудована на неоплачуваній праці, яка є досить гострою. Компанії, що займаються штучним інтелектом, навчають моделі, збираючи дані з Інтернету, але постачальники даних не отримують шматка пирога, що справді є структурною проблемою.
Рішення OpenLedger полягає в тому, щоб дозволити постачальникам даних отримувати довгострокову частку доходу від моделей штучного інтелекту, а не продавати всі дані одразу. Завдяки глобальним платіжним можливостям гаманця теоретично можливо досягти безперешкодного розподілу вартості через кордони.
Але ось основне питання: як гарантується якість даних? Сам Рам визнає, що 90% внесків з відкритим вихідним кодом від таких платформ, як Hugging Face, марні. Якщо цінність самих внесених даних обмежена, яким би хорошим не був механізм заохочення, він буде марним.
Вище.
Еовін Чен використовує аналогію «право володіти зброєю» з самостійним хостингом, наголошуючи, що функції штучного інтелекту є необов'язковими, і користувачі можуть вибирати між зручністю та безпекою. Ця філософія продукту вірна, але те, як «чітко представити варіанти» — це великий тест на здатність дизайну продукту.
Рам також згадав цікаве судження: криптогаманці – це єдиний спосіб для користувачів отримувати гроші за свій внесок у дані в усьому світі. Це означає, що роль гаманців може еволюціонувати від простих інструментів управління активами до інфраструктури для цифрової ідентифікації та розподілу вартості.
Примітка: Для отримання додаткової інформації ви можете відвідати систему каналів The Rollup на Youtube, щоб переглянути це інтерв'ю.


The Rollup5 серп., 08:31
НОВИЙ МІНІ-АЛЬБОМ: Нова ера дистрибуції з Рамом Кумаром та Еовіном Ченом
У сьогоднішньому епізоді @ayyyeandy сідає з @Ramkumartweet з @OpenledgerHQ та @EowynChen з @TrustWallet, щоб дослідити:
>Теза про товстий гаманець» проти теорії протоколу Fat
>Як Trust Wallet планує інтегрувати штучний інтелект
>Ризики безпеки гаманців на основі штучного інтелекту
>Бачення OpenLedger щодо винагороди постачальників даних
>Чому загальний штучний інтелект ніколи не працюватиме для DeFi
Посилання на повний епізод нижче.
Мітки:
00:00 Вступ
00:20 Передісторія криптовалют та штучного інтелекту Рама та Еовіна
02:50 Цінність Trust Wallet для користувачів
07:43 Реклама Старкнет
08:10 OpenLedger про еволюцію штучного інтелекту
11:03 Майбутнє інтерфейсів гаманців
17:12 Самостійне зберігання AI Guardings
21:22 Мантія Реклама
22:02 Навчання кращих моделей штучного інтелекту
28:19 Що буде далі з OpenLedger і Trust Wallet
5,18K
Добре поміркувавши, остання заява @VitalikButerin про швидке впровадження L2 є досить цікавою. Якщо коротко: він вважає, що досягнення швидкого зняття коштів протягом 1 години важливіше, ніж досягнення Етапу 2, і логіка цього коригування пріоритетів заслуговує на роздуми:
1) Тижневий період очікування виведення коштів дійсно став великою проблемою в практичному застосуванні, не тільки поганий користувацький досвід, але, що більш важливо, він підштовхнув до зростання крос-чейн витрат.
Наприклад, мостові рішення на основі намірів, такі як ERC-7683, вимагають від постачальників ліквідності нести витрати на зайняття коштів протягом тижня, що безпосередньо підвищує міжланцюгові комісії. Як наслідок, користувачі змушені вибирати схеми з мультипідписом із слабшими припущеннями про довіру, що суперечить початковому наміру L2.
Тому Віталік пропонує гібридну систему захисту 2 з 3 (ZK+OP+TEE), в якій ZK та TEE можуть забезпечити миттєвість, а TEE та OP мають достатню перевірку виробництва. Теоретично будь-які дві системи можуть гарантувати безпеку, тим самим уникаючи тимчасових витрат на просте очікування повного дозрівання технології ZK.
2) Ще один момент, нова заява Віталіка змушує відчути, що він починає бути прагматичним? З ідеалістичної молоді, яка раніше говорила про «децентралізований джихад» і «антицензуру», вони перетворилися на прагматичних людей, які тепер прямо дають жорсткі показники: 1 година на відступ, 12 секунд на завершення – все стало простим і грубим.
Раніше всі говорили про децентралізацію Stage 2, але тепер V God прямо сказав, що важливіше швидке виведення коштів, що рівнозначно перестановці пріоритетів всього треку L2. Це фактично прокладає шлях до кінцевої форми великої стратегії «Rollup-Centric», що робить Ethereum L1 справді єдиним рівнем розрахунків і центром ліквідності. Як тільки буде досягнуто швидкого виведення коштів + крос-чейн агрегації, іншим публічним ланцюгам буде важко кинути виклик екосистемі Ethereum.
Причина, чому Xiao V такий, також є результатом голосування ринку ногами, щоб сказати йому, що ринок не дбає про технічне гасло децентралізації, а приділяє більше уваги досвіду та перевагам, цей перехід від «ідеальних» до «орієнтованих на результат» відображає, що вся екосистема Ethereum розвивається в більш комерціалізованому та конкурентно-орієнтованому напрямку.
3) Проблема полягає в тому, що для досягнення довгострокової мети реального досвіду та будівництва інфраструктури, наступна екосистема Ethereum, швидше за все, буде залучена до зрілості та контролю витрат технології ZK.
Судячи з поточної ситуації, хоча технологія ZK швидко розвивається, вартість все ще залишається реалістичним обмеженням. Докази ZK 500k+ газу означають, що погодинні темпи подання можуть бути досягнуті лише в короткостроковій перспективі, а для досягнення кінцевої мети в 12 секунд ми повинні покладатися на прориви в технології агрегації.
Логіка тут зрозуміла: вартість частого надсилання доказів для одного зведення занадто висока, але якщо докази N зведень можна об'єднати в один, то стане економічно доцільним рівномірно розподілити їх на кожен слот (12 секунд).
Це також пропонує новий технічний маршрут для ландшафту змагань L2, і ті проекти L2, які можуть взяти на себе лідерство в досягненні проривів в оптимізації ZK, можуть знайти точку опори, в той час як товариші по грі, які все ще борються з оптимістичними доказами Optimism, швидше за все, заблукають.

vitalik.eth7 серп., 00:29
Дивно бачити стільки основних L2 зараз на етапі 1.
Наступна мета, до якої ми повинні прагнути, це, на мій погляд, швидкий (<1h) час виведення коштів, що забезпечується системами доказу валідності (так званої ZK).
Я вважаю це навіть важливішим, ніж етап 2.
Швидкий час виведення коштів важливий, тому що очікування тижня для виведення просто занадто довге для людей, і навіть для мостового зв'язку на основі намірів (наприклад, . ERC-7683), вартість капіталу стає занадто високою, якщо постачальнику ліквідності доводиться чекати тиждень. Це створює значні стимули для використання рішень з неприйнятними припущеннями про довіру (наприклад, мультисігси/MPC), які підривають саму суть існування L2 замість повністю незалежних L1.
Якщо ми зможемо скоротити нативний час виведення коштів до менш ніж 1 години короткострокової перспективи та 12 секунд у середньостроковій перспективі, то ми зможемо ще більше закріпити Ethereum L1 як місце за замовчуванням для випуску активів і економічний центр екосистеми Ethereum.
Для цього нам потрібно відійти від систем оптимістичних доказів, які за своєю суттю вимагають очікування кількох днів для виведення.
Історично склалося так, що технологія ZK proof була незрілою та дорогою, що зробило оптимістичні докази розумним і безпечним вибором. Але останнім часом ситуація стрімко змінюється. це чудове місце для відстеження прогресу доказів ZK-EVM, які швидко вдосконалюються. Також просувається офіційна верифікація на доказах ZK.
На початку цього року я запропонував стратегію системи захисту 2 з 3 ZK + OP + TEE, яка протягує нитку між безпекою, швидкістю та зрілістю:
* 2 з 3 систем (ZK, OP) не викликають довіри, тому жоден суб'єкт (включаючи виробника TEE або зловмисника на стороні каналу) не може зламати систему доказу, порушивши припущення про довіру
* 2 з 3 систем (ZK, TEE) є миттєвими, тому ви отримуєте швидке виведення коштів у звичайному випадку
* 2 з 3 систем (TEE, OP) виробляються в різних контекстах протягом багатьох років
Це один з підходів; можливо, люди виберуть замість цього тайбрейк ZK + ZK + OP, або тай-брейк ZK + ZK + Рада безпеки. У мене тут немає категоричних думок, мене хвилює основна мета, яка полягає в тому, щоб бути швидким (у звичайному випадку) і безпечним.
З такими системами доказів єдиним вузьким місцем, що залишається для швидкого врегулювання, стає вартість газу для подання доказів у мережі. Ось чому в короткостроковій перспективі я кажу раз на годину: якщо ви намагаєтеся подавати 500k+ газовий ZK proof (або 5m gas STARK) набагато частіше, це додає високі додаткові витрати.
У довгостроковій перспективі ми можемо вирішити це за допомогою агрегації: N доказів з N зведень (плюс tx-файли від користувачів privacy-protocol) можуть бути замінені одним доказом, який доводить достовірність N доказів. Це стає економічно вигідним для подання один раз на слот, що забезпечує ендшпіль: майже миттєвий рух нативного крос-L2 активу через L1.
Давайте працювати разом, щоб це сталося.
14,16K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги