OpenLedger Глибина дослідження: на основі OP Stack + EigenDA побудувати економіку інтелектів, що керується даними та може комбінувати моделі
Одне. Вступ | Переход моделей Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність), що є незамінними. Як і в традиційній інфраструктурі ШІ, еволюційний шлях в Crypto AI також пройшов подібні етапи. На початку 2024 року ринок на деякий час контролювався децентралізованими проектами GPU, які загалом підкреслювали логіку грубого зростання «конкуренція обчислювальної потужності». А з початком 2025 року увага галузі поступово перемістилася до моделей та рівня даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного за застосуванням середнього рівня.
Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) значною мірою залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів часто становить від 70B до 500B, а вартість одного навчання може сягати кількох мільйонів доларів. Тим часом SLM (Спеціалізована мовна модель) як легка парадигма тонкої настройки, що дозволяє повторне використання базової моделі, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних професійних даних та технології, такі як LoRA, для швидкого створення експертних моделей, що мають знання в певній галузі, що суттєво знижує витрати на навчання та технічний бар'єр.
Варто зазначити, що SLM не буде інтегровано в LLM ваги, а взаємодіятиме з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу вставку модулів LoRA, RAG (покращене генерування на основі пошуку) тощо. Ця архітектура зберігає широку покривну здатність LLM і одночасно підсилює професійні показники за допомогою модулів тонкого налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Crypto AI вартість і межі на рівні моделі
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Технічний бар'єр занадто високий: обсяги даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, в даний час лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні моделі з відкритим кодом вже доступні, справжній прорив моделей все ще зосереджений на науково-дослідних установах та закритих інженерних системах, а участь проектів на блокчейні в основному шарі моделей є обмеженою.
Однак, на основі відкритих моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості через тонке налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це втілюється в двох основних напрямках:
Достовірний верифікаційний рівень: через записані в ланцюгу дані про модель, шляхи її генерації, внесок у дані та їх використання посилюється можливість відстеження результатів AI та їх стійкість до підробок.
Механізм стимулювання: за допомогою рідного токена, який використовується для стимулювання завантаження даних, виклику моделей, виконання агентів (Agent) тощо, створення позитивного циклу навчання моделей і послуг.
Класифікація типів AI моделей та аналіз придатності для блокчейну
Отже, модельний клас проектів Crypto AI має основні точки застосування, зосереджені на легкій тонкій налаштуванні невеликих SLM, інтеграції та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Блокчейн AI ланцюг на основі даних та моделей може забезпечити чітке, незмінне записування джерел внесків для кожної даних та моделі, що суттєво підвищує достовірність даних та відстежуваність навчання моделей. Водночас, через механізм смарт-контрактів, при виклику даних або моделі автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювальну, торгівельну токенізовану вартість, що дозволяє створити стійку систему стимулювання. Крім того, користувачі спільноти можуть оцінювати ефективність моделей, голосуючи токенами, брати участь у встановленні правил та ітераціях, вдосконалюючи децентралізовану управлінську структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI Chain OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, що зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які вносять дані, розробників моделей та творців AI додатків співпрацювати на одній платформі та отримувати прибуток на блокчейні відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей» і «виклику розподілу прибутку», його основні модулі включають:
Модельна фабрика: без програмування, можна використовувати LoRA для доопрацювання, навчання та розгортання налаштованих моделей на основі відкритого LLM;
OpenLoRA: підтримка спільного використання тисячі моделей, динамічне завантаження за потребою, суттєве зниження витрат на розгортання;
PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагород через виклики на ланцюгу;
Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, створені та перевірені спільнотою;
Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаємий, платіжний ринковий простір моделей на блокчейні.
За допомогою вищезазначених модулів OpenLedger побудував "інфраструктуру економіки агентів", що базується на даних та має можливість комбінування моделей, сприяючи онлайнізації ланцюга вартості ШІ.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, економічного та перевіряємого середовища для виконання даних і контрактів для AI моделей.
Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: забезпечення безпеки транзакцій та цілісності активів;
EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.
На відміну від NEAR, який більше орієнтований на базовий рівень та акцентує увагу на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджений на створенні спеціалізованого AI-ланцюга, орієнтованого на стимулювання даних та моделей, прагнучи до того, щоб розробка та виклик моделей реалізувалися в ланцюзі з можливістю відстеження, комбінування та стійкої ціннісної замкнутості. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, розрахунок за використання та комбіновані інтерфейси в ланцюзі, просуваючи шлях реалізації «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельний завод, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чисто графічний інтерфейс, без необхідності в командних рядках або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які пройшли авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделей.
Вибір та налаштування моделі: підтримка основних LLM, налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в реальному часі.
Оцінка та розгортання моделі: вбудовані інструменти оцінки, підтримка експорту для розгортання або спільного використання в екосистемі.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, зручний для безпосереднього тестування здатності моделі відповідати на запитання.
RAG генерація трасування: відповіді з посиланнями на джерела, що підвищують довіру та аудит.
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, управління даними, тонке налаштування моделей, оцінку впровадження та трасування RAG, створюючи безпечну, контрольовану, інтерактивну та стійку платформу послуг моделей для монетизації.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
LLaMA серія: найбільша екосистема, активна громада, універсальна продуктивність, є однією з найпоширеніших відкритих основних моделей на сьогодні.
Mistral: ефективна архітектура, відмінні показники розуміння, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: Китайською мовою показує відмінні результати, має високі комплексні можливості, підходить для вибору перших розробників у країні.
ChatGLM: видатні результати для китайських діалогів, підходить для вертикальних служб підтримки та локалізованих сцен.
Deepseek: виявляє переваги в генеруванні коду та математичному міркуванні, підходить для інструментів підтримки розумної розробки.
Gemma: легка модель, розроблена Google, з чіткою структурою, яка дозволяє швидко почати роботу та експериментувати.
Falcon: Колишній еталон продуктивності, підходить для базових досліджень або порівняльних тестів, але активність спільноти зменшилася.
BLOOM: Підтримка багатьох мов досить сильна, але продуктивність в інференції відносно слабка, підходить для досліджень, що охоплюють мови.
GPT-2: класична рання модель, підходить лише для навчальних та перевірочних цілей, не рекомендується для фактичного розгортання.
Хоча модельний набір OpenLedger не містить новітніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-деплойментом (витрати на інференцію, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до «практичного пріоритету» в конфігурації.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:
Для розробників: надання повного шляху для інкубації, розподілу та доходу моделей;
Для платформи: формування моделі обігу активів та екосистеми комбінацій;
Для користувачів: можна комбінувати моделі або агенти так само, як викликати API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделей тонкого налаштування
LoRA (Low-Rank Adaptation) є ефективним методом тонкої настройки параметрів, який навчає нові завдання шляхом вставлення «низькорангових матриць» у попередньо навчений великий модуль, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, необхідно провести тонку налаштування. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найкращим сучасним методом тонкої настройки для розгортання та комбінаційного виклику Web3 моделей.
OpenLoRA є легким фреймворком для інференсу, створеним OpenLedger, спеціально розробленим для розгортання кількох моделей та спільного використання ресурсів. Його основною метою є вирішення поширених проблем, що виникають під час розгортання AI моделей, таких як високі витрати, низька повторна використання і витрати GPU-ресурсів, сприяючи реалізації «оплачуваного AI» (Payable AI).
Ядро архітектури системи OpenLoRA, що базується на модульному дизайні, охоплює ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, забезпечуючи ефективність і низькі витрати на розгортання та виклик кількох моделей:
Модуль зберігання LoRA адаптера: налаштований LoRA адаптер розміщується на OpenLedger, що дозволяє завантажувати його за потребою, уникати попереднього завантаження всіх моделей у відеопам'ять, заощаджуючи ресурси.
Модельне хостинг та динамічний злиток: усі моделі для доопрацювання спільно використовують базову велику модель, під час інференції динамічно об'єднуються LoRA адаптери, що підтримує спільну інференцію кількох адаптерів, покращуючи продуктивність.
Розумова система: інтеграція Flash-Attention, Paged-Attention, оптимізації SGMV та інших технологій оптимізації CUDA.
Запит маршрутизації та модуль потокового виведення: корінь
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
6
Репост
Поділіться
Прокоментувати
0/400
JustAnotherWallet
· 13год тому
Все ще граєте в обчислювальну потужність? Це вже застаріло.
Переглянути оригіналвідповісти на0
wagmi_eventually
· 13год тому
Знову роздувають нові наративи, трохи безглуздо
Переглянути оригіналвідповісти на0
LiquidatedDreams
· 13год тому
Трагічно знову торгують ai
Переглянути оригіналвідповісти на0
AirdropGrandpa
· 13год тому
Ще досі борешся за обчислювальну потужність? Прокидайся!
Переглянути оригіналвідповісти на0
AirdropHunter420
· 13год тому
Знову прийшло сліпе нашарування на нижньому рівні
Переглянути оригіналвідповісти на0
TokenAlchemist
· 13год тому
гм, ще один l2 намагається захопити альфа обчислення ШІ... побачимо, як це буде масштабуватися в продакшені, якщо чесно
OpenLedger будує економіку AI моделей: OP Stack база технології доопрацювання сприяє стійким стимулам
OpenLedger Глибина дослідження: на основі OP Stack + EigenDA побудувати економіку інтелектів, що керується даними та може комбінувати моделі
Одне. Вступ | Переход моделей Crypto AI
Дані, моделі та обчислювальна потужність є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (модель), енергії (обчислювальна потужність), що є незамінними. Як і в традиційній інфраструктурі ШІ, еволюційний шлях в Crypto AI також пройшов подібні етапи. На початку 2024 року ринок на деякий час контролювався децентралізованими проектами GPU, які загалом підкреслювали логіку грубого зростання «конкуренція обчислювальної потужності». А з початком 2025 року увага галузі поступово перемістилася до моделей та рівня даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного за застосуванням середнього рівня.
Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) значною мірою залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів часто становить від 70B до 500B, а вартість одного навчання може сягати кількох мільйонів доларів. Тим часом SLM (Спеціалізована мовна модель) як легка парадигма тонкої настройки, що дозволяє повторне використання базової моделі, зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних професійних даних та технології, такі як LoRA, для швидкого створення експертних моделей, що мають знання в певній галузі, що суттєво знижує витрати на навчання та технічний бар'єр.
Варто зазначити, що SLM не буде інтегровано в LLM ваги, а взаємодіятиме з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу вставку модулів LoRA, RAG (покращене генерування на основі пошуку) тощо. Ця архітектура зберігає широку покривну здатність LLM і одночасно підсилює професійні показники за допомогою модулів тонкого налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.
Crypto AI вартість і межі на рівні моделі
Проекти Crypto AI в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Однак, на основі відкритих моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості через тонке налаштування спеціалізованих мовних моделей (SLM) та поєднання з перевірюваністю та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це втілюється в двох основних напрямках:
Класифікація типів AI моделей та аналіз придатності для блокчейну
Отже, модельний клас проектів Crypto AI має основні точки застосування, зосереджені на легкій тонкій налаштуванні невеликих SLM, інтеграції та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токеноміку, Crypto може надати унікальну цінність для цих сценаріїв з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Блокчейн AI ланцюг на основі даних та моделей може забезпечити чітке, незмінне записування джерел внесків для кожної даних та моделі, що суттєво підвищує достовірність даних та відстежуваність навчання моделей. Водночас, через механізм смарт-контрактів, при виклику даних або моделі автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювальну, торгівельну токенізовану вартість, що дозволяє створити стійку систему стимулювання. Крім того, користувачі спільноти можуть оцінювати ефективність моделей, голосуючи токенами, брати участь у встановленні правил та ітераціях, вдосконалюючи децентралізовану управлінську структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI Chain OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, що зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, що стимулює учасників, які вносять дані, розробників моделей та творців AI додатків співпрацювати на одній платформі та отримувати прибуток на блокчейні відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей» і «виклику розподілу прибутку», його основні модулі включають:
За допомогою вищезазначених модулів OpenLedger побудував "інфраструктуру економіки агентів", що базується на даних та має можливість комбінування моделей, сприяючи онлайнізації ланцюга вартості ШІ.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, економічного та перевіряємого середовища для виконання даних і контрактів для AI моделей.
На відміну від NEAR, який більше орієнтований на базовий рівень та акцентує увагу на суверенітеті даних і архітектурі «AI Agents on BOS», OpenLedger більше зосереджений на створенні спеціалізованого AI-ланцюга, орієнтованого на стимулювання даних та моделей, прагнучи до того, щоб розробка та виклик моделей реалізувалися в ланцюзі з можливістю відстеження, комбінування та стійкої ціннісної замкнутості. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, розрахунок за використання та комбіновані інтерфейси в ланцюзі, просуваючи шлях реалізації «модель як актив».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельний завод, безкодова модельна фабрика
ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чисто графічний інтерфейс, без необхідності в командних рядках або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які пройшли авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, управління даними, тонке налаштування моделей, оцінку впровадження та трасування RAG, створюючи безпечну, контрольовану, інтерактивну та стійку платформу послуг моделей для монетизації.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Хоча модельний набір OpenLedger не містить новітніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-деплойментом (витрати на інференцію, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до «практичного пріоритету» в конфігурації.
Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активізація он-chain активів моделей тонкого налаштування
LoRA (Low-Rank Adaptation) є ефективним методом тонкої настройки параметрів, який навчає нові завдання шляхом вставлення «низькорангових матриць» у попередньо навчений великий модуль, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань, необхідно провести тонку налаштування. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а розгортання гнучким, що робить її найкращим сучасним методом тонкої настройки для розгортання та комбінаційного виклику Web3 моделей.
OpenLoRA є легким фреймворком для інференсу, створеним OpenLedger, спеціально розробленим для розгортання кількох моделей та спільного використання ресурсів. Його основною метою є вирішення поширених проблем, що виникають під час розгортання AI моделей, таких як високі витрати, низька повторна використання і витрати GPU-ресурсів, сприяючи реалізації «оплачуваного AI» (Payable AI).
Ядро архітектури системи OpenLoRA, що базується на модульному дизайні, охоплює ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, забезпечуючи ефективність і низькі витрати на розгортання та виклик кількох моделей: