Эра DataFi: Новый двигатель развития ИИ и революция данных в блокчейне

Следующее десятилетие развития ИИ: революция в инфраструктуре данных

Искусственный интеллект ( AI ) на протяжении долгого времени сосредоточен на увеличении масштаба моделей и вычислительной способности, но по мере того, как параметры моделей превышают триллион и вычислительная мощность достигает уровня сотен квинтиллионов операций в секунду, становится все более очевидным одно упущенное核心瓶颈 - данные. Структурные противоречия, с которыми сталкивается современное развитие ИИ, открывают совершенно новую картину "Эпохи данных" - в эту эпоху данные больше не являются побочным продуктом технологий, а становятся измеримым, торговым и обладающим добавленной стоимостью основным производственным фактором, подобно электричеству и вычислительной мощности.

Структурные противоречия в AI-индустрии: от гонки вычислительных мощностей к дефициту данных

Развитие ИИ на протяжении долгого времени было движимо двумя основными факторами: "модель-вычислительная мощность". С момента революции глубинного обучения параметры модели выросли с миллионов до триллионов, а потребность в вычислительной мощности увеличилась в геометрической прогрессии. По статистике, стоимость обучения одного продвинутого языкового модели уже превышает 100 миллионов долларов, из которых 90% идет на аренду GPU-кластеров. Однако, пока отрасль сосредоточена на "больших моделях" и "быстрых чипах", кризис со стороны поставок данных незаметно приближается.

Человечески сгенерированные "органические данные" достигли потолка роста. Например, по данным текстов, общее количество высококачественных текстов, доступных для сканирования в интернете, составляет примерно 10^12 слов, в то время как для обучения модели с триллионом параметров требуется около 10^13 слов данных. Это означает, что существующий пул данных может поддерживать обучение лишь 10 моделей одинакового масштаба. Более того, доля повторяющихся данных и контента низкого качества превышает 60%, что дополнительно сжимает предложение эффективных данных. Когда модель начинает "поглощать" данные, которые она сама генерирует, деградация производительности модели, вызванная "загрязнением данных", становится серьезной проблемой в отрасли.

Корень этого противоречия заключается в том, что AI-индустрия долгое время рассматривала данные как "бесплатный ресурс", а не как "стратегический актив", который требует тщательного ухода. Модели и вычислительные мощности уже образовали зрелую рыночную систему, но производство, очистка, верификация и торговля данными все еще находятся в "диком состоянии". Следующие десять лет для AI станут "десятилетием инфраструктуры данных", и именно данные в цепочке блокчейна криптосетей являются ключом к разрешению этой проблемы.

Данные на блокчейне: "База данных человеческого поведения", которая так необходима ИИ

На фоне нехватки данных, ончейн-данные криптосетей демонстрируют неоспоримую ценность. По сравнению с традиционными интернет-данными, ончейн-данные обладают подлинностью "согласования стимулов" - каждая транзакция, каждое взаимодействие с контрактом, каждое поведение адреса кошелька напрямую связано с реальным капиталом и не подлежит изменению. Ончейн-данные можно определить как "самые концентрированные данные о человеческом согласовании стимулов в интернете", что конкретно проявляется в трех измерениях:

"сигналы намерений" в реальном мире

Записанные на блокчейне данные отражают действия, связанные с голосованием с использованием реальных средств. Например, обмен активов в кошельке на каком-либо DEX, залог и кредитование на платформе займов, регистрация домена непосредственно отражают оценку пользователем стоимости проекта, его склонность к риску и стратегию распределения капитала. Такие данные, подкрепленные капиталом, имеют чрезвычайно высокую ценность для обучения способности ИИ к принятию решений, такой как финансовый прогноз и рыночный анализ (. В отличие от этого, традиционные интернет-данные переполнены "шума", и эти данные не только не могут обучить надежную модель ИИ, но и могут ввести модель в заблуждение.

) отслеживаемая "цепочка действий"

Прозрачность блокчейна позволяет полностью отслеживать поведение пользователей. Исторические транзакции адреса кошелька, взаимодействовавшие протоколы и изменения в активе формируют связную "цепочку действий". Например, анализируя операции определенного адреса в DeFi-протоколах с 2020 года до сегодняшнего дня, ИИ может точно определить, является ли он "долгосрочным держателем", "арбитражным трейдером" или "поставщиком ликвидности", и на основе этого создать профиль пользователя. Эти структурированные данные о поведении являются самым дефицитным "человеческим образцом рассуждений" для современных ИИ-моделей.

открытая экосистема "безлицензионный доступ"

В отличие от закрытости данных традиционных предприятий, данные на блокчейне открыты и не требуют разрешения. Любой разработчик может получить исходные данные через блокчейн-обозреватель или API данных, что предоставляет "безбарьерный" источник данных для обучения моделей ИИ. Однако эта открытость также создает проблемы: данные на блокчейне существуют в форме "журнала событий", являются неструктурированными "исходными сигналами", которые необходимо очистить, стандартизировать и связать, чтобы их можно было использовать в моделях ИИ. В настоящее время "коэффициент структурированной трансформации" данных на блокчейне составляет менее 5%, и большое количество ценных сигналов теряется среди миллиардов фрагментированных событий.

Гиперданные Сеть: "Операционная система" для данных на блокчейне

Чтобы решить проблему фрагментации данных в блокчейне, было предложено новое "умное операционное система на блокчейне" - это сеть данных, специально разработанная для ИИ. Ее основной целью является преобразование разбросанных сигналов в блокчейне в структурированные, проверяемые и совместимые в реальном времени данные, готовые для ИИ.

Рукопись: Открытые стандарты данных, позволяющие ИИ "понимать" мир блокчейна

Одна из основных проблем данных на блокчейне - это "неоднородность форматов" - форматы журналов событий различных блокчейнов отличаются, а структура данных разных версий одного и того же протокола также может изменяться. Manuscript, как открытый стандарт схемы данных, унифицирует определение и описание данных на блокчейне. Например, он стандартизирует "поведение пользователей при стекинге" в виде структурированных данных, содержащих такие поля, как staker_address, protocol_id, amount, timestamp, reward_token, что позволяет моделям ИИ не адаптироваться к различным форматам данных разных цепочек или протоколов, а непосредственно "понимать" бизнес-логику данных.

Стандартизированная ценность заключается в снижении摩擦成本 разработки ИИ. Предположим, что команде необходимо обучить "Модель прогнозирования поведения пользователей DeFi"; традиционным способом потребуется подключить API нескольких цепочек и написать различные скрипты для разбора. В то время как на основе Manuscript все данные на цепочке предварительно обработаны в соответствии с единым стандартом, разработчики могут напрямую использовать такие структурированные данные, как "записи о ставках пользователей" и "записи о предоставлении ликвидности", что значительно сокращает время обучения модели.

Основное требование AI-моделей к данным - это "достоверность". Если обучающие данные были изменены или загрязнены, вывод модели не будет иметь никакой ценности. Сеть Hyperdata гарантирует подлинность данных через механизм AVS###Active Validator Set( на основе Ethereum. AVS является расширяющим компонентом консенсусного слоя Ethereum, состоящим из множества валидаторских узлов, за которыми закреплено большое количество ETH, и эти узлы отвечают за проверку целостности и точности данных в цепи. Когда сеть Hyperdata обрабатывает событие в цепи, узлы AVS перекрестно проверяют хеш-значения данных, информацию о подписи и состояние в цепи, чтобы гарантировать, что структурированные данные, которые были выданы, полностью соответствуют оригинальным данным в цепи.

Механизм верификации, основанный на "гарантии криптоэкономики", решает проблемы доверия традиционной централизованной верификации данных. Например, если какая-либо AI-компания использует данные на блокчейне, предоставленные централизованной организацией, она должна доверять этой организации, что данные не были подделаны; в то время как использование Hyperdata Network обеспечивает достоверность данных за счет децентрализованной сети верификаторов, и любое вмешательство вызовет механизм наказания смарт-контракта.

) Chainbase DA: уровень доступности данных с высокой пропускной способностью

AI-модели, особенно приложения AI для реального времени ###, такие как торговые роботы и интеллектуальные клиенты (, требуют низкой задержки и высокой пропускной способности данных. Уровень Chainbase DA ) Data Availability ( специально разработан для этой потребности, оптимизируя алгоритмы сжатия данных и протоколы передачи, что позволяет обрабатывать сотни тысяч событий в цепочке в реальном времени каждую секунду. Например, когда на каком-либо DEX происходит крупная сделка, Chainbase DA может за 1 секунду завершить извлечение данных, стандартизацию и верификацию, а затем отправить структурированный "сигнал крупной сделки" подписанным AI-моделям, позволяя им своевременно корректировать торговую стратегию.

Высокая пропускная способность обеспечивается модульной архитектурой - Chainbase DA отделяет хранение данных от вычислений, где хранение данных осуществляется распределенной сетью узлов, а вычисления выполняются через оффчейн Rollup, что позволяет избежать узких мест производительности самой блокчейна. Этот дизайн позволяет Hyperdata Network поддерживать требования к данным в реальном времени для крупных AI приложений, таких как предоставление онлайн-сервисов данных на блокчейне для большого количества торговых агентов.

Эра DataFi: Когда данные становятся "капиталом" для торговли

Конечная цель Hyperdata Network - привести индустрию ИИ в эпоху DataFi, где данные больше не являются пассивным "тренировочным материалом", а становятся активным "капиталом", который можно оценивать, торговать и увеличивать его стоимость. Как электричество оценивается в киловаттах, так и вычислительная мощность оценивается в FLOPS, данные также должны оцениваться, ранжироваться и оцениваться. Реализация этого видения зависит от того, что Hyperdata Network преобразует данные в четыре основные характеристики:

) Структурирование: от "исходного сигнала" до "доступного актива"

Непереработанные данные в блокчейне подобны "нефти", их необходимо переработать, чтобы превратить в "бензин". Сеть Hyperdata преобразует их в структурированные данные через стандарт Manuscript, например, разбивая "адрес кошелька A в момент времени T внес в протокол B X токенов" на многомерные данные, содержащие пользовательский профиль, свойства протокола, тип активов и временную метку. Эта структура позволяет данным быть напрямую вызванными AI-моделями, так же просто, как вызов API.

Комбинируемые: "Лего" данных

В Web3 "комбинируемость" стала причиной взрыва DeFi. Hyperdata Network вводит эту концепцию в область данных: структурированные данные могут свободно комбинироваться, как LEGO-кирпичики. Например, разработчики могут объединять "записи о ставках пользователей" с "данными о колебаниях цен" и "количеством упоминаний в социальных сетях", чтобы обучить "модель прогнозирования настроений рынка DeFi". Эта комбинируемость значительно расширяет границы применения данных, позволяя инновациям в области ИИ больше не ограничиваться единственным источником данных.

Проверяемо: "Кредитное одобрение" данных

Структурированные данные, проверенные через AVS, генерируют уникальный "отпечаток данных" ### хэш-значение ( и хранятся в блокчейне. Любое ИИ-приложение или разработчик, использующий эти данные, может подтвердить подлинность данных, проверив хэш-значение. Эта "проверяемость" придает данным кредитные свойства - например, набор данных, помеченный как "высококачественный торговый сигнал", его историческая точность может быть отслежена по хэш-записи в блокчейне, пользователю не нужно доверять поставщику набора данных, достаточно проверить отпечаток данных, чтобы оценить качество данных.

) Ликвидность: "монетизация данных"

В эпоху DataFi поставщики данных могут напрямую монетизировать структурированные данные через Hyperdata Network. Например, команда, анализируя данные на блокчейне, разработала "сигналы предупреждения о уязвимостях смарт-контрактов", которые можно упаковать в API-сервис и взимать плату за количество вызовов; обычные пользователи также могут авторизовать обмен своими анонимизированными данными на блокчейне и получить токены данных в качестве вознаграждения. В этой экосистеме стоимость данных определяется рыночным спросом и предложением - высокоточные торговые сигналы могут оцениваться выше, в то время как базовые данные о поведении пользователей могут тарифицироваться за каждое использование.

Заключение: Данные революция, следующий десятилетие ИИ

Когда мы говорим о будущем ИИ, мы часто сосредотачиваемся на "умственном уровне" моделей, игнорируя "данные, на которых основан интеллект". Hyperdata Network раскрывает ключевую истину: эволюция ИИ по своей сути является эволюцией инфраструктуры данных. От "ограниченности" данных, генерируемых человеком, до "обнаружения ценности" данных на блокчейне, от "беспорядка" фрагментированных сигналов до "упорядоченности" структурированных данных, от "бесплатного ресурса" данных до "капитальных активов" DataFi, эта сеть переосмысляет основную логику индустрии ИИ.

В эту эпоху DataFi данные станут мостом, соединяющим ИИ и реальный мир - торговые агенты воспринимают рыночные настроения через данные в блокчейне, автономные dApp оптимизируют услуги на основе данных о поведении пользователей, а обычные пользователи получают постоянный доход через обмен данными. Как электрическая сеть породила промышленную революцию, так вычислительная сеть порождает интернет-революцию, Hyperdata Network становится катализатором "революции данных" в ИИ.

Следующее поколение приложений, основанных на ИИ, требует не только моделей или кошельков, но и данных, которые не требуют доверия, являются программируемыми и имеют высокий сигнал. Когда данные наконец получат должную ценность, ИИ сможет по-настоящему освободить силу, способную изменить мир.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
CoffeeNFTsvip
· 08-09 08:30
Модель ест данные до отвала
Посмотреть ОригиналОтветить0
SatoshiLegendvip
· 08-09 02:59
Эра DataFi наступила, и теология в конечном итоге осознает, что данные — это вера, а возвращение к истокам — это истина.
Посмотреть ОригиналОтветить0
FallingLeafvip
· 08-09 02:57
Вычислительная мощность сжигает деньги, да…
Посмотреть ОригиналОтветить0
ChainPoetvip
· 08-09 02:43
Вычислительная мощность слишком высокая, кажется, скоро станет игрой.
Посмотреть ОригиналОтветить0
MEVHunterXvip
· 08-09 02:34
Модели тоже сжигают деньги впустую.
Посмотреть ОригиналОтветить0
  • Закрепить