Новая финансовая парадигма, возникающая на стыке AI и Web3: восход DeFAI и вызовы безопасности
Недавно на мероприятии Blockchain Week в Стамбуле отраслевые эксперты провели глубокое обсуждение тенденций слияния искусственного интеллекта и Web3. В ходе мероприятия несколько экспертов в области безопасности и технологий приняли участие в круглом столе, где обсудили текущее состояние применения технологий ИИ в децентрализованных финансах и связанные с этим проблемы безопасности.
С быстрым развитием больших языковых моделей и AI-агентов, постепенно формируется новая финансовая парадигма, называемая "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Однако эта инновация также несет новые угрозы безопасности и потенциальные риски.
Некоторые руководители безопасности компании отметили: "Хотя DeFAI имеет широкие перспективы, он требует от нас переосмысления механизмов доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов будет зависеть от множества факторов, включая контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможности для атаки."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики AI, обычно работающими под авторизацией пользователей, протоколов или децентрализованных автономных организаций. В настоящее время самым типичным примером являются AI-торговые роботы. Однако большинство AI-агентов по-прежнему функционирует на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как атаки инъекций, манипуляции моделями или подделка данных. Если AI-агент будет захвачен, это может привести не только к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях как торговые сигналы, злоумышленник может опубликовать ложные предупреждения, например, утверждая, что какой-то протокол подвергся атаке. Это может побудить AI-агента немедленно запустить экстренные операции по ликвидации, что приведет не только к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать, прибегнув к таким методам, как фронт-раннинг.
Столкнувшись с этими рисками, эксперты, присутствующие на встрече, единогласно считают, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны четко понимать пределы полномочий агента, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики, в свою очередь, должны внедрять меры защиты уже на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и логика отката. Третьи стороны, занимающиеся безопасностью, должны проводить независимые проверки поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и выработки мер по их смягчению.
Некоторые эксперты по безопасности в конце концов подчеркивают: "Если мы продолжим рассматривать AI-агентов как 'черные ящики', то происшествия в реальном мире — это лишь вопрос времени." Он советует разработчикам, которые исследуют направление DeFAI: "Как и в случае с умными контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, существует возможность атак, поэтому необходимы профессиональные аудиты безопасности и тестирование на проникновение."
Неделя блокчейна в Стамбуле, являясь одним из самых влиятельных блокчейн-мероприятий в Европе, уже привлекла более 15 000 разработчиков, проектных команд, инвесторов и регуляторов со всего мира. С официальным запуском Комиссии по капиталовложениям Турции процесса выдачи лицензий на блокчейн-проекты статус этого мероприятия в отрасли был дополнительно укреплен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
21 Лайков
Награда
21
5
Поделиться
комментарий
0/400
ImpermanentLossEnjoyer
· 07-17 20:10
Риск-контроль действительно больше не будет проводиться?
Посмотреть ОригиналОтветить0
StablecoinEnjoyer
· 07-14 21:14
Перед вами Хакер, за вами баг
Посмотреть ОригиналОтветить0
ShibaMillionairen't
· 07-14 20:53
行业неудачники总代表
Посмотреть ОригиналОтветить0
FlashLoanLarry
· 07-14 20:51
ждите неприятностей... уже видел этот фильм с defi 1.0. капитальная эффективность != безопасность
Посмотреть ОригиналОтветить0
CryptoHistoryClass
· 07-14 20:51
*проверяет график* у кого-нибудь есть вибрации luna 2.0?
Восход DeFAI: Применение AI-агентов в Децентрализованном финансировании и проблемы безопасности
Новая финансовая парадигма, возникающая на стыке AI и Web3: восход DeFAI и вызовы безопасности
Недавно на мероприятии Blockchain Week в Стамбуле отраслевые эксперты провели глубокое обсуждение тенденций слияния искусственного интеллекта и Web3. В ходе мероприятия несколько экспертов в области безопасности и технологий приняли участие в круглом столе, где обсудили текущее состояние применения технологий ИИ в децентрализованных финансах и связанные с этим проблемы безопасности.
С быстрым развитием больших языковых моделей и AI-агентов, постепенно формируется новая финансовая парадигма, называемая "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Однако эта инновация также несет новые угрозы безопасности и потенциальные риски.
Некоторые руководители безопасности компании отметили: "Хотя DeFAI имеет широкие перспективы, он требует от нас переосмысления механизмов доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов будет зависеть от множества факторов, включая контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможности для атаки."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики AI, обычно работающими под авторизацией пользователей, протоколов или децентрализованных автономных организаций. В настоящее время самым типичным примером являются AI-торговые роботы. Однако большинство AI-агентов по-прежнему функционирует на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как атаки инъекций, манипуляции моделями или подделка данных. Если AI-агент будет захвачен, это может привести не только к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях как торговые сигналы, злоумышленник может опубликовать ложные предупреждения, например, утверждая, что какой-то протокол подвергся атаке. Это может побудить AI-агента немедленно запустить экстренные операции по ликвидации, что приведет не только к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать, прибегнув к таким методам, как фронт-раннинг.
Столкнувшись с этими рисками, эксперты, присутствующие на встрече, единогласно считают, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны четко понимать пределы полномочий агента, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики, в свою очередь, должны внедрять меры защиты уже на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и логика отката. Третьи стороны, занимающиеся безопасностью, должны проводить независимые проверки поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и выработки мер по их смягчению.
Некоторые эксперты по безопасности в конце концов подчеркивают: "Если мы продолжим рассматривать AI-агентов как 'черные ящики', то происшествия в реальном мире — это лишь вопрос времени." Он советует разработчикам, которые исследуют направление DeFAI: "Как и в случае с умными контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, существует возможность атак, поэтому необходимы профессиональные аудиты безопасности и тестирование на проникновение."
Неделя блокчейна в Стамбуле, являясь одним из самых влиятельных блокчейн-мероприятий в Европе, уже привлекла более 15 000 разработчиков, проектных команд, инвесторов и регуляторов со всего мира. С официальным запуском Комиссии по капиталовложениям Турции процесса выдачи лицензий на блокчейн-проекты статус этого мероприятия в отрасли был дополнительно укреплен.