A nova paradigma financeiro emergente com a fusão de AI e Web3: A ascensão do DeFAI e os desafios de segurança
Recentemente, durante a Blockchain Week realizada em Istambul, especialistas do setor realizaram uma discussão aprofundada sobre a tendência de fusão entre inteligência artificial e Web3. Durante o evento, vários especialistas nas áreas de segurança e tecnologia participaram de um fórum em mesa redonda, explorando o estado atual da aplicação da tecnologia de IA nas finanças descentralizadas e os desafios de segurança que isso traz.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, está a emergir uma nova paradigma financeira chamada "DeFAI" (finanças de inteligência artificial descentralizada). No entanto, esta inovação também traz novas preocupações de segurança e potenciais riscos.
Um executivo de uma empresa de segurança apontou: "Embora o DeFAI tenha um grande potencial, ele exige que repensemos os mecanismos de confiança em sistemas descentralizados. Diferentemente dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por uma variedade de fatores, incluindo contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta os riscos, mas também oferece oportunidades para atacantes em potencial."
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizados a operar por usuários, protocolos ou organizações autônomas descentralizadas. Atualmente, o exemplo mais típico são os robôs de negociação de IA. No entanto, a maioria dos agentes de IA ainda opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a vários ataques, como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez que um agente de IA é sequestrado, isso pode não apenas resultar em perdas financeiras diretas, mas também afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando um agente de negociação de IA operado por um usuário DeFi está monitorizando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alertas falsos, como afirmar que um determinado protocolo está sob ataque. Isso pode levar o agente de IA a iniciar imediatamente operações de liquidação de emergência, resultando não apenas na perda de ativos do usuário, mas também potencialmente causando volatilidade no mercado, que pode ser explorada pelo atacante através de táticas como negociação em alta.
Perante estes riscos, os especialistas presentes concordam que a segurança dos agentes de IA deve ser uma responsabilidade conjunta dos utilizadores, desenvolvedores e instituições de segurança de terceiros. Os utilizadores precisam de entender claramente o alcance das permissões dos agentes, autorizar com cautela e monitorizar de perto as operações de alto risco dos agentes de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço das palavras-chave, isolamento em sandbox, limitação de taxa e lógica de retorno, entre outros mecanismos. As instituições de segurança de terceiros devem fornecer uma revisão independente do comportamento dos modelos dos agentes de IA, da infraestrutura e da forma como são integrados na blockchain, colaborando com desenvolvedores e utilizadores para identificar riscos e propor medidas de mitigação.
Um especialista em segurança enfatizou no final: "Se continuarmos a ver os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
A Semana de Blockchain de Istambul, como um dos eventos de blockchain mais influentes da Europa, já atraiu mais de 15.000 desenvolvedores, equipes de projetos, investidores e reguladores de todo o mundo. Com a Comissão do Mercado de Capitais da Turquia a lançar oficialmente a emissão de licenças para projetos de blockchain, a posição da indústria deste evento foi ainda mais elevada.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
4
Partilhar
Comentar
0/400
StablecoinEnjoyer
· 07-14 21:14
Antes há hackers, depois há bugs
Ver originalResponder0
ShibaMillionairen't
· 07-14 20:53
indivíduos idiotas da indústria
Ver originalResponder0
FlashLoanLarry
· 07-14 20:51
rekt incoming... já vi este filme antes com defi 1.0. eficiência de capital != segurança
Ver originalResponder0
CryptoHistoryClass
· 07-14 20:51
*verifica o gráfico* alguém com vibes de luna 2.0?
DeFAI em ascensão: Aplicações e desafios de segurança de agentes de IA nas Finanças Descentralizadas
A nova paradigma financeiro emergente com a fusão de AI e Web3: A ascensão do DeFAI e os desafios de segurança
Recentemente, durante a Blockchain Week realizada em Istambul, especialistas do setor realizaram uma discussão aprofundada sobre a tendência de fusão entre inteligência artificial e Web3. Durante o evento, vários especialistas nas áreas de segurança e tecnologia participaram de um fórum em mesa redonda, explorando o estado atual da aplicação da tecnologia de IA nas finanças descentralizadas e os desafios de segurança que isso traz.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, está a emergir uma nova paradigma financeira chamada "DeFAI" (finanças de inteligência artificial descentralizada). No entanto, esta inovação também traz novas preocupações de segurança e potenciais riscos.
Um executivo de uma empresa de segurança apontou: "Embora o DeFAI tenha um grande potencial, ele exige que repensemos os mecanismos de confiança em sistemas descentralizados. Diferentemente dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por uma variedade de fatores, incluindo contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta os riscos, mas também oferece oportunidades para atacantes em potencial."
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizados a operar por usuários, protocolos ou organizações autônomas descentralizadas. Atualmente, o exemplo mais típico são os robôs de negociação de IA. No entanto, a maioria dos agentes de IA ainda opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a vários ataques, como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez que um agente de IA é sequestrado, isso pode não apenas resultar em perdas financeiras diretas, mas também afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando um agente de negociação de IA operado por um usuário DeFi está monitorizando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alertas falsos, como afirmar que um determinado protocolo está sob ataque. Isso pode levar o agente de IA a iniciar imediatamente operações de liquidação de emergência, resultando não apenas na perda de ativos do usuário, mas também potencialmente causando volatilidade no mercado, que pode ser explorada pelo atacante através de táticas como negociação em alta.
Perante estes riscos, os especialistas presentes concordam que a segurança dos agentes de IA deve ser uma responsabilidade conjunta dos utilizadores, desenvolvedores e instituições de segurança de terceiros. Os utilizadores precisam de entender claramente o alcance das permissões dos agentes, autorizar com cautela e monitorizar de perto as operações de alto risco dos agentes de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço das palavras-chave, isolamento em sandbox, limitação de taxa e lógica de retorno, entre outros mecanismos. As instituições de segurança de terceiros devem fornecer uma revisão independente do comportamento dos modelos dos agentes de IA, da infraestrutura e da forma como são integrados na blockchain, colaborando com desenvolvedores e utilizadores para identificar riscos e propor medidas de mitigação.
Um especialista em segurança enfatizou no final: "Se continuarmos a ver os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
A Semana de Blockchain de Istambul, como um dos eventos de blockchain mais influentes da Europa, já atraiu mais de 15.000 desenvolvedores, equipes de projetos, investidores e reguladores de todo o mundo. Com a Comissão do Mercado de Capitais da Turquia a lançar oficialmente a emissão de licenças para projetos de blockchain, a posição da indústria deste evento foi ainda mais elevada.