Investigación sobre la carrera de AI Layer1: Análisis de la base técnica de la Descentralización de la inteligencia artificial

Investigación sobre la carrera de AI Layer1: buscando la tierra fértil para DeAI en cadena

Resumen

En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han mostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso demostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un capital sólido y el control de costosos recursos computacionales, estas empresas han establecido barreras casi insuperables, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.

Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública suele centrarse en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas influirán profundamente en el desarrollo saludable de la industria de la IA y en su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se orienta hacia el "bien" o hacia el "mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar proactivamente estos desafíos.

La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ha proporcionado nuevas posibilidades para el desarrollo sostenible de la industria de IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en varias blockchains mainstream. Sin embargo, un análisis profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain todavía muestra limitaciones en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación deben mejorar.

Para lograr verdaderamente la visión de la IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.

Biteye y PANews publican conjuntamente el informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Las características clave de AI Layer 1

AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centra estrechamente en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En particular, AI Layer 1 debe poseer las siguientes capacidades clave:

  1. Mecanismos de incentivos eficientes y consenso descentralizado. El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como capacidad de cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionar capacidad de cómputo y completar el entrenamiento e inferencia de modelos de IA, sino también contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la distribución eficiente de recursos. Solo así se podrá garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la capacidad de cómputo.

  2. Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un alto rendimiento computacional y capacidades de procesamiento paralelo. Además, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe estar profundamente optimizado en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo flexible, y preconfigurar capacidades de soporte nativo para recursos de computación heterogénea, asegurando que todo tipo de tareas de IA se ejecuten de manera eficiente, logrando una expansión fluida desde "tareas únicas" hasta "ecosistemas complejos y diversos".

  3. Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir riesgos de seguridad como la malicia del modelo y la manipulación de datos, sino que también debe asegurar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de cero conocimiento (ZK) y computación segura multipartita (MPC), la plataforma puede permitir que cada inferencia del modelo, entrenamiento y proceso de tratamiento de datos sean verificables de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a entender la lógica y fundamentos de la salida de la IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.

  4. Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los ámbitos financiero, médico y social, la protección de la privacidad de los datos es especialmente crucial. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de cálculo de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de datos, eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.

  5. Capacidad de soporte y desarrollo de un ecosistema poderoso. Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener liderazgo técnico, sino que también necesita proporcionar a desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomentará la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua de un ecosistema de IA descentralizado.

Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual del desarrollo de los proyectos y discutiendo las tendencias futuras.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Sentient: Construyendo modelos de IA descentralizados de código abierto y leales

Resumen del proyecto

Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain de IA Layer1 (. La fase inicial será Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es abordar la propiedad del modelo, el seguimiento de llamadas y la distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución del valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.

El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores en blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad de la IA y la protección de la privacidad, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas conocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.

Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su inicio, contando con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento inicial de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otras instituciones inversoras que incluyen a Delphi, Hashkey y Spartan, entre decenas de conocidos VC.

Biteye y PANews publican en conjunto un informe de investigación sobre AI Layer1: buscando el terreno fértil para DeAI en la cadena

diseño de arquitectura y capa de aplicación

Capa de infraestructura

Arquitectura central

La arquitectura central de Sentient está compuesta por un pipeline de IA (AI Pipeline) y un sistema de blockchain.

La tubería de IA es la base para desarrollar y entrenar artefactos de "IA leal", que incluye dos procesos centrales:

  • Curaduría de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación de modelos.
  • Entrenamiento de Lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.

El sistema blockchain proporciona transparencia y control descentralizado para el protocolo, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:

  • Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
  • Capa de distribución: entrada de llamada al modelo controlado por el contrato de autorización;
  • Capa de acceso: valida si el usuario está autorizado a través de la prueba de permisos;
  • Capa de incentivos: El contrato de enrutamiento de ingresos asignará el pago de cada llamada a los entrenadores, desplegadores y validadores.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Marco de modelo OML

El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es la idea central propuesta por Sentient, que tiene como objetivo proporcionar una clara protección de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:

  • Apertura: El modelo debe ser de código abierto, con el código y la estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
  • Monetización: Cada llamada al modelo activará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, desplegadores y validadores.
  • Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son determinadas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)

La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y la propiedad de diferenciabilidad de los modelos para desarrollar mecanismos de seguridad livianos que son "verificables pero no removibles". Su tecnología central es:

  • Incrustación de huellas dactilares: insertar un conjunto de pares clave-valor de consulta-respuesta encubiertos durante el entrenamiento para formar la firma única del modelo;
  • Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
  • Mecanismo de llamada autorizado: antes de llamar, se debe obtener un "certificado de autorización" emitido por el propietario del modelo, y el sistema autoriza al modelo a decodificar la entrada y devolver la respuesta exacta en base a esto.

Este método permite realizar "autorizaciones basadas en el comportamiento + validación de pertenencia" sin costos de re-encriptación.

Marco de ejecución segura y confirmación de modelo

Sentient actualmente utiliza Melange mezcla de seguridad: combinación de derechos de propiedad con huellas dactilares, ejecución TEE y distribución de ganancias de contratos on-chain. El método de huellas dactilares es la implementación de OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, y detección y castigo en caso de incumplimiento.

El mecanismo de huellas dactilares es la implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento mediante la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, evitando copias no autorizadas y comercialización. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de las actividades de uso del modelo.

Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, su alta rendimiento y ventajas en tiempo real lo convierten en la tecnología central para el despliegue de modelos en la actualidad.

En el futuro, Sentient planea introducir pruebas de conocimiento cero (ZK) y técnicas de cifrado totalmente homomórfico (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando una mejor base para el despliegue descentralizado de modelos de IA.

DEAI3.74%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 3
  • Republicar
  • Compartir
Comentar
0/400
TooScaredToSellvip
· 08-08 14:10
los degen solo pueden acostarse y ser dominados por las grandes empresas
Ver originalesResponder0
ChainMelonWatchervip
· 08-08 14:02
Este monopolio es realmente demasiado descarado.
Ver originalesResponder0
GateUser-3824aa38vip
· 08-08 13:49
Siento que los gigantes son demasiado codiciosos.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)