Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI on-chain
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado habilidades sin precedentes en diversas industrias, expandiendo enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un sólido capital y el control de costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación compitan con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas clave como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estas cuestiones afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "ser benévola" o "ser malvada" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar estos desafíos de manera proactiva.
La tecnología de blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en varias blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain sigue siendo limitada en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, y permitir que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene su arquitectura y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debería poseer las siguientes capacidades clave:
Mecanismo de incentivos eficientes y consenso descentralizado
El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros contables, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con recursos diversificados como almacenamiento, datos y ancho de banda, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la asignación eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas
Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altas exigencias en rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizarse profundamente en la arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo flexible, y prever la capacidad de soporte nativo para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos."
Verificabilidad y garantía de salida confiable
AI Layer 1 no solo debe prevenir riesgos de seguridad como el uso indebido de modelos y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculos seguros multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de tratamiento de datos sea validado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y las bases de la salida de la IA, logrando que "lo que se obtiene sea lo que se desea", y aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de datos
Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en los campos financiero, médico y social, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de los datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo de ecosistemas.
Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino también proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en la pista, analizando el estado actual del desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain Layer1 de IA ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado mediante el marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas conocidas como Meta, Coinbase, Polygon, así como universidades de primer nivel como la Universidad de Princeton y las Instituciones Indias de Tecnología, cubriendo campos como AI/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como proyecto de segunda empresa de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su inicio, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre varias docenas de conocidos VC.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el Pipeline de IA (AI Pipeline) y el sistema de blockchain.
El pipeline de IA es la base para desarrollar y entrenar artefactos de "IA leal", que incluye dos procesos centrales:
Curación de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento consistente con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlada por contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado mediante la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a cada llamada a los entrenadores, implementadores y validadores.
Marco del modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que tiene como objetivo proporcionar una protección clara de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada vez que se llama al modelo, se activa un flujo de ingresos, el contrato on-chain distribuirá los ingresos entre el formador, el desplegador y el validador.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Huella digital incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella digital se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada autorizado: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema autorizará al modelo a decodificar la entrada y devolver la respuesta precisa.
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de derechos de modelo y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución de TEE y participación en contratos on-chain. El método de huellas dactilares se implementa en la línea principal de OML 1.0, enfatizando el pensamiento de "Seguridad Optimista (Optimistic Security)", es decir, cumplimiento por defecto, detección de infracciones y castigo posterior.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento a través de la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, previniendo copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable de comportamiento de uso en la cadena.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para la implementación de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de cero conocimiento (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando un despliegue descentralizado de modelos de IA.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
4
Republicar
Compartir
Comentar
0/400
NftDataDetective
· hace16h
hmm... solo otro intento de hypear la IA "descentralizada" cuando la gran tecnología ya posee el juego, para ser honesto.
Ver originalesResponder0
ForeverBuyingDips
· hace16h
¿Ah? ¡También hay esta pista!
Ver originalesResponder0
MEVictim
· hace16h
¿Una nueva forma de tomar a la gente por tonta en la industria?
Ver originalesResponder0
TeaTimeTrader
· hace16h
Hacer algo tan profundo, no es mejor que comerciar una moneda.
Nueva tendencia en la carrera Layer1 de IA: análisis profundo de seis proyectos
Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI on-chain
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado habilidades sin precedentes en diversas industrias, expandiendo enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un sólido capital y el control de costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación compitan con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas clave como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estas cuestiones afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA debe "ser benévola" o "ser malvada" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar estos desafíos de manera proactiva.
La tecnología de blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en varias blockchains principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain sigue siendo limitada en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, y permitir que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Características clave de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene su arquitectura y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debería poseer las siguientes capacidades clave:
Mecanismo de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro de libros contables, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con recursos diversificados como almacenamiento, datos y ancho de banda, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando la seguridad de la red y la asignación eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean altas exigencias en rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizarse profundamente en la arquitectura subyacente para satisfacer las demandas de alta capacidad de procesamiento, baja latencia y paralelismo flexible, y prever la capacidad de soporte nativo para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos."
Verificabilidad y garantía de salida confiable AI Layer 1 no solo debe prevenir riesgos de seguridad como el uso indebido de modelos y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. A través de la integración de tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculos seguros multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de tratamiento de datos sea validado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y las bases de la salida de la IA, logrando que "lo que se obtiene sea lo que se desea", y aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en los campos financiero, médico y social, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de los datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo de ecosistemas. Como una infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino también proporcionar herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en la pista, analizando el estado actual del desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados y de código abierto leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain Layer1 de IA ( en la fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado mediante el marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas conocidas como Meta, Coinbase, Polygon, así como universidades de primer nivel como la Universidad de Princeton y las Instituciones Indias de Tecnología, cubriendo campos como AI/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como proyecto de segunda empresa de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su inicio, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre varias docenas de conocidos VC.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el Pipeline de IA (AI Pipeline) y el sistema de blockchain.
El pipeline de IA es la base para desarrollar y entrenar artefactos de "IA leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco del modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, que tiene como objetivo proporcionar una protección clara de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de derechos de modelo y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución de TEE y participación en contratos on-chain. El método de huellas dactilares se implementa en la línea principal de OML 1.0, enfatizando el pensamiento de "Seguridad Optimista (Optimistic Security)", es decir, cumplimiento por defecto, detección de infracciones y castigo posterior.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento a través de la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la propiedad, previniendo copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro rastreable de comportamiento de uso en la cadena.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para la implementación de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de cero conocimiento (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando un despliegue descentralizado de modelos de IA.