OpenLedger construye infraestructura de activación de activos AI: OP Stack + EigenDA impulsa modelos de datos de economía composable

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición de la capa del modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), al motor (modelo) y a la energía (potencia de cálculo), que son indispensables entre sí. Al igual que la evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo una vez dominado por proyectos de GPU descentralizados ( ciertas plataformas de potencia de cálculo, ciertas plataformas de renderizado, ciertas redes descentralizadas, etc. ), enfatizando de manera general la lógica de crecimiento extensa de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción en capas intermedias más sostenibles y con valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con tamaños de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste ligero de un modelo base reutilizable, generalmente se basa en ciertos modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos de un campo, reduciendo significativamente los costos de entrenamiento y la barrera técnica.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la invocación de la arquitectura Agent, el enrutamiento dinámico del sistema de plugins, la conectividad en caliente de módulos LoRA, RAG (generación aumentada por recuperación), entre otros. Esta arquitectura conserva la capacidad de amplia cobertura de LLM, al tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI en esencia son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grandes (LLM), la razón principal radica en

  • Barrera técnica demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundacional son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China poseen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: Aunque los modelos básicos principales ya están disponibles como código abierto, la clave para impulsar los avances en los modelos sigue estando concentrada en las instituciones de investigación y los sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.

Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de industria de AI, se manifiesta en dos direcciones clave:

  • Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de la salida de IA.
  • Mecanismo de incentivos: A través del Token nativo, se utilizan para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, etc., construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain

Como se puede ver, los puntos de viabilidad de los proyectos de Crypto AI basados en modelos se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, y el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la «capa de interfaz» de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara y no modificable el origen de la contribución de cada dato y modelo, lo que mejora significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, mediante el mecanismo de contrato inteligente, se desencadenan automáticamente recompensas al ser llamados los datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del proyecto | Visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de IA en blockchain en el mercado actual que se centra en los incentivos de datos y modelos. Fue pionero en el concepto de "Payable AI", con el objetivo de construir un entorno de funcionamiento de IA justo, transparente y componible, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en la cadena según su contribución real.

OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamada de reparto de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, puede utilizar LoRA para el ajuste fino, capacitación y despliegue de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): mediante el registro de llamadas en la cadena se logra la medición de contribuciones y la distribución de recompensas;
  • Datanets: Red de datos estructurados orientada a escenarios verticales, construida y validada por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelo combinable, promoviendo la on-chainización de la cadena de valor de la IA.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en una pila tecnológica que admite una alta profundidad de procesamiento y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: permite a los desarrolladores desplegar y ampliar rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con ciertas cadenas públicas que son más de nivel inferior y se centran en la soberanía de datos y en la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir una cadena de inteligencia artificial dedicada orientada a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de una comunidad de modelos, la facturación de uso al estilo de una plataforma de pagos y una interfaz combinable en la cadena al estilo de una infraestructura, promoviendo el camino hacia la realización de «modelo como activo».

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyos procesos centrales incluyen:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLMs populares, configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: Herramientas de evaluación integradas, soportan la exportación de despliegue o la llamada compartida en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de trazabilidad RAG: Responder con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada que sea segura y controlable, con interacción en tiempo real y capacidad de monetización sostenible.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory actualmente admite:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y un rendimiento general fuerte, es uno de los modelos base de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuada para escenarios con despliegue flexible y recursos limitados.
  • Qwen: un producto de una empresa tecnológica, con un excelente rendimiento en tareas en chino, gran capacidad integral, ideal para desarrolladores nacionales como primera opción.
  • ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente de nicho y escenarios de localización.
  • Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: Un modelo ligero lanzado por una empresa tecnológica, con una estructura clara y fácil de usar y experimentar rápidamente.
  • Falcon: Solía ser un referente de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones de implementación en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una cadena de herramientas sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, que garantiza los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para los desarrolladores: proporcionar un camino completo para la incubación de modelos, distribución e ingresos;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelados;
  • Para los usuarios: se pueden combinar los modelos o Agentes como si se estuviera llamando a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener miles de millones o incluso billones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas.", su eficiencia en parámetros, rapidez de entrenamiento y flexibilidad de despliegue la convierten en el método de ajuste más adecuado para el despliegue de modelos Web3 y la llamada combinada.

OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, especialmente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA actuales, como los altos costos, la baja reutilización y el desperdicio de recursos GPU, promoviendo la implementación de la "IA pagable" (Payable AI).

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

OpenLoRA arquitectura del sistema componentes centrales, basada en un diseño modular, cubriendo el almacenamiento de modelos, la ejecución de inferencia, el enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de implementación y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento LoRA Adapter (
OP-5.94%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Republicar
  • Compartir
Comentar
0/400
EntryPositionAnalystvip
· 08-10 15:14
Capital respaldado, impulsado por datos, los que entienden, entienden.
Ver originalesResponder0
FloorPriceWatchervip
· 08-10 04:11
Otra vez un proyecto de Potencia computacional.
Ver originalesResponder0
ForkMastervip
· 08-10 04:03
Otra vez es un cuento para recaudar dinero, ¿quién no sabe que al máximo es un código de bifurcación secundaria?
Ver originalesResponder0
WalletDetectivevip
· 08-10 03:53
Vuelven a aprovechar la popularidad de la IA. Si vivo hasta el próximo año, consideraré que he perdido.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)