I. Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en gran medida la lógica de crecimiento extensiva de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando que Crypto AI está pasando de la competencia por recursos de base a una construcción de nivel medio con más sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que reutiliza modelos base, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos que poseen conocimientos específicos de un campo, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante tener en cuenta que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conectividad en caliente de módulos LoRA y RAG (generación aumentada por recuperación). Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Barrera técnica demasiado alta: la escala de datos, los recursos computacionales y la capacidad de ingeniería necesarios para entrenar un Modelo de Fundación son extremadamente grandes; actualmente, solo gigantes tecnológicos como Estados Unidos y China tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos como LLaMA y Mixtral ya están abiertos, la clave para impulsar verdaderos avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.
Sin embargo, sobre los modelos de base de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través de la afinación de modelos de lenguaje especializados (SLM) y la combinación de la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través del registro en la cadena de bloques del modelo de generación de rutas, contribuciones de datos y uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: Utilizando el Token nativo, se incentivan acciones como la carga de datos, la invocación de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, y el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medianos y bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y comercializable, estableciendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y la iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
Dos, Resumen del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA en blockchain en el mercado actual que se centra en los incentivos de datos y modelos. Fue pionero en la propuesta del concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de reparto de beneficios", cuyos módulos principales incluyen:
Fábrica de Modelos: sin necesidad de programación, puede utilizar LoRA para el entrenamiento y despliegue de modelos personalizados basado en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
Datanets: Red de datos estructurados orientada a escenarios verticales, construida y validada por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, invocable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en la pila de tecnología de Optimism, soporta alta capacidad de procesamiento y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: Facilita a los desarrolladores desplegar y expandir rápidamente basado en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA genéricas como NEAR, que se centran más en la infraestructura subyacente y promueven la soberanía de datos con la arquitectura "AI Agents on BOS", OpenLedger se enfoca más en construir una cadena de IA dedicada a los incentivos de datos y modelos, comprometida a lograr un ciclo de valor rastreable, combinable y sostenible en el desarrollo y la invocación de modelos en la cadena. Es la infraestructura de incentivos de modelos en el mundo de Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación por uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando así el camino hacia la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM de uso común (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra el progreso de entrenamiento en tiempo real.
Evaluación y despliegue de modelos: herramientas de evaluación integradas, soporte para exportar despliegue o llamadas compartidas en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
Generación de RAG: Responder con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelo integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
La siguiente es una tabla resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa, rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuada para escenarios de despliegue flexible y recursos limitados.
Qwen: Producto de Alibaba, presenta un rendimiento excepcional en tareas en chino, con una capacidad integral fuerte, ideal como primera opción para desarrolladores nacionales.
ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar rápidamente y experimentar.
Falcon: Antes fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura lingüística.
GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementaciones reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de baja barrera de entrada, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelados;
Para los usuarios: se pueden combinar modelos o Agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros originales del modelo, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del gran modelo original, solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, especialmente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la implementación de "IA Pagable" (Payable AI).
Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de adaptadores LoRA ( Almacenamiento de adaptadores LoRA ): El adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
Alojamiento de modelos y fusión dinámica
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
9
Compartir
Comentar
0/400
FUD_Vaccinated
· 07-10 17:23
Sigue la especulación sobre el concepto de IA, ¿cuándo terminará?
Ver originalesResponder0
ApyWhisperer
· 07-09 18:35
Esto hay que aprovecharlo al máximo.
Ver originalesResponder0
AltcoinOracle
· 07-09 16:59
los patrones no mienten... op stack + eigenDA formando una perfecta distribución wyckoff... cambio de paradigma en camino frens
Ver originalesResponder0
StableGenius
· 07-08 06:00
meh... otro día, otro "avance" en ai/crypto. Hablando empíricamente, solo están reempaquetando infraestructura antigua, para ser honesto.
Ver originalesResponder0
GasFeeTears
· 07-08 05:57
Solo están especulando con conceptos de nuevo.
Ver originalesResponder0
MEVVictimAlliance
· 07-08 05:56
Esta trampa se parece demasiado al Lavado de ojos de GPU.
Ver originalesResponder0
SlowLearnerWang
· 07-08 05:50
Ya es el momento en que la parte A hace promesas. ¿Qué se está logrando realmente con la potencia computacional?
Ver originalesResponder0
GateUser-0717ab66
· 07-08 05:47
Está apilando la potencia computacional del modelo.
Ver originalesResponder0
Rugman_Walking
· 07-08 05:46
¿Es confiable realmente la potencia computacional?
OpenLedger: Construyendo una infraestructura económica de agentes inteligentes impulsada por datos
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en gran medida la lógica de crecimiento extensiva de "competir en potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, marcando que Crypto AI está pasando de la competencia por recursos de base a una construcción de nivel medio con más sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar millones de dólares. En cambio, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que reutiliza modelos base, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos que poseen conocimientos específicos de un campo, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante tener en cuenta que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conectividad en caliente de módulos LoRA y RAG (generación aumentada por recuperación). Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Sin embargo, sobre los modelos de base de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través de la afinación de modelos de lenguaje especializados (SLM) y la combinación de la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de la industria de AI, se manifiesta en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, y el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medianos y bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y comercializable, estableciendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y la iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
Dos, Resumen del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de IA en blockchain en el mercado actual que se centra en los incentivos de datos y modelos. Fue pionero en la propuesta del concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en cadena según su contribución real.
OpenLedger ofrece un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de reparto de beneficios", cuyos módulos principales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA genéricas como NEAR, que se centran más en la infraestructura subyacente y promueven la soberanía de datos con la arquitectura "AI Agents on BOS", OpenLedger se enfoca más en construir una cadena de IA dedicada a los incentivos de datos y modelos, comprometida a lograr un ciclo de valor rastreable, combinable y sostenible en el desarrollo y la invocación de modelos en la cadena. Es la infraestructura de incentivos de modelos en el mundo de Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación por uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando así el camino hacia la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento de modelos y el despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicios de modelo integrada que es segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
La siguiente es una tabla resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de baja barrera de entrada, monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros originales del modelo, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del gran modelo original, solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, especialmente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la implementación de "IA Pagable" (Payable AI).
Componentes centrales de la arquitectura del sistema OpenLoRA, basados en un diseño modular, que cubren el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo: