OpenLedger construit une infrastructure d'assetisation AI : OP Stack + EigenDA pilotent des modèles de données pour une économie combinatoire.

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligente, axée sur les données et modulable, sur la base d'OP Stack + EigenDA

I. Introduction | La transition du niveau de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments centraux de l'infrastructure AI, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), qui sont tous indispensables. Tout comme le chemin d'évolution de l'infrastructure de l'industrie AI traditionnelle, le domaine de Crypto AI a également traversé des étapes similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés comme ( une plateforme de puissance de calcul, une plateforme de rendu, un réseau décentralisé, etc. ), mettant généralement l'accent sur la logique de croissance extensive « 拼算力 ». Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèle et de données, marquant la transition de Crypto AI d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur certains modèles open source, combiné avec une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts d'entraînement et les barrières techniques.

Il est important de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins de routage dynamique, le module LoRA en mode plug-and-play, et RAG (génération augmentée par recherche). Cette architecture maintient la large couverture de LLM tout en améliorant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combinatoire hautement flexible.

Crypto AI dans la valeur et les limites de la couche de modèle

Les projets de Crypto AI ont essentiellement du mal à améliorer directement les capacités centrales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrières technologiques trop élevées : l'échelle de données, les ressources de calcul et les capacités d'ingénierie nécessaires pour former un modèle de fondation sont extrêmement importantes, et seules des géants technologiques comme les États-Unis et la Chine disposent actuellement de ces capacités.
  • Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la véritable clé pour faire avancer les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.

Cependant, au-dessus des modèles de base open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :

  • Couche de validation de confiance : enregistrement sur la chaîne du chemin de génération du modèle, des contributions de données et de leur utilisation, renforçant la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour encourager des actions telles que le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construisant un cycle vertueux de formation et de service de modèles.

Classification des types de modèles AI et analyse de l'applicabilité de la blockchain

Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur la légèreté et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, formant une valeur différenciée pour la "couche d'interface" de l'IA.

Une chaîne blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant les comportements de l'IA en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisée de manière combinatoire

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel axé sur les incitations liées aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une chaîne de valeur complète qui va de la « fourniture de données » à « le déploiement de modèles » en passant par « l'appel de partage de profits », ses modules principaux incluent :

  • Modèle d'usine : pas besoin de programmation, il est possible d'utiliser LoRA pour l'ajustement fin, l'entraînement et le déploiement de modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, charge dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de la contribution et distribution des récompenses réalisée par des appels sur la chaîne.
  • Datanets : Réseau de données structurées axé sur des scénarios verticaux, construit et validé par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain combinables, appelables et payables.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur les données et combinable en modèles, pour promouvoir la chaîne de valeur de l'IA sur la blockchain.

Et dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur OP Stack : Basé sur une certaine pile technologique, supportant un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurez la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Facilite le déploiement et l'extension rapides par les développeurs sur la base de Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à certaines chaînes publiques qui sont plus axées sur le niveau inférieur, mettant l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA orientées vers les incitations liées aux données et aux modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde Web3, combinant l'hébergement de modèles sous forme de communauté, la facturation d'utilisation semblable à une plateforme de paiement et des interfaces combinables sur la chaîne semblables à une infrastructure, promouvant la voie vers la réalisation de « modèles en tant qu'actifs ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'usine, sans code modèle d'usine

ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory propose une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner les modèles sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet d'implémenter un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM grand public, configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, supportant l'exportation pour le déploiement ou l'appel partagé dans l'écosystème.
  • Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec références de provenance, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, interactive en temps réel et pouvant générer des revenus de manière durable.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligente, axée sur les données et modélisable, sur la base de OP Stack + EigenDA

Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : l'écosystème le plus large, une communauté active et des performances générales fortes, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexibles et de ressources limitées.
  • Qwen : produit par une entreprise technologique, excellent en performance sur les tâches en chinois, avec de solides capacités globales, idéal pour les développeurs nationaux.
  • ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services client de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par une entreprise technologique, avec une structure claire, facile à utiliser et à expérimenter rapidement.
  • Falcon : Anciennement une référence en matière de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un support multilingue assez fort, mais des performances d'inférence relativement faibles, adapté à la recherche sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins pédagogiques et de validation, ne recommandant pas une utilisation en déploiement réel.

Bien que la combinaison de modèles d'OpenLedger ne contienne pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur la praticité » basée sur les contraintes réalistes du déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Le Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution dans tous les modèles, garantissant les droits des contributeurs de données et des développeurs de modèles. Il présente des avantages tels que des barrières d'entrée faibles, la possibilité de monétiser et de combiner, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modèles ;
  • Pour les utilisateurs : il est possible de combiner les modèles ou les agents comme on appelle une API.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligente, axée sur les données et combinable avec OP Stack + EigenDA

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant une "matrice de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions/réponses juridiques, les consultations médicales), un réglage fin est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée." Ses paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode de réglage fin la plus adaptée au déploiement et à l'appel combiné des modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage de ressources GPU rencontrés dans le déploiement actuel des modèles d'IA, et de promouvoir l'exécution de l'IA « payable ».

OpenLedgerDepth研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

OpenLoRA architecture core components, based on a modular design, covering key aspects such as model storage, inference execution, request routing, etc., achieving efficient and low-cost multi-model deployment and invocation capabilities:

  • Module de stockage LoRA Adapter (
OP-4.52%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Reposter
  • Partager
Commentaire
0/400
EntryPositionAnalystvip
· 08-10 15:14
Soutien en capital, piloté par les données, ceux qui comprennent comprennent.
Voir l'originalRépondre0
FloorPriceWatchervip
· 08-10 04:11
Encore un projet de puissante de calcul.
Voir l'originalRépondre0
ForkMastervip
· 08-10 04:03
Encore une fois, c'est une histoire pour lever des fonds. Qui ne sait pas que c'est au mieux un code de second fork.
Voir l'originalRépondre0
WalletDetectivevip
· 08-10 03:53
Encore une fois, profiter de la vague de l'IA. Si je vis jusqu'à l'année prochaine, c'est que j'ai perdu.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)