OpenLedgerはAI資産化インフラを構築します:OP Stack + EigenDAが駆動するデータモデルのコンビナブルエコノミー

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルがコンポーザブルなエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデル、そして算力はAIインフラストラクチャの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)と類似しており、欠かすことができません。従来のAI業界のインフラストラクチャの進化パスに似て、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時去中心化GPUプロジェクトによって主導され、(ある算力プラットフォーム、あるレンダリングプラットフォーム、ある去中心化ネットワークなどが普遍的に「算力を競う」粗放的な成長ロジックを強調していました。しかし2025年に入ると、業界の注目は徐々にモデルとデータ層に移り、Crypto AIが基盤リソース競争からより持続可能で応用価値のある中層構築へと移行していることを示しています。

) General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達し、一度の訓練コストは数百万ドルに上ることが常です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整パラダイムとして、通常は特定のオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせることで、特定の分野知識を持つ専門家モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に低減します。

注意すべき点は、SLM は LLM の重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムによる動的ルーティング、LoRA モジュールのホットプラグ、RAG(リトリーバル強化生成)などの方法で LLM と協力して動作することです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーション型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その主要な理由は

  • 技術的なハードルが高すぎる:Foundation Modelのトレーニングに必要なデータ規模、計算資源、エンジニアリング能力は非常に膨大で、現在はアメリカや中国などのテクノロジー大手のみがその能力を持っている。
  • オープンソースエコシステムの限界:主流の基盤モデルは既にオープンソースですが、モデルの突破を促進する鍵は依然として研究機関とクローズドソースのエンジニアリングシステムに集中しており、チェーン上のプロジェクトはコアモデル層への参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは依然として特化型言語モデル(SLM)を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2 つのコア方向に現れます:

  • 信頼できる検証層:オンチェーンでモデル生成のパス、データの貢献と使用状況を記録することにより、AI出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築する。

AIモデルタイプの分類とブロックチェーンの適用性分析

これにより、モデル型のCrypto AIプロジェクトの実行可能な落ち着きは、主に小型SLMの軽量化調整、RAGアーキテクチャのオンチェーンデータ接続と検証、そしてEdgeモデルのローカルデプロイメントとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確かつ改ざん不可能なオンチェーン記録として記録し、データの信頼性とモデル訓練のトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データやモデルが呼び出されると自動的に報酬の分配がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と反復に参加し、分散型ガバナンス構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA]###https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6(

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ないデータとモデルのインセンティブメカニズムに焦点を当てたブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつ組み合わせ可能なAI運営環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の利益を得ることを促進します。

OpenLedgerは「データ提供」から「モデルデプロイ」、さらには「呼び出し分配」までの全チェーン閉ループを提供しており、そのコアモジュールには次のものが含まれています:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRAを用いて微調整トレーニングし、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーンに向けた構造化データネットワークで、コミュニティの協力によって構築・検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデル市場。

以上のモジュールを通じて、OpenLedgerはデータ主導でモデルが組み合わせ可能な「スマートエージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しました。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤とし、AIモデルのために高性能、低コスト、検証可能なデータおよび契約実行環境を構築しました。

  • OP Stack に基づいて構築:特定の技術スタックに基づき、高スループットと低コストの実行をサポートします;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM互換:開発者がSolidityに基づいて迅速にデプロイおよび拡張するのに便利です。
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を確保します。

特定の公链と比較して、データ主権と「AI Agents on BOS」アーキテクチャを主打とするよりも、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と利用がブロックチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブ基盤インフラであり、特定のモデルコミュニティによるモデルホスティング、特定の決済プラットフォームによる使用料金、特定のインフラに基づくブロックチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現の道筋を推進しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA])https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24(

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

) 3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactoryはOpenLedgerエコシステムの下にある大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は必要ありません。ユーザーはOpenLedger上で完了したデータセットに基づいて、モデルを微調整できます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、その核心プロセスには次のものが含まれています。

  • データアクセスコントロール:ユーザーがデータリクエストを提出し、提供者が審査して承認し、データが自動的にモデルトレーニングインターフェースに接続されます。
  • モデル選択と設定:主流の LLM をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量化微調整:内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ:内蔵の評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクション検証インターフェース: チャット形式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出所の引用を含む回答で、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAGトレーサビリティを通じて、6つの主要モジュールを含み、安全でコントロール可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA]###https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3(

次の表は、ModelFactory でサポートされる大規模言語モデルの機能をまとめたものです。

  • LLaMA シリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシナリオに適しています。
  • Qwen:某テクノロジー会社製、中文タスクのパフォーマンスが優れており、総合能力が高く、国内の開発者に最適。
  • ChatGLM:中国語の会話効果が突出しており、特定のカスタマーサービスやローカライズされたシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発補助ツールに適しています。
  • Gemma:あるテクノロジー企業が発表した軽量モデルで、構造が明確で、すぐに使い始めたり実験したりしやすい。
  • Falcon:かつては性能のベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活性度は低下しました。
  • BLOOM:多言語サポートが強いが、推論性能がやや弱く、言語カバレッジ型の研究に適している。
  • GPT-2:クラシックな初期モデルで、教育や検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を保証します。低いハードル、収益化可能性、組み合わせ可能性の利点があり、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供;
  • プラットフォームに対して:モデル資産の流通と組み合わせのエコシステムを形成する;
  • アプリケーション利用者向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA])https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193(

) 3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなくトレーニングコストとストレージ要件を大幅に削減する効率的なパラメータ微調整手法です。従来の大規模言語モデルは通常、数十億または数百億のパラメータを持っています。これらを特定のタスク(法律の質問応答や医療相談など)に利用するには、微調整(fine-tuning)が必要です。LoRAのコア戦略は:「元の大規模モデルのパラメータを固定し、新しく挿入されたパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの速さ、デプロイの柔軟性は現在のWeb3モデルのデプロイと組み合わせ呼び出しに最適な主流の微調整手法です。

OpenLoRAはOpenLedgerが構築した、マルチモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心目標は、現在のAIモデルデプロイメントで一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払い可能なAI」(Payable AI)の実現を推進することです。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA]###https://img-cdn.gateio.im/social/ モーメント-f49cfa5ea73fc0018250d04193b34b60(

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール化設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストの多モデルデプロイと呼び出し機能を実現します。

  • LoRAアダプターストレージモジュール )
OP-3.93%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • リポスト
  • 共有
コメント
0/400
EntryPositionAnalystvip
· 08-10 15:14
資本の支援 データ駆動 理解している人は理解している
原文表示返信0
FloorPriceWatchervip
· 08-10 04:11
またコンピューティングパワーを競うプロジェクトが来た
原文表示返信0
ForkMastervip
· 08-10 04:03
またストーリーを語ってお金を集めるのか 誰もが知っているがせいぜい二次フォークのコードに過ぎない
原文表示返信0
WalletDetectivevip
· 08-10 03:53
またAIの熱に便乗して、来年まで生き延びられたら負けだ。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)