データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせないことに例えられます。従来の AI 業界のインフラ進化パスと類似して、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時去中心化 GPU プロジェクトに主導され、一般的に「算力の競争」という粗放型の成長ロジックが強調されていました。しかし 2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤リソースの競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、1回の訓練コストは数百万ドルに達することもあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データおよびLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に削減します。
データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確で改ざん不可能なオンチェーン記録として記録でき、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出されると自動的に報酬配布がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークンを通じてモデルの性能を評価し、ルールの策定と改訂に参加することで、分散型ガバナンス構造を改善できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
NEAR のようなより基盤的で、データ主権と "AI Agents on BOS" 構造を主打とする汎用型 AI チェーンと比較して、OpenLedger はデータとモデルのインセンティブに焦点を当てた AI 専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これは Web3 世界におけるモデルインセンティブの基盤インフラであり、HuggingFace 型のモデルホスティング、Stripe 型の使用課金、Infura 型のチェーン上の組み合わせ可能なインターフェースを組み合わせて、"モデルは資産"の実現経路を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactory は OpenLedger エコシステム内の大規模言語モデル(LLM)ファインチューニングプラットフォームです。従来のファインチューニングフレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した承認と審査のデータセットに基づいてモデルをファインチューニングできます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには次のものが含まれます:
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG 溯源の6つの主要モジュールを含み、安全で制御可能、リアルタイムの相互作用、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenLedger: データ駆動型インテリジェントエコノミーインフラの構築
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型、モデル可組合のインテリジェントエコノミーを構築する
一、引言 | Crypto AI のモデルレイヤーの飛躍
データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせないことに例えられます。従来の AI 業界のインフラ進化パスと類似して、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時去中心化 GPU プロジェクトに主導され、一般的に「算力の競争」という粗放型の成長ロジックが強調されていました。しかし 2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤リソースの競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、1回の訓練コストは数百万ドルに達することもあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データおよびLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に削減します。
注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットプラグ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャは、LLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェントシステムを形成しています。
Crypto AI のモデル層における価値と境界
Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)の核心能力を直接向上させることが難しい。その核心的な理由は
しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として特化言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の延長を実現できます。AI産業チェーンの"周辺インターフェース層"として、2つのコア方向に表れます:
AIモデルタイプ分類とブロックチェーン適用性分析
これにより、モデル型Crypto AIプロジェクトの実行可能な着地点は、主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データの接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中していることが分かります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの"インターフェース層"の差別化された価値を形成することができます。
データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源を明確で改ざん不可能なオンチェーン記録として記録でき、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出されると自動的に報酬配布がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークンを通じてモデルの性能を評価し、ルールの策定と改訂に参加することで、分散型ガバナンス構造を改善できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン
OpenLedgerは現在市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。"Payable AI"の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データの提供者、モデルの開発者、AIアプリケーションの構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの利益を得ることを促進します。
OpenLedgerは、"データ提供"から"モデルデプロイ"、さらに"コール分配"までの全チェーンのクローズドループを提供しており、そのコアモジュールには次のようなものがあります:
以上のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「スマートエコノミーインフラストラクチャ」を構築し、AIバリューチェーンのチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能で低コストかつ検証可能なデータおよび契約の実行環境を構築しました。
NEAR のようなより基盤的で、データ主権と "AI Agents on BOS" 構造を主打とする汎用型 AI チェーンと比較して、OpenLedger はデータとモデルのインセンティブに焦点を当てた AI 専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これは Web3 世界におけるモデルインセンティブの基盤インフラであり、HuggingFace 型のモデルホスティング、Stripe 型の使用課金、Infura 型のチェーン上の組み合わせ可能なインターフェースを組み合わせて、"モデルは資産"の実現経路を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactory は OpenLedger エコシステム内の大規模言語モデル(LLM)ファインチューニングプラットフォームです。従来のファインチューニングフレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した承認と審査のデータセットに基づいてモデルをファインチューニングできます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには次のものが含まれます:
Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG 溯源の6つの主要モジュールを含み、安全で制御可能、リアルタイムの相互作用、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG適合、LoRA互換、EVM環境)に基づいて"実用優先"の構成がなされています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明機構が内蔵されており、データ貢献者とモデル開発者の権利を保証します。低いハードル、収益化可能性、組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA、微調整モデルのオンチェーン資産化
LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整手法であり、事前学習済みの大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルのパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えば、LLaMAやGPT-3)は、通常数十億から千億のパラメータを持っています。それらを特定のタスク(例えば、法律に関する質問応答や医療相談)に使用するためには、微調整(fine-tuning)が必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータを凍結し、挿入した新しいパラメータ行列のみを訓練する」です。そのパラメータ効率、訓練の速さ、デプロイの柔軟性から、現在、Web3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法となっています。
OpenLoRAはOpenLedgerが構築した、多モデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。そのコア目標は、現在のAIモデルデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払可能なAI」(Payable AI)の実現を推進することです。
OpenLoRAシステムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイと呼び出し能力を実現します。