OpenLedger: Membangun infrastruktur ekonomi agensi berbasis data yang cerdas

OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Dapat Dikombinasikan dengan Model Berbasis OP Stack+EigenDA

I. Pendahuluan | Lompatan lapisan model Crypto AI

Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, analog dengan bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga telah mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan kasar "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.

Model Besar Umum (LLM) vs Model Spesifik (SLM)

Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter berkisar antara 70B hingga 500B, dan biaya untuk satu kali pelatihan sering kali mencapai jutaan dolar. Sementara itu, SLM (Model Bahasa Khusus) sebagai paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya berbasis pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.

Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi secara kolaboratif dengan LLM melalui panggilan arsitektur Agen, sistem plugin untuk routing dinamis, hot-plug modul LoRA, dan RAG (peningkatan generasi dengan pencarian). Arsitektur ini mempertahankan kemampuan cakupan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul penyesuaian, membentuk sistem cerdas kombinasi yang sangat fleksibel.

Nilai dan batas Crypto AI di lapisan model

Proyek AI Crypto pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), alasan utamanya adalah

  • Hambatan teknis yang terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya perusahaan teknologi besar seperti Amerika Serikat dan China yang memiliki kemampuan tersebut.
  • Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA dan Mixtral telah menjadi sumber terbuka, kunci untuk mendorong terobosan model tetap terfokus pada lembaga penelitian dan sistem rekayasa tertutup, ruang partisipasi proyek di rantai dalam lapisan model inti terbatas.

Namun, di atas model dasar open source, proyek Crypto AI masih dapat melakukan penyesuaian model bahasa khusus (SLM), dan menggabungkan verifikasi dan mekanisme insentif Web3 untuk mencapai perpanjangan nilai. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini tercermin dalam dua arah inti:

  • Lapisan Verifikasi Tepercaya: Meningkatkan jejak keterlacakan dan ketahanan terhadap pemalsuan dari output AI melalui pencatatan jalur generasi model, kontribusi data, dan penggunaan di atas rantai.
  • Mekanisme insentif: Dengan menggunakan Token asli, untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen, membangun siklus positif dalam pelatihan dan pelayanan model.

Klasifikasi jenis model AI dan analisis kelayakan blockchain

Dari sini dapat dilihat bahwa titik fokus yang dapat diterapkan untuk proyek Crypto AI berbasis model terutama terletak pada penyempurnaan ringan dari SLM kecil, pengintegrasian dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif untuk model Edge. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah hingga rendah, membentuk nilai diferensial dari "lapisan antarmuka" AI.

Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model secara jelas dan tidak dapat diubah, secara signifikan meningkatkan kepercayaan data dan kemampuan pelacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, saat data atau model dipanggil, distribusi imbalan akan secara otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui pemungutan suara dengan token, berpartisipasi dalam penetapan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.

OpenLedger Kedalaman Penelitian: Membangun ekonomi agen yang didorong oleh data dan dapat digabungkan model dengan OP Stack+EigenDA sebagai dasar

Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger

OpenLedger adalah salah satu proyek AI blockchain yang sedikit di pasar saat ini yang fokus pada insentif data dan model. Ini adalah yang pertama kali mengusulkan konsep "Payable AI", bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat dikombinasikan, yang mendorong kontributor data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama dan mendapatkan keuntungan di blockchain berdasarkan kontribusi nyata.

OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:

  • Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk penyesuaian dan pelatihan model kustom berbasis LLM sumber terbuka;
  • OpenLoRA: mendukung keberadaan seribu model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penerapan;
  • PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan panggilan di blockchain;
  • Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan diverifikasi melalui kolaborasi komunitas;
  • Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.

Melalui modul di atas, OpenLedger telah membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat digabungkan dalam model, mendorong on-chain dari rantai nilai AI.

Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.

  • Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung eksekusi dengan throughput tinggi dan biaya rendah;
  • Settling di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
  • EVM kompatibel: Memudahkan pengembang untuk cepat menyebarkan dan memperluas berdasarkan Solidity;
  • EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.

Dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, menekankan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai khusus AI yang ditujukan untuk insentif data dan model, berkomitmen untuk membuat pengembangan dan pemanggilan model di blockchain dapat dilacak, dapat dikombinasikan, dan memiliki siklus nilai yang berkelanjutan. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan pengelolaan model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka yang dapat dikombinasikan di blockchain ala Infura, mendorong jalur realisasi "model sebagai aset".

OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger

Model Pabrik 3.1, pabrik model tanpa kode

ModelFactory adalah platform penyesuaian model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni untuk operasi, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat melakukan penyesuaian model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terpadu untuk otorisasi data, pelatihan model, dan penerapan, dengan proses inti yang mencakup:

  • Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
  • Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), melalui GUI untuk mengonfigurasi hyperparameter.
  • Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
  • Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau pemanggilan berbagi ekosistem.
  • Antarmuka Verifikasi Interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
  • RAG menghasilkan jejak asal: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan dapat diaudit.

Arsitektur sistem Model Factory terdiri dari enam modul, mencakup autentikasi identitas, hak akses data, penyesuaian model, evaluasi penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkontrol, interaksi waktu nyata, serta dapat berkelanjutan untuk monetisasi.

OpenLedger Kedalaman Riset: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan dengan Model Menggunakan OP Stack+EigenDA

ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:

  • Seri LLaMA: Ekosistem terluas, komunitas aktif, dan kinerja umum yang kuat, merupakan salah satu model dasar sumber terbuka yang paling utama saat ini.
  • Mistral: Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk skenario dengan penempatan fleksibel dan sumber daya terbatas.
  • Qwen: Diproduksi oleh Alibaba, performa tugas dalam bahasa Mandarin sangat baik, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama untuk pengembang dalam negeri.
  • ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokalisasi.
  • Deepseek: Unggul dalam penghasil kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
  • Gemma: Model ringan yang diluncurkan oleh Google, dengan struktur yang jelas, mudah untuk cepat dipahami dan diuji.
  • Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat aktivitas komunitas telah menurun.
  • BLOOM: Dukungan multibahasa cukup kuat, tetapi kinerja inferensi relatif lemah, cocok untuk penelitian yang mencakup berbagai bahasa.
  • GPT-2: Model awal klasik, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.

Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strategi mereka tidak ketinggalan zaman, melainkan didasarkan pada batasan realitas dari penerapan on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM) yang menghasilkan konfigurasi "prioritas praktis".

Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki keuntungan rendahnya hambatan, dapat dimonetisasi dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:

  • Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi model, distribusi, dan pendapatan;
  • Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
  • Untuk pengguna: Anda dapat menggabungkan model atau Agent seperti memanggil API.

OpenLedger Kedalaman Riset: Membangun ekonomi agen yang didorong data dan dapat dikombinasikan dengan model menggunakan OP Stack+EigenDA sebagai dasar

3.2 OpenLoRA, aset on-chain dari model fine-tuning

LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, dengan cara menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya untuk mempelajari tugas baru, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakan mereka untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), diperlukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Parameter-nya efisien, pelatihan cepat, dan penerapan fleksibel, menjadikannya metode penyesuaian yang paling cocok saat ini untuk penerapan model Web3 dan pemanggilan kombinasi.

OpenLoRA adalah kerangka inference ringan yang dibangun oleh OpenLedger yang dirancang khusus untuk penerapan multi-model dan berbagi sumber daya. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penerapan model AI saat ini seperti biaya tinggi, rendahnya pemanfaatan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).

Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek kunci lainnya, mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:

  • Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan disimpan di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori video, menghemat sumber daya.
  • Hosting Model dan Penggabungan Dinamis
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 9
  • Bagikan
Komentar
0/400
FUD_Vaccinatedvip
· 07-10 17:23
Sudah mempromosikan konsep AI, kapan selesainya?
Lihat AsliBalas0
ApyWhisperervip
· 07-09 18:35
Ini pasti harus mencolok dengan keras.
Lihat AsliBalas0
AltcoinOraclevip
· 07-09 16:59
pola tidak berbohong... op stack + eigenDA membentuk distribusi wyckoff yang sempurna... pergeseran paradigma akan segera datang frens
Lihat AsliBalas0
StableGeniusvip
· 07-08 06:00
meh... hari lain, terobosan ai/crypto "baru" lainnya. secara empiris, mereka hanya mengemas ulang infrastruktur lama sejujurnya
Lihat AsliBalas0
GasFeeTearsvip
· 07-08 05:57
Hanya berurusan dengan konsep lagi.
Lihat AsliBalas0
MEVVictimAlliancevip
· 07-08 05:56
Ini jebakan terlalu mirip dengan eyewash GPU.
Lihat AsliBalas0
SlowLearnerWangvip
· 07-08 05:50
Kini saatnya pihak A menggambar BTC lagi. Daya Komputasi sebenarnya dipertaruhkan untuk apa?
Lihat AsliBalas0
GateUser-0717ab66vip
· 07-08 05:47
Gendong Daya Komputasi tumpukan model ya
Lihat AsliBalas0
Rugman_Walkingvip
· 07-08 05:46
Apakah mengandalkan daya komputasi itu dapat dipercaya?
Lihat AsliBalas0
Lihat Lebih Banyak
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)