OpenLedger: Xây dựng cơ sở hạ tầng kinh tế thể chế thông minh dựa trên dữ liệu

OpenLedger Độ sâu nghiên cứu báo cáo: Dựa trên OP Stack + EigenDA, xây dựng một nền kinh tế thông minh có tính dữ liệu và mô hình có thể kết hợp.

Một, Giới thiệu | Sự chuyển giao mô hình của Crypto AI

Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như con đường tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua những giai đoạn tương tự. Đầu năm 2024, thị trường từng bị chi phối bởi các dự án GPU phi tập trung, thường nhấn mạnh vào logic tăng trưởng thô bạo "đấu sức mạnh tính toán". Tuy nhiên, vào năm 2025, điểm chú ý của ngành dần dần chuyển lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng tầng giữa có tính bền vững và giá trị ứng dụng hơn.

Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)

Các mô hình ngôn ngữ lớn truyền thống (LLM) thường dựa vào các tập dữ liệu quy mô lớn và cấu trúc phân tán phức tạp, kích thước tham số thường từ 70B đến 500B, và chi phí cho một lần đào tạo có thể lên tới hàng triệu đô la. Trong khi đó, SLM (Mô hình Ngôn ngữ Chuyên biệt) là một phương pháp tinh chỉnh nhẹ có thể tái sử dụng mô hình cơ bản, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, để nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, từ đó giảm đáng kể chi phí đào tạo và rào cản kỹ thuật.

Cần lưu ý rằng SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hợp tác với LLM thông qua các phương thức như gọi kiến trúc Agent, hệ thống plugin định tuyến động, cắm nóng module LoRA, và RAG (tăng cường tạo ra bằng cách truy xuất). Kiến trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các module tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.

Giá trị và ranh giới của Crypto AI ở cấp độ mô hình

Dự án Crypto AI về bản chất khó có thể trực tiếp nâng cao khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), nguyên nhân chính nằm ở

  • Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và khả năng kỹ thuật cần thiết để đào tạo Mô hình Nền tảng là cực kỳ lớn, hiện chỉ có các ông lớn công nghệ như Mỹ và Trung Quốc mới có khả năng tương ứng.
  • Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ bản chính như LLaMA, Mixtral đã được mở nguồn, nhưng chìa khóa thực sự để thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng, không gian tham gia của các dự án trên chuỗi ở cấp độ mô hình cốt lõi là hạn chế.

Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, các dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh mô hình ngôn ngữ chuyên biệt (SLM) và kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện bên ngoài" của chuỗi ngành công nghiệp AI, điều này thể hiện qua hai hướng cốt lõi:

  • Lớp xác thực đáng tin cậy: Tăng cường khả năng truy ngược và chống giả mạo của đầu ra AI thông qua việc ghi lại trên chuỗi các con đường tạo ra mô hình, đóng góp dữ liệu và tình trạng sử dụng.
  • Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải dữ liệu lên, gọi mô hình, thực hiện các hành động của tác nhân (Agent), xây dựng chu trình tích cực cho việc huấn luyện và phục vụ mô hình.

Phân loại loại mô hình AI và phân tích tính ứng dụng của blockchain

Có thể thấy, điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ nhàng độ sâu của SLM nhỏ, kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả thi xác minh của blockchain và cơ chế token, Crypto có thể cung cấp giá trị đặc thù cho các tình huống mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.

Chuỗi AI blockchain dựa trên dữ liệu và mô hình, có thể ghi lại một cách rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy nguyên của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phối phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị có thể đo lường và giao dịch dưới dạng token, xây dựng hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng còn có thể đánh giá hiệu suất của mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc xây dựng quy tắc và lặp lại, hoàn thiện cấu trúc quản trị phi tập trung.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Hai, Tóm tắt dự án | Tầm nhìn AI chuỗi của OpenLedger

OpenLedger là một trong số ít dự án blockchain AI tập trung vào cơ chế khuyến khích dữ liệu và mô hình trên thị trường hiện nay. Nó tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích những người đóng góp dữ liệu, nhà phát triển mô hình và người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng, và nhận được lợi nhuận trên chuỗi dựa trên đóng góp thực tế.

OpenLedger cung cấp một chuỗi khép kín từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:

  • Nhà máy mô hình: Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
  • OpenLoRA: Hỗ trợ hàng nghìn mô hình đồng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
  • PoA(Proof of Attribution):Thông qua việc ghi lại các cuộc gọi trên chuỗi để thực hiện đo lường đóng góp và phân phối phần thưởng;
  • Datanets:Mạng dữ liệu có cấu trúc hướng tới các tình huống dọc, được xây dựng và xác minh bởi sự hợp tác của cộng đồng;
  • Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.

Thông qua các mô-đun trên, OpenLedger đã xây dựng một "cơ sở hạ tầng kinh tế đại lý thông minh" dựa trên dữ liệu và có thể kết hợp mô hình, thúc đẩy việc chuyển giao chuỗi giá trị AI lên trên chuỗi.

Và trong việc áp dụng công nghệ blockchain, OpenLedger đã sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp, có thể xác minh cho các mô hình AI.

  • Xây dựng trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ khả năng thông lượng cao và chi phí thấp khi thực hiện;
  • Thanh toán trên mạng chính Ethereum: Đảm bảo tính an toàn của giao dịch và tính toàn vẹn của tài sản;
  • Tương thích EVM: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng dựa trên Solidity;
  • EigenDA cung cấp hỗ trợ khả năng sử dụng dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo khả năng xác minh dữ liệu.

So với các chuỗi AI tổng hợp như NEAR, vốn tập trung vào tầng cơ sở và chủ yếu là quyền dữ liệu cùng kiến trúc "AI Agents on BOS", OpenLedger chú trọng hơn vào việc xây dựng chuỗi chuyên dụng cho AI hướng đến dữ liệu và động lực mô hình, nhằm mục tiêu làm cho việc phát triển và gọi mô hình trên chuỗi trở nên có thể truy vết, có thể kết hợp và bền vững. Nó là cơ sở hạ tầng động lực mô hình trong thế giới Web3, kết hợp việc lưu trữ mô hình kiểu HuggingFace, tính phí sử dụng kiểu Stripe và giao diện kết hợp trên chuỗi kiểu Infura, thúc đẩy con đường hiện thực hóa "mô hình như tài sản".

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger

Nhà máy mô hình 3.1, nhà máy mô hình không cần mã

ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) dưới hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên tập dữ liệu đã hoàn tất ủy quyền và kiểm tra trên OpenLedger. Nó đã thực hiện quy trình làm việc tích hợp cho ủy quyền dữ liệu, đào tạo mô hình và triển khai, với các quy trình chính bao gồm:

  • Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét và phê duyệt, dữ liệu tự động kết nối vào giao diện đào tạo mô hình.
  • Lựa chọn và cấu hình mô hình: Hỗ trợ các LLM phổ biến (như LLaMA, Mistral), cấu hình siêu tham số thông qua GUI.
  • Tinh chỉnh nhẹ: Động cơ LoRA / QLoRA tích hợp, hiển thị tiến độ đào tạo theo thời gian thực.
  • Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp sẵn, hỗ trợ xuất triển khai hoặc chia sẻ gọi sinh thái.
  • Giao diện xác thực tương tác: Cung cấp giao diện kiểu trò chuyện, thuận tiện cho việc kiểm tra trực tiếp khả năng hỏi đáp của mô hình.
  • RAG tạo nguồn gốc: Trả lời kèm theo nguồn trích dẫn, tăng cường độ tin cậy và có thể kiểm toán.

Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, triển khai đánh giá và truy nguyên RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác theo thời gian thực và có khả năng sinh lợi bền vững.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Danh sách tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện đang hỗ trợ như sau:

  • Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng hoạt động tích cực, hiệu suất tổng quát mạnh mẽ, là một trong những mô hình cơ sở mã nguồn mở phổ biến nhất hiện nay.
  • Mistral:Kiến trúc hiệu quả, hiệu suất suy luận xuất sắc, phù hợp với các kịch bản triển khai linh hoạt và tài nguyên hạn chế.
  • Qwen:Sản phẩm của Alibaba, hiệu suất nhiệm vụ tiếng Trung xuất sắc, khả năng tổng hợp mạnh, phù hợp cho các nhà phát triển trong nước.
  • ChatGLM: Hiệu ứng hội thoại tiếng Trung nổi bật, phù hợp với dịch vụ khách hàng theo lĩnh vực và các tình huống địa phương.
  • Deepseek: Hiệu suất vượt trội trong việc sinh mã và suy luận toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
  • Gemma:Mô hình nhẹ do Google phát triển, cấu trúc rõ ràng, dễ dàng để bắt đầu nhanh chóng và thử nghiệm.
  • Falcon: Đã từng là chuẩn mực hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng hoạt động của cộng đồng đã giảm.
  • BLOOM: Hỗ trợ đa ngôn ngữ tương đối tốt, nhưng hiệu suất suy diễn yếu, phù hợp cho nghiên cứu bao phủ ngôn ngữ.
  • GPT-2:Mô hình cổ điển sớm, chỉ phù hợp cho mục đích giảng dạy và xác minh, không nên được triển khai thực tế.

Mặc dù mô hình của OpenLedger không bao gồm các mô hình MoE hiệu suất cao nhất hoặc các mô hình đa phương thức mới nhất, nhưng chiến lược của nó không lạc hậu, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, sự thích ứng RAG, tương thích LoRA, môi trường EVM).

Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có ưu điểm về ngưỡng thấp, khả năng biến đổi và khả năng kết hợp, so với các công cụ phát triển mô hình truyền thống:

  • Đối với nhà phát triển: Cung cấp đầy đủ lộ trình ươm tạo mô hình, phân phối, và doanh thu;
  • Đối với nền tảng: hình thành mô hình tài sản lưu thông và hệ sinh thái kết hợp;
  • Đối với người sử dụng: Có thể kết hợp sử dụng mô hình hoặc Agent như gọi API.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh

LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận bậc thấp" vào trong mô hình lớn đã được tiền huấn luyện để học các nhiệm vụ mới mà không cần thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và nhu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp lý, khám bệnh), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ huấn luyện các ma trận tham số mới được chèn vào." Nhờ đó, phương pháp này có hiệu quả về tham số, đào tạo nhanh chóng, triển khai linh hoạt, là phương pháp tinh chỉnh phổ biến nhất hiện nay cho việc triển khai và gọi kết hợp mô hình Web3.

OpenLoRA là một bộ khung suy diễn nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết những vấn đề thường gặp trong việc triển khai mô hình AI hiện nay như chi phí cao, khả năng tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể trả phí" (Payable AI).

OpenLoRA hệ thống kiến trúc các thành phần cốt lõi, dựa trên thiết kế mô-đun, bao phủ lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu và các khía cạnh quan trọng khác, đạt được khả năng triển khai và gọi nhiều mô hình hiệu quả, chi phí thấp:

  • Mô-đun lưu trữ LoRA Adapter (LoRA Adapters Storage): LoRA adapter đã được tinh chỉnh được lưu trữ trên OpenLedger, cho phép tải theo yêu cầu, tránh việc tải tất cả các mô hình vào bộ nhớ đồ họa, tiết kiệm tài nguyên.
  • Lưu trữ mô hình và hợp nhất động
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 9
  • Chia sẻ
Bình luận
0/400
FUD_Vaccinatedvip
· 07-10 17:23
Lại tiếp tục thổi phồng khái niệm AI, có kết thúc không?
Xem bản gốcTrả lời0
ApyWhisperervip
· 07-09 18:35
Điều này phải được hái một cách mạnh mẽ.
Xem bản gốcTrả lời0
AltcoinOraclevip
· 07-09 16:59
các mẫu không nói dối... op stack + eigenDA hình thành một phân phối wyckoff hoàn hảo... sự chuyển mình của mô hình sắp đến bạn bè
Xem bản gốcTrả lời0
StableGeniusvip
· 07-08 06:00
meh... một ngày nữa, một "đột phá" ai/crypto nữa. Nói thật, theo kinh nghiệm, họ chỉ đang đóng gói lại hạ tầng cũ thôi.
Xem bản gốcTrả lời0
GasFeeTearsvip
· 07-08 05:57
Lại đang thổi phồng khái niệm mà thôi.
Xem bản gốcTrả lời0
MEVVictimAlliancevip
· 07-08 05:56
Cái bẫy này giống trò lừa bịp GPU quá.
Xem bản gốcTrả lời0
SlowLearnerWangvip
· 07-08 05:50
Lại đến lúc bên A vẽ bánh lớn rồi, cuối cùng thì khả năng tính toán đã tranh giành được điều gì.
Xem bản gốcTrả lời0
GateUser-0717ab66vip
· 07-08 05:47
Gác lại khả năng tính toán chồng mô hình nhé
Xem bản gốcTrả lời0
Rugman_Walkingvip
· 07-08 05:46
拼 khả năng tính toán到底靠不靠谱
Xem bản gốcTrả lời0
Xem thêm
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)