تقرير بحثي متعمق عن OpenLedger: بناء اقتصاد ذكي مدفوع بالبيانات وقابل للتجميع باستخدام OP Stack + EigenDA كقاعدة
一、引言 | قفزة نموذج Crypto AI
البيانات والنماذج وقدرة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، مقارنة بالوقود (البيانات) والمحرك (النماذج) والطاقة (قدرة الحوسبة) التي لا غنى عنها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في العملات المشفرة مراحل مشابهة. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مع التأكيد بشكل عام على منطق النمو الواسع "المنافسة في القدرة الحوسبية". ومع دخول عام 2025، بدأت نقاط اهتمام الصناعة في الانتقال تدريجياً نحو نماذج وطبقة البيانات، مما يدل على أن الذكاء الاصطناعي في العملات المشفرة ينتقل من منافسة الموارد الأساسية إلى بناء طبقة متوسطة أكثر استدامة وقيمة تطبيقية.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث تتراوح أحجام المعلمات بين 70B و500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، فهي تعتمد عادةً على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، وتجمع بين كمية قليلة من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء ذات معرفة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال استدعاء هيكل Agent، ونظام المكونات الإضافية للتوجيه الديناميكي، والموصلات القابلة للتوصيل LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM على التغطية الواسعة، ويعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي التشفيري في مستوى النموذج
مشاريع الذكاء الاصطناعي العملات المشفرة يصعب في جوهرها تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
عائق تقني مرتفع: إن حجم البيانات والموارد الحاسوبية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation ضخمة للغاية، حيث إن الشركات التقنية الكبرى مثل الولايات المتحدة والصين فقط هي التي تمتلك القدرات المناسبة.
قيود النظام البيئي المفتوح: على الرغم من أن النماذج الأساسية الرئيسية مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن الدفع الحقيقي لاختراق النموذج لا يزال مركزًا على المؤسسات البحثية ونظم الهندسة المغلقة، مما يحد من مساحة مشاركة المشاريع على السلسلة في مستوى النموذج الأساسي.
ومع ذلك، على نموذج الأساس مفتوح المصدر، يمكن لمشروع Crypto AI أن يحقق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM)، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. ك"طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوق: من خلال تسجيل مسارات توليد النماذج، ومساهمات البيانات واستخدامها على السلسلة، تعزز من قابلية تتبع مخرجات الذكاء الاصطناعي ومقاومة التلاعب.
آلية التحفيز: باستخدام الرمز الأصلي، لتحفيز رفع البيانات، واستدعاء النماذج، وتنفيذ الوكلاء (Agent) وغيرها من السلوكيات، لبناء دورة إيجابية لتدريب النماذج والخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوكشين
من الواضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذج التوقع تتركز بشكل أساسي على التحسين الخفيف لنماذج SLM الصغيرة، وإمكانية الوصول والتحقق من البيانات على السلسلة باستخدام بنية RAG، بالإضافة إلى النشر المحلي لنماذج Edge والتحفيز. بالاقتران مع قابلية التحقق من blockchain وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة تمايز ل"طبقة واجهة" الذكاء الاصطناعي.
سلسلة blockchain AI المستندة إلى البيانات والنماذج، يمكنها تسجيل المصدر الواضح وغير القابل للتغيير لمساهمات كل بيانات ونموذج، مما يعزز بشكل كبير من موثوقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، مما يبني نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يحسن من هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في السوق الحالية التي تركز على آلية تحفيز البيانات والنماذج في blockchain AI. وقد قدمت مفهوم "Payable AI" لأول مرة، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم حلقة مغلقة كاملة من "تقديم البيانات" إلى "نشر النموذج" ثم "استدعاء الأرباح"، وتشمل وحداتها الأساسية:
مصنع النموذج: بدون برمجة، يمكنك استخدام LoRA لتدريب وضبط النماذج المخصصة استنادًا إلى LLM مفتوح المصدر؛
OpenLoRA: يدعم وجود آلاف النماذج معًا، ويقوم بتحميلها ديناميكيًا حسب الحاجة، مما يقلل بشكل ملحوظ من تكاليف النشر؛
PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل الاستدعاءات على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من قبل المجتمع;
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي القائم على البيانات والقابل لتجميع النماذج"، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى البلوكشين.
وفي اعتماد تقنية blockchain، تستخدم OpenLedger قاعدة OP Stack + EigenDA لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
مبني على OP Stack: قائم على تقنية Optimism، يدعم تنفيذ عالي السعة ومنخفض التكلفة؛
التسوية على الشبكة الرئيسية للإيثيريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة استنادًا إلى Solidity؛
EigenDA توفر دعم قابلية استخدام البيانات: تخفض بشكل كبير تكاليف التخزين، وتضمن قابلية التحقق من البيانات.
بالمقارنة مع NEAR التي تعتبر أكثر تركيزًا على البنية التحتية وتستهدف سيادة البيانات مع "وكلاء الذكاء الاصطناعي على BOS"، يركز OpenLedger بشكل أكبر على بناء سلسلة خاصة بالذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، ويهدف إلى جعل تطوير النماذج واستدعائها على السلسلة قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة. إنه البنية التحتية لتحفيز النماذج في عالم Web3، يجمع بين استضافة النماذج على طريقة HuggingFace، وفوترة الاستخدام على طريقة Stripe، وواجهة قابلة للتجميع على السلسلة على طريقة Infura، مما يدفع نحو تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية وعمارة التقنية لـ OpenLedger
3.1 مصنع النماذج، بدون حاجة إلى كود نموذج المصنع
ModelFactory هو منصة لتعديل نموذج اللغة الكبيرة (LLM) تحت نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النموذج استنادًا إلى مجموعة البيانات التي تم الحصول على تفويضها ومراجعتها على OpenLedger. لقد تم تحقيق تدفق عمل متكامل لتفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العملية الأساسية على:
التحكم في الوصول إلى البيانات: يقوم المستخدم بتقديم طلبات البيانات، يقوم المزود بمراجعة الموافقة، يتم إدخال البيانات تلقائيًا إلى واجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائعة (مثل LLaMA و Mistral) ، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
ضبط خفيف الوزن: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة استدعاء النظام البيئي.
واجهة التحقق التفاعلي: توفر واجهة محادثة، مما يسهل اختبار قدرة النموذج على الإجابة.
توليد تتبع RAG: إجابات مع مراجع مصدرية، تعزز الثقة والقابلية للتدقيق.
يتكون هيكل نظام Model Factory من ستة وحدات، تشمل المصادقة على الهوية، وأذونات البيانات، وضبط النماذج، وتقييم النشر و RAG، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للت Monetization.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
تظهر الجدول أدناه قدرات نموذج اللغة الكبيرة المدعومة حاليًا من قبل ModelFactory:
سلسلة LLaMA: الأكثر انتشارًا في النظام البيئي، مجتمع نشط، أداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
ميسرال: هيكل فعال، أداء استدلال ممتاز، مناسب للنشر المرن، والسيناريوهات ذات الموارد المحدودة.
Qwen: منتج من علي بابا، أداء مهام اللغة الصينية ممتاز، قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمات العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتميز بأداء متفوق في توليد الشفرات والاستدلال الرياضي، مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف الوزن تقدمه Google، ذو هيكل واضح، وسهل الاستخدام السريع والتجريب.
فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصَح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست متخلفة، بل هي تكوين "الأولوية العملية" المستند إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة سلسلة بدون كود، جميع النماذج مزودة بآلية إثبات المساهمة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بانخفاض العتبة، وقابلية التسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنموذج الحضانة والتوزيع والإيرادات؛
بالنسبة للمنصة: تشكيل تدفق الأصول النموذجية وبيئة التركيب؛
للمستخدمين: يمكن دمج النماذج أو الوكيل كما هو الحال عند استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، تجسيد الأصول على السلسلة للنموذج المدرب
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدراج "مصفوفات منخفضة الرتبة" في نموذج كبير مُدرَّب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الاستفسارات القانونية، والاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة."، مع كفاءة عالية في المعلمات، وسرعة في التدريب، ومرونة في النشر، تُعتبر الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر نماذج متعددة ومشاركة الموارد من قبل OpenLedger. الهدف الأساسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
OpenLoRA نظام المعمارية المكونات الأساسية، يعتمد على تصميم معياري، يغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من النقاط الرئيسية، لتحقيق نشر متعدد النماذج واستدعاء فعال ومنخفض التكلفة:
وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدل على OpenLedger، مما يتيح التحميل عند الطلب، وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
استضافة النماذج والاندماج الديناميكي
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 14
أعجبني
14
9
مشاركة
تعليق
0/400
FUD_Vaccinated
· 07-10 17:23
مرة أخرى يتم الترويج لمفهوم الذكاء الاصطناعي، هل سيستمر هذا بلا نهاية؟
شاهد النسخة الأصليةرد0
ApyWhisperer
· 07-09 18:35
يجب أن نغتنم هذه الفرصة بشدة
شاهد النسخة الأصليةرد0
AltcoinOracle
· 07-09 16:59
الأنماط لا تكذب... مجموعة العمليات + eigenDA تشكل توزيع وايكوف المثالي... تحول نموذجي قادم frens
شاهد النسخة الأصليةرد0
StableGenius
· 07-08 06:00
meh... يوم آخر، اختراق آخر في الذكاء الاصطناعي/العملات المشفرة. من الناحية التجريبية، هم فقط يعيدون تغليف البنية التحتية القديمة بصراحة
شاهد النسخة الأصليةرد0
GasFeeTears
· 07-08 05:57
مرة أخرى، إنها مجرد مضاربة على المفاهيم.
شاهد النسخة الأصليةرد0
MEVVictimAlliance
· 07-08 05:56
هذه الفخ تشبه تضليل GPU كثيرًا
شاهد النسخة الأصليةرد0
SlowLearnerWang
· 07-08 05:50
لقد حان وقت الطرف الأول لرسم البيتزا مرة أخرى. ما الذي تم فعلاً التنافس عليه في قوة الحوسبة؟
OpenLedger: بناء بنية تحتية للاقتصاد الذكي المدفوع بالبيانات
تقرير بحثي متعمق عن OpenLedger: بناء اقتصاد ذكي مدفوع بالبيانات وقابل للتجميع باستخدام OP Stack + EigenDA كقاعدة
一、引言 | قفزة نموذج Crypto AI
البيانات والنماذج وقدرة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، مقارنة بالوقود (البيانات) والمحرك (النماذج) والطاقة (قدرة الحوسبة) التي لا غنى عنها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في العملات المشفرة مراحل مشابهة. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية، مع التأكيد بشكل عام على منطق النمو الواسع "المنافسة في القدرة الحوسبية". ومع دخول عام 2025، بدأت نقاط اهتمام الصناعة في الانتقال تدريجياً نحو نماذج وطبقة البيانات، مما يدل على أن الذكاء الاصطناعي في العملات المشفرة ينتقل من منافسة الموارد الأساسية إلى بناء طبقة متوسطة أكثر استدامة وقيمة تطبيقية.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث تتراوح أحجام المعلمات بين 70B و500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى ملايين الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، فهي تعتمد عادةً على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، وتجمع بين كمية قليلة من البيانات المهنية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء ذات معرفة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال استدعاء هيكل Agent، ونظام المكونات الإضافية للتوجيه الديناميكي، والموصلات القابلة للتوصيل LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM على التغطية الواسعة، ويعزز الأداء المتخصص من خلال وحدات التعديل الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي التشفيري في مستوى النموذج
مشاريع الذكاء الاصطناعي العملات المشفرة يصعب في جوهرها تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، على نموذج الأساس مفتوح المصدر، يمكن لمشروع Crypto AI أن يحقق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM)، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. ك"طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوكشين
من الواضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذج التوقع تتركز بشكل أساسي على التحسين الخفيف لنماذج SLM الصغيرة، وإمكانية الوصول والتحقق من البيانات على السلسلة باستخدام بنية RAG، بالإضافة إلى النشر المحلي لنماذج Edge والتحفيز. بالاقتران مع قابلية التحقق من blockchain وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة تمايز ل"طبقة واجهة" الذكاء الاصطناعي.
سلسلة blockchain AI المستندة إلى البيانات والنماذج، يمكنها تسجيل المصدر الواضح وغير القابل للتغيير لمساهمات كل بيانات ونموذج، مما يعزز بشكل كبير من موثوقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، مما يبني نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يحسن من هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في السوق الحالية التي تركز على آلية تحفيز البيانات والنماذج في blockchain AI. وقد قدمت مفهوم "Payable AI" لأول مرة، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمات الفعلية.
OpenLedger تقدم حلقة مغلقة كاملة من "تقديم البيانات" إلى "نشر النموذج" ثم "استدعاء الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي القائم على البيانات والقابل لتجميع النماذج"، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى البلوكشين.
وفي اعتماد تقنية blockchain، تستخدم OpenLedger قاعدة OP Stack + EigenDA لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
بالمقارنة مع NEAR التي تعتبر أكثر تركيزًا على البنية التحتية وتستهدف سيادة البيانات مع "وكلاء الذكاء الاصطناعي على BOS"، يركز OpenLedger بشكل أكبر على بناء سلسلة خاصة بالذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، ويهدف إلى جعل تطوير النماذج واستدعائها على السلسلة قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة. إنه البنية التحتية لتحفيز النماذج في عالم Web3، يجمع بين استضافة النماذج على طريقة HuggingFace، وفوترة الاستخدام على طريقة Stripe، وواجهة قابلة للتجميع على السلسلة على طريقة Infura، مما يدفع نحو تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية وعمارة التقنية لـ OpenLedger
3.1 مصنع النماذج، بدون حاجة إلى كود نموذج المصنع
ModelFactory هو منصة لتعديل نموذج اللغة الكبيرة (LLM) تحت نظام OpenLedger البيئي. على عكس أطر التعديل التقليدية، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النموذج استنادًا إلى مجموعة البيانات التي تم الحصول على تفويضها ومراجعتها على OpenLedger. لقد تم تحقيق تدفق عمل متكامل لتفويض البيانات، وتدريب النموذج، ونشره، وتشتمل العملية الأساسية على:
يتكون هيكل نظام Model Factory من ستة وحدات، تشمل المصادقة على الهوية، وأذونات البيانات، وضبط النماذج، وتقييم النشر و RAG، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للت Monetization.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
تظهر الجدول أدناه قدرات نموذج اللغة الكبيرة المدعومة حاليًا من قبل ModelFactory:
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست متخلفة، بل هي تكوين "الأولوية العملية" المستند إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
Model Factory كأداة سلسلة بدون كود، جميع النماذج مزودة بآلية إثبات المساهمة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بانخفاض العتبة، وقابلية التسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، تجسيد الأصول على السلسلة للنموذج المدرب
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدراج "مصفوفات منخفضة الرتبة" في نموذج كبير مُدرَّب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل الاستفسارات القانونية، والاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة."، مع كفاءة عالية في المعلمات، وسرعة في التدريب، ومرونة في النشر، تُعتبر الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم تصميمه خصيصًا لنشر نماذج متعددة ومشاركة الموارد من قبل OpenLedger. الهدف الأساسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
OpenLoRA نظام المعمارية المكونات الأساسية، يعتمد على تصميم معياري، يغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من النقاط الرئيسية، لتحقيق نشر متعدد النماذج واستدعاء فعال ومنخفض التكلفة: