OpenLedger constrói infraestrutura de ativos de IA: OP Stack + EigenDA impulsionam modelos de dados de economia combinável

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do nível de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos essenciais. Assim como a evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( uma plataforma de poder computacional, uma plataforma de renderização, uma rede descentralizada, etc. ), enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". A partir de 2025, a atenção da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de médio nível com maior sustentabilidade e valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que pode reutilizar modelos de base, geralmente é baseado em alguns modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de chamadas de arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura preserva a ampla capacidade de cobertura do LLM, ao mesmo tempo que melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

O valor e os limites da Crypto AI ao nível do modelo

Os projetos de IA Crypto, na essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que

  • Barreiras técnicas muito altas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes, e atualmente apenas gigantes da tecnologia como os EUA e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: embora os modelos base principais já estejam disponíveis como código aberto, a verdadeira chave para a superação dos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para o envolvimento de projetos na cadeia em nível de modelo central.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de AI, isso se reflete em duas direções principais:

  • Camada de Verificação Confiável: Através do registro em cadeia do caminho de geração do modelo, contribuição de dados e uso, aumenta a rastreabilidade e a capacidade de resistência à manipulação da saída da IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Classificação de tipos de modelos de IA e análise de aplicabilidade em blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na afinação leve de pequenos SLMs, na integração e verificação de dados em cadeia da arquitetura RAG, e no deployment local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

A cadeia de blockchain de IA baseada em dados e modelos pode registrar de forma clara e imutável a origem das contribuições de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento do modelo. Ao mesmo tempo, através do mecanismo de contratos inteligentes, recompensas são automaticamente distribuídas quando dados ou modelos são chamados, convertendo o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborar na mesma plataforma e a obter ganhos on-chain com base nas contribuições reais.

A OpenLedger oferece um ciclo de cadeia completo desde "fornecimento de dados" até "implantação de modelos" e "chamada de divisão de lucros", sendo seus módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para realizar o ajuste fino e o treinamento com LoRA e implantar modelos personalizados;
  • OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
  • PoA (Proof of Attribution): Medição de contribuição e distribuição de recompensas através de chamadas em cadeia.
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas por colaboração comunitária;
  • Plataforma de Proposta de Modelo (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor de IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com base na OP Stack: baseado em uma pilha tecnológica, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita o desenvolvimento para os programadores implantarem e ampliarem rapidamente com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado com uma blockchain pública que é mais focada no nível inferior, enfatizando a soberania dos dados e a arquitetura de "AI Agents on BOS", a OpenLedger se concentra mais na construção de uma blockchain dedicada à IA voltada para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na blockchain rastreáveis, combináveis e sustentáveis em um ciclo de valor. É a infraestrutura de incentivos de modelos no mundo Web3, combinando um tipo de hospedagem de modelos comunitária, uma plataforma de pagamento para cobrança de uso e uma interface combinável na blockchain tipo infraestrutura, impulsionando o caminho para a realização de "modelo como ativo".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes centrais e a arquitetura técnica do OpenLedger

3.1 Modelo de Fábrica, modelo de fábrica sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface de operação totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
  • Seleção e configuração de modelo: Suporta LLM populares, configurando hiperparâmetros através da GUI.
  • Ajuste leve: motor LoRA / QLoRA integrado, exibe o progresso do treinamento em tempo real.
  • Avaliação e Implementação do Modelo: Ferramentas de avaliação integradas, suportando exportação de implementação ou chamada de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • RAG geração de rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implementação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada que é segura, controlável, interativa em tempo real e sustentável para monetização.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: o ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
  • Mistral: arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produto de uma empresa de tecnologia, com desempenho excelente em tarefas em chinês, capacidade abrangente, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: O desempenho da conversa em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: Exibe um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Um modelo leve lançado por uma empresa de tecnologia, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Era um padrão de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisa de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições práticas do que pode ser implementado on-chain (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração "prioridade prática".

Model Factory como uma ferramenta sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com vantagens de baixa barreira, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar a circulação de ativos modelares e um ecossistema combinado;
  • Para os utilizadores: podem combinar modelos ou Agentes como se estivessem a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem de grande porte tradicionais geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas (como consultas jurídicas, diagnósticos médicos), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo atualmente o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um framework de inferência leve desenvolvido pela OpenLedger, projetado especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "AI Pagável".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:

  • Módulo de armazenamento LoRA Adapter (
OP-3.58%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Repostar
  • Compartilhar
Comentário
0/400
EntryPositionAnalystvip
· 08-10 15:14
Apoio de capital, impulsionado por dados, quem entende, entende.
Ver originalResponder0
FloorPriceWatchervip
· 08-10 04:11
Mais um projeto de poder de computação.
Ver originalResponder0
ForkMastervip
· 08-10 04:03
Mais uma vez, é uma história para arrecadar dinheiro. Quem não sabe que é no máximo um código de forquilha secundária.
Ver originalResponder0
WalletDetectivevip
· 08-10 03:53
Mais uma vez a aproveitar a febre da IA, se eu conseguir viver até ao próximo ano, considero-me derrotado.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)