I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como na evolução da infraestrutura da indústria tradicional de IA, o campo do Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, a partir de 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos básicos para uma construção de médio porte com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode facilmente atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que reutiliza modelos básicos, geralmente é baseado em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras técnicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de chamadas da estrutura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA e RAG (geração aumentada por recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente altamente flexível e composto.
Crypto AI no valor e limites da camada de modelo
Projetos de IA cripto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), sendo a razão principal
Barreira técnica muito alta: a escala de dados, recursos computacionais e capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas gigantes da tecnologia como os Estados Unidos e a China possuem a capacidade correspondente.
Limitações do ecossistema de código aberto: Embora modelos de base mainstream como LLaMA e Mixtral tenham sido open source, a verdadeira chave para impulsionar os avanços dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, sendo o espaço de participação de projetos em blockchain no nível do modelo central limitado.
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando com a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de validação confiável: através do registo na cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas da IA.
Mecanismo de incentivo: Com o uso do Token nativo, para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outros comportamentos, construindo um ciclo positivo de treino e serviço de modelos.
Classificação de Tipos de Modelos de IA e Análise de Aplicabilidade em Blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de Crypto AI do tipo modelo se concentram principalmente na afinação leve de SLMs pequenos, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain baseada em dados e modelos de IA pode registrar de forma clara e imutável a fonte de contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em um valor tokenizado que pode ser medido e negociado, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, e aprimorar a estrutura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atualmente que se concentra em incentivos para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem rendimentos em cadeia com base nas contribuições reais.
A OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de divisão de lucros", com os seus módulos principais incluindo:
Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino e treinamento de modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implantação;
PoA (Prova de Atribuição): medir a contribuição e distribuir recompensas através do registo de chamadas na cadeia;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e verificada pela colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia, combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na Pilha OP: baseado na pilha tecnológica Optimism, suporta alta profundidade e execução de baixos custos;
Liquidar na rede principal Ethereum: Garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento rápido e a expansão com base em Solidity;
EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a blockchains genéricas como NEAR, que são mais orientadas para a camada base e focadas na soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger foca mais na construção de blockchains dedicadas à IA voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a invocação de modelos rastreáveis, compostáveis e sustentáveis na cadeia. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos ao estilo HuggingFace, cobrança de uso ao estilo Stripe e interfaces compostáveis na cadeia ao estilo Infura, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Model Factory, sem necessidade de código modelo de fábrica
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operativa, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, sendo os processos principais incluem:
Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurações de hiperparâmetros através da GUI.
Ajuste leve: motor LoRA / QLoRA embutido, exibição em tempo real do progresso do treinamento.
Avaliação e implantação de modelos: Ferramentas de avaliação integradas, suportando exportação para implantação ou chamadas de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG para rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviço de modelo integrada que é segura, controlável, interativa em tempo real e capaz de gerar receita de forma sustentável.
A tabela abaixo resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Série LLaMA: o ecossistema mais amplo, comunidade ativa e desempenho geral forte, é um dos modelos de base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implementação flexíveis e com recursos limitados.
Qwen: Produzido pela Alibaba, apresenta excelente desempenho em tarefas em chinês, com habilidades abrangentes, ideal para desenvolvedores nacionais.
ChatGLM: O efeito de diálogo em chinês é notável, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com estrutura clara, fácil de usar e experimentar rapidamente.
Falcon: Era um marco de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em implementação real.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições práticas da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "pró-praticidade".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com as vantagens de baixa barreira de entrada, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para os desenvolvedores: oferecer um caminho completo para incubação, distribuição e receita do modelo;
Para a plataforma: formar a circulação de ativos de modelo e a ecologia de combinação;
Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.
3.2 OpenLoRA, a assetização em cadeia de modelos de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas ou consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas.", sendo seus parâmetros eficientes, treinamento rápido e implantação flexível, é o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura de inferência leve desenvolvida pela OpenLedger, projetada especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA arquitetura do sistema componentes centrais, baseado em design modular, cobre armazenamento de modelo, execução de inferência, roteamento de solicitações e outras etapas críticas, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento de Adaptador LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é gerenciado na OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória de vídeo, economizando recursos.
Hospedagem de modelos e fusão dinâmica
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
9
Compartilhar
Comentário
0/400
FUD_Vaccinated
· 07-10 17:23
Mais uma vez a especulação sobre o conceito de IA, até quando?
Ver originalResponder0
ApyWhisperer
· 07-09 18:35
Isto tem que ser aproveitado ao máximo.
Ver originalResponder0
AltcoinOracle
· 07-09 16:59
padrões não mentem... op stack + eigenDA formando uma perfeita distribuição wyckoff... mudança de paradigma a caminho fren
Ver originalResponder0
StableGenius
· 07-08 06:00
meh... outro dia, outro "avanço" em ai/cripto. falando empiricamente, eles estão apenas reembalando infra velha, para ser honesto.
Ver originalResponder0
GasFeeTears
· 07-08 05:57
Está apenas a especular sobre conceitos.
Ver originalResponder0
MEVVictimAlliance
· 07-08 05:56
Esta armadilha é muito parecida com o lavar os olhos de GPU.
Ver originalResponder0
SlowLearnerWang
· 07-08 05:50
Já chegou a hora de a parte A desenhar o BTC. O que é que se está realmente a competir em termos de poder de computação?
Ver originalResponder0
GateUser-0717ab66
· 07-08 05:47
Gosto de poder de computação empilhado.
Ver originalResponder0
Rugman_Walking
· 07-08 05:46
A confiabilidade do poder de computação é realmente válida?
OpenLedger: Construindo a infraestrutura econômica inteligente baseada em dados
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como na evolução da infraestrutura da indústria tradicional de IA, o campo do Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, a partir de 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos básicos para uma construção de médio porte com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte (LLM) tradicionais dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode facilmente atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que reutiliza modelos básicos, geralmente é baseado em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras técnicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através de chamadas da estrutura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA e RAG (geração aumentada por recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente altamente flexível e composto.
Crypto AI no valor e limites da camada de modelo
Projetos de IA cripto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), sendo a razão principal
No entanto, em cima de modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando com a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Classificação de Tipos de Modelos de IA e Análise de Aplicabilidade em Blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de Crypto AI do tipo modelo se concentram principalmente na afinação leve de SLMs pequenos, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.
A cadeia de blockchain baseada em dados e modelos de IA pode registrar de forma clara e imutável a fonte de contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em um valor tokenizado que pode ser medido e negociado, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, e aprimorar a estrutura de governança descentralizada.
II. Visão geral do projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atualmente que se concentra em incentivos para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem rendimentos em cadeia com base nas contribuições reais.
A OpenLedger oferece um ciclo completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de divisão de lucros", com os seus módulos principais incluindo:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a blockchains genéricas como NEAR, que são mais orientadas para a camada base e focadas na soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger foca mais na construção de blockchains dedicadas à IA voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a invocação de modelos rastreáveis, compostáveis e sustentáveis na cadeia. É a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos ao estilo HuggingFace, cobrança de uso ao estilo Stripe e interfaces compostáveis na cadeia ao estilo Infura, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Model Factory, sem necessidade de código modelo de fábrica
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operativa, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, sendo os processos principais incluem:
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviço de modelo integrada que é segura, controlável, interativa em tempo real e capaz de gerar receita de forma sustentável.
A tabela abaixo resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim baseada nas restrições práticas da implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "pró-praticidade".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, com as vantagens de baixa barreira de entrada, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização em cadeia de modelos de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas ou consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas.", sendo seus parâmetros eficientes, treinamento rápido e implantação flexível, é o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura de inferência leve desenvolvida pela OpenLedger, projetada especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA arquitetura do sistema componentes centrais, baseado em design modular, cobre armazenamento de modelo, execução de inferência, roteamento de solicitações e outras etapas críticas, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: