Nouvelles tendances dans le secteur des Layer1 IA : analyse approfondie de six projets

Rapport de recherche sur AI Layer1 : À la recherche d'un terrain fertile pour DeAI off-chain

Aperçu

Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont considérablement accéléré le développement des modèles de langage de grande taille (LLM). Les LLM ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'imaginaire humain, et ont même démontré un potentiel pour remplacer le travail humain dans certains cas. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficilement franchissables, rendant la concurrence presque impossible pour la grande majorité des développeurs et des équipes d'innovation.

En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions fondamentales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur le fait de savoir si l'IA doit être "pour le bien" ou "pour le mal" deviendra de plus en plus saillant, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.

La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable du secteur de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà vu le jour sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et l'infrastructure dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème réellement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité de modèle, d'utilisation des données et de scénarios d'application, la profondeur et la largeur de l'innovation doivent être améliorées.

Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en termes de performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte en IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisée.

Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

Les caractéristiques clés de AI Layer 1

AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, sa structure sous-jacente et son design de performance sont étroitement centrés sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :

  1. Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes. Ils doivent non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence de modèles AI, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur les infrastructures AI. Cela pose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : l'AI Layer 1 doit être en mesure d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, afin d'assurer la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau tout en réduisant efficacement le coût global de la puissance de calcul.

  2. Excellente performance élevée et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performances de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour des ressources de calcul hétérogènes, garantissant ainsi que toutes les tâches d'IA puissent fonctionner efficacement et permettant une extension fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".

  3. Vérifiabilité et garantie de sortie fiable L'IA Layer 1 doit non seulement prévenir les risques de sécurité tels que les comportements malveillants des modèles et la falsification des données, mais aussi garantir, au niveau des mécanismes fondamentaux, la vérifiabilité et l'alignement des résultats produits par l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet que chaque processus d'inférence, d'entraînement et de traitement des données du modèle puisse être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à comprendre la logique et les bases des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.

  4. Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul confidentiel et des méthodes de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, et d'éviter efficacement les fuites et les abus de données, en éliminant les préoccupations des utilisateurs en matière de sécurité des données.

  5. Capacités puissantes de support et de développement de l'écosystème En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en continu la convivialité de la plateforme et l'expérience des développeurs, cela favorise le déploiement d'applications IA natives diversifiées et riches, réalisant une prospérité continue de l'écosystème IA décentralisé.

Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en récapitulant les dernières avancées du secteur, en analysant l'état actuel des projets et en explorant les tendances futures.

Biteye et PANews publient un rapport de recherche sur l'IA Layer1 : à la recherche d'un terrain fertile pour DeAI off-chain

Sentient : Construire des modèles d'IA décentralisés open source fidèles

Aperçu du projet

Sentient est une plateforme de protocole open source qui développe une blockchain AI Layer1 ( en phase initiale en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA de réaliser une structure de propriété on-chain, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.

L'équipe de Sentient Foundation regroupe les meilleurs experts académiques, entrepreneurs en blockchain et ingénieurs du monde entier, dédiée à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut indien des sciences, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents provenant d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.

En tant que projet de seconde entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient est dès sa création doté d'une aura, bénéficiant de ressources, de relations et d'une notoriété sur le marché qui offrent un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs incluant Delphi, Hashkey et Spartan, parmi des dizaines de VC renommés.

Biteye et PANews publient un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain

architecture de conception et couche d'application

Infrastructure

Architecture de base

L'architecture centrale de Sentient est composée de deux parties : le pipeline AI et le système de blockchain.

Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", et comprend deux processus clés :​

  • Planification des données (Data Curation) : processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
  • Formation à la fidélité (Loyalty Training) : assurer que le modèle maintienne un processus d'entraînement cohérent avec les intentions de la communauté.

Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique se divise en quatre couches :

  • Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
  • Couche de distribution : point d'entrée du modèle d'appel contrôlé par le contrat d'autorisation ;
  • Couche d'accès : Vérifie si l'utilisateur est autorisé via la preuve d'autorisation ;
  • Couche d'incitation : le contrat de routage des revenus attribue chaque appel de paiement aux formateurs, déployeurs et validateurs.

Biteye et PANews publient conjointement un rapport de recherche sur l'AI Layer1 : À la recherche des terres fertiles pour DeAI

Cadre de modèle OML

Le cadre OML (Open, Monetizable, Loyal) est le concept clé proposé par Sentient, visant à offrir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il possède les caractéristiques suivantes :

  • Ouverture : Le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
  • Monétisation : Chaque appel au modèle déclenche un flux de revenus, le contrat off-chain répartit les revenus entre le formateur, le déployeur et le vérificateur.
  • Loyauté : Le modèle appartient à la communauté des contributeurs, la direction de la mise à niveau et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)

La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :

  • Intégration d'empreintes digitales : Insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
  • Protocole de vérification de propriété : vérifiez si l'empreinte digitale est conservée à l'aide d'un détecteur tiers (Prover) sous forme de question de requête ;
  • Mécanisme d'appel autorisé : Avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer une réponse précise.

Cette méthode permet de réaliser "appel d'autorisation basé sur le comportement + validation d'appartenance" sans coût de re-chiffrement.

Cadre de sécurisation et de validation des modèles

Sentient utilise actuellement Melange pour la sécurité mixte : combinaison de la vérification par empreinte digitale, de l'exécution TEE et de la répartition des profits des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, mettant l'accent sur la philosophie de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, avec détection et sanction en cas de violation.

Le mécanisme d'empreinte digitale est une mise en œuvre clé de l'OML, il permet au modèle de générer des signatures uniques durant la phase d'entraînement en intégrant des paires de "questions-réponses" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle sur la chaîne.

De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que TEE repose sur le matériel et présente certains risques de sécurité, ses avantages en termes de performance élevée et de temps réel en font la technologie centrale pour le déploiement actuel des modèles.

À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, afin de fournir un déploiement décentralisé des modèles d'IA.

DEAI1.6%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Reposter
  • Partager
Commentaire
0/400
NftDataDetectivevip
· Il y a 13h
hmm... juste une autre tentative de faire du bruit autour de l'IA "décentralisée" alors que les grandes technologies possèdent déjà le jeu à vrai dire
Voir l'originalRépondre0
ForeverBuyingDipsvip
· Il y a 13h
Ah ? Il y a aussi cette piste !
Voir l'originalRépondre0
MEVictimvip
· Il y a 13h
Nouveau moyen de se faire prendre pour des cons dans l'industrie ?
Voir l'originalRépondre0
TeaTimeTradervip
· Il y a 13h
Faire quelque chose d'aussi compliqué, c'est moins bien que de faire du trading de jetons.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)