This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Miraネットワーク:AIの信頼層が偏見と幻覚をどのように排除するか
AI信頼層:MiraネットワークがAIの偏見と幻覚の問題をどのように解決するか
最近、Miraという名前のネットワークパブリックベータ版がリリースされ、業界内でAIの信頼性に関する問題が注目されています。Miraネットワークの目標は、AIの信頼レイヤーを構築し、AIの使用中に発生する可能性のある偏見や「幻覚」問題を解決することです。では、なぜAIは信頼される必要があるのでしょうか?Miraはこの問題をどのように解決するのでしょうか?
AIについて議論する際、人々はその強力な能力により多くの注意を向けることがよくあります。しかし、AIに存在する「幻覚」や偏見の問題はしばしば無視されがちです。いわゆるAIの「幻覚」とは、簡単に言えば、AIが時々「でたらめ」を言ってしまうことを指します。たとえば、「なぜ月はピンクなのか」と尋ねられたとき、AIは一見合理的に見えるが完全に虚構の説明をすることがあります。
AIの「幻覚」や偏見の出現は、現在のいくつかのAI技術の道筋に関連しています。生成型AIは「最も可能性の高い」内容を予測することで一貫性と合理性を実現しますが、時には真偽を検証できないことがあります。また、トレーニングデータ自体に誤り、偏見、さらには虚構の内容が含まれている可能性があり、これらはAIの出力に影響を与えます。言い換えれば、AIが学習しているのは人間の言語パターンであり、事実そのものではありません。
現在の確率生成メカニズムとデータ駆動型モデルは、ほぼ避けられない形でAIの幻覚の発生を引き起こす可能性があります。一般的な知識やエンターテインメントコンテンツの分野では、このような偏見や幻覚を伴う出力が一時的に直接的な結果を引き起こさないかもしれませんが、医療、法律、航空、金融などの高度に厳密な分野では、深刻な影響を及ぼす可能性があります。したがって、AIの幻覚や偏見の解決は、AIの発展過程における核心的な問題の一つとなっています。
Miraプロジェクトは、AIの偏見と幻覚の問題を解決し、AIの信頼層を構築し、AIの信頼性を高めることに取り組んでいます。それでは、Miraはどのようにこの目標を達成しているのでしょうか?
Miraのコアアプローチは、複数のAIモデルのコンセンサスを通じてAI出力を検証することです。Miraは本質的に検証ネットワークであり、分散型コンセンサス検証を通じてAI出力の信頼性を確保します。このアプローチは、暗号分野が得意とする分散型コンセンサス検証と多モデル協調の利点を組み合わせており、集団検証モデルを通じてバイアスや幻覚を減少させます。
検証アーキテクチャの観点から、Miraプロトコルは複雑な内容を独立した検証声明に変換することをサポートしています。ノードオペレーターはこれらの声明の検証に参加し、暗号経済的なインセンティブ/ペナルティメカニズムを通じてノードオペレーターの誠実性を確保します。さまざまなAIモデルと分散ノードオペレーターが共同で参加し、検証結果の信頼性を保証します。
Miraのネットワークアーキテクチャは、コンテンツ変換、分散検証、およびコンセンサス機構を含んでいます。まず、システムは顧客が提出した候補コンテンツを異なる検証可能な声明に分解し、ノードに配布して検証を行います。ノードが声明の有効性を確認した後、システムは結果を集約してコンセンサスを達成し、結果を顧客に返します。顧客のプライバシーを保護するために、声明はランダムなシャーディング方式で異なるノードに配布されます。
ノードオペレーターは、バリデーターモデルを実行し、声明を処理し、検証結果を提出することで収益を得ます。これらの収益は、さまざまな分野でのAIのエラー率を低下させることによって顧客に創造される価値から来ています。ノードがランダムに応答するのを防ぐために、コンセンサスから持続的に逸脱するノードは、ステーキングトークンを減少させられます。
全体として、MiraはAIの信頼性を実現するための新しい解決策を提供しています。複数のAIモデルに基づいて分散型コンセンサス検証ネットワークを構築することで、Miraは顧客のAIサービスにより高い信頼性をもたらし、AIの偏見や幻覚を減少させ、より高い正確さと精度のニーズを満たすことを目指しています。このアプローチは、顧客に価値を提供するだけでなく、Miraネットワークの参加者にも利益をもたらし、AIアプリケーションの深い発展を促進することが期待されています。
現在、ユーザーはKlok(Miraに基づくLLMチャットアプリ)を通じてMiraのパブリックテストネットに参加し、検証済みのAI出力を体験し、Miraポイントを獲得するチャンスがあります。ポイントの将来的な用途はまだ発表されていませんが、これは間違いなくユーザーにAI信頼層を直接体験する機会を提供します。