Camada de Confiança em IA: Como a Rede Mira Resolve os Problemas de Viés e Ilusão da IA
Recentemente, uma versão beta pública da rede chamada Mira foi lançada, chamando a atenção da indústria para a questão da confiabilidade da IA. O objetivo da rede Mira é construir uma camada de confiança para a IA, abordando os problemas de preconceito e "alucinações" que podem surgir durante o uso da IA. Então, por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais em suas poderosas capacidades. No entanto, o problema das "ilusões" ou preconceitos da IA frequentemente é ignorado. O que se chama de "ilusão" da IA, simplificadamente, é que a IA às vezes "inventa" coisas, falando absurdos com toda a seriedade. Por exemplo, quando questionada sobre por que a lua é rosa, a IA pode fornecer uma explicação que parece razoável, mas é completamente fictícia.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das atuais trajetórias tecnológicas de IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até conteúdos fictícios, o que impacta a saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados levam quase inevitavelmente ao surgimento de alucinações de IA. Embora, nos domínios do conhecimento geral ou do conteúdo de entretenimento, essa saída enviesada ou ilusória possa não causar consequências diretas imediatas, em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter impactos graves. Portanto, resolver as alucinações e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira visa resolver problemas de viés e alucinação da IA, construindo uma camada de confiança para a IA e aumentando a sua fiabilidade. Então, como é que a Mira alcança este objetivo?
O método central da Mira é validar as saídas de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que garante a confiabilidade das saídas de IA por meio de validação de consenso descentralizada. Este método combina as vantagens da validação de consenso descentralizado, que é bem dominada no campo da criptografia, e da colaboração entre múltiplos modelos, reduzindo assim preconceitos e ilusões através de um modo de validação coletiva.
Em termos de arquitetura de validação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de validação independentes. Os operadores de nós participam da validação dessas declarações e garantem a honestidade dos operadores de nós através de mecanismos de incentivo/punição econômica criptográfica. Diferentes modelos de IA e operadores de nós descentralizados colaboram para garantir a fiabilidade dos resultados de validação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em diferentes declarações verificáveis e as distribui para os nós para validação. Após os nós determinarem a validade das declarações, o sistema resume os resultados para alcançar consenso e retorna os resultados ao cliente. Para proteger a privacidade do cliente, as declarações serão distribuídas para diferentes nós de forma aleatória em fragmentos.
Os operadores de nós obtêm lucros ao executar modelos de validadores, processar declarações e submeter resultados de validação. Esses lucros vêm do valor criado para os clientes, ou seja, a redução da taxa de erro da IA em várias áreas. Para evitar que os nós respondam aleatoriamente, nós que se desviarem continuamente do consenso terão seus tokens de staking reduzidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ao construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, a Mira visa proporcionar maior confiabilidade aos serviços de IA dos clientes, reduzir preconceitos e ilusões da IA, e atender à demanda por maior precisão e exatidão. Esta abordagem não só oferece valor aos clientes, mas também gera benefícios para os participantes da rede Mira, com potencial para impulsionar o desenvolvimento profundo das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes pública do Mira através do Klok (um aplicativo de chat LLM baseado no Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. Embora os futuros usos dos pontos ainda não tenham sido anunciados, isso sem dúvida oferece aos usuários a oportunidade de vivenciar pessoalmente o nível de confiança da IA.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Rede Mira: como a camada de confiança da IA elimina preconceitos e ilusões
Camada de Confiança em IA: Como a Rede Mira Resolve os Problemas de Viés e Ilusão da IA
Recentemente, uma versão beta pública da rede chamada Mira foi lançada, chamando a atenção da indústria para a questão da confiabilidade da IA. O objetivo da rede Mira é construir uma camada de confiança para a IA, abordando os problemas de preconceito e "alucinações" que podem surgir durante o uso da IA. Então, por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais em suas poderosas capacidades. No entanto, o problema das "ilusões" ou preconceitos da IA frequentemente é ignorado. O que se chama de "ilusão" da IA, simplificadamente, é que a IA às vezes "inventa" coisas, falando absurdos com toda a seriedade. Por exemplo, quando questionada sobre por que a lua é rosa, a IA pode fornecer uma explicação que parece razoável, mas é completamente fictícia.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das atuais trajetórias tecnológicas de IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até conteúdos fictícios, o que impacta a saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados levam quase inevitavelmente ao surgimento de alucinações de IA. Embora, nos domínios do conhecimento geral ou do conteúdo de entretenimento, essa saída enviesada ou ilusória possa não causar consequências diretas imediatas, em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter impactos graves. Portanto, resolver as alucinações e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira visa resolver problemas de viés e alucinação da IA, construindo uma camada de confiança para a IA e aumentando a sua fiabilidade. Então, como é que a Mira alcança este objetivo?
O método central da Mira é validar as saídas de IA através do consenso de múltiplos modelos de IA. A Mira é essencialmente uma rede de validação que garante a confiabilidade das saídas de IA por meio de validação de consenso descentralizada. Este método combina as vantagens da validação de consenso descentralizado, que é bem dominada no campo da criptografia, e da colaboração entre múltiplos modelos, reduzindo assim preconceitos e ilusões através de um modo de validação coletiva.
Em termos de arquitetura de validação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de validação independentes. Os operadores de nós participam da validação dessas declarações e garantem a honestidade dos operadores de nós através de mecanismos de incentivo/punição econômica criptográfica. Diferentes modelos de IA e operadores de nós descentralizados colaboram para garantir a fiabilidade dos resultados de validação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em diferentes declarações verificáveis e as distribui para os nós para validação. Após os nós determinarem a validade das declarações, o sistema resume os resultados para alcançar consenso e retorna os resultados ao cliente. Para proteger a privacidade do cliente, as declarações serão distribuídas para diferentes nós de forma aleatória em fragmentos.
Os operadores de nós obtêm lucros ao executar modelos de validadores, processar declarações e submeter resultados de validação. Esses lucros vêm do valor criado para os clientes, ou seja, a redução da taxa de erro da IA em várias áreas. Para evitar que os nós respondam aleatoriamente, nós que se desviarem continuamente do consenso terão seus tokens de staking reduzidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ao construir uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, a Mira visa proporcionar maior confiabilidade aos serviços de IA dos clientes, reduzir preconceitos e ilusões da IA, e atender à demanda por maior precisão e exatidão. Esta abordagem não só oferece valor aos clientes, mas também gera benefícios para os participantes da rede Mira, com potencial para impulsionar o desenvolvimento profundo das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes pública do Mira através do Klok (um aplicativo de chat LLM baseado no Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. Embora os futuros usos dos pontos ainda não tenham sido anunciados, isso sem dúvida oferece aos usuários a oportunidade de vivenciar pessoalmente o nível de confiança da IA.