Уровень доверия AI: Как сеть Mira решает проблемы предвзятости и иллюзий в AI
Недавно была запущена публичная тестовая версия сети под названием Mira, что привлекло внимание к вопросам доверия к ИИ в отрасли. Цель сети Mira — создать уровень доверия к ИИ, решая проблемы предвзятости и "галлюцинаций", которые могут возникнуть в процессе использования ИИ. Так почему ИИ нужно доверять? Как Mira решает эту проблему?
При обсуждении ИИ люди часто больше всего обращают внимание на его мощные способности. Однако проблемы "иллюзий" или предвзятости, связанные с ИИ, часто игнорируются. Под "иллюзиями" ИИ подразумевается то, что ИИ иногда может "выдумывать" и серьезно говорить чепуху. Например, когда его спрашивают, почему луна розовая, ИИ может дать казалось бы разумное, но совершенно вымышленное объяснение.
Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими технологическими направлениями ИИ. Генеративный ИИ достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но иногда не может проверить истинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что влияет на выводы ИИ. Другими словами, ИИ изучает языковые модели человека, а не факты сами по себе.
Современные механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к появлению AI-галлюцинаций. Хотя в области общей знаний или развлекательного контента такие предвзятые или иллюзорные результаты могут временно не иметь прямых последствий, в таких строгих областях, как медицина, право, авиация и финансы, они могут иметь серьезные последствия. Поэтому решение проблем AI-галлюцинаций и предвзятости становится одним из ключевых вопросов в процессе развития ИИ.
Проект Mira посвящен решению проблем предвзятости и иллюзий в ИИ, созданию уровня доверия к ИИ и повышению его надежности. Так как же Mira достигает этой цели?
Основной метод Mira заключается в верификации AI-выводов через консенсус нескольких AI-моделей. По сути, Mira является сетью верификации, обеспечивающей надежность AI-выводов через децентрализованную верификацию консенсуса. Этот метод сочетает преимущества децентрализованной верификации консенсуса, преуспевающей в криптографической области, и совместной работы нескольких моделей, снижая предвзятость и иллюзии через коллективный режим верификации.
В отношении архитектуры проверки протокол Mira поддерживает преобразование сложного контента в независимые заявления о проверке. Операторы узлов участвуют в проверке этих заявлений и обеспечивают честность операторов узлов через механизмы криптоэкономического стимулирования/наказания. Различные AI модели и распределенные операторы узлов совместно участвуют для обеспечения надежности результатов проверки.
Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Во-первых, система разбивает представленные клиентом кандидатные материалы на различные проверяемые утверждения и распределяет их по узлам для проверки. После того как узлы определят действительность утверждений, система обобщает результаты для достижения консенсуса и возвращает результаты клиенту. Для защиты конфиденциальности клиентов утверждения будут распределены по различным узлам в случайном порядке.
Операторы узлов получают доход, запуская модель валидатора, обрабатывая заявления и отправляя результаты валидации. Этот доход поступает от создаваемой для клиентов ценности, а именно от снижения коэффициента ошибок ИИ в различных областях. Чтобы предотвратить случайные ответы узлов, узлы, которые постоянно отклоняются от консенсуса, будут лишены залоговых токенов.
В целом, Mira предлагает новый подход к обеспечению надежности ИИ. Создавая децентрализованную сеть верификации консенсуса на основе нескольких моделей ИИ, Mira нацелена на повышение надежности ИИ-сервисов для клиентов, снижение предвзятости и иллюзий ИИ, а также удовлетворение потребностей в более высокой точности и прецизионности. Этот подход не только приносит ценность клиентам, но и приносит выгоду участникам сети Mira, что может способствовать углубленному развитию приложений ИИ.
В настоящее время пользователи могут участвовать в публичной тестовой сети Mira через Klok (приложение для чат-LLM на основе Mira), испытывая проверенный AI вывод и получая возможность зарабатывать баллы Mira. Хотя будущие применения баллов еще не объявлены, это, безусловно, предоставляет пользователям возможность на практике испытать уровень доверия AI.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Сеть Mira: Как уровень доверия AI устраняет предвзятости и иллюзии
Уровень доверия AI: Как сеть Mira решает проблемы предвзятости и иллюзий в AI
Недавно была запущена публичная тестовая версия сети под названием Mira, что привлекло внимание к вопросам доверия к ИИ в отрасли. Цель сети Mira — создать уровень доверия к ИИ, решая проблемы предвзятости и "галлюцинаций", которые могут возникнуть в процессе использования ИИ. Так почему ИИ нужно доверять? Как Mira решает эту проблему?
При обсуждении ИИ люди часто больше всего обращают внимание на его мощные способности. Однако проблемы "иллюзий" или предвзятости, связанные с ИИ, часто игнорируются. Под "иллюзиями" ИИ подразумевается то, что ИИ иногда может "выдумывать" и серьезно говорить чепуху. Например, когда его спрашивают, почему луна розовая, ИИ может дать казалось бы разумное, но совершенно вымышленное объяснение.
Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими технологическими направлениями ИИ. Генеративный ИИ достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но иногда не может проверить истинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что влияет на выводы ИИ. Другими словами, ИИ изучает языковые модели человека, а не факты сами по себе.
Современные механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к появлению AI-галлюцинаций. Хотя в области общей знаний или развлекательного контента такие предвзятые или иллюзорные результаты могут временно не иметь прямых последствий, в таких строгих областях, как медицина, право, авиация и финансы, они могут иметь серьезные последствия. Поэтому решение проблем AI-галлюцинаций и предвзятости становится одним из ключевых вопросов в процессе развития ИИ.
Проект Mira посвящен решению проблем предвзятости и иллюзий в ИИ, созданию уровня доверия к ИИ и повышению его надежности. Так как же Mira достигает этой цели?
Основной метод Mira заключается в верификации AI-выводов через консенсус нескольких AI-моделей. По сути, Mira является сетью верификации, обеспечивающей надежность AI-выводов через децентрализованную верификацию консенсуса. Этот метод сочетает преимущества децентрализованной верификации консенсуса, преуспевающей в криптографической области, и совместной работы нескольких моделей, снижая предвзятость и иллюзии через коллективный режим верификации.
В отношении архитектуры проверки протокол Mira поддерживает преобразование сложного контента в независимые заявления о проверке. Операторы узлов участвуют в проверке этих заявлений и обеспечивают честность операторов узлов через механизмы криптоэкономического стимулирования/наказания. Различные AI модели и распределенные операторы узлов совместно участвуют для обеспечения надежности результатов проверки.
Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Во-первых, система разбивает представленные клиентом кандидатные материалы на различные проверяемые утверждения и распределяет их по узлам для проверки. После того как узлы определят действительность утверждений, система обобщает результаты для достижения консенсуса и возвращает результаты клиенту. Для защиты конфиденциальности клиентов утверждения будут распределены по различным узлам в случайном порядке.
Операторы узлов получают доход, запуская модель валидатора, обрабатывая заявления и отправляя результаты валидации. Этот доход поступает от создаваемой для клиентов ценности, а именно от снижения коэффициента ошибок ИИ в различных областях. Чтобы предотвратить случайные ответы узлов, узлы, которые постоянно отклоняются от консенсуса, будут лишены залоговых токенов.
В целом, Mira предлагает новый подход к обеспечению надежности ИИ. Создавая децентрализованную сеть верификации консенсуса на основе нескольких моделей ИИ, Mira нацелена на повышение надежности ИИ-сервисов для клиентов, снижение предвзятости и иллюзий ИИ, а также удовлетворение потребностей в более высокой точности и прецизионности. Этот подход не только приносит ценность клиентам, но и приносит выгоду участникам сети Mira, что может способствовать углубленному развитию приложений ИИ.
В настоящее время пользователи могут участвовать в публичной тестовой сети Mira через Klok (приложение для чат-LLM на основе Mira), испытывая проверенный AI вывод и получая возможность зарабатывать баллы Mira. Хотя будущие применения баллов еще не объявлены, это, безусловно, предоставляет пользователям возможность на практике испытать уровень доверия AI.