Безмежний LLM: нові виникаючі загрози безпеці в індустрії шифрування

robot
Генерація анотацій у процесі

Нескінченна велика мовна модель: нова загроза безпеці в індустрії шифрування

З розвитком технологій штучного інтелекту, від серії GPT до таких просунутих мовних моделей, як Gemini, суттєво змінюється наш спосіб роботи та життя. Проте темна сторона цього технологічного прогресу також поступово проявляється — поява необмежених або зловмисних великих мовних моделей створює нові виклики для кібербезпеки.

Безобмежені LLM - це ті, що були спеціально розроблені, модифіковані або "вибрані з в'язниці", щоб уникнути вбудованих механізмів безпеки та етичних обмежень основних моделей. Хоча розробники основних LLM зазвичай вкладають значні ресурси для запобігання зловживанню моделями, деякі особи або організації з поганими намірами починають шукати або самостійно розробляти необмежені моделі. У цій статті буде розглянуто потенційні способи зловживання цими безмежними інструментами LLM в індустрії шифрування, а також пов'язані з ними проблеми безпеки та стратегії реагування.

Пандора: як необмежені великі моделі загрожують безпеці шифрування?

Потенційні небезпеки необмежених LLM

Поява безмежних LLM суттєво знизила технічний поріг для кібератак. Завдання, для виконання яких раніше були потрібні професійні навички, такі як написання шкідливого коду, створення фішингових електронних листів, організація шахрайства тощо, тепер можуть легко виконувати навіть звичайні люди без досвіду програмування. Атакуючі повинні лише отримати ваги та вихідний код відкритої моделі, а потім налаштувати її на наборі даних, що містить шкідливий контент або незаконні інструкції, щоб створити індивідуалізований інструмент атаки.

Ця тенденція призвела до кількох ризиків:

  1. Зловмисник може налаштувати модель на конкретну ціль, створюючи більш оманливий контент, щоб обійти звичайну перевірку контенту LLM.
  2. Модель може бути використана для швидкого генерування варіантів коду фішингових сайтів або для створення шахрайських текстів, адаптованих для різних платформ.
  3. Доступність та можливість модифікації відкритих моделей сприяли формуванню підпільної екосистеми ШІ, створюючи сприятливе середовище для незаконної торгівлі та розробки.

Типові необмежені LLM інструменти та їх потенційне зловживання

WormGPT: темна версія GPT

WormGPT є шкідливим LLM, який продається на підпільних форумах, стверджуючи, що не має жодних моральних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і тренується на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачам потрібно всього лише заплатити 189 доларів, щоб отримати місячний доступ.

У потенційних зловживаннях у сфері шифрування є:

  • Генерувати надзвичайно реалістичні фішингові листи, що імітують запит біржі або проекту на отримання приватного ключа користувача
  • Допомога з обмеженими технічними можливостями зловмисникам у написанні шкідливого коду для викрадення файлів гаманця тощо
  • Керування автоматизованим шахрайством, яке спонукає жертв брати участь у фальшивих аеродропах або інвестиційних проектах

DarkBERT:двосічний меч контенту темної мережі

DarkBERT є мовною моделлю, спеціально попередньо навченою на даних з темної мережі, спочатку призначеною для допомоги в дослідженнях кібербезпеки. Однак, якщо її використовувати зловмисно, чутлива інформація, якою вона володіє, може призвести до серйозних наслідків.

Потенційні зловживання включають:

  • Збір інформації про користувачів шифрування та команди проекту для точного шахрайства
  • Копіювання зрілих стратегій крадіжки та відмивання грошей у темному інтернеті

FraudGPT: багатофункціональний інструмент для мережевого шахрайства

FraudGPT самопроголошений як вдосконалена версія WormGPT, основним чином продається в темній мережі та на форумах хакерів.

У потенційних зловживаннях у сфері шифрування включають:

  • Підробка шифрувальних проектів: створення реалістичних білих книг, офіційних сайтів тощо для фальшивих ICO/IDO
  • Масове створення фішингових сторінок: швидке копіювання інтерфейсу входу відомих бірж
  • Дії ботів у соціальних мережах: масове створення фальшивих відгуків для просування шахрайських токенів
  • Соціальна інженерія: імітація людської розмови для спонукання користувачів розкривати чутливу інформацію

GhostGPT: AI помічник без моральних обмежень

GhostGPT чітко визначений як AI-чат-бот без моральних обмежень.

У потенційних зловживаннях у сфері шифрування входять:

  • Генерувати високоякісні фішингові електронні листи, видаючи себе за біржу, щоб опублікувати фальшиве повідомлення
  • Швидке створення смарт-контрактів з бекдорами для схем Rug Pull
  • Створення шкідливого програмного забезпечення з можливістю трансформації для крадіжки інформації з гаманців
  • Розгорнення роботів у соціальних платформах, щоб спонукати користувачів брати участь у фальшивих проектах
  • У співпраці з іншими AI-інструментами, генерувати підроблені голоси для здійснення телефонного шахрайства

Venice.ai: потенційний ризик безцензурного доступу

Venice.ai надає доступ до кількох LLM, включаючи деякі моделі з меншими обмеженнями. Хоча він позиціонується як платформа для відкритого дослідження, його також можна зловживати для генерації шкідливого контенту.

Потенційні ризики включають:

  • Обхід цензури для створення шкідливого контенту: використання моделей з меншими обмеженнями для генерації атакуючих матеріалів
  • Зниження порогу входу для атаки: полегшення доступу до раніше обмеженого виходу для нападників
  • Прискорення ітерації атакуючих сценаріїв: швидке тестування реакцій різних моделей, оптимізація шахрайських скриптів

Висновок

Поява безмежних LLM позначає, що кібербезпека стикається з новими складними, масштабними та автоматизованими загрозами. Це не лише знижує бар'єр для атак, але й створює більш приховані та обманливі ризики.

Для подолання цього виклику потрібно спільні зусилля всіх учасників безпечної екосистеми:

  1. Збільшити інвестиції в технології перевірки, розробити інструменти, які можуть розпізнавати та перехоплювати зловмисний контент, згенерований LLM.
  2. Сприяти розвитку можливостей моделі захисту від джейлбрейку, досліджувати механізми водяних знаків та відстеження
  3. Створення ефективних етичних норм і механізмів регулювання, щоб обмежити розробку та зловживання шкідливими моделями з самого початку.

Тільки комплексний підхід дозволить ефективно протистояти цій новій безпековій загрозі та забезпечити здоровий розвиток шифрування в галузі.

Пандора: як необмежені великі моделі загрожують безпеці шифрування?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Поділіться
Прокоментувати
0/400
not_your_keysvip
· 07-07 19:46
Ця хвиля гравців знову буде обдурювана, як лохів
Переглянути оригіналвідповісти на0
SerumSqueezervip
· 07-07 09:56
Ще одна еволюція, ai займається риболовлею
Переглянути оригіналвідповісти на0
LightningPacketLossvip
· 07-05 03:22
Не зволікай, швидше перевір віруси.
Переглянути оригіналвідповісти на0
0xSleepDeprivedvip
· 07-05 03:22
Це тепер приречений, навіть злодії стали AI.
Переглянути оригіналвідповісти на0
TokenDustCollectorvip
· 07-05 03:19
невдахи стали Сатоші~
Переглянути оригіналвідповісти на0
ImpermanentLossEnjoyervip
· 07-05 03:11
Наступне зменшення також прийде
Переглянути оригіналвідповісти на0
  • Закріпити