LLM Tanpa Batas: Ancaman Keamanan Baru yang Dihadapi Industri Enkripsi

robot
Pembuatan abstrak sedang berlangsung

Model Bahasa Besar Tanpa Batas: Ancaman Baru untuk Keamanan Industri Enkripsi

Seiring dengan perkembangan pesat teknologi kecerdasan buatan, dari seri GPT hingga model bahasa canggih seperti Gemini, sedang mengubah cara kita bekerja dan hidup secara mendalam. Namun, sisi gelap dari kemajuan teknologi ini juga perlahan-lahan muncul—munculnya model bahasa besar yang tidak terbatas atau berbahaya membawa tantangan baru bagi keamanan siber.

LLM tanpa batas mengacu pada model bahasa yang dirancang, dimodifikasi, atau "di-jailbreak" dengan sengaja untuk menghindari mekanisme keamanan dan batasan etika yang tertanam dalam model mainstream. Meskipun pengembang LLM mainstream biasanya menginvestasikan banyak sumber daya untuk mencegah penyalahgunaan model, beberapa individu atau organisasi dengan niat buruk mulai mencari atau mengembangkan model tanpa batas mereka sendiri. Artikel ini akan membahas potensi penyalahgunaan alat LLM tanpa batas ini dalam industri enkripsi, serta tantangan keamanan terkait dan strategi penanggulangannya.

Pandora's Box: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Industri Enkripsi?

Potensi Bahaya LLM Tanpa Batas

Munculnya LLM tanpa batas telah secara signifikan menurunkan ambang teknis untuk serangan siber. Tugas-tugas yang sebelumnya memerlukan keterampilan profesional, seperti menulis kode berbahaya, membuat email phishing, merencanakan penipuan, kini dapat dengan mudah dilakukan oleh orang biasa meskipun tanpa pengalaman pemrograman. Penyerang hanya perlu mendapatkan bobot dan kode sumber dari model sumber terbuka, lalu melakukan penyempurnaan dengan dataset yang berisi konten berbahaya atau instruksi ilegal, sehingga mereka dapat membuat alat serangan yang disesuaikan.

Tren ini membawa berbagai risiko:

  1. Penyerang dapat menyesuaikan model untuk target tertentu, menghasilkan konten yang lebih menipu, dan melewati pemeriksaan konten LLM yang biasa.
  2. Model dapat digunakan untuk dengan cepat menghasilkan variasi kode situs phishing atau menyesuaikan naskah penipuan untuk berbagai platform.
  3. Ketersediaan dan kemampuan untuk memodifikasi model sumber terbuka mendorong terbentuknya ekosistem AI bawah tanah, menyediakan lahan subur untuk perdagangan dan pengembangan ilegal.

Alat LLM Tanpa Batas yang Umum dan Potensi Penyalahgunaannya

WormGPT:versi gelap GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang mengklaim tidak memiliki batasan moral. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B, dan dilatih pada banyak data terkait perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk mendapatkan akses selama sebulan.

Dalam bidang enkripsi, potensi penyalahgunaan termasuk:

  • Menghasilkan email phishing yang sangat realistis, meniru bursa atau pihak proyek untuk meminta kunci pribadi pengguna
  • Membantu penyerang dengan kemampuan teknis terbatas untuk menulis kode jahat seperti mencuri file dompet
  • Menggerakkan penipuan otomatis, mengarahkan korban untuk terlibat dalam airdrop atau proyek investasi palsu

DarkBERT: pedang bermata dua untuk konten dark web

DarkBERT adalah model bahasa yang dilatih sebelumnya khusus pada data dark web, awalnya digunakan untuk membantu penelitian keamanan siber. Namun, jika disalahgunakan, informasi sensitif yang dikuasainya dapat membawa konsekuensi serius.

Penyalahgunaan potensial termasuk:

  • Mengumpulkan informasi pengguna enkripsi dan tim proyek, digunakan untuk penipuan yang tepat.
  • Menyalin strategi pencurian koin dan pencucian uang yang matang di dark web

FraudGPT:alat multifungsi untuk penipuan online

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, terutama dijual di dark web dan forum hacker.

Dalam bidang enkripsi, potensi penyalahgunaan termasuk:

  • Proyek enkripsi palsu: menghasilkan buku putih, situs resmi, dll. yang realistis untuk ICO/IDO palsu
  • Menghasilkan halaman phishing secara massal: Meniru antarmuka login bursa terkenal dengan cepat
  • Aktivitas pasukan media sosial: Membuat komentar palsu secara besar-besaran, mempromosikan token penipuan
  • Serangan rekayasa sosial: Meniru percakapan manusia, membujuk pengguna untuk membocorkan informasi sensitif

GhostGPT: asisten AI yang tidak terikat oleh moralitas

GhostGPT secara jelas diposisikan sebagai chatbot AI tanpa batasan moral.

Potensi penyalahgunaan di bidang enkripsi meliputi:

  • Menghasilkan email phishing yang sangat realistis, menyamar sebagai bursa untuk menerbitkan pemberitahuan palsu
  • Menghasilkan kontrak pintar dengan backdoor dengan cepat, digunakan untuk penipuan Rug Pull
  • Membuat perangkat lunak berbahaya yang memiliki kemampuan untuk berubah bentuk, mencuri informasi dompet
  • Mengdeploy robot platform sosial, mengarahkan pengguna untuk terlibat dalam proyek palsu
  • Menggunakan alat AI lainnya, menghasilkan suara palsu untuk melakukan penipuan telepon

Venice.ai: risiko potensial akses tanpa sensor

Venice.ai menyediakan akses ke berbagai LLM, termasuk beberapa model dengan batasan yang lebih sedikit. Meskipun diposisikan sebagai platform eksplorasi terbuka, ini juga dapat disalahgunakan untuk menghasilkan konten berbahaya.

Potensi risiko termasuk:

  • Menghindari sensor untuk menghasilkan konten jahat: Memanfaatkan model dengan batasan yang lebih sedikit untuk menghasilkan materi serangan
  • Menurunkan ambang batas teknik: Memudahkan penyerang untuk mendapatkan output yang sebelumnya dibatasi.
  • Iterasi naskah serangan yang dipercepat: Uji cepat respons model yang berbeda, optimalkan skrip penipuan

Kesimpulan

Kemunculan LLM tanpa batas menandakan bahwa keamanan siber menghadapi ancaman baru yang lebih kompleks, lebih terukur, dan lebih otomatis. Ini tidak hanya menurunkan ambang serangan, tetapi juga membawa risiko yang lebih tersembunyi dan lebih menipu.

Menghadapi tantangan ini memerlukan upaya kolaboratif dari semua pihak dalam ekosistem keamanan:

  1. Meningkatkan investasi dalam teknologi deteksi, mengembangkan alat yang dapat mengenali dan拦截 konten yang dihasilkan oleh LLM jahat.
  2. Mendorong pembangunan kemampuan model untuk mencegah jailbreak, mengeksplorasi mekanisme watermark dan pelacakan
  3. Membangun dan memperkuat norma etika serta mekanisme pengawasan, untuk membatasi pengembangan dan penyalahgunaan model jahat dari sumbernya.

Hanya dengan pendekatan yang komprehensif, kita dapat secara efektif menghadapi ancaman keamanan yang muncul ini dan menjaga perkembangan sehat industri enkripsi.

Pandora's Box: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Industri Enkripsi?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Posting ulang
  • Bagikan
Komentar
0/400
not_your_keysvip
· 07-07 19:46
Play people for suckers.
Lihat AsliBalas0
SerumSqueezervip
· 07-07 09:56
Kini saatnya untuk berevolusi, ai melakukan memancing
Lihat AsliBalas0
LightningPacketLossvip
· 07-05 03:22
Jangan bertele-tele, cepat bunuh virusnya.
Lihat AsliBalas0
0xSleepDeprivedvip
· 07-05 03:22
doomed Pencuri saja sudah menggunakan AI
Lihat AsliBalas0
TokenDustCollectorvip
· 07-05 03:19
suckers jadi Satoshi ya~
Lihat AsliBalas0
ImpermanentLossEnjoyervip
· 07-05 03:11
Kompresi berikutnya akan datang lagi.
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)