LLM sem restrições: novas ameaças de segurança enfrentadas pela indústria de encriptação

robot
Geração de resumo em curso

Modelo de linguagem de grande escala sem restrições: uma nova ameaça à segurança da indústria de encriptação

Com o rápido desenvolvimento da tecnologia de inteligência artificial, modelos de linguagem avançados, desde a série GPT até o Gemini, estão a mudar profundamente a nossa forma de trabalhar e viver. No entanto, o lado sombrio deste avanço tecnológico também está a tornar-se evidente - o surgimento de modelos de linguagem de grande escala sem restrições ou maliciosos traz novos desafios à segurança cibernética.

Modelos LLM sem restrições referem-se àqueles que foram deliberadamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as limitações éticas integradas nos modelos mainstream. Embora os desenvolvedores de LLM mainstream geralmente invistam muitos recursos para evitar que os modelos sejam mal utilizados, alguns indivíduos ou organizações, por motivos nefastos, começam a procurar ou desenvolver seus próprios modelos sem restrições. Este artigo irá explorar as potenciais formas de abuso dessas ferramentas LLM sem restrições na indústria de encriptação, bem como os desafios de segurança relacionados e as estratégias de resposta.

Caixa de Pandora: Como modelos ilimitados ameaçam a segurança da encriptação?

Os potenciais perigos de LLM sem restrições

A aparição de LLMs sem restrições reduziu drasticamente o patamar técnico para ataques na internet. Tarefas que antes requeriam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns, mesmo sem experiência em programação. Os atacantes apenas precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustar com um conjunto de dados que contenha conteúdo malicioso ou instruções ilegais, podendo assim criar ferramentas de ataque personalizadas.

Esta tendência trouxe múltiplos riscos:

  1. Os atacantes podem personalizar modelos para alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdo dos LLMs convencionais.
  2. O modelo pode ser usado para gerar rapidamente variantes de código de sites de phishing ou para personalizar textos de fraude para diferentes plataformas.
  3. A acessibilidade e a modificabilidade dos modelos de código aberto fomentaram a formação de um ecossistema de IA underground, proporcionando um terreno fértil para transações e desenvolvimentos ilegais.

Ferramentas LLM típicas e ilimitadas e seu potencial abuso

WormGPT: versão sombria do GPT

WormGPT é um LLM malicioso vendido publicamente em fóruns subterrâneos, alegando não ter nenhuma limitação ética. É baseado em modelos de código aberto como o GPT-J 6B e foi treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar 189 dólares para obter um mês de acesso.

No campo da encriptação, os potenciais abusos incluem:

  • Gerar e-mails de phishing altamente realistas, imitando a exchange ou a equipe do projeto para solicitar a chave privada do usuário.
  • Ajudar atacantes com habilidades técnicas limitadas a escrever código malicioso para roubar arquivos de carteira, entre outros.
  • Impulsionar fraudes automatizadas, conduzindo as vítimas a participar em airdrops ou projetos de investimento falsos

DarkBERT: a espada de dois gumes do conteúdo da dark web

DarkBERT é um modelo de linguagem pré-treinado especificamente em dados da dark web, originalmente utilizado para auxiliar a pesquisa em segurança cibernética. No entanto, se utilizado de forma maliciosa, as informações sensíveis que ele detém podem ter consequências graves.

Abusos potenciais incluem:

  • Coletar informações de encriptação de usuários e equipes de projetos, para fraudes precisas
  • Copiar estratégias maduras de roubo e lavagem de dinheiro na dark web

FraudGPT: uma ferramenta multifuncional para fraudes na internet

FraudGPT afirma ser a versão melhorada do WormGPT, vendendo principalmente na dark web e em fóruns de hackers.

No campo da encriptação, os potenciais abusos incluem:

  • Projetos de encriptação falsificados: geração de whitepapers realistas, sites oficiais, etc., para ICO/IDO fraudulentos
  • Geração em massa de páginas de phishing: cópia rápida da interface de login de exchanges conhecidas
  • Atividades de bots nas redes sociais: criação em massa de comentários falsos para promover tokens de fraude
  • Ataques de engenharia social: imitar diálogos humanos para induzir os usuários a revelar informações sensíveis

GhostGPT: um assistente de IA sem restrições morais

GhostGPT é claramente posicionado como um chatbot de IA sem restrições morais.

No campo da encriptação, os potenciais abusos incluem:

  • Gerar e-mails de phishing altamente realistas, fingindo ser uma exchange e publicando notificações falsas
  • Gerar rapidamente contratos inteligentes com backdoor para fraudes de Rug Pull
  • Criar malware com capacidade de metamorfose para roubar informações da carteira
  • Implementar robôs em plataformas sociais para induzir os usuários a participar de projetos falsos
  • Em colaboração com outras ferramentas de IA, gerar vozes falsas para realizar fraudes telefónicas

Venice.ai:potenciais riscos de acesso sem censura

A Venice.ai oferece acesso a vários LLM, incluindo alguns modelos com menos restrições. Embora se posicione como uma plataforma de exploração aberta, também pode ser mal utilizada para gerar conteúdo malicioso.

Os riscos potenciais incluem:

  • Contornar a censura para gerar conteúdo malicioso: utilizar modelos com menos restrições para gerar material de ataque
  • Reduzir a barreira de entrada para engenharia de prompt: tornar mais fácil para os atacantes obterem saídas que antes eram restritas.
  • Aceleração da iteração de scripts de ataque: teste rápido das reações de diferentes modelos, otimizando scripts de fraude

Conclusão

O surgimento de LLMs sem restrições marca a presença de novas ameaças à segurança cibernética, que são mais complexas, escaláveis e com capacidade de automação. Isso não apenas reduz a barreira de entrada para ataques, mas também traz riscos mais ocultos e enganosos.

Enfrentar este desafio requer o esforço conjunto de todas as partes do ecossistema de segurança:

  1. Aumentar o investimento em tecnologia de detecção, desenvolver ferramentas que consigam identificar e interceptar conteúdo gerado por LLM malicioso.
  2. Promover a construção da capacidade de prevenção de jailbreak de modelos, explorar mecanismos de marca d'água e rastreabilidade.
  3. Estabelecer normas éticas e mecanismos de regulação eficazes, limitando desde a origem o desenvolvimento e abuso de modelos maliciosos.

Só uma abordagem multidimensional pode lidar efetivamente com esta nova ameaça à segurança e manter o desenvolvimento saudável da encriptação.

Caixa de Pandora: Como modelos grandes e ilimitados ameaçam a segurança da encriptação?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Partilhar
Comentar
0/400
not_your_keysvip
· 07-07 19:46
Esta onda de jogadores vai ser feita as pessoas de parvas novamente.
Ver originalResponder0
SerumSqueezervip
· 07-07 09:56
Está na hora de evoluir novamente, a IA está a fazer pesca.
Ver originalResponder0
LightningPacketLossvip
· 07-05 03:22
Não fique enrolando, apresse-se a eliminar o vírus.
Ver originalResponder0
0xSleepDeprivedvip
· 07-05 03:22
condenado O ladrão agora também é AI
Ver originalResponder0
TokenDustCollectorvip
· 07-05 03:19
idiotas ficou Satoshi agora~
Ver originalResponder0
ImpermanentLossEnjoyervip
· 07-05 03:11
O próximo encolhido ainda virá.
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)