Com o crescimento da inteligência artificial generativa (IA) atualmente, não é surpreendente que essa tecnologia tenha sido adaptada por atores maliciosos para obter vantagens próprias, criando oportunidades para acelerar o cibercrime.
Segundo as descobertas da SlashNext, uma nova ferramenta de cibercrime de IA generativa chamada WormGPT tem sido anunciada em fóruns clandestinos como uma maneira para adversários lançarem ataques sofisticados de phishing e comprometimento de e-mails comerciais (BEC).
“Essa ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, disse o pesquisador de segurança Daniel Kelley. “Cibercriminosos podem usar essa tecnologia para automatizar a criação de e-mails falsos altamente convincentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque.”
O autor do software o descreveu como o “maior inimigo do conhecido ChatGPT” que “permite fazer todo tipo de coisa ilegal”. Diz-se que ele utiliza o modelo de linguagem GPT-J de código aberto desenvolvido pela EleutherAI.
Nas mãos de um agente malicioso, ferramentas como o WormGPT podem ser uma arma poderosa, especialmente à medida que o OpenAI ChatGPT e o Google Bard estão tomando medidas crescentes para combater o uso indevido de grandes modelos de linguagem (LLMs) para criar e-mails de phishing convincentes e gerar códigos maliciosos.
“Os limitadores anti-abuso do Bard no campo da cibersegurança são significativamente menores em comparação com os do ChatGPT”, afirmou a Check Point em um relatório nesta semana. “Consequentemente, é muito mais fácil gerar conteúdo malicioso usando as capacidades do Bard.”
Em fevereiro passado, a empresa israelense de cibersegurança revelou como os cibercriminosos estão contornando as restrições do ChatGPT ao aproveitar sua API, sem mencionar a negociação de contas premium roubadas e venda de software de força bruta para invadir contas do ChatGPT usando enormes listas de endereços de e-mail e senhas.
O fato de o WormGPT operar sem limites éticos destaca a ameaça representada pela IA generativa, permitindo até mesmo que cibercriminosos novatos realizem ataques rapidamente e em grande escala sem possuir conhecimentos técnicos.
Piorando a situação, os atores maliciosos estão promovendo “jailbreaks” para o ChatGPT, desenvolvendo comandos e entradas especializados que manipulam a ferramenta para gerar saídas que podem envolver a divulgação de informações sensíveis, produção de conteúdo inadequado e execução de códigos maliciosos.
“A IA generativa pode criar e-mails com gramática impecável, tornando-os parecer legítimos e reduzindo a probabilidade de serem detectados como suspeitos”, disse Kelley.
“O uso da IA generativa democratiza a execução de sofisticados ataques BEC. Até mesmo invasores com habilidades limitadas podem utilizar essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.”
A divulgação ocorre quando pesquisadores da Mithril Security modificaram “cirurgicamente” um modelo de IA de código aberto existente conhecido como GPT-J-6B para disseminar desinformação e o carregaram em um repositório público, como o Hugging Face, para que pudesse ser integrado a outras aplicações, resultando no chamado envenenamento da cadeia de suprimentos LLM.
O sucesso da técnica, chamada PoisonGPT, depende do pré-requisito de que o modelo lobotomizado seja carregado com um nome que se passa por uma empresa conhecida, neste caso, uma versão de typosquatting da EleutherAI.
Achou este artigo interessante? Siga-nos no em sua rede social favorita para ler mais conteúdos exclusivos que publicamos.
Obtenha mais coisas como esta
Inscreva-se em nossa newsletter e receba conteúdos interessantes e atualizações em sua caixa de entrada de e-mail.
Obrigado por se inscrever.
Algo correu mal.