Trabalhando conjunto, grupos hackers ligados aos governos da Rússia, Coreia do Norte, Irã e China estão a testar o uso de inteligência artificial (IA) e modelos de linguagem avançados (LLMs) em suas atividades de ciberataque.
Essas informações vêm de um relatório feito em parceria pela Microsoft e OpenAI. Ambas as organizações conseguiram interromper os esforços de cinco grupos afiliados a esses estados que utilizavam seus serviços de IA para atividades cibernéticas prejudiciais, bloqueando as contas e ativos relacionados.
Segundo a Microsoft, a capacidade natural de linguagem dos LLMs os torna atrativos para atores mal-intencionados que focam em engenharia social e usam comunicações enganosas adaptadas aos trabalhos, redes e relacionamentos de suas vítimas.
Embora até agora não tenham sido identificados ataques significativos ou inovadores usando LLMs, a exploração adversária das tecnologias de IA foi observada em várias etapas do processo de ataque, como reconhecimento, assistência à codificação e desenvolvimento de malware.
O relatório destaca que esses atores estatais usaram principalmente os serviços da OpenAI para tarefas como consultar informações de código aberto, traduzir, identificar erros de codificação e realizar tarefas básicas de programação.
Por exemplo, o grupo estatal russo conhecido como Forest Blizzard (APT28) usou os serviços da OpenAI para pesquisas de código aberto sobre protocolos de comunicação via satélite e tecnologia de imagem de radar, além de apoio em tarefas de script.
Outros grupos de hackers mencionados incluem:
- Emerald Sleet (Kimusky) – um grupo norte-coreano usando LLMs para identificar especialistas e organizações na região Ásia-Pacífico, bem como ajudar em tarefas de script e criar conteúdo para campanhas de phishing.
- Crimson Sandstorm (Imperial Kitten) – um grupo iraniano usando LLMs para criar trechos de código, gerar e-mails de phishing e pesquisar maneiras de malware evitar deteção.
- Charcoal Typhoon (Aquatic Panda) – um grupo chinês usando LLMs para pesquisar empresas e vulnerabilidades, gerar scripts, criar conteúdo para campanhas de phishing e identificar técnicas de comportamento pós-invadido.
- Salmon Typhoon (Maverick Panda) – outro grupo chinês usando LLMs para traduzir artigos técnicos, obter informações públicas sobre agências de inteligência e ameaças regionais, resolver erros de codificação e encontrar táticas para evitar deteção.
A Microsoft está a desenvolver princípios para mitigar riscos associados ao uso malicioso de ferramentas de IA por governos e cibercriminosos. Estes incluem identificação e ação contra atores mal-intencionados, notificação a outros provedores de IA, colaboração com outras partes interessadas e garantia de transparência.
Achou essa notícia interessante? Subscreva em nossa newsletter ou siga-nos em nossas redes sociais para ler mais conteúdos exclusivos que publicamos.
Receba as últimas atualizações diretamente no seu celular através do nosso canal no WhatsApp. Clique aqui para se conectar agora.
Obtenha mais coisas como esta
Inscreva-se em nossa newsletter e receba conteúdos interessantes e atualizações em sua caixa de entrada de e-mail.
Obrigado por se inscrever.
Algo correu mal.