A Google revelou esta semana cinco amostras recentes de malware que foram criadas usando inteligência artificial generativa. Os resultados finais de cada uma ficaram muito aquém do desenvolvimento de malware “à mão”, uma descoberta que mostra que o ‘vibe coding’ (desenvolvimento de software através de prompts em chatbots de IA) de software malicioso está atrás das formas mais tradicionais de desenvolvimento, o que significa que ainda tem um longo caminho a percorrer antes de representar uma ameaça no mundo real.
Por exemplo, uma das amostras, baptizada com o nome PromptLock, fazia parte de um estudo académico que analisava a eficácia da utilização de modelos de larga escala (LLM) para “planear, adaptar e executar autonomamente o ciclo de vida de um ataque de ransomware”. Os investigadores, no entanto, relataram que o malware tinha “limitações claras: omite persistência, movimento lateral e tácticas avançadas de evasão” e serviu pouco mais do que uma demonstração da viabilidade da IA para esse fim. Antes da divulgação do artigo, a empresa de segurança ESET disse que tinha descoberto a amostra e saudou-a como “o primeiro ransomware que usa IA”.
Tal como as outras quatro amostras analisadas pela Google — FruitShell, PromptFlux, PromptSteal e QuietVault —, o PromptLock foi fácil de detectar, mesmo por protecções menos sofisticadas que dependem de assinaturas estáticas. Todas as amostras também usaram métodos já vistos em amostras de malware, tornando-as fáceis de neutralizar. Também não tiveram impacto operacional, o que significa que não exigiram que os defensores adoptassem novas defesas.
Um especialista em malware, que pediu para não ser identificado, concordou que o relatório da Google não indicava que a IA generativa esteja a dar uma vantagem aos criadores de software maliciosos sobre aqueles que dependem de práticas de desenvolvimento mais tradicionais.
“A IA não está a ajudar a criar nenhum malware mais assustador do que o normal”, disse o investigador. “Está apenas a ajudar os autores de malware a fazer o seu trabalho. Nada de novo. A IA certamente vai melhorar. Mas quando, e em que medida, é uma incógnita.”
Estas avaliações fornecem um forte contra-argumento às narrativas exageradas que estão a ser apregoadas por empresas de IA, muitas à procura de novas rondas de financiamento, de que o malware gerado por IA está generalizado e faz parte de um novo paradigma que representa uma ameaça actual para as defesas tradicionais.
Um exemplo típico é a Anthropic, que revelou recentemente a descoberta de um criador de malware que usou o LLM Claude para “desenvolver, comercializar e distribuir várias variantes de ransomware, cada uma com capacidades avançadas de evasão, encriptação e mecanismos anti-recuperação”. A empresa disse ainda que: “Sem a assistência do Claude, não conseguiriam implementar ou resolver problemas nos componentes principais do malware, como algoritmos de encriptação, técnicas anti análise ou manipulação de elementos internos do Windows.”
A startup ConnectWise disse recentemente que a IA generativa estava a “baixar a fasquia para criadores de malware entrarem no jogo”. A publicação citou um documento publicado pela OpenAI que descobriu 20 criadores de malware distintos a usar o motor de IA ChatGPT para desenvolver programas para várias tarefas, como identificar vulnerabilidades, desenvolver código de exploração e depurar esse código. Um inquérito feito pela BugCrowd, concluiu que “74% dos hackers concordam que a IA tornou o hacking mais acessível, abrindo a porta para que mais amadores se juntem ao grupo.”
Em alguns casos, os autores dos relatórios notam as mesmas limitações referidas neste artigo. O relatório publicado pela da Google afirma que, na análise das ferramentas de IA usadas para desenvolver código para gerir canais de comando e controlo e ofuscar as operações, “não vimos evidências de automação bem-sucedida ou de quaisquer capacidades inovadoras”. A OpenAI disse praticamente o mesmo. No entanto, estas isenções de responsabilidade são raramente feitas de forma proeminente e são frequentemente minimizadas no frenesim resultante de retratar o malware assistido por IA como uma ameaça a curto prazo.
O relatório da Google fornece pelo menos mais uma descoberta útil. Um criador de malware que explorou o modelo de IA Gemini conseguiu contornar os sistemas de limitação ao fazer-se passar por um hacker whitehat (hackers que tentam entrar em sistemas informáticos para expor potenciais vulnerabilidades para ajudar a melhorar a segurança) a fazer investigação para participar num jogo de capture-the-flag (CTF). Estes exercícios competitivos são projectados para ensinar e demonstrar estratégias eficazes de ciberataque tanto aos participantes como aos observadores.
Os limitadores estão integrados em todos os principais LLM, para evitar que sejam usados maliciosamente em ciberataques e outras actividades ilegais ou perigosas para os utilizadores. A Google disse que, depois da detecção desta falha, afinou as protecções do Gemini para resistir a tais estratagemas.
Em última análise, o malware gerado por IA que surgiu até agora sugere que é principalmente experimental, e os resultados não são impressionantes. Os eventos merecem ser monitorizados em busca de desenvolvimentos que mostrem ferramentas de IA a produzir novas capacidades desconhecidas até agora. Por enquanto, as maiores ameaças continuam a depender predominantemente de tácticas criadas à moda antiga.