A Anthropic confirmou na passada terça-feira que o código interno do seu assistente de programação de inteligência artificial, o Claude Code, foi divulgado de forma inadvertida devido a um erro humano. A notícia publicada pelo site The Hacker News indica que a situação não expôs dados sensíveis ou credenciais de clientes. Um porta-voz da empresa indicou à imprensa norte-americana que o problema resultou de uma falha no empacotamento da versão e não de uma quebra de segurança, com medidas já a ser implementadas para evitar repetições.
A descoberta ocorreu após a disponibilização da versão 2.1.88 do pacote npm do Claude Code. Os npm packages (pacotes npm) são bibliotecas ou ferramentas de software reutilizáveis, escritas em JavaScript, que podem ser instaladas e geridas através do npm (Node Package Manager). Os utilizadores detectaram um ficheiro de mapeamento que permitia aceder ao código fonte, o qual integra quase duas mil páginas em TypeScript e mais de 512 mil linhas de código. O investigador de segurança Chaofan Shou foi o primeiro a alertar para a situação na rede social X. Embora a versão tenha sido removida do npm, o código continua acessível num repositório público do GitHub, onde já ultrapassou as 84 mil estrelas.
Segredos de arquitectura à vista de todos
Esta exposição oferece aos programadores e às empresas concorrentes uma visão detalhada sobre o funcionamento da ferramenta. A análise ao código revelou uma arquitectura de memória optimizada para ultrapassar as limitações de contexto do modelo. O software inclui ainda um sistema para executar tarefas complexas através de múltiplos agentes e uma camada de comunicação bidireccional que liga as extensões do ambiente de desenvolvimento e do browser à interface de linha de comandos.
A fuga de informação permitiu também descobrir uma funcionalidade chamada KAIROS, que permite ao assistente operar em segundo plano para corrigir erros de forma autónoma ou enviar notificações. A complementar este modo, existe a função “dream”, desenhada para desenvolver ideias sem intervenção humana. O detalhe mais curioso é o “Undercover Mode”, criado para fazer contribuições anónimas em projectos de código aberto sem revelar a origem da Anthropic. O sistema integra também defesas contra a cópia de dados, ao injectar definições falsas caso a concorrência tente extrair informações para treinar outros modelos.
Riscos de segurança e ataques em curso
Com a estrutura interna exposta, os piratas informáticos ganham novas formas de contornar as protecções do sistema. De acordo com a empresa de segurança Straiker, os atacantes podem agora estudar o fluxo de dados para criar vulnerabilidades persistentes, alterando drasticamente o panorama de ameaças. A preocupação agrava-se com um ataque à cadeia de fornecimento do Axios. Os utilizadores que instalaram o pacote npm a 31 de Março de 2026 podem ter descarregado uma versão infectada com um trojan de acesso remoto, sendo aconselhados a reverter imediatamente para uma versão segura.
Além disso, agentes maliciosos já começaram a registar nomes de pacotes npm falsos, semelhantes aos internos da Anthropic (como o audio-capture-napi ou o image-processor-napi), para enganar quem tenta compilar o código divulgado. O investigador Clément Dumas refere que estes pacotes estão actualmente vazios, à espera de acumular descargas para depois distribuir actualizações maliciosas. Este incidente surge numa altura em que a marca tem procurado fortalecer a confiança do público, nomeadamente quando lançou novas ferramentas para reforçar a protecção de software.
Este é o segundo erro grave da empresa no espaço de uma semana. Recentemente, detalhes sobre o próximo modelo de inteligência artificial da marca ficaram acessíveis através do sistema de gestão de conteúdos. A Anthropic acabou por reconhecer que está a testar esse novo modelo com clientes de acesso antecipado, mostrando que as falhas operacionais continuam a ensombrar os seus avanços tecnológicos.