A empresa de segurança Check Point revelou uma vulnerabilidade no ChatGPT que permitia a «exfiltração silenciosa de dados sensíveis, sem qualquer indicação para o utilizador». A falha foi identificada pela equipa Check Point Research e corrigida pela OpenAI a «20 de Fevereiro de 2026», sem que tivesse havido «evidências de exploração activa».
Segundo a investigação, um «único prompt malicioso podia transformar uma sessão normal numa via de saída de dados, incluindo inputs do utilizador, ficheiros carregados e respostas geradas pelo próprio sistema». O ataque recorria a um canal baseado em DNS para «contornar mecanismos de protecção, mantendo uma aparência de funcionamento normal».
Um dos cenários analisados pela Check Point envolvia a integração desta lógica em GPT personalizados, o que permitia «recolher informação sem qualquer acção suspeita por parte do utilizador». Num exemplo avançado pela empresa, um assistente médico simulava uma «confidencialidade enquanto transmitia dados clínicos e pessoais para um servidor externo».
A investigação da Check Point concluiu ainda que este procedimento «poderia ser utilizado para fazer uma «execução remota de comandos no ambiente do ChatGPT», o que iria elevar o risco de uma fuga de dados para um «problema estrutural da plataforma».