A OpenAI respondeu a um processo judicial interposto pelos pais de um jovem de 16 anos, cujo suicídio atribuem ao ChatGPT. A empresa alega que a tragédia se deveu ao “uso impróprio” do chatbot pelo adolescente, e que este violou os termos de serviço.
Os pais de Adam Raine intentaram um processo contra a OpenAI e o CEO Sam Altman em Agosto. O processo acusa-os de “conceber e distribuir um produto defeituoso que forneceu instruções detalhadas de suicídio a um menor, dando prioridade aos lucros empresariais em detrimento da segurança das crianças, e falhando em avisar os pais sobre perigos conhecidos”.
Raine começou a usar o ChatGPT para o ajudar na escola em Setembro de 2024, mas rapidamente começou a discutir pensamentos suicidas com o bot. Começou a perguntar sobre métodos de suicídio em 2025, altura em que a IA alegadamente o encorajou a enforcar-se usando uma configuração de laço que ajudou a conceber.
Agora, a OpenAI respondeu ao processo, afirmando que a morte de Raine não foi causada pelo ChatGPT. A empresa declara que os seus “ferimentos e danos foram causados ou contribuídos, directa e imediatamente, no todo ou em parte, pela [sua] má utilização, utilização não autorizada, utilização não intencional, utilização imprevisível e/ou utilização imprópria do ChatGPT”.
A OpenAI argumenta que Raine violou os termos de serviço, os quais proíbem os utilizadores de pedir conselhos ao ChatGPT sobre automutilação ou suicídio. O The Guardian nota que a empresa também destacou uma cláusula de responsabilidade que declara que “o utilizador não confiará nos resultados como fonte única de verdade ou informação factual”.
A OpenAI publicou um artigo no blog da empresa no qual, após expressar as suas “profundas condolências” à família Raine, alega que a queixa utiliza partes selectivas dos registos de conversação de Adam que requerem mais contexto, o que submeteu na sua resposta.
A gigante da IA escreveu também que a sua resposta às alegações inclui “factos difíceis sobre a saúde mental e as circunstâncias de vida de Adam”.
A OpenAI alegou que Raine disse ao ChatGPT que tinha começado a ter pensamentos suicidas aos 11 anos, anos antes de começar a usar a ferramenta. O documento da OpenAI também alega demonstrar que Raine disse ao ChatGPT que contactou repetidamente pessoas, incluindo pessoas de confiança, com pedidos de ajuda, os quais disse terem sido ignorados. É ainda alegado que ele disse ao bot que tinha aumentado a sua dose de medicação, o que afirmou ter agravado a sua depressão e tê-lo tornado suicida.
Os registos de Raine, referenciados no processo, estão sob sigilo. A OpenAI escreveu que limitou a quantidade de provas sensíveis citadas publicamente neste documento, uma vez que pretende lidar com casos relacionados com a saúde mental com “cuidado, transparência e respeito”.
Jay Edelson, o advogado da família Raine, classificou a resposta da OpenAI como “perturbadora”, acrescentando que a empresa “tenta encontrar falhas em todos os outros, incluindo, surpreendentemente, ao argumentar que o próprio Adam violou os seus termos e condições ao interagir com o ChatGPT exactamente da forma como este foi programado para agir”.
Depois da queixa da famíla de Raine, a OpenAI introduziu várias alterações, incluindo o facto de o ChatGPT já não ter permissão para discutir suicídio com menores de 18 anos, embora as restrições relacionadas com a abordagem de preocupações de saúde mental tenham sido aligeiradas um mês depois.
O caso de Raine não é único. Este mês, foram instaurados sete processos contra a empresa na Califórnia, acusando-a de agir como um “treinador de suicídio”. Existe também um processo contra a Character.ai devido a alegações de que um jovem de 14 anos se suicidou depois de ficar obcecado por um chatbot baseado na personalidade da personagem Daenerys Targaryen da Guerra dos Tronos.