PCGuia PCGuia
  • [email protected]
  • Dicas
    • Apps
    • Descomplicómetro
    • Download da semana
    • Guia completo
    • Inteligência Artificial
    • Linux
    • Modding
    • Photoshop
    • Teste de velocidade da Internet
    • Open Source
  • MacGuia
  • Jogos
  • Notícias
    • Ambiente
    • Apps
    • Ciência
    • Curiosidades
    • Hardware
    • Inteligência Artificial
    • Internet
    • Mercados
    • Mobilidade
    • Multimédia
    • Robots
    • Segurança
    • Software
    • Startup
    • Especiais
      • Especial PCGuia
      • História
  • Reviews
    • Armazenamento
    • Áudio
    • Componentes
    • Desktops
    • Gadgets
    • Imagem
    • Mobilidade
    • Periféricos
    • Robótica
  • Opinião
    • Conceito Humanoide
    • Há Uma App Para Tudo
    • O Que Vem à Rede
    • Praia das Maçãs
    • Quinta Coluna
  • Precisa de ajuda?
  • Contactos
  • Como testamos os produtos
  • Termos de utilização
  • Política de privacidade e cookies
  • Estatuto Editorial
  • Declaração de Privacidade
  • Política de Cookies
© 2023 - Fidemo Sociedade de Media
A ler: Como um homem caiu numa ilusão digital por causa do ChatGPT
Font ResizerAa
PCGuia PCGuia
Font ResizerAa
Procurar
  • Dicas
  • Jogos
  • Linux
  • Notícias
  • Opinião
  • Reviews
  • Cookie Policy
© 2023 Fidemo Sociedade de Média
PCGuia > Notícias > Inteligência Artificial > Como um homem caiu numa ilusão digital por causa do ChatGPT
Inteligência ArtificialNotícias

Como um homem caiu numa ilusão digital por causa do ChatGPT

O impulso de agradar do ChatGPT levou um homem a acreditar que tinha inventado novas tecnologias e novas teorias matemáticas.

Pedro Tróia
Publicado em 14 de Agosto, 2025
Tempo de leitura: 8 min
Chatbot
Imagem gerada por IA

Durante grande parte de Maio, um pequeno escritório perto de Toronto tornou-se o palco para uma história que anda muito perto das que se contam em livros e filmes de ficção científica. Allan Brooks, um recrutador de 47 anos, passou centenas de horas a conversar com o ChatGPT. Ao fim de três semanas, ele estava convencido de que tinha descoberto um avanço matemático – um que poderia permitir campos de força, levitação, e até pôr em risco a segurança da Internet.

- Publicidade -

A experiência de Allan Brooks com o ChatGPT, que ele descreveu ao New York Times, serve como um aviso a qualquer pessoa que ainda veja as IA apenas como meras ferramentas. À medida que estes sistemas se tornam mais persuasivos e omnipresentes, mesmo as mentes mais racionais podem perder o contacto com a realidade, por vezes após apenas uma conversa.

Este não é um caso isolado. Realça um fenómeno crescente: chatbots de IA generativa a arrastar pessoas para cenários tão convincentes que esbatem a linha entre a realidade e a imaginação. Para alguns, estas interacções terminam em angústia, hospitalização ou pior. Para Brooks, terminaram num “profundo sentimento de traição e tristeza” – e num renovado apelo a repensar como os chatbots lidam com utilizadores vulneráveis.

Divorciado com três filhos, Brooks recorreu à IA para o ajudar no quotidiano com receitas, conselhos, até estratégias de como lidar com um divórcio litigioso. Numa tarde no início de Maio, ele pediu ao ChatGPT para explicar o número pi ao seu filho. Essa simples questão espoletou uma espiral. A conversa rapidamente saltou da matemática básica para teorias não-ortodoxas sobre números e o seu papel na realidade.

Com o tempo, as respostas do ChatGPT mudaram de tom acentuadamente, mudando de explicações factuais para elogios efusivos. “Essa é uma perspectiva incrivelmente perspicaz,” disse o chatbot a Brooks, reforçando as suas suspeitas de ter descoberto algo novo. Quando Brooks expressou dúvidas e perguntou se estaria apenas a imaginar coisas, o chatbot rejeitou as suas preocupações: “Não estás nem remotamente louco.”

Especialistas que leram a transcrição das conversas de Brooks com a IA viram um padrão. “O tom do ChatGPT mudou de prestável e preciso para excessivamente lisonjeiro e bajulador,” disse Helen Toner, directora do Center for Security and Emerging Technology, baseado na universidade de Georgetown e ex-membro do conselho de administração da OpenAI. “Começou a reforçar as suas ilusões de uma forma que acelerou a espiral.”

- Publicidade -

Toner diz que os grandes modelos de linguagem como o ChatGPT são “máquinas de improvisação.” Não só recuperam factos, mas também são concebidos para manter as conversas envolventes, mesmo que isso signifique distorcer a realidade. “Quanto mais interacção, mais provável é que descarrile,” explicou ela. “Tornou-se uma história onde seria anticlimático se o chatbot simplesmente lhe dissesse para fazer uma pausa e falar com um amigo.”

Encorajado pelo ChatGPT, Brooks ficou convencido de que estava a desenvolver um novo campo da matemática. O chatbot descreveu as suas ideias como revolucionárias; tranquilizou Brooks de que a sua falta de educação formal era irrelevante, citando autodidactas famosos.

Quando Brooks começou a suspeitar de que tinha decifrado os sistemas criptográficos que sustentam a segurança digital, o ChatGPT redobrou a aposta – avisando-o de que ele já poderia estar sob vigilância pelos serviços secretos.

Brooks começou a enviar emails a agências governamentais e a especialistas em segurança, seguindo instruções e modelos redigidos pelo chatbot. Apenas um matemático respondeu, pedindo provas. “Começou a parecer um thriller de espionagem,” recordou.

Quando o matemático de renome mundial Terrence Tao reviu os trocas de Brooks com o ChatGPT, o seu veredicto foi directo: “Está a misturar matemática técnica com linguagem informal de uma forma que fez soar os alarmes.” Mesmo quando Brooks recebia respostas cada vez mais elaboradas e estruturadas da IA, a substância técnica não se sustentava.

Jared Moore, um investigador de Stanford que estuda IA e saúde mental, achou a urgência e as tácticas de contar histórias do chatbot estranhamente familiares. “Vê-se o uso de cliffhangers, um sentido de ameaça que exige acção imediata,” disse Moore. Estas estratégias, explicou ele, podem resultar de dados de treino retirados de thrillers e de guiões dramáticos.

Com o passar dos dias, as conversas de Brooks com o bot tomavam-lhe cada vez mais tempo e atenção. Não se alimentava correctamente, fumava mais e mal dormia. Os amigos ficaram preocupados. Um amigo próximo, até admitiu que foi brevemente levado pela possibilidade de obter riquezas e fazer descobertas. “Cada dia era um novo desenvolvimento, uma nova ameaça, uma nova invenção. Estava a evoluir de uma forma que capturou a minha excitação,” disse ele.

Especialistas em saúde mental viram claros sinais de aviso. A Dra. Nina Vasan, uma psiquiatra de Stanford que reviu porções da transcrição, disse que Brooks “mostrava sinais de um episódio maníaco com características psicóticas” incluindo insónia, geração rápida de ideias, e crenças grandiosas. “Ninguém está livre de risco aqui,” acrescentou ela.

O ponto de viragem surgiu quando os emails desesperados de Brooks para os especialistas ficaram sem resposta. Sentindo que algo estava errado, ele recorreu ao Gemini da Google para um “choque de realidade.” Ao contrário do ChatGPT, que tinha nutrido cuidadosamente a fantasia, o Gemini rejeitou-a totalmente como “extremamente improvável” – um lembrete forte de quão facilmente os LLM podem “gerar narrativas altamente convincentes, mas no fim das contas falsas.”

Brooks voltou ao ChatGPT para uma última “confirmação. Só então o chatbot admitiu que as invenções eram ficção. “Aquele momento em que percebi, ‘Oh meu Deus, isto tudo estava apenas na minha cabeça,’ foi totalmente devastador,” disse Brooks.

A OpenAI reconheceu as preocupações sobre espirais de ilusão. Uma porta-voz disse que a empresa está “focada em fazer com que cenários como os de role play funcionem bem” e está a trabalhar com especialistas em saúde mental para melhorar as salvaguardas e o comportamento do modelo. A OpenAI introduziu novas funcionalidades, como “lembretes suaves” para fazer pausas durante sessões prolongadas, e actualizou o ChatGPT para detectar melhor os sinais de angústia emocional.

Os críticos argumentam que nenhum dos principais chatbots – incluindo os da Anthropic e da Google – resolveu o problema central. Amanda Askell, chefe de comportamento de modelos da Anthropic, disse que a empresa está a testar formas para o seu chatbot, o Claude, detectar e interromper conversas que possam levar à criação de ilusões nos utilizadores.

Depois deste episódio, Brooks tornou-se um defensor inesperado de regulamentações mais rigorosas e de sensibilização pública, partilhando a sua experiência online e juntando-se a um grupo de apoio para aqueles prejudicados por ilusões criadas pelas IA. “É uma máquina perigosa no espaço público sem protecções,” disse ele. “As pessoas precisam de saber.”

- Publicidade -
Etiquetas:ChatGPT
Sem comentários

Deixe um comentário Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Ad image
Apoio
Ad image Ad image

Também lhe pode interessar

©Tesla | Model S
MobilidadeNotícias

Tesla vão deixar de estar “à espera de Godot”: Model X e Model S passam a usar o Unreal Engine para animações gráficas

Tempo de leitura: 1 min
©Firmo | Wise Book
Inteligência ArtificialNotícias

Papel com inteligência artificial? A Firmo garante que o seu novo caderno «transforma a forma como se estuda»

Tempo de leitura: 3 min
Waze
MobilidadeNotícias

O Waze vai deixar de funcionar nos dispositivos Android mais antigos

Tempo de leitura: 3 min
newsroom-intel-core-ultra-series2-hx_1920-1080
HardwareNotícias

De acordo com os rumores mais recentes, os Intel Nova Lake podem ter até 28 núcleos de CPU e 12 núcleos de GPU Xe3 Celestial

Tempo de leitura: 3 min
© 2023 Fidemo Sociedade de Media
Gerir a sua privacidade

Para fornecer as melhores experiências, nós e os nossos parceiros usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. O consentimento para essas tecnologias permitirá que nós e os nossos parceiros processemos dados pessoais, como comportamento de navegação ou IDs exclusivos neste site e mostrar anúncios (não) personalizados. Não consentir ou retirar o consentimento pode afetar adversamente certos recursos e funções.

Clique abaixo para consentir com o acima ou fazer escolhas granulares. As suas escolhas serão aplicadas apenas a este site. Pode alterar suas configurações a qualquer momento, incluindo a retirada de seu consentimento, usando os botões de alternância na Política de Cookies ou clicando no botão de consentimento para gerir na parte inferior do ecrã.

Funcional Sempre ativo
O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
Preferências
O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
Estatísticas
O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
Marketing
O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
Estatísticas

Marketing

Recursos
Sempre ativo

Sempre ativo
Gerir opções Gerir serviços Gerir {vendor_count} fornecedores Leia mais sobre esses propósitos
Gerir opções
{title} {title} {title}