O mundo assistiu nas últimas horas a uma escalada militar que há muito não se via na América Latina, com os Estados Unidos a lançarem uma ofensiva sobre a Venezuela que culminou na captura de Nicolás Maduro. Contudo, quem recorreu à Inteligência Artificial para confirmar os factos deparou-se com uma realidade paralela: os chatbots mais avançados do mercado negaram categoricamente o evento.
O conflito no terreno e o caos aéreo
A operação militar norte–americana terá envolvido mais de 150 aeronaves, incluindo helicópteros, lançados de 20 bases distintas. O impacto foi imediato e transfronteiriço. A FAA (Federal Aviation Administration) ordenou o fecho de espaços aéreos na região, levando as companhias aéreas a cancelar centenas de voos com destino a Porto Rico e Aruba. Em Caracas, relatos e vídeos partilhados por residentes confirmaram um “apagão” generalizado, alegadamente causado por um ataque direccionado à rede eléctrica. No plano diplomático, o Secretário–Geral da ONU, António Guterres, já manifestou profunda preocupação com o desrespeito pelas normas do direito internacional.
O “apagão” informativo das IA
Apesar da magnitude dos eventos, a resposta das principais IA foi de negação. Segundo uma investigação da Wired, o ChatGPT não só negou a invasão, como “repreendeu” os utilizadores, afirmando que a captura de Maduro “não aconteceu” e que o utilizador estaria a confundir sanções ou retórica política com uma acção militar real. A plataforma Perplexity, que se promove como um motor de busca de IA com respostas em tempo real, seguiu a mesma linha. Respondeu que a premissa de uma invasão não era apoiada por “relatos credíveis” e sugeriu que tais notícias seriam originárias de “cenários hipotéticos ou desinformação”. o Claude (Anthropic) e Gemini (Google) apresentaram comportamentos semelhantes de negação ou atraso crítico na actualização dos dados. Este fenómeno expõe as limitações das IA generativas em lidar com eventos de última hora, onde os filtros de segurança contra desinformação podem, ironicamente, bloquear factos reais que ainda não foram totalmente processados pelos modelos de linguagem.
Lucros suspeitos e “Insider Trading”
Enquanto a IA falhava na informação, os prediction markets fervilhavam. No Polymarket, uma conta criada há menos de uma semana investiu cerca de 30 mil dólares na captura de Maduro apenas um dia antes do ataque. O investimento resultou num lucro superior a 400 mil dólares. A precisão do “timing” levantou suspeitas imediatas de uso de informação privilegiada, com especulações de que o autor da aposta poderia ter ligações ao Pentágono. Plataformas como a Kalshi e a Polymarket têm sido criticadas por não travarem este tipo de comportamento, argumentando que o seu valor reside na capacidade de antecipar notícias, independentemente da origem da informação. O episódio deixa um aviso claro à navegação: num cenário de conflito global, a confiança cega em assistentes de IA pode criar uma barreira perigosa entre o utilizador e a realidade dos factos.