A fronteira entre a conveniência da inteligência artificial e a segurança clínica tornou-se o mais recente problema para a Alphabet no campo da IA. Discretamente, a Google desactivou os resumos gerados por IA (ou Vista gera de IA) para um conjunto de pesquisas sobre saúde. A decisão surge no seguimento de uma investigação que expôs como o motor de busca estava a fazer diagnósticos e recomendações dietéticas que desafiam o consenso médico e colocam vidas em risco.
O erro crítico: cancro do pâncreas e nutrição
Um dos pontos mais alarmantes da investigação, conduzida originalmente pelo The Guardian, envolveu pacientes com cancro do pâncreas. A IA do Google recomendou que estes pacientes evitassem alimentos ricos em gordura — um conselho que a organização Pancreatic Cancer UK classificou como “muito perigoso”.
Na realidade, as directrizes médicas para esta patologia exigem frequentemente uma dieta de alta densidade calórica para combater a perda de peso severa e permitir que os pacientes suportem tratamentos agressivos como a quimioterapia ou cirurgia. Seguir a sugestão da IA poderia, em última análise, aumentar o risco de mortalidade por desnutrição.
A complexidade dos testes hepáticos ignorada
Outra falha técnica grave foi identificada em consultas sobre testes de função hepática (LFT). A IA apresentava tabelas de dados brutos com intervalos de referência para enzimas como ALT e AST, mas falhava num aspecto técnico fundamental: o contexto demográfico.
- Falta de Segmentação: Os resultados não consideravam idade, sexo, etnia ou nacionalidade.
- Falsa Segurança: Especialistas do British Liver Trust alertaram que a IA poderia levar pacientes com doenças hepáticas graves a acreditar que os resultados das suas análise eram “normais”, levando-os a faltar a consultas cruciais.
A interpretação de uma análise ao sangue não é uma simples comparação de números; é um processo clínico complexo que a IA generativa, na sua forma actual, provou não conseguir processar com a precisão necessária.
Uma resposta incompleta e a defesa da Google
Embora a Google tenha removido os resumos para termos específicos como “intervalo normal para exames de sangue do fígado”, a solução parece ser um penso rápido aplicado a um problema estrutural. Vários documentos indicam que alterar ligeiramente a fraseologia da pesquisa (por exemplo, usando siglas técnicas) pode fazer com que as vistas gerais de IA reapareçam, mantendo o risco para o doente.
Em resposta, um porta-voz da Google afirmou que uma equipa interna de clínicos reavaliou as consultas e defendeu que, em muitos casos, a informação “não era imprecisa” e era apoiada por sites de alta qualidade. No entanto, a empresa admitiu que continua a trabalhar para reduzir respostas problemáticas, mantendo a IA activa para outros temas sensíveis, como saúde mental e oncologia geral.
O dilema da responsabilidade algorítmica
Para o sector tecnológico, este episódio sublinha a falha inerente dos modelos de linguagem (LLM) ao lidar com problemas do tipo “Your Money or Your Life” (YMYL) — categorias de conteúdo que a própria Google define como tendo alto impacto na estabilidade financeira ou saúde das pessoas. A tendência da IA para “alucinar” ou simplificar excessivamente dados médicos complexos levanta questões sobre se a IA generativa deveria, de todo, estar na linha da frente do aconselhamento clínico sem supervisão humana directa.