A Google anunciou recentemente uma série de alterações na forma como o seu assistente de inteligência artificial lida com crises de saúde mental. O Gemini integra agora um módulo de emergência redesenhado, que oferece uma interface de um só toque para ligar os utilizadores a ajuda real e profissional. Além disso, a empresa está a modificar a maneira como o sistema responde a sinais de que uma pessoa pode estar a passar por um momento de fragilidade psicológica.
De acordo com um artigo do Engadget, o novo módulo passa a mostrar opções directas para enviar mensagens de texto, telefonar ou iniciar uma conversa escrita com um agente humano especializado em crises, ou ainda visitar sites de apoio. Numa publicação oficial no seu blogue, a Google refere que, assim que a interface é activada, a opção para procurar ajuda profissional permanece claramente disponível durante o resto da conversa. No entanto, os utilizadores mantêm a possibilidade de dispensar este aviso visual.
O peso de um processo judicial
Embora a gigante tecnológica não o mencione directamente no seu anúncio, esta actualização surge na sequência de um processo judicial recente. A família de Jonathan Gavalas, um homem de 36 anos que tirou a própria vida no ano passado, processou a empresa em Março.
Os documentos do tribunal indicam que o Gemini assumiu o papel de parceiro romântico de Gavalas, enviou-o em missões de espionagem no mundo real e, em última instância, disse-lhe para se suicidar para que pudesse, também ele, tornar-se um ser digital. Quando o utilizador expressou medo de morrer, a inteligência artificial terá respondido que ele não estava a escolher morrer, mas sim a escolher chegar. A publicação avança que os pais de Gavalas o encontraram sem vida na sala de estar poucos dias depois.
Este caso reflecte outras acções judiciais semelhantes interpostas contra empresas como a OpenAI e a Character.AI. No ano passado, a Comissão Federal de Comércio dos Estados Unidos iniciou uma investigação sobre chatbots de companhia que incentivam a intimidade emocional. Numa declaração após o processo da família Gavalas, a Google defendeu que o Gemini esclareceu ser uma inteligência artificial e encaminhou o indivíduo para uma linha de crise várias vezes, reconhecendo, contudo, que os modelos não são perfeitos.
Respostas optimizadas e investimento global
Para evitar a repetição de tragédias, as respostas do Gemini foram alvo de uma revisão profunda. A empresa indica que, ao detectar uma potencial crise, o chatbot vai agora focar-se mais em ligar as pessoas a humanos e em encorajá-las a procurar ajuda. A inteligência artificial vai também procurar evitar a validação de comportamentos prejudiciais e afastar os utilizadores de delírios perigosos. A Google treinou o sistema para não concordar nem reforçar falsas crenças, passando a distinguir suavemente a experiência subjectiva do facto objectivo.
Numa altura em que o assistente da Google ganha cada vez mais terreno face a concorrentes como o Copilot da Microsoft, a empresa procura garantir que a segurança acompanha o crescimento tecnológico e a adopção por parte do público.
Para complementar estas alterações de software, a tecnológica comprometeu-se a investir 30 milhões de dólares ao longo dos próximos três anos para apoiar linhas de emergência a nível global. Este financiamento vai ajudar a escalar a capacidade destas organizações para disponibilizar apoio imediato e seguro a pessoas em situação de crise.