A crescente integração da IA nas nossas vidas, particularmente através de ferramentas como chatbots, é considerada uma “faca de dois gumes”: apesar dos seus benefícios na resolução de problemas ou na realização de tarefas repetitivas, há cada vez mais sinais de que também acarreta riscos significativos para o bem-estar psicológico e a saúde mental dos utilizadores. Em resposta à maior procura por serviços de saúde mental e às barreiras de acesso existentes, algumas ferramentas de IA têm sido promovidas como uma solução acessível. Contudo, a confiança excessiva nestas tecnologias levanta graves preocupações éticas e de segurança que podem, de facto, agravar problemas psicológicos preexistentes ou criar formas de stress e ansiedade.
Impactos adversos da utilização de IA na saúde mental
Um dos riscos mais proeminentes é o potencial de dependência excessiva e isolamento social. A utilização excessiva de aplicações de IA generativa, como chatbots, está associada a um risco acrescido de sobre-envolvimento, especialmente entre os utilizadores mais jovens (como os com menos de 25 anos em contextos universitários). O uso intensivo pode levar a um aumento do stress resultante da dependência da tecnologia e pode até agravar comportamentos aditivos. Além disso, a dependência excessiva de chatbots para apoio emocional pode contribuir para o aumento do isolamento social. Noutros contextos, a ansiedade induzida pela IA manifesta-se no local de trabalho. A automação e a substituição potencial de funções humanas pela IA geram ansiedade e insegurança profissional. Os trabalhadores enfrentam receios como uma possível perda de emprego, com a obsolescência das suas competências e a paranóia associada à perda de privacidade e à dificuldade em detectar informações falsas.
Mecanismos de autoprotecção e uso sustentável da IA
Para mitigar os riscos do impacto da IA na saúde mental, é fundamental que os utilizadores adoptem estratégias de autoprotecção, apoiadas por enquadramentos organizacionais e políticos que promovam o uso ético e equilibrado da tecnologia.
Primeiro, tem de haver uma promoção da literacia em IA e da conscientização dos riscos: é crucial que o público seja informado sobre os usos e riscos da IA na saúde e que seja desenvolvida a literacia em IA. Isto implica educar os utilizadores para que compreendam as capacidades e, crucialmente, as limitações destas ferramentas, permitindo-lhes avaliar criticamente o conteúdo gerado pela IA e identificar potenciais vieses. Os utilizadores devem estar cientes dos riscos éticos inerentes aos sistemas actuais.
Segundo, é preciso adoptar a auto-regulação e o ‘digital detox’: a nível individual, o desenvolvimento de capacidades de auto-regulação é essencial para gerir o uso da IA. A deficiência na auto-regulação é um factor central na dependência tecnológica. Adicionalmente, a prática do “digital detox”, que envolve pausas intencionais na utilização de dispositivos digitais e IA, ajuda a reduzir o stress e o uso excessivo.
Em suma, embora a IA ofereça um potencial significativo para ajudar na resolução de problemas mais ou menos complexos, não deixa de ser uma “máquina de empatia” cujo primeiro impulso é o de tentar sempre agradar aos utilizadores, mesmo que isso acabe por os prejudicar. Por isso, é necessário que os utilizadores a usem com responsabilidade e, acima de tudo, não se pode acreditar em tudo o que a IA responde ou lhe diz para fazer.