A Meta anunciou recentemente uma nova funcionalidade destinada a aumentar a segurança dos utilizadores mais jovens nas suas plataformas. A empresa liderada por Mark Zuckerberg vai passar a mostrar aos pais os tópicos das conversas que os adolescentes mantêm com a Meta AI. Esta medida surge numa altura em que vários países começam a proibir o acesso de menores às redes sociais, o que leva a gigante tecnológica a procurar novas formas de convencer os responsáveis de que as suas plataformas são seguras.
Através de uma publicação oficial, a empresa refere que os pais vão ter a capacidade de ver os temas sobre os quais os filhos questionaram a inteligência artificial no Facebook, Messenger ou Instagram durante os últimos sete dias. Os tópicos podem variar desde escola, entretenimento e estilo de vida, até viagens, escrita e saúde e bem-estar.
Como funciona a nova supervisão
Para os pais que já supervisionam as contas dos adolescentes, esta nova funcionalidade vai aparecer num separador de percepções recém-criado, disponível tanto nas aplicações móveis como na versão web. Ao aceder a esta área, os responsáveis podem tocar num tópico para descobrir as diferentes categorias integradas em cada um. Por exemplo, dentro do estilo de vida, é possível encontrar subcategorias como moda, alimentação e férias. Já a aptidão física, a saúde física e a saúde mental fazem parte do tópico de saúde e bem-estar.
Além de disponibilizar estas informações, a Meta trabalhou em conjunto com o Cyberbullying Research Center para desenvolver iniciadores de conversa. O objectivo passa por ajudar os pais a iniciar diálogos abertos com os filhos sobre a experiência destes com a inteligência artificial. Estas sugestões oferecem detalhes sobre o propósito de cada pergunta e estão disponíveis no site do Centro da Família ou através de uma ligação directa no novo separador.
Delegação de responsabilidades e riscos da IA
A estratégia de transferir algumas tarefas de moderação para os pais parece ser a nova norma da empresa. A tecnológica tem optado por reduzir a utilização de fornecedores externos que ajudam na moderação de conteúdos, preferindo transferir essa responsabilidade para sistemas automatizados. Esta mudança de foco não é surpreendente, especialmente se considerarmos que a Meta pondera reduzir a sua força de trabalho para financiar a forte aposta em inteligência artificial.
Para reforçar a segurança, a empresa indicou ainda a criação de um conselho de especialistas em bem-estar na IA, que vai fornecer opiniões contínuas sobre a experiência dos adolescentes. Este grupo integra membros com especialização em ética, afiliados ao Conselho Nacional de Prevenção do Suicídio dos Estados Unidos e a várias universidades.
Os perigos associados à inteligência artificial para os mais jovens têm sido um dos principais motivos para países como Espanha proibirem plataformas sociais para crianças. A notícia do Engadget recorda casos trágicos recentes, como o de um adolescente no Canadá que recebeu instruções detalhadas do ChatGPT da OpenAI sobre como executar um ataque armado numa escola. Outro caso semelhante encontra-se sob investigação na Flórida, e existem também registos de sistemas automatizados implicados em múltiplos suicídios de adolescentes.