Recentemente, o governo da África do Sul deparou-se com uma situação insólita que envolve a própria tecnologia que tenta regular. Solly Malatsi, o Ministro das Comunicações do país, confirmou a retirada de uma proposta de lei nacional sobre Inteligência Artificial. O motivo prende-se com a descoberta de que o documento incluía fontes fictícias na lista de referências.
A notícia, avançada pelo TechSpot, indica que as autoridades do país chegaram a colocar o projecto em discussão pública, sem se aperceberem de que o texto continha alucinações criadas pela IA.
O perigo das alucinações digitais
De acordo com a investigação ao documento, pelo menos seis dos 67 artigos académicos citados na proposta de lei pura e simplesmente não existiam. Solly Malatsi explicou que a justificação mais plausível para este erro crasso é a utilização de ferramentas de Inteligência Artificial para redigir o texto. Os documentos falsos acabaram por ser incluídos sem qualquer tipo de verificação humana, algo que o ministro sublinha que nunca deveria ter acontecido, embora seja uma ocorrência cada vez mais comum em vários sectores.
As citações falsas não representam apenas uma falha técnica simples. O governante refere que estas alucinações invalidaram a totalidade da proposta legislativa. Por este motivo, o Ministério das Comunicações e Tecnologias Digitais tomou a decisão de refazer o documento a partir do zero.
Malatsi aproveitou a ocasião para reforçar que este incidente demonstra, mais uma vez, que a Inteligência Artificial deve ser sempre utilizada com supervisão humana. O ministro defende que os cidadãos sul-africanos merecem políticas públicas elaboradas com rigor e não apenas conteúdos gerados de forma automática. Para além disso, garantiu que vai haver consequências para os responsáveis pela redacção e pela garantia de qualidade do texto.
O que previa a legislação original
Apesar do erro na elaboração, o rascunho original incluía várias inovações importantes relacionadas com a Inteligência Artificial generativa e outras soluções baseadas em grandes modelos de linguagem. A proposta tinha como objectivo criar novos órgãos de supervisão no país. Entre as entidades planeadas, o documento integra uma comissão nacional de IA, um conselho de ética e uma autoridade reguladora específica para o sector.
O texto delineava ainda planos para acelerar a adopção responsável desta tecnologia em toda a África do Sul. Para atingir esta meta, o governo pretendia disponibilizar subsídios, isenções fiscais e apoios financeiros para iniciativas de infraestruturas que unissem os sectores público e privado.
Espera-se agora que os responsáveis sul-africanos revejam o documento, a fim de remover as citações falsas e lançar uma nova versão para discussão pública. A maior parte das disposições válidas incluídas no primeiro rascunho deve transitar para a versão actualizada.
Um problema à escala global
A proposta de lei da África do Sul é apenas mais uma entrada numa lista crescente de documentos oficiais e juridicamente vinculativos que contêm referências fabricadas. A confiança cega em ferramentas digitais sem a devida verificação oficial pode levar a consequências desastrosas, um princípio de cautela que se aplica a várias áreas da tecnologia.
Empresas de consultoria de renome deparam-se rotineiramente com problemas de alucinações de IA em relatórios governamentais. Em simultâneo, alguns profissionais da área jurídica continuam a confiar em ferramentas generativas para executar tarefas complexas, o que resulta na submissão de material impreciso ou de baixa qualidade em processos judiciais. Este caso sul-africano serve assim de aviso para legisladores em todo o mundo sobre a necessidade de manter o factor humano no centro das decisões políticas.