A versão em língua inglesa da Wikipedia decidiu recentemente impor um travão à utilização de modelos de linguagem de grande escala ou LLM. A partir de agora, a plataforma proíbe a utilização de inteligência artificial para gerar ou reescrever o conteúdo dos artigos. Esta decisão surge após um longo período de debate interno entre os editores e administradores da enciclopédia online, que procuravam um consenso sobre como lidar com o avanço rápido destas novas tecnologias de geração de texto.
A medida visa proteger a integridade da informação. A justificação principal prende-se com o facto de a criação de textos através de ferramentas automatizadas violar várias das políticas de conteúdo da plataforma. A preocupação central é que os modelos de inteligência artificial têm a tendência para inventar factos ou alterar o sentido original das frases, o que compromete a fiabilidade que os utilizadores esperam encontrar. De facto, um quarto de século após a sua fundação, a plataforma continua a procurar formas de resistir à pressão e ao cerco da inteligência artificial para manter a sua relevância e precisão intactas.
As excepções à nova regra
Apesar da proibição geral, a nova política interna não elimina por completo a presença destas ferramentas tecnológicas. Existem excepções muito específicas. Os editores humanos podem recorrer a serviços de inteligência artificial para realizar edições básicas em textos que eles próprios escreveram. O objectivo é permitir que a tecnologia seja usada para optimizar a gramática ou a estrutura, mas nunca para criar informação a partir do zero.
No entanto, qualquer texto que sofra alterações por parte de um algoritmo tem de passar por uma revisão humana obrigatória. A política dita que os editores precisam de garantir que o modelo não adicionou material não solicitado e que o significado central do texto se mantém fiel às fontes citadas. A plataforma alerta que os LLM costumam ir além do que lhes é pedido, o que pode resultar em afirmações que não encontram suporte nas referências bibliográficas do artigo.
Outra excepção contempla o campo das traduções. A Wikipedia permite que os seus colaboradores utilizem a inteligência artificial para produzir uma versão inicial de um artigo traduzido. Contudo, a regra exige que o editor responsável pela tradução tenha um domínio profundo de ambas as línguas. Só assim é possível verificar a precisão do texto e corrigir eventuais erros de interpretação cometidos pela máquina antes da publicação final.
Um movimento contra a degradação da internet
A decisão da versão inglesa da enciclopédia não é apenas uma questão técnica, mas também uma tomada de posição ideológica. Chaotic Enby, um dos administradores da Wikipedia, expressou publicamente a esperança de que esta política possa inspirar uma mudança mais ampla na internet. O responsável afirmou que o objectivo é dar poder às comunidades noutras plataformas para que estas decidam se a inteligência artificial deve ser bem-vinda e até que ponto.
O administrador descreveu ainda esta nova directriz como uma forma de resistência contra a degradação geral da qualidade dos serviços online e contra a pressão constante que muitas empresas de tecnologia têm exercido nos últimos anos para impor a inteligência artificial em todos os aspectos da vida digital. Curiosamente, enquanto a enciclopédia tenta limitar o uso interno destas ferramentas, sabe-se que várias empresas do sector tecnológico preparam acordos para compensar financeiramente a utilização de conteúdos retirados da plataforma para treinar os seus próprios modelos.
Diferentes línguas com diferentes abordagens
É importante notar que a Wikipedia não funciona como uma entidade monolítica. Cada versão linguística do site conta com as suas próprias regras independentes e equipas de edição autónomas. As novas restrições aplicam-se, para já, apenas à versão em língua inglesa. Outras comunidades linguísticas podem decidir adoptar directrizes distintas, seja para abraçar os modelos de linguagem ou para os restringir ainda mais.
A versão espanhola da Wikipedia, por exemplo, optou por uma abordagem muito mais radical. A comunidade de língua espanhola baniu totalmente a utilização de modelos de linguagem, sem abrir qualquer tipo de excepção para a optimização de textos ou para o auxílio em traduções.
Por fim, a aplicação prática destas regras apresenta desafios significativos. A identificação de textos escritos por inteligência artificial não é uma ciência exacta. As ferramentas de detecção falham com frequência, o que significa que os moderadores humanos da Wikipedia podem deixar passar alguns conteúdos gerados artificialmente. Este risco é particularmente elevado em páginas com menor tráfego ou que recebem moderação com menos frequência, onde a supervisão humana demora mais tempo a actuar.
Para mitigar este problema, a comunidade apela a um esforço colectivo redobrado. Os voluntários que mantêm a plataforma a funcionar diariamente terão de prestar uma atenção especial a padrões de linguagem invulgares ou a referências bibliográficas que pareçam fabricadas. A enciclopédia livre aposta assim na vigilância contínua da sua base de utilizadores para garantir que o conhecimento partilhado continua a ser fruto do trabalho, da pesquisa e da verificação estritamente humana, rejeitando atalhos que possam comprometer a sua credibilidade histórica.