Nos últimos anos, os conteúdos gerados através de Inteligência Artificial têm proliferado muito na Internet. O que antes eram vídeos com mãos deformadas evoluíram para imagens e vídeos sintéticos que são cada vez mais difíceis de distinguir dos reais. Tendo ajudado a criar este problema, a Google tem alguma responsabilidade em manter o vídeo gerado por IA sob controlo no YouTube. Para tal, a empresa lançou o prometido sistema de detecção de semelhanças para criadores.
Os poderosos modelos de IA de acesso livre da Google ajudaram a alimentar o aumento do conteúdo gerado por IA, parte do qual visa espalhar desinformação e assediar indivíduos. Os criadores e influenciadores temem que as suas marcas possam ser manchadas por um dilúvio de vídeos feitos por IA que os mostrem a dizer e a fazer coisas que nunca aconteceram – até os legisladores estão preocupados. A Google fez uma grande aposta no valor do conteúdo de IA, pelo que proibir a IA no YouTube, como muitos desejam, simplesmente não vai acontecer.
No início deste ano, o YouTube prometeu disponibilizar ferramentas que assinalariam o conteúdo gerado por IA que rouba rostos na plataforma. A ferramenta de detecção de semelhanças, que funciona de uma forma parecida com o sistema de detecção de violação de direitos de autor da plataforma, expandiu-se agora para além do pequeno grupo de utilizadores de teste inicial. O YouTube diz que o primeiro lote de criadores elegíveis para usar esta ferramenta foi notificado de que podem começar a usar a funcionalidade de detecção de semelhanças, mas as partes interessadas terão de fornecer à Google ainda mais informações pessoais para obter protecção contra falsificações feitas com recurso a IA.
Actualmente, a detecção de semelhanças é uma funcionalidade em testes beta limitados, pelo que nem todos os criadores a virão como uma opção no YouTube Studio. Quando aparecer, estará integrada no menu existente “Detecção de conteúdo”. No vídeo de demonstração do YouTube, o fluxo de configuração parece assumir que o canal tem apenas um anfitrião cuja semelhança precisa de protecção. Essa pessoa deve verificar a sua identidade, o que requer uma fotografia de um documento de identificação governamental e um vídeo do seu rosto. Não está claro porque é que o YouTube precisa destes dados, para além dos vídeos que as pessoas já publicaram com os seus rostos tão fáceis de roubar, mas regras são regras.
Após a inscrição, o YouTube começa a assinalar vídeos de outros canais que pareçam conter o rosto do utilizador. O algoritmo do YouTube não pode saber ao certo o que é ou não é um vídeo gerado por IA. Assim, alguns dos resultados de correspondência facial podem ser falsos positivos de canais que usaram um pequeno clip legalmente.
Se os criadores detectarem uma falsificação criada por IA, podem adicionar alguns detalhes e enviar uma queixa em poucos minutos. Se o vídeo incluir conteúdo copiado do canal do criador que não adere às directrizes para uso justo, o YouTube sugere que também seja enviada um pedido de remoção por violação de direitos de autor. No entanto, só porque a semelhança de uma pessoa aparece num vídeo de IA não significa necessariamente que o YouTube o irá remover.
O YouTube publicou uma lista dos factores que os seus revisores terão em conta ao decidir aprovar ou não um pedido de remoção. Por exemplo, conteúdo de paródia rotulado como IA ou vídeos com um estilo irrealista podem não atingir o limiar para remoção. Por outro lado, pode presumir-se que um vídeo realista gerado por IA que mostre alguém a promover um produto ou a envolver-se em actividades ilegais viola as regras e ser removido do YouTube.
Embora este possa ser um problema emergente para os criadores agora, é provável que, em breve, o conteúdo gerado por IA no YouTube acelere. A Google revelou recentemente o seu novo modelo de IA para geração de vídeo Veo 3.1, que inclui suporte para vídeos de IA tanto na vertical como na horizontal. A empresa prometeu anteriormente integrar o Veo com o YouTube, tornando ainda mais fácil para as pessoas produzirem “lixo” de IA que pode incluir representações de pessoas reais.
A rival da Google, OpenAI, obteve muito sucesso com os geradores de vídeos por IA Sora e Sora 2. Isso pode levar a Google a acelerar os planos de integração de IA no YouTube, mas, como vimos com o Sora, as pessoas adoram fazer figuras públicas fazerem coisas estranhas. Os criadores mais populares podem ter mesmo de começar a apresentar queixas por semelhanças físicas geradas por IA com a mesma regularidade que fazem pedidos de remoção por violação de direitos de autor.