O que imagens falsas de Taylor Swift indicam para o debate sobre uso de IA
Para além do benefício das plataformas, o que é importante é entender a dimensão humana nesses processos
Desde que imagens falsas da cantora e compositora Taylor Swift se espalharam pela internet, venho tentando entender o que isso pode ajudar na evolução da discussão e regulação da inteligência artificial, mas também como estamos absolutamente despreparados para isso e para tudo que ainda virá, e que não temos nem ideia.
Pra quem não sabe, deepfake é o termo que se usa para imagens e vídeos, produzidos por IA em que se substitui rosto, movimentos e voz, que estão no arquivo usado como base, por outros. Isso faz com que o conteúdo de deepfake seja bastante convincente, pois costuma ter menos erros do que se a imagem ou o vídeo fosse gerado absolutamente por IA.
É um processo que ocorre já há bastante tempo, pelo menos desde 2017, quando um usuário do Reddit disponibilizou um algoritmo para treinar uma rede neural a mapear o rosto de uma pessoa no corpo de outra, frame por frame.
De lá pra cá, muita coisa já foi criada com o intuito de difundir notícias e acontecimentos falsos. E isso tem prejudicado desde pessoas comuns a governos, e claro, celebridades acabam não ficando de fora.
Foi o que aconteceu com Taylor Swift. E já tinha acontecido com outras celebridades. A questão é que, agora, IA é um termo muito mais popular, e muito mais gente consegue entender a gravidade disso e o problema que isso pode trazer em todas as esferas, o que coloca essa tecnologia em discussão, e isso é bom.
Tanto que o governo dos Estado Unidos foi pressionado pelos fãs a adotar medidas concretas contra a disseminação de imagens e vídeos falsos, inclusive com legislação específica para combater esse tipo de uso da IA, além da criminalização dos culpados, o que já acontece no Brasil.
Outro ponto é que essas tecnologias estão cada vez mais difundidas, acessíveis e fáceis de usar. Se antes era preciso poder computacional pra isso, hoje se faz tudo na nuvem. Se antes gerar bancos de dados específicos era complicado, hoje temos tudo disponibilizado em redes sociais e outras mídias.
Por isso mesmo, conseguir se proteger acaba sendo uma tarefa muito complicada, o que também aumenta cada vez mais a necessidade de regulamentação das plataformas que disponibilizam esse conteúdo. Tanto a base de dados como o que foi criado por IA.
Identificação de conteúdos gerados por IA, ajuda?
Neste sentido, muitas empresas já criaram selos ou rótulos para identificar conteúdos criados a partir de IA, como a Meta, Google, Microsoft, Midjourney, Samsung, Adobe entre outras. Mas isso está longe de resolver o problema, afinal, a todo momento são criados modos de disfarçar o registro em metadados do que é sintetizado.
Se, muitas vezes, nem as máquinas conseguem identificar imagens criadas (apesar de muitos algoritmos estarem sendo desenvolvidos), imagina se essa tarefa fica para os humanos. Por mais que se fale de uma “educação digital” nesta área, uma pessoa mal intencionada pode atingir qualquer área do conhecimento.
Por mais que se criem marcações para identificação, o que uma imagem, por si só, pode causar é devastador. Imagina se as imagens de Taylor tivesse uma marca d’água? Mudaria nossa apreensão dela, mas será que o impacto subjetivo, principalmente na vítima, diminuiria tanto, ao ponto de isso não ser um problema?
Se fomos observar os dados da circulação dessas imagens, um dos trending topics do X que levou milhões de usuários às imagens foi “Taylor Swift AI“. Ou seja, as pessoas sabiam que essas imagens haviam sido criadas artificialmente, e que, portanto, eram falsas.
Por isso, eu chamo a atenção para o que, pra mim, pode ser o mais devastador nesta história toda: as pessoas que compartilharam queria, de certa forma, atingir a imagem de Taylor Swift, pública e coletivamente, e por isso mesmo, se essas imagens estivessem rotuladas, não ia mudar muito a intenção.
O mesmo acontece com as imagens do Papa de jaqueta puffer. Fazia total sentido que essas imagens eram falsas (apesar de muita gente ter imaginado a possibilidade real daquilo ter acontecido). Mas isso não mudou a criatividade, e até um certo humor, dessas imagens.
Alguém ter pensado isso foi curioso, por si só, e não mudaria em nada se elas estivessem rotuladas, porque alguém pensou naquilo.
Isso mostra que tudo que envolve criação, geração, criatividade, desejo, ódio ou seja lá o que for, sendo isso vídeo, imagem, música ou até um modelo 3D, é uma questão muito maior que a técnica, no caso se é deepfake ou não.
Como o que aconteceu com Taylor Swift, em que foram criadas imagens explícitas, pornográficas, o que mais me chama a atenção aqui é que, de novo, independentemente da tecnologia, temos uma mulher nesta situação. Lembrando que, geralmente, as mulheres nesta situação não têm milhares de fãs espalhados pelo mundo que podem, inclusive, pressionar o governo, como mencionei.
Mais do que uma questão técnica, neste caso, o que vemos é uma questão de moderação de conteúdo. E esse também é o problema de toda uma possível regulação e regulamentação de IA.
Mais do que as questões técnicas, como o que é feito com ela nos atinge socialmente e individualmente. E isso mostra a importância da discussão, mais humanas do que exatas, deste assunto.
E as plataformas?
Claro, por mais que as plataformas se mexam um pouquinho, depois de muito atrito, sabemos o quanto elas se beneficiam de conteúdos falsos, de discurso de ódio e de tudo que gera tensão e medo.
A Microsoft diz que corrigiu a falha que permitiu a criação das imagens no Designer, ferramenta da empresa. Mas, antes mesmo do boom da IA, já tínhamos esse grande problema nos assombrando.
No fim, a IA sofre do mesmo mal que as plataformas de redes sociais, já que tudo é desenhado e programado para dar conta de dados, que geram mais dados prontos para serem difundidos, independentemente de serem verdade ou não. No fim, é isso que dá clique. No fim, é o que gera mais receita. Afinal, seres humanos gostam do que ‘causa’.