Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    #CNNPop

    Taylor Swift é vítima de falsos nudes criados por IA; fãs pedem justiça

    Imagens ou vídeos manipulados de maneira realista com o uso de inteligência artificial se mostram um grande desafio conforme a tecnologia se populariza

    Fernanda Pinottida CNN , em São Paulo

    Imagens falsas geradas por inteligência artificial nas quais a cantora Taylor Swift aparece nua circularam pelas redes sociais nesta quinta-feira (25), gerando revolta nos fãs da cantora, que colocaram a tag “protect Taylor” (protejam a Taylor, em português) nos trending topics do X.

    Swift foi mais uma vítima dos falsos nudes, ou “deepnudes” — uma variação do termo “deepfakes”, usado para designar imagens ou vídeos que manipulam a voz, o corpo ou o rosto das pessoas de maneira realista usando inteligência artificial —, que têm se mostrado um desafio cada vez mais frequente com a popularização do uso de IA.

    A prática, quase sempre aplicada contra mulheres, costuma ser usada para extorquir ou constranger a vítima.

    Nas redes sociais, os fãs se mostraram revoltados com a prática. “Não importa o quão famoso alguém seja, todos nós merecemos respeito. Taylor Swift é uma pessoa real que merece respeito, não importa o que aconteça”, disse um internauta.

    “Aquelas fotos da Taylor geradas por IA são assédio sexual e é nojento que um homem possa fazer essas coisas sem repercussão. Eles veem as mulheres como objetos feitos para suas fantasias e estou farta disso”, escreveu outra.

    Casos no Brasil

    Recentemente, a atriz Ísis Valverde também passou por isso. No final de outubro, ela acionou seus advogados depois que fotos nuas vazadas foram atribuídas a ela.

    A principal hipótese da defesa é que fotos da atriz foram retiradas do seu Instagram e manipuladas, através de programas de alteração de imagem, para que ela parecesse estar nua. Segundo a defesa, foi registrada uma ocorrência na Delegacia de Crimes de Informática “para notificar e responsabilizar os provedores de internet que compartilharem às imagens fraudulentas”.

    No entanto, não são apenas atrizes ou pessoas famosas que passam por isso. Dois casos registrados em novembro de 2023 mostram alunas de colégio sendo vítimas desse tipo de manipulação virtual de imagens.

    Alunas do Colégio Santo Agostinho, na Barra da Tijuca, no Rio de Janeiro, e do Colégio Marista São Luís, em Recife foram vítimas dos “deepnudes”, feitos por outros estudantes.

    No Rio de Janeiro, mais de 20 vítimas foram identificadas, número que inclui adolescentes alunas e não alunas do colégio. O caso está sendo investigado pela Delegacia de Proteção à Criança e ao Adolescente (DPCA) da Polícia Civil.

    Já no Recife, 18 alunas foram vítimas da prática. O caso está sendo investigado pela Polícia Civil de Pernambuco por meio da Delegacia de Polícia de Atos Infracionais.

    Tópicos