Falsos nudes criados por IA criam risco de extorsão; relembre casos recentes
Surfista portuguesa disse estar sendo extorquida por pessoas que mandam imagens geradas por inteligência artificial nas quais ela aparece nua
Nesta semana, a surfista portuguesa Mariana Rocha Assis, de 26 anos, disse nas redes sociais estar sendo extorquida por pessoas que mandam imagens geradas por inteligência artificial (IA) nas quais ela aparece nua.
Os falsos nudes, ou “deepnudes” — uma variação do termo “deepfakes”, usado para designar imagens ou vídeos que manipulam a voz, o corpo ou o rosto das pessoas de maneira realista usando inteligência artificial — têm se mostrado um desafio cada vez mais frequente com a popularização do uso de IA.
No post, a surfista afirmou que as imagens parecem reais, mesmo que só seu rosto não tenha sido manipulado.
“No dia 17 de novembro recebi de um número estranho, fotos ‘minhas’ nua. Digo ‘minhas’ porque não sou eu nas fotos. Elas são geradas por inteligência artificial, e tenho que dizer. Eu juro que elas parecem reais. Essa pessoa em questão me disse para pagar a ele um total de 5k [mil], e que eu tinha até hoje para mandar [o dinheiro] para ele, eu não paguei”, disse ela.
No post, Mariana ainda reflete: “Por mais que eu acredite que a Inteligência Artificial tem seus pontos positivos. É assustador ver para onde estamos indo. POR FAVOR, TODOS OS GOVERNANTES DO MUNDO, FAÇAM ALGO.”
Casos no Brasil
Recentemente, a atriz Ísis Valverde também passou por isso. No final de outubro, ela acionou seus advogados depois que fotos nuas vazadas foram atribuídas a ela.
A principal hipótese da defesa é que fotos da atriz foram retiradas do seu Instagram e manipuladas, através de programas de alteração de imagem, para que ela parecesse estar nua. Segundo a defesa, foi registrada uma ocorrência na Delegacia de Crimes de Informática “para notificar e responsabilizar os provedores de internet que compartilharem às imagens fraudulentas”.
No entanto, não são apenas atrizes ou pessoas famosas que passam por isso. Dois casos registrados neste mês de novembro mostram alunas de colégio sendo vítimas desse tipo de manipulação virtual de imagens.
Alunas do Colégio Santo Agostinho, na Barra da Tijuca, no Rio de Janeiro, e do Colégio Marista São Luís, em Recife foram vítimas dos “deepnudes”, feitos por outros estudantes.
No Rio de Janeiro, mais de 20 vítimas foram identificadas, número que inclui adolescentes alunas e não alunas do colégio. O caso está sendo investigado pela Delegacia de Proteção à Criança e ao Adolescente (DPCA) da Polícia Civil.
Um informe produzido pela direção do colégio lamenta que uma “ferramenta criada para solucionar problemas e apoiar a vida moderna” tenha sido utilizada de forma inadequada.
Já no Recife, 18 alunas foram vítimas da prática. Os estudantes responsáveis foram suspensos e impedidos de fazer matrícula para o ano seguinte no colégio.
O caso está sendo investigado pela Polícia Civil de Pernambuco por meio da Delegacia de Polícia de Atos Infracionais.
99% das vítimas de pornografia feita por IA são mulheres
Segundo um estudo da Sensity AI, divulgado pelo The Washington Post, 96% das imagens geradas por meio de “deepfakes” produzido por inteligência artificial são pornográficas. E 99% das vítimas desse tipo de manipulação são mulheres.
Ainda segundo o The Washington Post, o número de nudes falsos nos 10 principais sites que hospedam fotos desse tipo geradas por IA aumentou mais de 290% desde 2018. Os dados são de Genevieve Oh, analista do setor.
Esses sites trazem fotos de atrizes famosas, políticas influentes e até de adolescentes comuns, muitas vezes menores de idade.