Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Criminosos manipulam imagens de apresentador da CNN para promover aplicativo falso

    Vídeos falsos que circulam nas redes sociais mostram apresentador Gustavo Uribe divulgando aplicativo de apostas

    Da CNN , São Paulo

    A CNN é alvo de criminosos na veiculação de vídeos que usam inteligência artificial para manipular imagens da TV e espalhar anúncios falsos.

    Em vídeos que circulam nas redes sociais, os golpistas manipulam imagem e voz do apresentador Gustavo Uribe para fazer parecer que ele divulga um suposto aplicativo de apostas promovido pelo jogador Neymar.

    A mesma manipulação criminosa já foi feita com a imagem das apresentadoras Elisa Veeck e Tainá Falcão.

    Os vídeos também mostram imagens manipuladas do jogador, em que ele aparece dizendo que pretende distribuir milhões de reais aos jogadores.

    A CNN reitera que os vídeos são falsos e que não promove esse tipo de propaganda.

    A TV Globo também foi alvo de golpes semelhantes, conforme reportagem que foi ao ar no domingo (17), no Fantástico.

    A emissora diz que William Bonner, apresentador do Jornal Nacional, é uma vítima recorrente desses grupos de criminosos, assim como Luciano Huck, Drauzio Varella, Marcos Mion, Sandra Annenberg e Ana Maria Braga.

    No caso envolvendo Mion, os golpistas recriaram imagem e voz do apresentador para fazer parecer que ele defendia um produto ligado à cura do autismo, o que não existe.

    Deepfake

    O uso da técnica conhecida como deepfake — que usa inteligência artificial para copiar vozes e rostos —, tem ganhado espaço entre produtores de desinformação.

    A ferramenta permite que criminosos fundam, combinem, substituam ou sobreponham áudios e imagens para criar arquivos falsos, em que pessoas podem ser colocadas em qualquer situação, dizendo frases nunca ditas ou assumindo atitudes jamais tomadas.

    São inúmeras as possibilidades: troca de rostos, clonagem de voz, sincronização labial a uma faixa de áudio diferente da original, entre outras. A técnica distorce comumente a percepção a respeito de um indivíduo em uma determinada situação.

    Para criar esse tipo de material, é preciso ter acesso a arquivos verdadeiros — fotos, vídeos ou áudios — da pessoa-alvo da manipulação, que servem para alimentar o sistema da inteligência artificial.

    Quanto mais material à disposição, maior é a chance de um resultado convincente. Isso ocorre porque a inteligência artificial aprende com o conteúdo-modelo fornecido e, com isso, consegue reproduzir padrões, como movimentos, expressões, vozes e outras características do indivíduo.

    Como o próprio termo “fake” sugere, o deepfake é feito para enganar. As técnicas de inteligência artificial fazem com que o vídeo pareça real, como se fosse um registro fidedigno.

    Tópicos