Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Violência nas escolas: Twitter contraria própria regra ao hesitar em tirar post do ar

    Segundo especialistas ouvidos pela CNN, a mudança se dá pelo fato de o novo dono do Twitter, Elon Musk, ter desmobilizado os times de segurança e proteção da plataforma após se tornar dono da empresa

    Leandro Resendeda CNN , São Paulo

    Um documento enviado pelo Twitter ao Ministério Público Federal de São Paulo em 2021 revela que, ao hesitar em remover vídeos que fazem apologia à violência contra crianças em escolas, a plataforma contraria suas próprias regras.

    A informação consta em um inquérito aberto pelo MPF em 2021 para investigar a postura das redes sociais no enfrentamento das fake news e da violência digital.

    No documento, o Twitter deixava claro que removeria conteúdos com “ameaças à segurança física de uma pessoa ou grupo” e garantiu o banimento de contas que fizessem ameaças violentas a alvos específicos.

    Segundo especialistas ouvidos pela CNN, a mudança se dá pelo fato de o novo dono do Twitter, Elon Musk, ter desmobilizado os times de segurança e proteção da plataforma após se tornar dono da empresa.

    Agora cabe à inteligência artificial usada pela empresa para identificar o que é nocivo — mas, sem mediação humana, o conteúdo continua circulando pela rede.

    O ministro da Justiça, Flávio Dino, editou na quarta-feira (12) uma portaria que endurece as regras para plataformas como o Twitter retirarem do ar vídeos com apologia à violência nas escolas, regulando os conteúdos que contenham ameaças.

    A medida foi tomada após o Twitter, em reunião com o governo, dizer que tais vídeos não contrariam seus termos de uso.

    Em um longo documento enviado ao MPF, o Twitter esclarece que casos em que “há potencial risco de dano real às pessoas – a exemplo do que ocorre nos casos de integridade cívica e desinformação relacionada à saúde”, a plataforma deve remover conteúdos.

    “Referências a assassinatos em massa, eventos violentos ou formas específicas de violência em que grupos protegidos que já tenham sido os principais alvos ou vítimas dessas práticas. É proibido direcionar a alguém ou a grupos conteúdo que faz referência a formas de violência ou eventos violentos em que uma categoria protegida seja o principal alvo ou a vítima, em que a intenção seja o assédio”, diz o Twitter.

    Segundo Yasmin Curzi, professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio, conteúdos maliciosos que façam referência aos massacres de Realengo e Suzano, por exemplo, dependem de uma análise de contexto para serem retirados do ar – logo, só a inteligência artificial é incapaz de fazê-lo.

    “Isso não acontece só no Brasil. Na Alemanha também não há equipe para fazer moderação de conteúdo e retirar discurso de ódio do ar, por exemplo”, afirmou.

    Tópicos