Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    TSE avança ao regular IA, mas regra genérica traz dúvida e moderação de big techs preocupa

    Especialistas ouvidos pela CNN dizem ser necessário regras mínimas para evitar danos com “deep fakes” ou conteúdos manipulados e que faltou clareza da Corte ao ampliar responsabilidade de plataformas

    Aprovada pela Corte sob a relatoria da ministra Cármen Lúcia, norma possui trechos que têm DNA do atual presidente do TSE, Alexandre de Moraes
    Aprovada pela Corte sob a relatoria da ministra Cármen Lúcia, norma possui trechos que têm DNA do atual presidente do TSE, Alexandre de Moraes 25/08/2022 - Alejandro Zambrana/Secom/TSE

    Lucas Mendesda CNN

    Brasília

    A resolução aprovada pelo Tribunal Superior Eleitoral (TSE) para regular a propaganda eleitoral tratou não só de temas inéditos, como a inteligência artificial (IA), mas também trouxe mudanças no regime de responsabilidade das plataformas digitais, conhecidas como “big techs”.

    Pela primeira vez, se estabeleceu uma regulação de IA nas eleições. Um dos dispositivos prevê, por exemplo, a cassação do candidato que fizer uso irregular da tecnologia. Há, também, a proibição do “deep fake” nas propagandas.

    Se, por um lado, a criação de regras mínimas para controlar a disseminação de conteúdos fabricados tecnologicamente representou um avanço necessário do tribunal, segundo especialistas ouvidos pela CNN, por outro, o TSE teria ultrapassado uma linha potencialmente perigosa ao ampliar as responsabilidades das plataformas.

    Nesse ponto, algumas das consequências citadas são aumento da vigilância das big techs sobre as publicações nas redes sociais, provocando até uma “censura” em situações mais subjetivas.

    Entre os tópicos aprovados pelo tribunal e vistos com preocupação está o que determina a remoção “imediata” de publicações nas redes sociais consideradas de “risco”, sob pena de levar as empresas a responderem civil e administrativamente junto com os responsáveis pelos conteúdos.

    Como casos de “risco”, o TSE considera, por exemplo, os “fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral”; discursos de ódio e condutas e atos antidemocráticos que se configurem como crimes de tentativa de abolição violenta do Estado de Direito ou golpe de Estado.

    Conforme os especialistas ouvidos pela reportagem, o caráter genérico, abrangente e sujeito a diversas interpretações dos dispositivos, aliado à possiblidade de responsabilização, pode levar as plataformas a um excessivo patrulhamento de publicações, em um precedente perigoso para a liberdade de expressão.

    Existem, também, divergências quanto à própria legalidade de trechos da resolução, por supostamente contrariar o Marco Civil da Internet — a lei que baliza princípios, garantias, direitos e deveres para a internet brasileira.

    Aprovada pela Corte no final de fevereiro sob a relatoria da ministra Cármen Lúcia, que presidirá o tribunal a partir de junho e comandará as eleições municipais de outubro, trechos da norma têm DNA do atual presidente, Alexandre de Moraes.

    Um dos pontos mais sensíveis, como o que amplia a responsabilização das plataformas pela remoção de conteúdos, é semelhante às sugestões que o ministro havia feito ao Congresso para o projeto de lei das Fake News, em abril de 2023.

    A proposta não avançou, em meio a uma campanha contrária capitaneada pela próprias plataformas que resultou em um inquérito aberto no Supremo Tribunal Federal (STF) sob a relatoria do próprio Moraes.

    O TSE preencheu o espaço diante desse “vácuo normativo” e dos riscos que o descontrole sobre a circulação de notícias falsas pode causar aos pleitos.

    Moraes já havia cobrado publicamente o Legislativo a definir regras sobre a responsabilidade de plataformas digitais, e disse que o TSE faria a sua própria regulação do tema.

    Uma ameaça às eleições

    Desde que se popularizou na internet, o uso da inteligência artificial se tornou uma preocupação da Justiça Eleitoral pelo potencial de desequilibrar as eleições.

    Com o “deep fake”, é possível, por exemplo, substituir o rosto de pessoas em vídeos ou simular falas, com o mesmo tom de voz e com a sincronização com o movimento dos lábios.

    O ministro Alexandre de Moraes já vinha fazendo declarações sobre o tema. Em evento no Rio de Janeiro, em dezembro, disse que o uso da IA “pode realmente mudar o resultado eleitoral, principalmente em eleições extremamente polarizadas”, e defendeu “sanções severas” a quem utilizasse a ferramenta de forma fraudulenta.

    Pela resolução da Corte, todo conteúdo publicado durante as eleições que tiver sido criado com uso da inteligência artificial (IA) deverá receber rótulos que informem se tratar de uma postagem fabricada.

    Segundo Gustavo Borges, professor da Unesc (Universidade do Extremo Sul Catarinense), a regra sobre IA é “importante” e era necessária diante do atual contexto tecnológico.

    Paloma Rocillo, diretora do Instituto de Referência em Internet e Sociedade (IRIS), concorda. Ela considerou “muito positivo” o TSE ter acolhido recomendações da sociedade civil para que a rotulagem e identificação de postagens com IA seja dever dos autores da publicação, e não da plataforma.

    “Antes estava muito cinzento, não estava nítido de quem era essa responsabilidade”, afirmou a pesquisadora.

    Em relação ao deep fake, a gente acha que a resolução avançou ao proibir de fato, porque, num contexto eleitoral, que é diferente do entretenimento, usar deep fake, ainda mais se haver uma regulação sobre a inteligência artificial”, é algo que pode causar danos ao próprio processo eleitoral

    Paloma Rocillo

    Responsabilização

    Um dos pontos que provocou maior debate entre especialistas da área é o que estabelece tipos de publicações que devem ser removidas de forma “imediata”.

    Parte dos especialistas considera que a norma pode abrir caminho para uma censura prévia das empresas, na tentativa de evitar penalizações.

    Um dos artigos da resolução estabelece que as plataformas serão “solidariamente responsáveis, civil e administrativamente”, quando não promoverem a “indisponibilização imediata” de conteúdos e contas em casos considerados “de risco”, como:

    • condutas, informações e atos antidemocráticos que se configurem como crimes de tentativa de abolição violenta do Estado de Direito ou golpe de Estado;
    • divulgação ou compartilhamento de “fatos notoriamente inverídicos ou gravemente descontextualizados” que atinjam a integridade do processo eleitoral, inclusive os processos de votação, apuração e totalização de votos;
    • “grave ameaça”, direta e imediata, de violência contra a integridade física de integrantes e servidores da Justiça eleitoral e Ministério Público eleitoral ou contra a infraestrutura física do Poder Judiciário para “restringir ou impedir o exercício dos poderes constitucionais ou a abolição violenta do Estado Democrático de Direito”;
    • discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas contra uma pessoa ou grupo por preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação;
    • divulgação ou compartilhamento de conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo inteligência artificial, em desacordo com as formas de rotulagem estabelecidas.

    Existe uma preocupação que esse trecho leve a uma moderação excessiva por parte das plataformas, para afastarem qualquer dúvida que possa levá-las a responder pelo conteúdo.

    A norma também não deixa claro se a remoção “imediata” deve ser precedida de uma decisão judicial ou se derivaria de um monitoramento ativo das big techs.

    Considerar que as plataformas tenham que se responsabilizar por postagens de usuários, nos casos estabelecidos pelo TSE, seria uma mudança no atual regime definido pela lei.

    Gustavo Borges afirmou que a resolução do TSE “cria um regime mais gravoso de responsabilidade civil para as plataformas” e que isso vai contra a legislação sobre direitos na internet.

    “Me parece que, não havendo uma lei específica sobre desinformação ou sobre IA, e existindo uma legislação como o Marco Civil da Internet, o TSE não poderia criar um regime diferente de responsabilização”.

    O Marco Civil da Internet é uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil.

    Atualmente, a norma só responsabiliza as plataformas quando não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.

    A exceção é para divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

    Depois dos atos de 8 de janeiro, ganhou tração um debate para que as plataformas adotem práticas para coibir a circulação de conteúdos de caráter golpista e criminoso.

    Defensor dessa tese, Alexandre de Moraes já disse, por exemplo, que considera “falido” e “absolutamente ineficiente” o atual modelo de regulação de conteúdos na internet e que as big techs foram “instrumentalizadas” para fins antidemocráticos e golpistas.

    Censura

    “A gente ficou bastante chocado porque um dos pontos centrais da nova resolução não foi apresentado na minuta, e altera o artigo 19 do Marco Civil da Internet”, disse Paloma Rocillo.

    “A partir do momento em que não é oportunizado à sociedade se manifestar sobre uma mudança tão radical, a gente recebe a resolução de forma muito surpresa, enxergando certa extrapolação do poder de regulamentação do TSE”.

    Em janeiro, o TSE divulgou rascunhos das resoluções para as eleições deste ano. Depois, recebeu por três dias representantes da sociedade e do mercado para debater as minutas e colher propostas. O tribunal acolheu total ou parcialmente 158 sugestões e rejeitou 243.

    A minuta de propaganda divulgada inicialmente pelo TSE não trazia pontos sobre a ampliação da responsabilidade de big techs.

    Os dois pesquisadores convergem quanto à mesma consequência dessa mudança: remoção excessiva de conteúdo e censura.

    “A resolução estabelece cláusulas abertas. A plataforma vai ter que dizer o que é desinformação, o que é discurso de ódio, casos de risco. E esse papel cabe ao Judiciário.

    Como as plataformas vão fazer moderação se não existe uma lei estabelecendo? Cada um pode entender de um jeito”, afirmou Gustavo Borges.

    “Se a plataforma pode ser responsabilizada, com receio de que conteúdos possam caracterizar discurso de ódio, vai haver uma remoção de conteúdo por precaução, de forma acautelatória”.

    Rocilio disse que a resolução promove uma responsabilização pela inércia das empresas, e não por eventuais falhas no cumprimento de decisões.

    “Vai gerar restrição muito excessiva à liberdade de expressão, que afeta usuários com falta de conhecimento ou assessoramento jurídico para recorrer quanto tiver um conteúdo removido”, declarou.

    Faltou clareza

    De acordo com Yasmin Curzi, professora da FGV Direito Rio, o debate é “espinhoso” e é afetado pela redação da norma aprovada pelo TSE, na sua visão “bastante ambígua” sobre a responsabilidade das plataformas.

    “D forma como está redigido [o artigo], não fica claro a qual momento o ‘imediato’ se refere, no caso da remoção imediata”, afirmou.

    Para ela, o trecho permite interpretar a norma como sendo contrária ao Marco Civil da Internet ou como uma “tentativa objetiva de o TSE subsidiar a regra geral” da legislação.

    Segundo a pesquisadora, o trecho que fixa a possibilidade de responsabilização solidária das empresas não diz se demandará um monitoramento ativo pelas plataformas ou o cumprimento de decisões judiciais.

    “É necessário que a TSE esclareça o que está sendo colocado na resolução, até mesmo para evitar arbítrio de outros atores, para evitar a remoção de conteúdo que deveria ser mantido”, afirmou.

    Curzi também ressalta que a moderação de informações nas redes sociais deve ser resolvida por outras formas, para além do regramento no período eleitoral.

    “A gente não está falando sobre o problema principal, que é como a moderação vai ser aplicada pelas plataformas. Não temos transparência sobre a quantidade de moderadores em língua portuguesa, não temos informações claras”, disse. “O arbítrio já está colocado sobre o conteúdo que fica online. Se a resolução vai piorar ou não é difícil dizer, até porque não estamos em um cenário positivo”.

    Posições

    A CNN entrou em contato com Meta (dona de Facebook, Instagram e WhatsApp) e Google, que disseram que não se manifestariam sobre o tema. A reportagem não conseguiu conato com X (antigo Twitter) e TikTok.

    Integrantes e advogados dessas empresas disseram, sob reserva, ver com cautela e preocupação a resolução do TSE, entendendo que pontos extrapolam o poder do tribunal de regulamentar a legislação.

    Representantes dessas quatro empresas estiveram no TSE em 12 de março, quando a Corte inaugurou seu Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde).

    A iniciativa buscará auxiliar no combate a discursos discriminatórios e de ódio, desinformação e conteúdos considerados antidemocráticos nas redes durante o período eleitoral.

    Uma primeira reunião presencial de alinhamento, definição de objetivos e metas está marcada para 4 de abril. Também participam órgãos como Procuradoria-Geral da República, Ministério da Justiça e Segurança Pública, Ordem dos Advogados do Brasil (OAB) e Agência Nacional de Telecomunicações (Anatel).

    Na ocasião, o presidente da Anatel, Carlos Baigorri, disse que a agência usará a “a plenitude do seu poder de polícia junto às empresas de telecomunicações para retirar do ar todos os sites e aplicativos que estejam atentando contra a democracia por meio da desinformação e do uso de inteligência artificial para deep fakes”.