Big techs se dividem e ministros do STF falam em mais autorregulação de redes sociais
Plataformas defendem modelo atual sobre conteúdos na internet e criticam maior responsabilização
As chamadas big techs manifestaram diferenças quanto às expectativas de mudanças nas regras sobre redes sociais e remoção de conteúdos considerados ilícitos ou nocivos.
Twitter e Google, por exemplo, admitiram a possibilidade de o Marco Civil da Internet passar a listar outras situações em que as big techs tenham que atuar diretamente para excluir publicações, sem que tenham sido acionadas pela Justiça –sob pena de serem responsabilizadas.
Já a Meta, dona de Facebook, Instagram e WhatsApp, não considerou esse aumento de responsabilidade. A gigante de tecnologia defendeu o modelo atual de regulação do setor, reforçou que tem investido em iniciativas para garantir a segurança dos seus serviços e descartou que seu modelo de negócios privilegia um ambiente tóxico.
As manifestações recentes das empresas foram feitas em audiência pública no Supremo Tribunal Federal (STF) no fim de março. A Corte vai julgar ações que tratam de trechos do Marco Civil da Internet e a responsabilidade de plataformas digitais sobre conteúdos ilícitos ou ofensivos postados por seus usuários. Ainda não há data para o caso ser pautado.
Apesar da divergência pontual sobre a perspectiva da regulação da internet brasileira, as plataformas continuam concordando sobre a necessidade de manter as normas já existentes e de rejeitar o aumento de sua responsabilidade por publicações dos usuários das redes sociais.
O Marco Civil da Internet é uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil.
Atualmente, a norma só responsabiliza as plataformas quando não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.
A exceção é para divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.
Há um debate para que as plataformas adotem práticas para coibir a circulação de conteúdos de caráter golpista e criminoso, por exemplo. A questão ganhou mais tração no Brasil depois dos atos de 8 de janeiro, que resultaram na invasão e depredação das sedes dos Três Poderes, em Brasília.
O ministro do STF Alexandre de Moraes, por exemplo, já disse que considera “falido” e “absolutamente ineficiente” o atual modelo de regulação de conteúdos na internet. A fala foi feita na abertura da audiência na Corte sobre o tema.
Aumento de responsabilidade
O debate sobre maior responsabilização das plataformas encontra resistência das empresas. Representantes das big techs que participaram da audiência pública no STF negaram que haja inércia para remover conteúdos ilícitos e que aumentar sua responsabilidade não é um caminho para deixar a internet mais segura.
O advogado Guilherme Cardoso Sanchez, da Google Brasil, disse na ocasião que responsabilizar plataformas digitais, como se elas próprias fossem as autoras do conteúdo que exibem, “levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas”.
Segundo o ele, a situação contribuiria para “criar uma pressão para remover qualquer discurso minimamente controverso”.
Sanchez, no entanto, considerou a hipótese de mudança nas regras e propôs balizas para o caso de se ampliarem os casos em que as plataformas devem remover conteúdos sem a necessidade de uma decisão judicial.
Para o advogado, não se pode abandonar o “princípio básico” de que não se pode responsabilizar diretamente as plataformas pelo conteúdo criado pelas pessoas na internet.
“Dentro dessa premissa –caso se entenda pela ampliação das hipóteses legais para a remoção extrajudicial de conteúdo– é necessário estabelecer garantias procedimentais e critérios que evitem a banalização, a insegurança jurídica e o incentivo econômico à censura”, afirmou “É necessário, por exemplo, que a notificação aponte o conteúdo que se considera ilícito de forma inequívoca.”
O teor da fala é semelhante ao que disse a consultora jurídica do Twitter, Jacqueline Abreu.
Para ela, o artigo 19 do marco civil “pode conviver com exceções pontuais e objetivas como a criada pelo artigo 21, para conteúdos de exposição não consentida de nudez, e não impede a atuação espontânea dos provedores de internet, no que diz respeito à remoção de conteúdos de usuários em casos de violações de suas políticas”.
Conforme Abreu, o marco civil estabeleceu uma “regra geral” de que cabe ao Judiciário a palavra final sobre eventual abuso na liberdade de expressão.
Ela também afirmou que as regras internas da plataforma vêm “sendo amadurecidas” e já “contemplam uma série de incômodos e problemas”, como identidade falsa, discurso violento, propagação de ódio, divulgação de material íntimo e sem consentimento.
Objetividade
A condição que parece convergir entre os que aceitam alguma ampliação na responsabilidade das big techs é a objetividade. Para que as plataformas removam alguma publicação de ofício ou a partir de notificação de usuário, é preciso que não haja dúvidas sobre a ilegalidade do que foi postado.
Para o advogado do Google, é preciso haver “uma justificativa que aponte de forma específica o fundamento da alegada ilicitude, além de informações que permitam a realização de uma análise objetiva”.
A preocupação foi compartilhada por Fernando Gallo, diretor de políticas públicas do TikTok Brasil.
Para ele, “na remota possibilidade” de o STF declarar a inconstitucionalidade do artigo 19 sem estabelecer critérios e parâmetros objetivos para notificar as empresas, haverá um “perverso incentivo para remoção de expressivo número de conteúdos, incluindo aqueles legítimos”.
O gerente jurídico do Facebook Brasil, Rodrigo Ruf, disse durante a audiência que a empresa defende a constitucionalidade do artigo 19 do marco, e também apoia o “salutar debate” sobre uma regulamentação complementar.
“Estamos diante de um risco concreto: a declaração de inconstitucionalidade do artigo 19 levaria a um aumento considerável da remoção de conteúdos subjetivos pelas plataformas para mitigar riscos jurídicos”, disse.
“Conteúdos críticos, tão importantes para o debate público e a democracia, acabariam removidos, mesmo sem violar leis locais ou as regras das plataformas”, acrescentou.
Novas regras
O ministro Dias Toffoli, do STF, entende que a Corte tem poder de fixar regras e parâmetros sobre remoção de conteúdos nas redes sociais. A questão dependerá de como o julgamento do caso se desenrolar em plenário, em debate com os demais integrantes do Supremo.
Em entrevista ao final da audiência pública, ele afirmou que há precedentes que autorizariam esse tipo de regulação via STF, citando o exemplo da demarcação da terra indígena Raposa Serra do Sol, em Roraima.
“A Corte, quando julgou o caso, apresentou uma decisão com alguns parâmetros e elementos que balizaram a maneira como deveriam ser feitas as demarcações em terras indígenas. Então o tribunal tem precedentes a respeito disso”, declarou.
Conforme o magistrado, a questão pode ser tratada na discussão sobre a defesa da intimidade.
“Em tese, é possível que a Corte faça, até por princípio da isonomia, algum tipo de decisão que interprete a legislação com seu alcance a dar a maior proteção possível, sem na sua função de guarda da Constituição e dos direitos e garantias individuais e do Estado Democrático de Direito”, ressaltou.
Toffoli também afirmou que a autorregulação das plataformas sobre conteúdos considerados ilícitos “é sempre bem-vinda” por ter o potencial de deixar o Judiciário “apenas com as exceções”.
O ministro Alexandre de Moraes também já disse ser favorável a algum tipo de autorregulação das plataformas para coibir conteúdos que atentem contra a democracia ou que expressem ódio, como o nazismo.
“Eu não sou ingênuo e acho que não seria eficiente tentarmos definir o que é fake news, mas é possível estender a autorregulação e atuação mais direta para questões objetivas”, afirmou. “Atentados contra instituições e democracia são coisas objetivas”.
Moraes é um dos ministros mais próximos do debate sobre redes sociais e desinformação. Como presidente do Tribunal Superior Eleitoral (TSE), ele apresentou às vésperas do segundo turno o texto da resolução que permitiu ao tribunal agir “de ofício” para excluir conteúdos na internet durante as eleições.
No TSE foi criado um grupo de trabalho com representantes de plataformas digitais para discutir e apresentar propostas de melhoria da autorregulação das redes e sugestões ao Congresso sobre regulamentação.
“As primeiras propostas são: o que for impulsionado, o que for monetizado, no que a big tech ganhar em cima, ela é responsável”, disse Moraes, em evento sobre “Democracia e Plataformas Digitais” organizado pela Faculdade de Direito da Universidade de São Paulo (USP), em 31 de março.
“O que tiver o papel de acionamento das big techs, elas imediatamente serão responsabilizadas. Elas não podem dizer que não sabem o que está sendo publicado, já que elas estão indicando e ganhando dinheiro. Isso é muito mais eficiente, a meu ver, do que definir o que é fake news, de forma abstrata”.
“Autorregulação regulada”
“A tecnologia não pede licença, ela pede desculpas”, disse à CNN o professor da Unesc (Universidade do Extremo Sul Catarinense) Gustavo Borges. Ele entende que o fenômeno da tecnologia não dá condições para que o Estado acompanhe seus desdobramentos na velocidade adequada.
O especialista defende como um dos caminhos possíveis a chamada “autorregulação regulada”.
“[Podemos] estabelecer uma regulação no Brasil que tenha diretrizes, princípios, standards [padrões], modelos a serem seguidos”, afirmou. “Por exemplo a liberdade de expressão, neutralidade da rede, e as plataformas se autorregularem”.
Para Borges, o Marco Civil da Internet, que fará 9 anos de existência no fim de abril, precisa ser aprimorado. Ele defende, por exemplo, ampliar as exceções da garantia do artigo 19, englobando discurso de ódio, atentado ao Estado democrático de Direito e questões que sejam objetivas.
Para as demais, ele defende uma atuação das plataformas moderando conteúdo e aprimorando os padrões de comunidade.
“E o mais importante de tudo: transparência. Não significa entregar algoritmos da plataforma. Significa entregar relatórios do que a plataforma faz, quais padrões de direitos humanos ela segue, e como a pessoa pode fazer para recuperar uma conta suspensa ou bloqueada.”
À CNN, o advogado Ronaldo Lemos, presidente da Comissão de Tecnologia e Inovação da Ordem dos Advogados do Brasil (OAB) de São Paulo, disse que uma eventual mudança no Marco Civil da Internet seria “mais recomendável” se fosse construída no Congresso, e não no Supremo.
Lemos defende que haja uma modulação na forma de aplicar o artigo 19, no lugar de declará-lo inconstitucional, para definir situações específicas diferentes da regra geral que possam ser removidas de pronto pelas plataformas.
“A única questão é que esses conteúdos precisam ser objetivos. Pornografia de vingança é objetivo, você olha e sabe o que é. Ataques conclamando violência contra as instituições democráticas também”, afirmou. “O que não pode ser admitir é inserir conteúdos subjetivos como critério de modulação do Artigo 19. Isso seria um cheque em branco para a remoção indiscriminada de conteúdos, inclusive protegidos pela liberdade de expressão”.
Também defensor da autorregulação regulado, Lemos disse que a atuação do Poder Executivo em regular conteúdos se configuraria em uma “ingerência”.
“Sou favorável também à criação de entidades independentes capazes de tomar decisões vinculantes sobre as plataformas, com relação a conteúdos e transparência”, declarou.
O que dizem as empresas
A CNN procurou por email o Twitter, a Meta, o Google e questionou as empresas sobre a possibilidade de ampliação das hipóteses legais para remoção extrajudicial de conteúdo.
Google e Meta enviaram links com um resumo da participação das empresas na audiência pública no STF. Leia os textos aqui e aqui.
O Twitter não respondeu aos questionamentos.