STF suspende julgamento sobre regulação das big techs
Corte retoma análise na próxima quarta-feira (4)
O Supremo Tribunal Federal (STF) suspendeu nesta quinta-feira (28) o julgamento sobre o regime de responsabilidade das plataformas digitais e a validade de regras do Marco Civil da Internet. A análise será retomada na próxima quarta (4).
Até o momento, o relator de um dos processos sobre o tema, ministro Dias Toffoli, começou a apresentar seu voto. Ele vai retomar a leitura na próxima semana.
A Corte julga dois processos sobre o assunto. O outro caso é relatado por Luiz Fux, que será o segundo a votar.
Toffoli disse no voto que é preciso uma atualização do regime de responsabilidade das plataformas, passados mais de 10 anos de vigência do Marco Civil da Internet. “Não se pode mais ignorar a necessidade de sua atualização”, afirmou o ministro.
“Tal necessidade fica mais evidente quando se tem em conta os riscos sistêmicos ao próprio direito, à liberdade de expressão, aos direitos fundamentais da igualdade e da preservação da dignidade da pessoa humana, ao princípio democrático e ao estado de direito, e à segurança e ordem pública, criados ou potencializados a partir da popularização de algumas dessas tecnologias internet-dependentes, e sobretudo da automação e da algoritmização dos ambientes digitais”, declarou.
O Marco Civil da Internet é uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Análise
A Corte julga dois recursos, apresentados por Facebook e Google. As empresas questionam as regras para funcionamento das plataformas e o regime de responsabilidade sobre conteúdos postados por usuários.
Os casos têm repercussão geral reconhecida, ou seja, o que for definido valerá para todos os casos semelhantes na Justiça.
O recurso do Facebook foi apresentado após a plataforma ter sido condenada a indenizar uma dona de casa que foi vítima de um perfil falso com conteúdo ofensivo.
O recurso do Google discute o caso de uma professora que pediu a retirada de uma comunidade do Orkut com conteúdo pejorativo contra ela. A questão nesse caso é se a empresa hospedeira do conteúdo tem ou não a obrigação de fiscalizar e retirar conteúdo do ar.
Como é hoje
Atualmente, o Marco Civil da Internet só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.
A responsabilidade civil envolve o dever de indenizar eventuais danos, por exemplo.
Pela lei, só existem duas exceções a esse comando: divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.
AGU
O advogado-geral da União, Jorge Messias, defendeu aumentar a responsabilidade das plataformas digitais para os casos de conteúdos ilícitos postados pelos seus usuários.
Na tribuna do Supremo, Messias pediu a inconstitucionalidade do artigo 19 do Marco, que trata do regime de responsabilidade. A posição difere daquela apresentada pelo órgão em setembro, quando pediu para participar dos processos para colaborar com informações.
Naquela ocasião, a manifestação foi para manter como válido o artigo 19 da lei, dando a ele uma interpretação que aumente a atuação das redes sociais para monitorar e derrubar um rol de conteúdos considerados ilícitos, como criação de perfis falsos, desinformação ou crimes.
Agora, essa posição foi apresentada como um pedido secundário, para o caso de o STF entender que não deve derrubar o artigo 19.
Nesse cenário, a AGU defende que as plataformas tenham o dever de moderar e remover conteúdo ilícito e ilegal. O órgão também sugere que a rede social possa ser responsabilizada caso se omita após receber uma notificação extrajudicial em situações que envolvem invasão de perfis ou criação de perfis falsos.
Big techs
Facebook e Google se manifestaram na quarta-feira (27). As big techs admitiram a possibilidade de um aumento de responsabilidade das plataformas sobre publicações que envolvam conteúdos relacionados a tentativa de golpe de Estado ou de abolição violenta do Estado de Direito.
As duas companhias defendem o modelo atual de regulação do setor, e pedem que o Supremo confirme sua validade.
Ambas, no entanto, fizeram proposições caso a Corte decida que é preciso mudar a atual forma de tratamento do assunto.
Elas admitem uma responsabilidade maior para um rol limitado de temas e só para publicações em que se seja possível identificar objetivamente crimes ou condutas irregulares previstas em lei.
Além de golpe, foram citados casos como terrorismo e abuso infantil, por exemplo.
O que muda com a decisão do STF sobre CLT para servidor público?