Judiciário

STF avança em análise de recursos sobre normas do Marco Civil da Internet

Julgamento prossegue nesta quinta-feira (12). Já foram apresentados sete votos.

Informações do STF

Supremo Tribunal Federal
Supremo Tribunal Federal (Reprodução)

BRASÍLIA - Com a apresentação dos votos de mais dois ministros, o Supremo Tribunal Federal (STF) prosseguiu, nesta quarta-feira (11), o julgamento conjunto de dois recursos que discutem a responsabilidade civil das plataformas da internet por conteúdos de terceiros e se sua responsabilização, no caso da não remoção de material ofensivo a pedido dos ofendidos, dependeria de ordem judicial prévia. A análise será retomada nesta quinta-feira (12), com o voto do ministro Edson Fachin.

Até o momento, seis ministros entendem que, dada a revolução no modelo de utilização da internet, com a utilização massiva de redes sociais e de aplicativos de troca de mensagens, entre outros exemplos, a regra do Marco Civil da Internet (MCI) – artigo 19 da Lei 12.965/2014 – editada há mais de 10 anos, não oferece proteção suficiente aos usuários.

Leia também: Entenda os próximos os da ação penal da trama golpista

Para os ministros Dias Toffoli e Luiz Fux, relatores dos recursos, a exigência de notificação judicial para retirada de conteúdo ofensivo é inconstitucional. Já os ministros Luís Roberto Barroso (presidente), Flávio Dino, Cristiano Zanin e Gilmar Mendes consideram que a norma é parcialmente inconstitucional. Para eles, a obrigação deve ser mantida em algumas situações específicas, como as que apontam para o cometimento de  crimes contra a honra, porque, nesses casos, a retirada da exigência poderia comprometer a proteção à liberdade de expressão.

O ministro André Mendonça, por sua vez, entende que a regra é constitucional, que as plataformas têm legitimidade para defender a liberdade de expressão e o direito de preservar as regras de moderação próprias.

Incompatibilidade com modelo atual de internet

Primeiro a votar nesta tarde, o ministro Cristiano Zanin considera que a regra do artigo 19 do MCI, se entendida ao pé da letra, é incompatível com o modelo de internet praticado por muitos provedores de aplicação, que fomentam a perpetuação de danos e desinformação. Ele lembra que a norma foi editada para proteger a liberdade de expressão dos usuários. A premissa era a de que a autorregulação seria suficiente para evitar que danos gerados por conteúdos de terceiros se perpetuar. Caberia ao Judiciário, e não os provedores, decidir sobre a licitude do conteúdo publicado. 

A seu ver, esse objetivo, que considera legítimo, não se confirmou. Para Zanin, ele acabou potencializando a disseminação de conteúdo ilícito na internet, “com graves consequências para o sistema de direitos fundamentais individuais e coletivos e para o Estado Democrático de Direito”.

De acordo com o ministro, a liberdade de expressão, um dos objetivos do artigo 19, tem um valor relevante na Constituição, mas pode sofrer restrições se os demais valores constitucionais estiverem em perigo. Ele propõe que, no caso dos provedores que têm controle ou conhecimento sobre a divulgação do conteúdo gerado por terceiros, especialmente por meio de algoritmos, deve ser aplicado o artigo 21 do MCI, que prevê a responsabilização se, após a notificação pelo participante, forem mantidos no ar conteúdos potencialmente danosos sem autorização.

Dever do Estado de garantir a liberdade de expressão

O ministro Gilmar Mendes afirmou que, na redação atual, o MCI representa um véu de irresponsabilidade para plataformas digitais que, mesmo sendo informadas da ocorrência de crimes, não podem ser responsabilizadas pelos danos gerados por manter esse conteúdo no ar, a não ser que haja ordem judicial. “É dever do Estado, em nome da própria liberdade de expressão, garantir a construção de um ambiente em que todos tenham liberdade de expressão para se manifestar”, defendeu.

Ele propôs a adoção de um regime em que plataformas que têm grande controle sobre o conteúdo sejam responsabilizadas se não agirem após serem avisadas sobre algo inequivocamente ilegal. Da mesma forma, considera que os provedores poderão ser solidariamente responsáveis se não retirarem imediatamente conteúdos e contas que veiculem crimes graves, como discurso de ódio, racismo, homofobia, ideologias nazistas, fascistas ou odiosas e preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação.

Em relação à necessidade de fiscalização de um órgão regulador, o decano do STF considera que a Autoridade Nacional de Proteção de Dados (ANPD) poderia desempenhar esse papel, pois já tem atribuições legalmente definidas e estrutura funcional voltadas à compreensão do impacto de novas tecnologias para o direito à proteção de dados pessoais.

Leia outras notícias em imirante.noticiasdetocantins.com. Siga, também, o Imirante nas redes sociais X, Instagram, TikTok e canal no Whatsapp. Curta nossa página no Facebook e Youtube. Envie informações à Redação do Portal por meio do Whatsapp pelo telefone (98) 99209-2383.