carregando...

PORTFÓLIO

STF transfere para Big Techs decisão sobre post ilegal, dizem juristas

23 de junho, 2025

Helton Simões Gomes
Colunista de Tilt

STF (Supremo Tribunal Federal) já formou maioria para plataformas digitais serem responsabilizadas judicialmente pelo conteúdo publicado por terceiros. Segundo juristas e advogados consultados pelo Radar Big Tech, os ministros produziram um efeito inesperado: transferiram para as grandes empresas de tecnologia parte do poder da Justiça para definir quais são os posts ilegais que devem sair do ar.

Com placar de 7 x 1 favorável à responsabilização das plataformas digitais, o julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet retorna nesta semana com o voto do ministro Edson Fachin, que já anunciou: abrirá dissidência em relação às teses na mesa elaboradas pelos outros magistrados.

Para os especialistas em direito digital, a redução da concentração de poder na mão das Big Tech depende de como o STF vai fechar lacunas abertas durante o julgamento, como uma definição sobre o que é “direito de cuidado” —importante gatilho para obrigar as plataformas a excluir conteúdo proativamente ou aceitar pedidos de remoção— e a escolha da autoridade pública que fiscalizará a aplicação das novas regras. Sobre este último ponto, a crítica é que não deveria ser o STF, mas o Congresso, a indicar órgãos regulatórios.

O que rolou?

Fachin entrará em campo para ler seu voto com um jogo definido a favor da responsabilidade civil das plataformas, mas parelho em outra questão crucial, já que os ministros estão divididos:

  • Por ora, o outro placar em disputa indica o seguinte: Inconstitucionalidade 3 x 4 inconstitucionalidade parcial. De um lado, estão Luiz Fux, Dias Toffoli, Alexandre de Moraes; do outro…
  • … Estão Luís Roberto Barroso, Flávio Dino, Gilmar Mendes e Cristiano Zanin. Essa segunda turma defende que o artigo 21 do Marco Civil da Internet passe a ser usado para punir as redes. André Mendonça votou pela constitucionalidade do artigo 19. Além de Fachin…
  • … Faltam votar Cármen Lúcia e Nunes Marques. De todo modo, já há duas importantes definições. A primeira é esta:

A virada em relação à interpretação anterior do artigo 19 é que a responsabilização não está mais condicionada exclusivamente a uma ordem judicial prévia para a remoção do conteúdo. Há convergência sobre a necessidade da atuação proativa da plataforma nos casos de conteúdos gravemente ilícitos.
Patricia Peck Pinheiro, conselheira do CNCiber (Comitê Nacional de Cibersegurança), do CNPD (Conselho Nacional de Proteção de Dados e da Privacidade) e fundadora e CEO do Peck Advogados

  • … A segunda é que deverá haver moderação ativa para conteúdos manifestamente ilegais, como pornografia infantil, terrorismo e violência, já que as plataformas deverão adotar o “dever de cuidado”.

A regra de isenção de responsabilidade das plataformas, prevista no artigo 19, não pode ser aplicada a atores que não são neutros e que exercem um poder de curadoria ativa sobre o conteúdo que circula nas redes
Laura Schertel, professora da UnB, do IDP, ex-presidente da Comissão de Direito Digital da OAB Federal e conselheira do CNPD

Por que é importante?

Hoje em dia, as grandes plataformas digitais possuem manuais com regras do que pode ou não ser publicado em suas propriedades. Como o STF, no rastro da possibilidade puni-las por posts de usuários, atribuiu a elas a responsabilidade de varrer o conteúdo ilícito de redes sociais, fóruns online e até apps de relacionamento, advogados veem uma terceirização do papel da Justiça para essas empresas.

Essa transferência é um risco evidente. Ao exigir que plataformas removam conteúdos sem uma ordem judicial clara em diversos cenários, coloca-se nas mãos dessas empresas decisões inerentemente subjetivas e complexas sobre liberdade de expressão. Embora as plataformas tenham tecnologia avançada para moderação de conteúdo, elas não deveriam substituir o Judiciário em decisões que envolvem direitos fundamentais, sobretudo quando há dúvida sobre a licitude ou não de uma manifestação
Luis Fernando Prado, sócio do Prado Vidigal Advogados e conselheiro da Abria (Associação Brasileira de Inteligência Artificial)

Isso representa uma delegação de responsabilidade às plataformas para decidir, em certos casos, o que é ofensivo ou ilegal, sem necessidade de ordem judicial
Antonielle Freitas, DPO (Data Protection Officer) do Viseu Advogados e membro da Comissão Especial de Privacidade e Proteção de Dados da OAB/SP

Essa visão não é unânime:

Não se trata de uma transferência de poder, mas do reconhecimento de uma realidade já existente. As plataformas já exercem diariamente decisões de curadoria por meio de seus algoritmos e políticas internas, com forte impacto sobre o que circula ou não nas redes. O que está em debate no Supremo é como submeter esse poder a parâmetros constitucionais
Laura Schertel

Diante da decisão do STF, grandes empresas como o Google já avaliam que as plataformas devem virar censoras da verdade e de posts ilícitos. Os advogados consultados pela Radar Big Tech usam termos como “censura prévia” e “overblock” para descrever a situação.

Não é bem assim, mas tá quase lá

Para os especialistas em direito digital, os pontos em aberto que podem reduzir o poder das plataformas se forem calibrados pelo STF são os seguintes:

  • Qual é o limite da atuação extrajudicial das plataformas? É preciso definir detalhes de como receberão pedidos de remoção, como prazos e o nível de especificidade do post em questão, e quais assuntos serão retirados do ar ou não.

Não está definido qual será exatamente o limite entre a responsabilidade das plataformas e a liberdade de expressão dos usuários, especialmente em casos em que a ilegalidade do conteúdo é subjetiva ou incerta
Luis Fernando Prado

  • Quais conteúdos exigem remoção imediata e para quais conteúdos as plataformas precisam aguardar decisão judicial para remover?

O que se está buscando é delimitar melhor qual o nível de colaboração e proatividade que a plataforma precisa ter para prevenção de riscos e danos em seu ambiente. Para evitar que isso também gere uma transferência de poder excessiva, é preciso deixar mais claro quais as hipóteses em que ainda há necessidade de ordem judicial
Patricia Peck Pinheiro

  • Quais são os contornos do chamado “dever de cuidado” para que a plataforma exerça uma “moderação proativa”?
  • A decisão do STF produzirá efeitos somente daqui pra frente ou retroage para os 11 anos da vigência do Marco Civil da Internet?
  • Qual autoridade pública vai fiscalizar os deveres das plataformas? Até agora, os ministros sugeriram cinco entidades (ANPD, AGU, CNJ, CGU e Congresso Nacional) para ocupar o posto. A indefinição causaria insegurança jurídica.

Este último ponto é crítico. Tanto que há quem veja nele uma tentativa de o STF extrapolar suas funções:

Não me parece que caiba ao STF delegar poderes fiscalizatórios (não previstos em lei) a órgãos que originalmente não tinham essa função, especialmente porque, do ponto de vista regulatório, ainda não há uma decisão legislativa sobre se os bônus de se ter um órgão central regulador de plataformas no Brasil compensam os ônus
Luis Fernando Prado

… ou, caso não seja sanada, uma brecha que compromete a nova interpretação do Marco Civil da Internet, :

A multiplicidade de nomes sugeridos revela um impasse que, se não for resolvido, pode dificultar a efetividade da nova interpretação. Sem uma instância clara de acompanhamento, corre-se o risco de insegurança jurídica, pulverização de competências e falta de coordenação na resposta a violações”.
Laura Schertel

https://www.uol.com.br/tilt/noticias/redacao/2025/06/23/stf-transfere-para-big-techs-decisao-sobre-post-ilegal-dizem-juristas.htm

Compartilhe