carregando...

PORTFÓLIO

STF reavalia responsabilidade de redes sociais por conteúdos ilegais e abre debate sobre a violência digital

6 de dezembro, 2024

O Supremo Tribunal Federal (STF) iniciou esta semana um julgamento que pode transformar a forma como as redes sociais operam no Brasil. Em uma votação que promete impactar diretamente a liberdade de expressão e a proteção contra abusos digitais, o ministro Dias Toffoli votou a favor da responsabilização direta das plataformas pelos conteúdos ilegais publicados por usuários, sem necessidade de ordem judicial prévia.

Essa decisão questiona o Artigo 19 do Marco Civil da Internet, que atualmente protege as redes de penalizações desde que removam conteúdos ilegais após decisão judicial. Para Toffoli, essa regra é inconstitucional, e as plataformas precisam responder pelos danos causados pela manutenção de publicações prejudiciais ou pela omissão na remoção de conteúdos evidentemente ilegais.

O que está em jogo?

O julgamento coloca em xeque o equilíbrio entre liberdade de expressão, inovação digital e a necessidade de proteção contra conteúdos nocivos. O voto de Toffoli propõe que as redes sociais sejam obrigadas a remover postagens consideradas ilegais de forma imediata. Caso contrário, podem ser processadas por danos causados.

Segundo o ministro, conteúdos ilegais incluem:

  • Crimes contra o Estado Democrático de Direito;
  • Racismo e terrorismo;
  • Violência contra mulheres, crianças e adolescentes;
  • Incitação ao suicídio;
  • Infrações sanitárias;
  • Tráfico de pessoas;
  • Divulgação de informações inverídicas ou descontextualizadas capazes de causar danos, como durante eleições.

Esse entendimento altera o atual sistema de responsabilização, que, sob o Artigo 19, só ocorre se as plataformas descumprirem ordens judiciais.

O Impacto do Marco Civil da Internet

O Marco Civil da Internet foi criado em 2014 para regular a atuação na web, buscando equilibrar liberdade de expressão e responsabilidade. O Artigo 19 foi pensado para evitar censura e assegurar o direito à livre manifestação de ideias. Porém, casos recentes, como a disseminação de desinformação nas eleições, episódios de violência política e perfis falsos promovendo discursos de ódio, reacenderam o debate sobre sua eficácia.

Toffoli argumentou que o modelo atual confere uma “imunidade” às plataformas, que deveriam ser mais ativas na fiscalização de conteúdos ilegais. “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso; novembro passado [atentado do homem-bomba] mostra isso”, afirmou o ministro.

Além disso, ele propôs que o Artigo 21 do Marco Civil, que trata de danos à intimidade, honra e vida privada, seja aplicado de forma geral, ampliando as hipóteses de responsabilização direta das plataformas.

Plataformas de marketplace e regras específicas

Além das redes sociais, o voto do relator trouxe implicações para plataformas de marketplace, como aquelas que permitem a venda de produtos. Toffoli defendeu que essas plataformas sejam responsabilizadas de forma solidária quando permitirem a comercialização de itens proibidos, como medicamentos não autorizados, agrotóxicos ilegais e dispositivos de TV pirata.

Por outro lado, serviços de e-mail, mensageria privada e aplicativos de reuniões fechadas ficaram fora da aplicação das regras de remoção imediata de conteúdo, desde que não sejam usados como redes sociais.

O papel do CNJ e a fiscalização

Caso o entendimento de Toffoli prevaleça, a implementação das novas regras será acompanhada por um órgão especializado, o Departamento de Acompanhamento da Internet no Brasil (DAI). Este será vinculado ao Conselho Nacional de Justiça (CNJ) e terá como função monitorar o cumprimento das decisões judiciais relacionadas a conteúdos digitais.

O ministro também sugeriu que o Congresso tenha até 18 meses para criar uma lei que enfrente a violência digital e a desinformação, estabelecendo um marco regulatório mais abrangente.

O contexto do julgamento

O STF analisa dois processos que questionam a constitucionalidade do Artigo 19 do Marco Civil da Internet. Um deles, relatado por Toffoli, envolve o Facebook, que busca derrubar uma condenação por danos morais relacionados a um perfil falso criado na plataforma. O outro, relatado pelo ministro Luiz Fux, discute se uma empresa que hospeda sites deve fiscalizar e remover conteúdos ofensivos sem ordem judicial.

Enquanto isso, empresas de tecnologia e redes sociais argumentam que já realizam a remoção de conteúdos ilegais de forma voluntária e que um monitoramento mais rígido seria equivalente a censura prévia. Para essas empresas, a responsabilização direta poderia inviabilizar o funcionamento das plataformas, ao impor custos e riscos jurídicos significativos.

Violência Digital e Desinformação

Nos últimos anos, casos emblemáticos, como a disseminação de desinformação durante as eleições de 2022 e os ataques de 8 de janeiro de 2023, têm pressionado o Judiciário a revisar as regras atuais. A desinformação se tornou uma das principais ameaças à estabilidade política e social, exigindo um equilíbrio delicado entre liberdade de expressão e controle de abusos.

Antonielle Freitas, advogada especializada em direito digital e proteção de dados, avalia que a decisão do STF pode trazer mudanças estruturais para o ambiente digital no Brasil. “A responsabilização das redes sociais é um passo importante, mas deve ser acompanhada de critérios claros para evitar excessos que possam limitar a liberdade de expressão”, diz.

Críticas e Desafios

O voto de Toffoli também gerou debates sobre os riscos de limitar a inovação e a liberdade de expressão. Especialistas argumentam que exigir monitoramento prévio pode levar as plataformas a adotarem medidas excessivas de remoção, prejudicando debates legítimos e conteúdos críticos.

Além disso, a criação de um órgão regulador vinculado ao CNJ levanta preocupações sobre custos e eficiência administrativa. “Qualquer regulamentação deve ser flexível o suficiente para acompanhar a evolução da tecnologia e os desafios associados”, avalia Freitas.

Próximos passos

O julgamento será retomado no dia 11 de dezembro, com os votos de outros dez ministros. Se a posição de Toffoli for majoritária, o Congresso terá o desafio de criar uma legislação específica sobre violência digital e desinformação em até 18 meses.

Independentemente do desfecho, o julgamento no STF reflete um momento de transformação no Brasil, em que a sociedade busca respostas para os desafios de um mundo cada vez mais digital. O futuro das redes sociais no país pode ser redesenhado, em um esforço de equilibrar liberdade, segurança e responsabilidade.

https://lexlegal.com.br/stf-reavalia-responsabilidade-de-redes-sociais-por-conteudos-ilegais-e-abre-debate-sobre-a-violencia-digital/

Compartilhe