PORTFÓLIO
STF reavalia responsabilidade de redes sociais por conteúdos ilegais e abre debate sobre a violência digital
O Supremo Tribunal Federal (STF) iniciou esta semana um julgamento que pode transformar a forma como as redes sociais operam no Brasil. Em uma votação que promete impactar diretamente a liberdade de expressão e a proteção contra abusos digitais, o ministro Dias Toffoli votou a favor da responsabilização direta das plataformas pelos conteúdos ilegais publicados por usuários, sem necessidade de ordem judicial prévia.
Essa decisão questiona o Artigo 19 do Marco Civil da Internet, que atualmente protege as redes de penalizações desde que removam conteúdos ilegais após decisão judicial. Para Toffoli, essa regra é inconstitucional, e as plataformas precisam responder pelos danos causados pela manutenção de publicações prejudiciais ou pela omissão na remoção de conteúdos evidentemente ilegais.
O que está em jogo?
O julgamento coloca em xeque o equilíbrio entre liberdade de expressão, inovação digital e a necessidade de proteção contra conteúdos nocivos. O voto de Toffoli propõe que as redes sociais sejam obrigadas a remover postagens consideradas ilegais de forma imediata. Caso contrário, podem ser processadas por danos causados.
Segundo o ministro, conteúdos ilegais incluem:
- Crimes contra o Estado Democrático de Direito;
- Racismo e terrorismo;
- Violência contra mulheres, crianças e adolescentes;
- Incitação ao suicídio;
- Infrações sanitárias;
- Tráfico de pessoas;
- Divulgação de informações inverídicas ou descontextualizadas capazes de causar danos, como durante eleições.
Esse entendimento altera o atual sistema de responsabilização, que, sob o Artigo 19, só ocorre se as plataformas descumprirem ordens judiciais.
O Impacto do Marco Civil da Internet
O Marco Civil da Internet foi criado em 2014 para regular a atuação na web, buscando equilibrar liberdade de expressão e responsabilidade. O Artigo 19 foi pensado para evitar censura e assegurar o direito à livre manifestação de ideias. Porém, casos recentes, como a disseminação de desinformação nas eleições, episódios de violência política e perfis falsos promovendo discursos de ódio, reacenderam o debate sobre sua eficácia.
Toffoli argumentou que o modelo atual confere uma “imunidade” às plataformas, que deveriam ser mais ativas na fiscalização de conteúdos ilegais. “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso; novembro passado [atentado do homem-bomba] mostra isso”, afirmou o ministro.
Além disso, ele propôs que o Artigo 21 do Marco Civil, que trata de danos à intimidade, honra e vida privada, seja aplicado de forma geral, ampliando as hipóteses de responsabilização direta das plataformas.
Plataformas de marketplace e regras específicas
Além das redes sociais, o voto do relator trouxe implicações para plataformas de marketplace, como aquelas que permitem a venda de produtos. Toffoli defendeu que essas plataformas sejam responsabilizadas de forma solidária quando permitirem a comercialização de itens proibidos, como medicamentos não autorizados, agrotóxicos ilegais e dispositivos de TV pirata.
Por outro lado, serviços de e-mail, mensageria privada e aplicativos de reuniões fechadas ficaram fora da aplicação das regras de remoção imediata de conteúdo, desde que não sejam usados como redes sociais.
O papel do CNJ e a fiscalização
Caso o entendimento de Toffoli prevaleça, a implementação das novas regras será acompanhada por um órgão especializado, o Departamento de Acompanhamento da Internet no Brasil (DAI). Este será vinculado ao Conselho Nacional de Justiça (CNJ) e terá como função monitorar o cumprimento das decisões judiciais relacionadas a conteúdos digitais.
O ministro também sugeriu que o Congresso tenha até 18 meses para criar uma lei que enfrente a violência digital e a desinformação, estabelecendo um marco regulatório mais abrangente.
O contexto do julgamento
O STF analisa dois processos que questionam a constitucionalidade do Artigo 19 do Marco Civil da Internet. Um deles, relatado por Toffoli, envolve o Facebook, que busca derrubar uma condenação por danos morais relacionados a um perfil falso criado na plataforma. O outro, relatado pelo ministro Luiz Fux, discute se uma empresa que hospeda sites deve fiscalizar e remover conteúdos ofensivos sem ordem judicial.
Enquanto isso, empresas de tecnologia e redes sociais argumentam que já realizam a remoção de conteúdos ilegais de forma voluntária e que um monitoramento mais rígido seria equivalente a censura prévia. Para essas empresas, a responsabilização direta poderia inviabilizar o funcionamento das plataformas, ao impor custos e riscos jurídicos significativos.
Violência Digital e Desinformação
Nos últimos anos, casos emblemáticos, como a disseminação de desinformação durante as eleições de 2022 e os ataques de 8 de janeiro de 2023, têm pressionado o Judiciário a revisar as regras atuais. A desinformação se tornou uma das principais ameaças à estabilidade política e social, exigindo um equilíbrio delicado entre liberdade de expressão e controle de abusos.
Antonielle Freitas, advogada especializada em direito digital e proteção de dados, avalia que a decisão do STF pode trazer mudanças estruturais para o ambiente digital no Brasil. “A responsabilização das redes sociais é um passo importante, mas deve ser acompanhada de critérios claros para evitar excessos que possam limitar a liberdade de expressão”, diz.
Críticas e Desafios
O voto de Toffoli também gerou debates sobre os riscos de limitar a inovação e a liberdade de expressão. Especialistas argumentam que exigir monitoramento prévio pode levar as plataformas a adotarem medidas excessivas de remoção, prejudicando debates legítimos e conteúdos críticos.
Além disso, a criação de um órgão regulador vinculado ao CNJ levanta preocupações sobre custos e eficiência administrativa. “Qualquer regulamentação deve ser flexível o suficiente para acompanhar a evolução da tecnologia e os desafios associados”, avalia Freitas.
Próximos passos
O julgamento será retomado no dia 11 de dezembro, com os votos de outros dez ministros. Se a posição de Toffoli for majoritária, o Congresso terá o desafio de criar uma legislação específica sobre violência digital e desinformação em até 18 meses.
Independentemente do desfecho, o julgamento no STF reflete um momento de transformação no Brasil, em que a sociedade busca respostas para os desafios de um mundo cada vez mais digital. O futuro das redes sociais no país pode ser redesenhado, em um esforço de equilibrar liberdade, segurança e responsabilidade.