PORTFÓLIO
7 vezes em que a justiça brasileira pressionou a Meta e outras Big Techs
A Autoridade Nacional de Proteção de Dados suspendeu a vigência da nova política de privacidade da empresa por uso de dados pessoais para treinar IA generativa
A Autoridade Nacional de Proteção de Dados (ANPD), órgão responsável por monitorar a aplicação e gestão de dados no Brasil, suspendeu, em uma ação inédita, a nova política de privacidade da Meta. A medida preventiva foi publicada no Diário Oficial da União nesta terça-feira (2).
A atualização da Meta permitia o uso de dados pessoais para treinar sistemas de inteligência artificial generativa. A medida também suspende o tratamento de dados pessoais dos titulares para essa finalidade em todos os produtos da Meta, inclusive de pessoas não usuárias de suas plataformas, sob pena de multa diária de R$50 mil por dia de descumprimento.
Em defesa, a Meta declarou estar desapontada com a decisão e disse que sua abordagem sobre o assunto cumpre com as leis de privacidade e regulações no Brasil”. “Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, disse a empresa.
Para que a liberação ocorra, a dona do Facebook, Instagram, WhatsApp e Threads, precisará mostrar adequação da política, com exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa, bem como declaração atestando a suspensão do tratamento de dados pessoais para treinamento de IA generativa no Brasil.
“O principal problema identificado pela ANPD foi o tratamento de dados pessoais para fins de treinamento de sistemas de inteligência artificial sem o consentimento explícito dos usuários. Além disso, a ANPD criticou a falta de transparência da Meta, a limitação dos direitos dos titulares e o risco para crianças e adolescentes”, explica Antonielle Freitas, DPO (Data Protection Officer) do escritório Viseu Advogados.
“Não basta para a LGPD você não causar riscos, é necessário também demonstrar que você se preparou e tomou proativamente medidas para assegurar que o tratamento de dados será realizado com o máximo cuidado e de acordo com os princípios de proteção de dados estabelecidos na legislação.” Marcelo Cárgano, advogado especialista em direito digital do escritório Abe Advogados.
O caso é inédito envolvendo políticas de IA no Brasil, mas não na pressão da justiça brasileira para com Big Techs. Nos últimos anos, foram vários os casos em que empresas foram notificadas, em muitos deles, por se negarem a fornecer dados de usuários para investigações.