carregando...

PORTFÓLIO

O Projeto de Lei que trata do Marco Legal da Inteligência Artificial

15 de outubro, 2024

Segundo Marcio Chaves, o objetivo do PL 2338/2023 é estabelecer nortes a serem seguidos, e não uma única regra para o uso de Inteligências Artificiais.

Por Jorge Priori

Conversamos com Márcio Chaves, sócio responsável da área de Direito Digital do Almeida Advogados, sobre o Projeto de Lei 2338/2023, que trata do uso da Inteligência Artificial (IA). O PL se encontra em discussão no Congresso Nacional, mas precisamente no Senado.

Qual a sua avaliação sobre o PL 2338/2023?

Esse é um projeto necessário, estruturado do ponto de vista das regras que estão sendo propostas e sensato na grande maioria dos seus aspectos. O projeto tem pontos a melhorar e que precisam de uma discussão um pouco mais aprofundada, o que não, necessariamente, vai acontecer nesse momento, pois estamos falando de um marco, e quando se estabelece um marco, como aconteceu com o Marco Civil da Internet ou com a Lei Geral de Proteção de Dado (LGPD), às vezes se tem diretrizes que precisam de regulamentações mais específicas, justamente para que se tenha nortes a serem seguidos, mas sem o estabelecimento de uma regra que valha para todo mundo. Isso porque como o uso da IA é muito plural, pois ele é multissegmentos, multissetorial e multiportes, se forem colocadas regras únicas, nós podemos prejudicar segmentos que não têm condições de seguirem um único padrão ou que precisam ter um aprofundamento e uma segurança um pouco maior.

Há um consenso no mundo de que é necessário regulamentar o uso da IA e, nesse aspecto, nós estamos bem avançados.

Na sua avaliação, quais seriam os pontos a serem melhorados no PL 2338/2023?

Eu gosto de destacar um ponto presente em boa parte das discussões, que é a responsabilidade civil no caso de danos causados pelo uso da IA. Desde antes do PL existe uma discussão sobre o estabelecimento de uma regra para a penalização de quem está desenvolvendo ou para quem está utilizando a tecnologia. Um dos pontos ausentes no PL é justamente a possibilidade de você se afastar dessa responsabilidade caso tenha seguido tudo que está definido na lei, ao contrário da lógica trazida pela LGPD e pelo Código de Defesa do Consumidor. Diante desta ausência, a isenção de responsabilidade, segundo o PL, somente ocorrerá caso não haja envolvimento no ocorrido, como um dano que tenha sido causado por outro motivo, ou se a culpa for exclusiva da vítima do dano, como uma pessoa que se jogou propositalmente na frente de um carro autônomo. Ao meu ver, esse é um dos pontos mais importantes para nos atentarmos.

O PL 2338/2023 trata sobre a origem das informações que vão abastecer as IAs?

Ele trata sim, mas de forma mais tímida, principalmente no aspecto relacionado à propriedade intelectual, em especial aos direitos autorais. Apesar do PL permitir que a IA possa fazer uso de conteúdos, ele não detalha o que seria preciso para que isso pudesse ser feito, mas é viável que haja uma regulamentação específica que trate desse propósito, já que o objetivo do PL não é conflitar com as legislações de propriedade intelectual.

Por mais que o PL seja tímido, ele permite o acesso da IA ao conteúdo desde que isso não seja considerado uma violação explícita ao direito autoral. Na prática, isso significa que se uma IA consome uma base protegida por direitos autorais, isso não pode impactar no retorno financeiro do autor ou do dono do conteúdo. Por exemplo, uma IA não pode consumir um livro para fazer o seu resumo se isso impactar na sua vendagem. Esse é um dos maiores pontos de discussão na regulamentação da IA no mundo inteiro.

Outro ponto está relacionado às fake news, mais precisamente ao chamado data poisoning, que é a inserção de uma base de dados contaminada na fonte de consulta de uma IA. Por exemplo, como a IA faz consultas em todos os sites da internet, uma pessoa pode criar um site só com notícias falsas para confundí-la, fazendo com que a IA consuma uma informação falsa que vai gerar um resultado falso ou prejudicado. Esse é um ponto de vista muito relevante que não é direcionado e abordado no PL.

Por fim, nós temos a questão da privacidade. Por mais que bases de dados sejam utilizadas para alimentar ferramentas de IA, as pessoas têm direito a sua privacidade, pois apenas elas são donas dos seus dados pessoais, e ninguém mais. Contudo, esses dados podem estar disponíveis na internet de forma errada ou para um fim específico, como, por exemplo, os abordados pela Lei da Transparência. Por exemplo, vamos supor que eu seja um vendedor que consulta uma ferramenta a IA para obter a relação de todos os servidores que ganharam mais de R$ 300 mil no ano passado, pois eu quero entrar em contato com cada um deles para oferecer-lhes um produto. Neste caso, como eu estou distorcendo a finalidade da Lei da Transparência, o uso dessas informações, desses dados pessoais, pode afetar a privacidade das pessoas.

Expandindo um pouco a nossa conversa, um Detran pode criar uma IA que vai utilizar a sua base de dados, da mesma forma que uma empresa de telecomunicações pode criar uma IA que vai utilizar a sua base de dados. O problema é que uma empresa pode comprar uma série de bases de dados para abastecer a sua IA ou corporações como a Meta e o Google podem pegar as suas bases de dados, e aqui o céu é o limite, para abastecer as suas IAs. O projeto não aborda esses casos, correto?

Aqui nós temos outra necessidade de regulamentação, que, a princípio, não seria tratada, exclusivamente, por esse projeto. No caso das grandes plataformas digitais, o projeto de lei mais apropriado para discutir isso talvez seja o projeto que trata da sua regulamentação, já que a realidade de empresas como a Meta e o Google é muito distinta, já que elas desenvolvem as suas próprias IAs.

Contudo, nós temos dois pontos de vista que precisam ser separados. Na grande maioria dos casos, instituições e empresas vão integrar ferramentas de IA às suas plataformas. Por exemplo, recentemente foi noticiado que um desembargador de um tribunal de justiça de um estado do Nordeste começou a treinar uma IA, que não consulta bases de fora, para gerar entendimentos, relatórios ou minutas de decisões baseados nos seus próprios julgamentos. No caso do Chat GPT, como ele consulta a base escrita da internet, aqui nós temos uma preocupação um pouco maior, pois não há uma garantia de que o que está sendo utilizado não foi contaminado ou não está sendo utilizado de forma indevida.

Como nós estamos falando de usos muito distintos, o Marco Legal da IA não tem como atingir esse nível de especificidade de usos tão distintos. Talvez essa seja a maior dificuldade: a criação de regras gerais que não impactem as especificidades de cada caso.

https://monitormercantil.com.br/o-projeto-de-lei-que-trata-do-marco-legal-da-inteligencia-artificial/

Compartilhe