PORTFÓLIO

IA demanda transparência de conteúdo
IA demanda transparência de conteúdo
Desafio é equilibrar regulação de combate a fake news sem frear o fomento à inovação
Foto: PxHere
Por Inaldo Cristoni
Treinados a partir da varredura de uma base massiva de informações disponíveis na internet e em repositórios específicos, os modelos de inteligência artificial (IA) colocam em evidência a necessidade de mitigar os riscos de conteúdos falsos não serem apenas intencionais, mas resultado da falta de identificação de fontes idôneas, sem inibir o desenvolvimento de projetos inovadores baseados na tecnologia. Tarefa que os especialistas consideram desafiadora face a complexidade em se atingir o ponto de equilíbrio dessa balança.
A identificação da fonte das informações é considerada um fator crítico. Os desenvolvedores até conseguem saber com certa precisão onde está ocorrendo o processo de mineração de dados que geram o conteúdo fornecido pela IA, mas como essa varredura é feita em escala gigantesca fica muito difícil saber se o conteúdo que os usuários obtêm é verdadeiro ou falso.
De acordo com Henrique Fabretti, CEO do Opice Blum Advogados, a alucinação é uma característica da plataforma. Significa que, apesar de seu processo de aprimoramento ao longo do tempo, os modelos de IA seguirão fornecendo informações erradas. “Ela pode alucinar mais ou alucinar menos. Mas se pensarmos em alucinação como uma característica oposta à acurácia, nunca teremos uma IA totalmente acurada”, diz.
O risco de propagação de conteúdos falsos sempre existirá. A era digital diminuiu as barreiras para acessar informações, ou seja, o usuário pergunta e recebe respostas das mais variadas fontes: balizadas, totalmente artificiais ou exploratórios. “É uma característica do mundo atual”, salienta Demi Getschko, diretor-presidente do Núcleo de Informações e Coordenação do Ponto Br (NIC.br), órgão responsável por implementar as decisões e projetos do Comitê Gestor da Internet no Brasil (CGI.br).
Embora ressalte a importância de aperfeiçoamento dos mecanismos de controle para que os sistemas de IA possam fornecer informações as mais fidedignas possível, André Gildlin, vice-presidente de estratégia da Associação Brasileira de Inteligência Artificial (Abria), atribui aos usuários papel relevante na checagem da veracidade do conteúdo. “Devemos ter pensamento crítico em relação ao conteúdo e, na dúvida, buscar outras fontes”, afirma.
As empresas já dispõem de técnicas que permitem validar a origem dos dados minerados para a criação de conteúdo. Um deles é a marca d’água digital, aplicada principalmente em imagem, que funciona como uma espécie de assinatura do que é gerado pela plataforma. Outro é a indicação às referências que serviram de base para a resposta. “São soluções técnicas bem-vindas para coibir a difusão de fake news”, afirma Rodolfo Avelino, professor de Ciência da Computação do Insper.
Uma das startups que desenvolveram plataforma de IA está fazendo pesquisas para tentar identificar de onde surgiram “pedaços” (trecho de textos, uma palavra ou parte de uma imagem, por exemplo) inseridos na resposta que a IA fornece aos usuários, acrescenta Fabretti, do Opice Blum Advogados.
A preocupação não é somente com a origem e a acuracidade dos dados, mas também com a propriedade intelectual. O grande debate no direito é se os sistemas de IA poderiam acessar informações que estão protegidas por direitos autoriais para extrair um padrão e gerar conteúdo. “A única forma de o sistema ser ‘responsável’ é permitir o acesso aos dados até para informar que o conteúdo solicitado pelo usuário não pode ser replicado por estar protegido”, afirma Luís Fernando Prado, sócio do Prado Vidigal Advogados e conselheiro da Abria.
Além das ferramentas de rastreamento, o marco legal é visto como um mecanismo para exigir transparência e atribuir responsabilidades pelos resultados que as plataformas de IA geram. Em tramitação no Congresso Nacional, o Projeto de Lei 2338 contém princípios de prevenção, precaução e mitigação de riscos e danos causados, razão pela qual é considerado no mundo jurídico um instrumento de regulação de extrema relevância.
Mas se a transparência da plataforma de IA é um tema que ninguém discute, o mesmo não ocorre com o seu alcance. Existe o temor de que a restrição excessiva de acesso à base de dados possa comprometer a qualidade de treinamento das plataformas. Outro receio é que a regulação do conteúdo para mitigar o risco de propagação de fake news possa frear o fomento à inovação.
“O Brasil tem uma carência muito grande de inovação. Se inibirmos os projetos, corremos o risco de ficar para trás. O ideal seria ter liberdade para inovar e proteger o conteúdo”, diz Gildlin, da Abria.
https://valor.globo.com/25-anos/noticia/2025/04/30/ia-demanda-transparencia-de-conteudo.ghtml