carregando...

PORTFÓLIO

Aniversário do ChatGPT: em que pé está a regulamentação da IA?

1 de dezembro, 2023

Em um ano de vida, o ChatGPT, da OpenAI, fascinou muita gente – mas assustou e preocupou outras. A facilidade com a qual a ferramenta consegue se comportar como um humano, criar histórias, deepfakes e similares causa discussões no mundo todo sobre como brecar a evolução das inteligências artificiais (IAs).

Alguns países e blocos econômicos, incluindo Brasil e União Europeia (UE), já analisam possíveis regulamentações para manter a IA ética e responsável, mas sem perder a eficácia. Esse é o tema da quinta e última reportagem de nossa série especial sobre o aniversário do ChatGPT, que completou um ano nesta quinta-feira (30). Você pode ler a quarta e penúltima matéria clicando aqui.

ChatGPT apressou discussões para regulamentar as IAs

  • Antes mesmo do boom da IA generativa, no fim de 2022, a UE já estava tentando regulamentar a IA. Desde 2021, o bloco discute projeto de lei, mas, até hoje, os legisladores não entraram em consenso sobre quais devem ser as medidas a serem tomadas para brecar a evolução surreal do sistema;
  • Entre os entraves encontrados pelos legisladores para fechar o pacote de leis e promulgá-las, estão as IAs de alto risco e os modelos de fundação;
  • A situação se arrasta por causa da classificação usada com as tecnologias (de risco percebido, de baixo a aceitável). Essa classificação vai nortear obrigações de governos e desenvolvedoras nesse sentido;
  • Já os modelos de fundação são os sistemas que as tecnologias utilizam para serem treinadas e alimentadas;
  • Por exemplo: enquanto o ChatGPT promete ser uma ferramenta ética, respondendo o máximo possível dentro da veracidade e evitando temas polêmicos, o Grok, da xAI, empresa de Elon Musk, talvez tenha a personalidade de Musk e seja “rebelde”, tocando em temas mais sensíveis que seus concorrentes pretendem evitar.

As preocupações acerca da tecnologia envolvem não só os perigos que ela pode trazer com deepfakes e desinformação, mas, também, com direitos autorais, plágios, ataques cibernéticos, perda de empregos e outros.

Em conversa com o Olhar Digital, Guilherme Braguim, sócio da área de Privacidade e Proteção de Dados da P&B Compliance, disse acreditar que a tendência é que a abordagem de ChatGPT, Bing e Bard, por exemplo, seja predominante. Assim, as IAs “rebeldes”, como o Grok, terão que se adaptar para seguir no mercado.

“Acho que é a tendência. Essa esteira de regulamentação, com a criação de parâmetros, ferramentas, penalidades. Ela indica para um uso para uma propagação de uma ferramenta mais educada”, pontuou.

Braguim entende que movimentos que vão contra a ordem e a ética dentro da tecnologia seguirão existindo. “Esse uso mais rebelde, sem filtro, sempre vai existir por parte de pessoas que querem outro tipo de direcionamento. Há, por exemplo, fóruns sem moderação e todo tipo de coisa que permite isso”, afirmou.

O ambiente nocivo só vai gerar problemas fora da lei. Sempre vão surgir esses ambientes de movimentos rebeldes, mas não acho que a gente deva olhá-los e estimulá-los, ou acompanhar esse tipo de iniciativa. Isso não quer dizer que só vai existir a IA controlada, governamental, não é isso, mas algo que siga nesses requisitos mínimos, de existência de validade, de legalidade. Se ela não for assim, tem que ser proibida de operar.

Guilherme Braguim, sócio da área de Privacidade e Proteção de Dados da P&B Compliance

Carolina Giovanini, advogada da Prado Vidigal Advogados e especialista em direito digital, privacidade e proteção de dados, entende que a personalidade da IA vai da visão do desenvolvedor, que costuma incluir os parâmetros e disponibiliza documentos aos usuários que explicam por que o sistema se comporta daquela maneira, deixando-o mais transparente.

O fato de o ChatGPT não responder a determinados questionamentos é uma pré-configuração do próprio desenvolvimento sistema, enquanto outros sistemas podem não ter as mesmas travas. Entendo que cabe ao desenvolvedor pensar em parâmetros, desenvolver internamente suas regras de governança, para colocar esses sistemas em funcionamento, e isso também pode ser passado ao público por meio dos termos de uso. Sempre que a gente vai acessar esse tipo de ferramenta, alguns disclaimers [isenções de responsabilidade] são feitos. Essa é oportunidade de dar transparência ao público da razão de esse sistema não vai responder determinadas perguntas.

Carolina Giovanini, advogada da Prado Vidigal Advogados e especialista em direito digital, privacidade e proteção de dados

Na UE, as discussões sobre o tema foram paralisadas, e a temática pode não ser aprovada este mês, ficando para 2024. Isso se agravou após a recente demissão de Sam Altman do cargo de CEO da OpenAI, empresa que ajudou a fundar.

O ato – que foi desfeito dias depois – teria sido motivado por quebra de confiança entre conselho da empresa e Altman, que, enquanto defende publicamente a regulação dessa tecnologia, teria incentivado estudos aprofundados por uma IA que teria sido classificada como perigosa.

Enquanto especialistas, incluindo Altman, não entram em consenso sobre se o desenvolvimento da IA deve ser pausado ou acelerado, e nem quais seriam as consequências, o caos vivido na OpenAI há algumas semanas escancarou um problema: as empresas de IA devem ou não serem autorizadas a se autorregularem?

“Acho que realmente é um tema muito delicado e é preciso certa cautela, até porque é um movimento global. O mundo todo está caminhando para isso, porque a tecnologia está presente em todas as áreas, em todos os setores, no nosso cotidiano. Tem que se pensar em todos os vieses, porque nós não podemos sufocar a inovação”, argumentou Antonielle Freitas, DPO (Data Protection Officer) da Viseu Advogados.

Mas, de certa forma, nós temos que harmonizar com a segurança e com os direitos fundamentais. E até porque a inteligência artificial em si não é nova. Até o termo ‘inteligência artificial’ já foi cunhado há mais de 70 anos, na década de 1950.

Antonielle Freitas, DPO (Data Protection Officer) da Viseu Advogados

Diferentes países, como a China, também restringiram ou, ainda, proibiram a continuidade dessas ferramentas até que as regulamentações possam ser definidas de uma vez, de modo a brecar os perigos que ela pode trazer. O Reino Unido também discute as limitações a serem impostas à IA, visando ser uma espécie de cúpula global sobre o tema.

ChatGPT, da OpenAI, versus, Bard, do GoogleChatGPT causou boom no universo das IAs generativas (Imagem: JRdes/Shutterstock)

Até que ponto os players de IAs querem regulamentá-las?

Conforme dito acima, Sam Altman é um dos vários executivos que defendem a regulação da tecnologia. A lista inclui ainda Elon Musk, Satya Nardella, CEO da Microsoft, entre outros.

Além disso, recentemente, 20 países assinaram uma declaração mundial sobre riscos da IA, mas ainda não definiram metas políticas claras, deixando eventuais leis estratégicas para mitigar tais riscos no limbo.

Mas, até que ponto os gigantes do setor (e governos mundiais) querem que suas ferramentas sejam brecadas e regularizadas?

“Parto sempre do pressuposto que o desenvolvedor é bom. Ele vem para trazer, para agregar coisas positivas. Mas tem que ter moderação. É um critério, e basta a gente ver as lojas de aplicativos. Os fabricantes de celulares têm que controlar o que vai sair”, opinou Braguim.

“A regulamentação em si, quando ela é feita, é de uma forma pensada, de uma forma que envolve debate amplo, que envolve decisões estratégicas. E, principalmente, uma regulação equilibrada que promove inovação e, ao mesmo tempo, assegura a proteção de interesses que a sociedade considera como relevante”, pontuou Giovanini.

[A regulamentação] não é prejudicial, de fato. Uma vez equilibrada, ela, até mesmo, traz segurança jurídica para esses agentes de mercado, uma vez que eles vão saber quais são as regras para desenvolver e para aplicar o sistema. Para que isso tudo funcione é realmente importante ter uma regulação equilibrada, que consiga nos dar parâmetros.

Carolina Giovanini, advogada da Prado Vidigal Advogados e especialista em direito digital, privacidade e proteção de dados

Moderação é a palavra-chave

Os especialistas concordam que, para que os sistemas de IA sejam regulados conforme os princípios éticos de nossa sociedade, não deve haver censura, mas, sim, moderação de conteúdo, como se vê em redes sociais, por exemplo.

“Moderação é diferente de censura. Isso é muito importante. Moderação é um cuidado. Preciso ter parâmetros que se aplicam. Assim como temos o ChatGPT, mais moderado, e o Grok, mais incisivo, existem fóruns com assuntos delicados liberados. Há decisão editorial ou não há moderação? É tudo permitido, é tudo aberto”, ressaltou Braguim.

E o Brasil?

Apesar de já haver conversas sobre regulamentações na Europa desde 2017, o Brasil é considerado por muitos como pioneiro nas discussões sobre as questões que envolvem a segurança online, pois, em 2018, promulgou a Lei Geral de Proteção de Dados (LGPD), marcando o início das discussões sobre a temática.

Já o Projeto de Lei (PL) nº 2.338, de 2023, que tem como foco a IA, vem tramitando no Senado, mas está parado por falta de acordos sobre seus pontos. Há alguns meses, juristas se uniram para elaborar uma minuta para anexar ao PL. O PL tem inciativa do senador Rodrigo Pacheco (PSD/MG) e tem como relator o senador Eduardo Gomes (PL/TO).

Contudo, segundo os especialistas, a LGPD pode muito bem nortear a regulamentação das tecnologias que temos hoje, em especial, as IAs.

“Seguindo também muitos passos da UE, já tivemos a lei de proteção de dados. Nossa LGPD também visa garantir os direitos dos usuários. Nos serviços digitais, incentivar os negócios é promover o crescimento de nova economia, mas assegurando, também, a competição justa no mercado e os direitos fundamentais”, rememorou Freitas.

Acho que é muito pertinente a gente levantar alguns pontos de atenção, alguns princípios que realmente precisam ser debatidos antes de ter uma lei em curso. Porque, se você tiver uma regulamentação, uma lei, ela pode trazer, obviamente, muitos benefícios, [pode] tentar gerar muita segurança, mas também pode barrar muita coisa. Então, tem que caminhar muito junto. Como você impulsiona essa inovação, essa capacidade industrial e, ao mesmo tempo, garante a segurança e os direitos fundamentais? Acho que tem que se basear muito em alguns princípios, como o ético. A lei vai ser realmente é ética? Vai ter responsabilizações que vai ser segura? Vai ser confiável? A IA tem que ser aplicada para ter uma competitividade. Ela tem que ter uma confiabilidade.

Antonielle Freitas, DPO (Data Protection Officer) da Viseu Advogados

Carolina Giovanini, por sua vez, relembrou que as questões que envolvem a segurança online do usuário, no que tange deepfakes, já é algo antigo. “Quando a gente pensa em edição de imagem, esse é um problema que existe há muitos anos já. [por exemplo,] desde que o Photoshop se popularizou, mas, agora, é evidente que é mais fácil você editar e criar imagens porque existe amplo acesso a sistemas de IAs que fazem esse tipo de atividade, até mesmo sem nenhum tipo de custo”, ressaltou.

Especialistas acreditam que LGPD e Marco Civil da Internet são bons pontos de partida para regularizar IAs (Imagem: Rodrigo Mozelli/Gerado com IA)

A advogada também salientou os projetos que tramitam no País, citando outro que já virou lei: o Marco Civil da Internet, que foi promulgado há quase dez anos e que já dá bases para atitudes contra deepfakes, por exemplo.

Entendo que essas situações [deepfakes] não dependem de nova lei. Elas já são endereçadas no nosso ordenamento jurídico. Por exemplo, no caso de exposição indevida de imagens, é o Marco Civil da Internet que nos dá instrumentos para remover essas imagens que estão sendo divulgadas na internet, em termos de responsabilização. A gente tem a aplicação do Código Penal dependendo do contexto. É, inclusive, também responsabilização civil por conta de eventual dano moral ou material causado por essas divulgações.

Carolina Giovanini, advogada da Prado Vidigal Advogados e especialista em direito digital, privacidade e proteção de dados

Por fim, ela apontou a necessidade de analisar friamente o que está sendo discutido, pois a IA é uma tecnologia ampla, que atende a vários setores e que está sempre mudando. “A gente pode acabar aprovando lei que daqui seis meses já não vai ser mais aplicável, porque a gente desenvolveu o sistema com novos impactos, com novas aplicações, que foi um pouco do que está acontecendo na UE. Foi pensado todo um modelo regulatório que simplesmente não fica de pé”, explicou.

Antonielle Freitas ressaltou a importância de haver órgãos reguladores como em outros setores, tais como telecomunicações (Anatel), saúde (Anvisa), entre outros. “É a questão de reforçar a governança, porque não adianta nada eu ter uma lei se, depois, ela não for implementada. Então, também surge aquele questionamento: haverá necessidade de se ter um órgão que fiscalize um órgão regulamentador? No Brasil, até temos a própria ANPD [Autoridade Nacional de Proteção de Dados], que já se colocou à disposição”, disse.

Por fim, Braguim reforçou o pioneirismo do Brasil na temática e afirmou acreditar que o País possa ser um dos primeiros a aprovar leis específicas para a IA. “O Brasil está em movimento muito interessante de pioneirismo. É bem possível, eu diria até provável, que o Brasil seja um dos primeiros, senão o primeiro país a regulamentar o tema. Traz grande responsabilidade, mas também traz aí visão internacional, uma valorização bastante interessante”, salientou. E completou:

É interessante que as pessoas vejam que o Brasil, apesar de todos os seus pesares, está avançado e estruturado nessa discussão. Claro, ainda falta abertura de discussão um pouco mais plural em relação ao tema. Hoje está em discussão no Senado, numa esfera muito específica e política. Mas existem audiências públicas a serem marcadas com representantes da sociedade. Isso tudo é muito benéfico. Então, o Brasil tem essa esse papel de importância. Mas, claro, com cuidado e devida atenção, porque é tema muito importante que não vai terminar por aí. Não basta criar uma lei e está tudo pronto.

Guilherme Braguim, sócio da área de Privacidade e Proteção de Dados da P&B Compliance

Então, qual o futuro legal e ético das IAs?

São muitos os pontos a se discutir e analisar quando se trata de regulamentar as IAs. Contudo, alguns avanços já foram feitos nesse sentido, inclusive no Brasil.

Com o crescimento cada vez maior dessas tecnologias, 2024 pode ser um ano fundamental para que o mundo defina o que fazer com as IAs, de modo que elas possam nos ajudar e não nos suplantar.

https://olhardigital.com.br/2023/12/01/pro/aniversario-do-chatgpt-em-que-pe-esta-a-regulamentacao-da-ia

Compartilhe