carregando...

PORTFÓLIO

ChatGPT e a ansiedade regulatória da IA

3 de maio, 2023

A etapa da regulamentação vem no passo seguinte, de forma a dar o tempo necessário para que legisladores entendam sobre a tecnologia

Por Luis Fernando Prado e Carolina Giovanini

O ChatGPT é um dos assuntos mais populares no momento, já despontando como uma das grandes novidades do ano de 2023. Caso o leitor ainda não tenha tirado alguns minutos para conversar com o Chat, vale explicar que se trata de ferramenta de inteligência artificial (IA) que utiliza uma técnica de processamento de linguagem natural com base em informações disponíveis na internet. Assim, uma pessoa pode conversar com o Chat como se do outro lado estivesse outra capaz de escrever sobre o que lhe for solicitado.

Desde sua disponibilização, o ChatGPT já foi utilizado para uma série de funções, como responder (ou elaborar) avaliações, escrever artigos, resolver problemas informáticos, formular petições e contratos, escrever e-mails, produzir textos para anúncios publicitários etc. Como não poderia deixar de ser, essa movimentação chamou atenção para a discussão sobre a regulamentação do tema. Aliás, mesmo antes da popularização da ferramenta, União Europeia e Brasil, por exemplo, já contavam com propostas legislativas em tramitação que buscam estabelecer regras para o uso de sistemas de IA. No entanto, antes de regular, é  importante refletir sobre os impactos da atividade normativa sobre uma tecnologia em constante evolução.

Seis meses atrás, provavelmente nenhum de nós imaginaria abrir seu navegador e explorar os variados usos do ChatGPT, e isso é um retrato do cenário do contínuo desenvolvimento da tecnologia. Da mesma forma, daqui seis meses talvez estejamos diante de ferramentas baseadas em inteligência artificial antes inimagináveis. Diante desse cenário de constante evolução, uma regulação prematura pode se tornar rapidamente obsoleta. Além disso, qualquer tipo de solução legislativa demasiadamente rígida, que não leve em consideração os diferentes usos da tecnologia e estabeleça, de forma indiscriminada, por exemplo, a necessidade inafastável de presença humana no processo decisório e/ou o regime geral da responsabilização sem demonstração de culpa ou dolo, representará obstáculo e desincentivo para desenvolvimento da IA.

É por isso que, no campo do direito digital, a linha do tempo da regulação sempre deve respeitar o seguinte passo-a-passo: (i) surgimento da tecnologia (desde que, obviamente, não seja proibida), (ii) sua ampla disseminação pela sociedade e (iii) medição de seus malefícios e benefícios. Foi assim com o uso da internet, por exemplo, a qual começamos a utilizar massivamente muito antes do Marco Civil da Internet de 2014. Uma regulamentação antecipada, que interrompa esse fluxo saudável entre o fato e a norma, tem o potencial de causar danos sensíveis danos ao desenvolvimento tecnológico no país.

Evidentemente, isso não significa que o desenvolvimento e o uso de sistemas de inteligência artificial devem ser desacompanhados de qualquer tipo de diretrizes ou mesmo mecanismos de controle por parte do Estado. Na verdade, é possível pensar em movimentos inicialmente centrados em ética e responsabilidade, voltados para a construção de diretrizes gerais sobre desenvolvimento, comercialização e uso da IA, seja por meio de estratégias nacionais, seja por meio da elaboração de padrões, códigos de conduta e guias de boas práticas.

Além disso, não se deve esquecer que, atualmente, o Brasil consta com normas robustas, consideradas modelo mundo a fora, no que se refere à proteção de consumidores, de usuários de internet e de titulares de dados pessoais, sendo tais legislações perfeitamente aplicáveis a atividades que envolvam o uso de tecnologia de IA.

No mais, é importante constatar que a ausência de legislação específica sobre o tema mundo afora não representa desincentivo para que diversas organizações invistam em governança e boas práticas. Pelo contrário. Um exemplo é o AI Risk Management Framework (AI RMF), recentemente publicado pelo National Institute of Standards and Technology (NIST), que, basicamente, serve como ferramenta para pautar a segurança no desenvolvimento e implementação de sistemas de IA, bem como auxiliar na gestão de eventuais riscos, promovendo o uso ético, confiável e responsável.

Não é exagero afirmar que um dos fatores que contribui sensivelmente para a ampla popularização e aceitação do ChatGPT perante a sociedade em todo o mundo é a adoção de medidas de governança pela própria organização que o criou (OpenAI), como a criação de um comitê de ética independente, que revisa e orienta a tomada de decisões éticas relacionadas ao desenvolvimento e uso da ferramenta, o treinamento da tecnologia para minimizar vieses e potencial discriminatório e a transparência em relação ao seu funcionamento.

O ChatGPT e as demais ferramentas que surgirão nos próximos meses, certamente, aquecerão os debates sobre regulamentação de IA. Será momento de acompanhar seu uso massivo e medir seus efeitos junto à sociedade. A etapa da regulamentação vem no passo seguinte, de forma a dar o tempo necessário para que legisladores entendam sobre a tecnologia, promovam amplos debates com participação multissetorial e reflitam sobre os aspectos em que efetivamente há lacuna jurídica a ser preenchida por meio de nova legislação. A pressa, nesse caso, é inimiga da regulação.

Luis Fernando Prado e Carolina Giovanini são, respectivamente, sócio no escritório Prado Vidigal, mestre em Direito Digital e Sociedade da Informação pela Universidade de Barcelona; e advogada no escritório Prado Vidigal, mestranda em Direito e Inovação pela Universidade Federal de Juiz de Fora.

https://valor.globo.com/legislacao/coluna/chatgpt-e-a-ansiedade-regulatoria-da-ia.ghtml

Compartilhe