carregando...

PORTFÓLIO

Inteligência artificial: o que 2023 nos ensina para o futuro?

19 de dezembro, 2023

Por Luis Fernando Prado e Carolina Giovanini*

No ano de 2023 foi possível ouvir a expressão “inteligência artificial” (IA) em diversos espaços e contextos. Desde notícias até reuniões e conversas com entre amigos e familiares, o tema foi centro das atenções e ultrapassou debates essencialmente técnicos, influenciando ativamente as dinâmicas sociais, econômicas e éticas. Certamente, é um ano que poderá ser lembrado como o momento em que a inteligência artificial transcendeu o status de “tecnologia emergente” para se tornar parte integrante do dia a dia de diversas pessoas.

Foi possível observar um amplo aumento do uso de sistemas de IA por parte do público. Grande parte da popularização se deve, é claro, ao boom do ChatGPT (Generative Pre-Training Transformer), que passou a ser utilizado para uma infinidade de tarefas. De lá para cá, diversos sistemas que utilizam IA também se popularizaram, como é o caso de ferramentas de edição de vídeos, produção de apresentações e criação de imagens personalizadas.

É inegável que o uso crescente da tecnologia veio acompanhado de polêmicas e casos de uso inadequado que ganharam grande repercussão e, como não poderia deixar de ser, essa movimentação chamou atenção para a discussão sobre a regulamentação do tema. Mesmo antes, União Europeia e Brasil, por exemplo, já contavam com propostas legislativas em tramitação para estabelecer regras para desenvolvimento e uso de sistemas de IA, mas é nítido que, em 2023, os debates regulatórios ganharam força e as negociações parlamentares avançaram rapidamente nos contextos brasileiro e europeu.

Em maio de 2023, foi apresentado no Senado Federal o Projeto de Lei nº 2.338/2023, que busca regulamentar o uso de inteligência artificial no Brasil. Deste então, referido projeto passou a tramitar em conjunto com propostas legislativas anteriores e está em discussão na Comissão Temporária Interna sobre Inteligência Artificial (CTIA), tendo se tornado o holofote do debate regulatório no Brasil. Paralelamente, a proposta legislativa europeia que busca regular o uso de inteligência artificial no contexto da União Europeia (conhecida como “Artificial Intelligence Act”) avançou e, atualmente, o texto está em momento crucial de negociação entre os países do bloco.

Para além da evolução na tramitação de propostas que já estavam em discussão, ao longo do ano foi possível acompanhar o surgimento de debates regulatórios em outros países. Por exemplo, na China, a Administração do Ciberespaço da China (CAC) divulgou, em julho de 2023, medidas provisórias para o gerenciamento de serviços de inteligência artificial generativa, que trazem regras para fornecimento de tais ferramentas ao público chinês. Já nos Estados Unidos, a presidência publicou, em outubro de 2023, uma ordem executiva (instrumento equivalente a uma “medida provisória” no Brasil) contendo, em linhas gerais, obrigações de segurança para desenvolvedores de IA e estabelecendo que agências federais devem atuar por meio da elaboração de padrões, ferramentas e testes para desenvolvimento de sistemas de IA seguros e confiáveis.

Fato é que, em 2023, o mundo embarcou no debate regulatório sobre desenvolvimento e uso de sistemas de IA, tema que está em alta atualmente no Brasil. Parece-nos que esta é uma excelente oportunidade para promover a participação multissetorial e o debate amplo e democrático entorno de tais propostas, de modo a garantir que eventual regulação seja equilibrada, assegurando a proteção de interesses coletivos e individuais, mas também a promoção de inovação e desenvolvimento tecnológico responsável.

Embora o tema de IA esteja em alta e todo momento surjam notícias sobre novidades legislativas, a regulação não deve ser encarada como uma corrida com linha de chegada, mas como um processo democrático que exige tempo de maturação e participação da sociedade como um todo. Inclusive, 2023 também trouxe como aprendizado o fato de que a IA será cada vez mais parte de nossa vida, trazendo um enorme potencial de ganho de efetividade para pessoas e organizações. A avassaladora popularização da IA deve ser encarada como um fenômeno social de aceitação da tecnologia, caminho sem volta que não pode ser ignorado por legislador nenhum do mundo.

Nesse sentido, diante qualquer abordagem precipitada e sem tempo adequado para um debate substancial, sairemos todos como perdedores. O cenário de constante evolução tecnológica nos faz parecer que o caminho mais acertado é evitar propostas regulatórias que não levem em consideração os diferentes usos da tecnologia. Neste ponto, vale destacar que é essencial regular o uso, e não a tecnologia em si. A IA é uma tecnologia de aplicação ampla, permeando vários setores, de modo que o contexto de uso pode variar significativamente, apresentando desafios éticos, legais e sociais únicos.

É importante lembrar que, historicamente, legislações brasileiras como a Lei Geral de Proteção de Dados e o Marco Civil da Internet são tecnologicamente neutras — o que significa dizer que não são aplicáveis a uma ferramenta específica, mas sim ao contexto de uso, garantindo que as regras previstas não se tornem rapidamente obsoletas diante do desenvolvimento tecnológico. É por isso que, no campo do direito digital, temos que reconhecer a rápida evolução da tecnologia e a necessidade de regulamentações flexíveis que possam se adaptar às mudanças contínuas no cenário da inteligência artificial.

Por outro lado, o debate sobre diretrizes para uso e desenvolvimento de sistemas de IA seguros e confiáveis não ficou restrito às propostas legislativas ainda em tramitação. Pelo contrário, em 2023, tivemos a publicação de padrões, códigos de conduta e guias de boas práticas sobre governança de sistemas de IA, o que significa que organizações internacionais e entidades do setor privado estão atentas e atuantes no tema.

Por exemplo, em janeiro de 2023, o National Institute of Standards and Technology (NIST) publicou o AI Risk Management Framework (AI RMF), uma ferramenta para auxiliar na identificação e gestão de eventuais riscos no desenvolvimento de sistema de IA, assegurando uso ético, confiável e responsável. No Brasil, a Associação Brasileira de Normas Técnicas (ABNT) publicou, em outubro de 2023, a ABNT NBR ISO/IEC 38507, versão brasileira da norma internacional que estabelece diretrizes de governança em IA para organizações.

O crescente investimento em governança e boas práticas no desenvolvimento e uso de sistemas de IA ao longo deste ano reflete a percepção da importância de estabelecer um ambiente seguro e confiável para a implementação de sistemas de IA. Esse movimento indica uma resposta proativa das organizações em lidar com os desafios éticos, jurídicos e técnicos associados à inteligência artificial.

Diante de todos estes acontecimentos no ano de 2023, a pergunta que fica é: o que podemos esperar para o próximo ano? A inteligência artificial foi um tema quente neste ano e não nos parece que o assunto esfriará em 2024. Pelo contrário, o desenvolvimento de modelos cada vez mais eficientes e a expansão dos campos de aplicação de sistemas de IA certamente abrirão novos e intensos debates sobre a tecnologia.

O andamento do debate regulatório e a discussão sobre temas espinhosos — como classificação de riscos de sistemas de IA, responsabilização em caso de danos causados por tais sistemas, necessidade de revisão humana etc. — afetarão substancialmente as organizações que desenvolvem e aplicam IA no país.

Nesse contexto, é importante que 2023 tenha sido um divisor de águas, que muito influenciará, de maneira positiva, os debates regulatórios. Se até o começo do ano o medo e um sentimento de que era imperioso frear o avanço da IA, o final do ano nos faz olhar para o futuro dessa tecnologia com um viés mais otimista e menos alarmista. Dessa forma, o medo de usar IA vai se transformando em medo de não usar e, portanto, não desbloquear uma nova forma de convíio com a tecnologia — marcada por inegável aumento de eficiência — que se popularizou neste ano que em breve termina. Estamos seguros em afirmar (sem menosprezar as mandatórias discussões sobre usos e limites) que, a partir de 2024, entrará no radar da sociedade um novo risco envolvendo até IA até então desconhecido por muitos: o risco de não a utilizar.

*Luis Fernando Prado, sócio-fundador do Prado Vidigal Advogados, especialista em proteção de dados e novas tecnologias.

*Carolina Giovanini, advogada do Prado Vidigal Advogados, mestranda em direito e inovação.

https://www.estadao.com.br/politica/blog-do-fausto-macedo/inteligencia-artificial-o-que-2023-nos-ensina-para-o-futuro/

Compartilhe