PORTFÓLIO
MP sugere que relator inclua prevenção ao crime na regulamentação da inteligência artificial
Proposta do órgão não especifica, contudo, como a IA pode ser usada para essa finalidade. Especialistas ponderam sobre a importância de entender como será o uso da ferramenta na prática.
Por Vinícius Cassela, Mariana Laboissière, g1 — Brasília
(Imagem: Freepik)
O Ministério Público Federal (MPF) propôs ao Senado Federal a possibilidade de utilização da inteligência artificial (IA) para prevenção à criminalidade. A sugestão busca alterar o projeto que regulamenta a inteligência artificial (IA) no Brasil.
O texto está em fase de discussão na Casa, e, segundo o relator, senador Eduardo Gomes (PL-TO), previsto para ser votado até 12 de junho.
Uma das sugestões apresentadas pelo MPF ao Senado — de um universo de 12 propostas — é para que a IA seja usada na prevenção de crimes. Entretanto, o órgão não detalha como esse uso seria realizado.
Para alguns especialistas, contudo, é importante entender, na prática, como o recurso vai ser empregado nesses casos (leia mais abaixo).
Para o MPF, inclusive, a aliança entre prevenção de crimes e o uso da inteligência artificial deve ser incorporada como um princípio para a “mitigação de riscos e danos” e para “impedir que atos de violência possam vir a acontecer”.
As propostas do MP nasceram a partir de um estudo desenvolvido por um grupo de trabalho do órgão, voltado à área de tecnologia e comunicação.
Esse grupo analisou ponto a ponto do projeto e as possibilidades de alteração na redação do texto.
Em seguida, o estudo foi enviado à Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado, onde o assunto está em debate.
Ainda segundo o relator do projeto, ao todo, o Senado recebeu mais de 2,5 mil contribuições de diversas entidades.
“É preciso ter bom senso para que a inteligência artificial não ultrapasse direitos e também para definir regras para responsabilizar os envolvidos”, afirmou o relator.
Veja abaixo o que o projeto divulgado diz e as mudanças propostas:
Quais mudanças foram sugeridas?
- Redação apresentada pelo relator
A redação do projeto — divulgada pelo relator — diz que fica proibido o uso de IA que utilize parâmetros com base em:
- traços de personalidade;
- características físicas;
- comportamento passado, criminal ou não
Isso, dentro de um contexto de análise de risco do cometimento de crimes.
Mas, para o MPF esse trecho precisa de mudanças (leia abaixo quais).
- Propostas de mudança do MPF
De acordo com o Ministério, as forças de segurança precisam, sim, ter a possibilidade de utilizar da inteligência artificial em apoio aos profissionais nos seguintes casos:
- prevenção;
- investigação;
- persecução (processo que ocorre quando há suspeitas de um crime);
- processo criminal.
Paralelamente, o MPF destaca que todos esses casos devem ser embasados em fatos objetivos e verificáveis.
Além disso, que tais situações devem estar diretamente ligadas a uma atividade criminosa.
“Evidentemente, a presunção de inocência e a ausência de discriminação impedem que pessoas sejam classificadas como tendentes ao cometimento de crime, conforme características individuais ou de grupo”, pontuou o MPF no estudo.
“No entanto, isso não deve impedir que a atividade policial, do Ministério Público e do Poder Judiciário, no âmbito penal, não possa ser melhorada na defesa da sociedade com o uso de sistemas de inteligência artificial”, completou o parecer do órgão.
Observações de especialistas
Para o professor da Universidade de Brasília (UnB) e especialista em computação e direito digital, Frank Ned Santa Cruz de Oliveira, um problema que a sociedade pode enfrentar, em função da abrangência do uso de inteligência artificial na segurança pública, é o comprometimento do direito individual devido ao uso excessivo e incorreto das ferramentas pelo Estado.
“Quando a gente abre essa possibilidade de uso dessas tecnologias por essas corporações, certamente a gente está colocando a sociedade brasileira em risco, porque são inúmeros os exemplos de desvio da utilização do aparato policial no sentido”, afirmou.
O professor ainda lembrou que a implementação de tecnologias no serviço diário de combate à criminalidade enfrenta resistência, como nos casos das câmeras corporais utilizadas por policiais militares.
No estado de São Paulo, por exemplo, as câmeras nas fardas — que não usam biometria facial, isto é, IA — são alvo de questionamentos. O governo do estado divulgou o edital de compra de 12 mil novas câmeras, com a possibilidade do policial desligar a filmagem quando quiser, o que foi criticado por especialistas do segmento.
De acordo com o professor, essa situação já possibilitaria a “ampliação das violências cometidas” pelas forças.
“Sem falar dos abusos de poder, né? A gente verifica agora, por exemplo, na dificuldade que é na implementação de tecnologias mais simples que é a câmera corporal [em policiais militares]. Esse equipamento permitiria registrar abordagem até para segurança, não só do policial, mas do próprio cidadão. E a resistência que nós encontramos na corporação, e nós temos aí um risco imenso de não criar uma superforça policial, mas da ampliação das violências cometidas por essas corporações”, disse Oliveira.
Treinamento de IA
O especialista também cita um exemplo de um sistema implantado em Brasília que usa câmeras de segurança, mas que depende de ação humana. Segundo ele, os acionamentos são maiores para suspeitos negros que brancos.
Diante disso, ele avalia que, se, em casos de decisões humanas já há um viés, o risco é ainda maior com o uso de IA, uma vez que ela pode reproduzir esse padrão a partir de um treinamento humano.
Frank ainda pondera que o texto precisa definir, de forma clara, comissões de “governança, auditoria e transparência”, assim como mecanismos de controle da forma como a inteligência artificial será utilizada.
“Se tecnologias como essa, que são muito poderosas, forem operadas dentro de caixas cinza, nós temos aí um uma potencialização, uma ‘exponencialização’ de riscos à sociedade. Na violação de direitos fundamentais.”
O advogado Marcelo Cárgano, especialista em direito digital, diz que, primeiramente, é importante entender que o projeto de lei brasileiro, que tem o objetivo de regulamentar a inteligência artificial, se espelha no modelo europeu, que proíbe, por exemplo, o policiamento preditivo, que seria baseado em previsões sobre o cometimento de crimes antes mesmo deles acontecerem.
Ainda de acordo com Cárgano, qualquer discussão que permita a tomada de decisões a partir do uso de algoritmos — que façam inferências sobre probabilidades de uma pessoa cometer um crime ou não — é algo perigoso.
“É, obviamente, extremamente perigoso, porque você trata a princípio todo mundo como criminoso em potencial e você, no extremo, chega a prender a pessoa antes mesmo do cometimento do crime”, afirmou o advogado.
“Usar isso [a inteligência artificial] a partir de certas evidências, comportamentos, dá um indício de que aquela pessoa está propensa a cometer um ato criminoso, que seria um Minority Report [filme]. Então, eu acho que a sociedade, o Estado não está pronto ainda pra esse tipo de regulação, e é muito arriscado isso.(…) Uma vez que você pode ter viés dentro da construção do próprio algoritmo, esse viés pode ser direcionado para perseguição política, perseguição de etnia, perseguição de classe social e aí você tem problemas”, complementou Frank.
Segundo Marcelo Cárgano é importante questionar, por exemplo:
- “Até que ponto a base de dados usada para o cálculo desses modelos probabilísticos é correta e não enviesada?”;
- “Até que ponto a base de dados não se baseia em dados incompletos, inexatos ou errados?”;
- “E, ainda que a base de dados seja ampla, até que ponto você consegue extrapolar do modelo probabilísticos o risco que uma determinada pessoa vai deixar de cometer um exato crime?”
“É uma discussão muito ampla, que começa pela base de dados que se tem, as inferências, o tipo de vigilância que a gente vai implementar”, afirmou Cárgano.
Relatório prévio
O projeto de lei original — sem as alterações propostas pelo MPF — segundo o relator Eduardo Gomes, amplia poderes dados aos órgãos públicos.
Um relatório apresentado por Gomes na comissão temática pondera que as ferramentas de inteligência artificial podem ser usadas para monitorar a população nos casos específicos:
- de inquérito ou processo criminal, mediante autorização da Justiça – desde que não seja para investigação de “infração penal de menor potencial ofensivo”;
- para busca de desaparecidos, vítimas de crimes ou circunstâncias de ameaça grave à integridade física;
- de investigação e repressão de flagrantes delitos, desde que os crimes tenham pena mínima de dois anos; e
- para recaptura de réus evadidos, cumprimento de mandados de prisão e medidas restritivas.