carregando...

PORTFÓLIO

Uma análise da carta contra superinteligência artificial

8 de novembro, 2025

Por Paulo Henrique Fernandes

A carta assinada por figuras como Steve Wozniak, o Príncipe Harry, Daron Acemoglu e os pioneiros da IA Geoffrey Hinton e Yoshua Bengio é um marco de maturidade no debate sobre inteligência artificial. Quando líderes de campos tão distintos se unem para pedir uma pausa no desenvolvimento da chamada “superinteligência”, o que está em jogo não é apenas o avanço tecnológico, mas a preservação do controle humano sobre os rumos da civilização digital.

A preocupação é legítima. O ritmo de evolução da IA é exponencial e já supera a capacidade regulatória e ética de acompanhar seus impactos. A criação de sistemas capazes de agir e se aprimorar sem intervenção humana direta traz implicações sociais, econômicas e geopolíticas profundas. O medo da “perda de controle” reflete um cenário em que a velocidade da inovação supera a da governança.

No entanto, a proibição proposta pela carta é mais um grito de alerta do que uma solução prática. Impor uma moratória global em um campo tão descentralizado é quase impossível de implementar. O risco é criar uma ilusão de controle: enquanto uns pausam, outros avançam em silêncio. O debate sobre IA precisa ser conduzido não pelo medo, mas por estruturas de governança internacional coordenadas, capazes de definir princípios e protocolos comuns de segurança.

O caminho adequado não é uma pausa generalizada, mas um sistema de regulação por camadas, proporcional ao risco e ao impacto de cada aplicação. A Europa avança com o AI Act, mas ainda carece de mecanismos efetivos. O Brasil, com o PL 2338/23, acerta ao se inspirar nesse modelo, mas deve ir além, incluindo auditorias externas de impacto algorítmico e avaliações contínuas de segurança, como defendeu o Ministério Público Federal em recente audiência na Câmara.

Isso deve vir acompanhado de formação técnica das autoridades e cooperação internacional entre agências de IA, algo semelhante ao controle nuclear e ambiental de décadas anteriores. A regulação da IA não pode ser apenas normativa; precisa ser técnica e adaptativa, evoluindo junto com a tecnologia. Isso implica criar infraestruturas públicas de teste, repositórios abertos de dados e certificações reconhecidas globalmente.

O erro seria repetir o que ocorreu com a internet e as redes sociais, deixá-las crescer sem contenção e tentar remediar depois. A diferença é que, desta vez, o impacto é sistêmico. A inteligência artificial não é só uma ferramenta; é uma nova camada de poder, e quem a controla moldará a economia, a informação e o comportamento humano nas próximas décadas

A carta acende o alerta vermelho, mas o desafio é transformar o medo em governança e o discurso em fiscalização e transparência. O desenvolvimento sustentável da IA não depende de frear a tecnologia, e sim de garantir que ela evolua dentro de limites éticos, auditáveis e humanos. O risco não é a máquina pensar demais — é o ser humano pensar de menos sobre o que está criando.

Paulo Henrique Fernandes, head de produtos e tecnologia da V+ Tech, advogado pós-graduado em Direito Civil e Direito do Consumidor pela Escola Paulista de Direito, certificado em Tecnologias Emergentes, Inteligência Artificial e Métodos Ágeis pela IB

https://tiinside.com.br/07/11/2025/uma-analise-da-carta-contra-superinteligencia-artificial/

Compartilhe