carregando...

PORTFÓLIO

A conta das alucinações: por que a responsabilidade da IA já é um tema jurídico urgente?

9 de dezembro, 2025

Paulo Henrique Fernandes
Advogado e head de produtos e tecnologia da V+ Tech

O debate que começa a surgir nos tribunais americanos sobre quem paga a conta quando um chatbot erra é, na verdade, um dos temas mais importantes do nosso tempo. O caso da Wolf River Electric contra o Google, assim como outros processos recentes, escancara um dilema jurídico que até agora era teórico: se a inteligência artificial cria e publica algo falso, quem é o responsável?

Até pouco tempo, as grandes plataformas se protegiam sob a lógica de que não são responsáveis pelo conteúdo publicado por terceiros. Mas esse argumento não se aplica quando o conteúdo é criado pela própria máquina que elas desenvolveram. Quando um modelo de linguagem como o Gemini, da Google, produz e exibe em destaque uma informação falsa, ele não está apenas transmitindo algo dito por outro usuário, está gerando conteúdo com aparência de verdade e, muitas vezes, com o peso de uma resposta “oficial”.

O grande problema é que esses sistemas são, por natureza, probabilísticos. Eles não “sabem”, eles estimam. O que chamamos de “alucinação” não é um acidente isolado: é um risco inerente ao funcionamento desses modelos. E se é um risco previsível, ele precisa ser tratado como tal. Do ponto de vista jurídico, isso significa que há um dever de prevenção, monitoramento e correção. Disclaimers genéricos (aquele aviso de “pode conter erros”) já não bastam quando a interface da IA transmite segurança, autoridade e respostas diretas que o usuário comum não tem meios técnicos de auditar.

O caso da Wolf River é particularmente forte porque envolve prejuízo comprovado, perda de contratos e danos reputacionais. Quando a falsidade é objetiva e o dano é mensurável, a responsabilidade das empresas deixa de ser apenas moral e passa a ser legal. E é aqui que os tribunais começam a construir um novo entendimento: se a IA foi projetada, treinada e lançada por uma empresa, ela não é uma força autônoma da natureza, mas um produto e produtos defeituosos geram responsabilidade.

É claro que ainda há muito a amadurecer. Processos como esse dificilmente criarão uma jurisprudência sólida de imediato, mas já apontam um caminho. É provável que vejamos, nos próximos anos, a consolidação de uma doutrina híbrida, que trate certos erros de IA como falhas de design e outros como defeitos de segurança. E, paralelamente, veremos os reguladores especialmente na Europa (AI Act) e no Brasil, exigindo avaliações contínuas de impacto algorítmico, auditorias externas e etiquetagem clara de conteúdos gerados por IA.

O que essa nova fase do debate deixa claro é que a inteligência artificial já ultrapassou o campo da experimentação. Quando ela afeta a reputação, a saúde, o patrimônio ou o trabalho das pessoas, ela se torna um assunto de Direito e, portanto, de responsabilidade.

A IA é uma ferramenta extraordinária, mas também um espelho daquilo que projetamos nela. Quanto mais ela ganha voz e autoridade, mas precisamos garantir que continue sendo um instrumento confiável, e não uma fonte de desinformação automatizada. A tecnologia pode até errar por probabilidade, mas o dever de corrigir é sempre humano.

https://www.mobiletime.com.br/artigos/09/12/2025/responsabilidade-ia-juridico/

Compartilhe