PORTFÓLIO

CFM normatiza uso da IA na Medicina
O Conselho Federal de Medicina (CFM) publicou no Diário Oficial da União, nesta sexta-feira (27), a Resolução CFM nº 2.454/2026, que normatiza o uso da Inteligência Artificial (IA) na medicina em todo o território nacional. A norma assegura ao médico o direito de utilizar ferramentas de IA como apoio à decisão clínica, à gestão em saúde, à pesquisa científica e à educação médica continuada, desde que respeitados os limites éticos e legais da profissão. A palavra final sobre as decisões diagnósticas, terapêuticas e prognóstica sempre será do médico, que também pode se recusar a usar a tecnologias não validadas cientificamente, que não tenha certificação regulatória pertinente ou que contrariem princípios éticos, técnicos ou legais da medicina.
Para o coordenador da Comissão de Inteligência Artificial e relator da Resolução, conselheiro federal Jeancarlo Cavalcante, a regulamentação do uso da IA pelo CFM, mostra o compromisso da entidade de que o uso da nova tecnologia “ocorra de forma responsável, segura e alinhada aos valores éticos da profissão”. Para elaborar a norma, o CFM criou um grupo de trabalho, que passou um ano e meio debatendo as propostas apresentadas. “Nossa resolução é fruto de um amplo debate com especialistas e da observação das melhores práticas internacionais”, destacou.
Regras
De acordo com a norma, que entra em vigor em 180 dias, a decisão final sempre será do médico, sendo que a IA será uma ferramenta exclusivamente de apoio para decisões diagnósticas, terapêuticas e prognósticas. O seu uso não pode comprometer a relação médico-paciente e o profissional não poderá ser responsabilizado indevidamente por falhas atribuíveis especificamente aos sistemas de IA (desde que comprovado o uso diligente, crítico e ético da ferramenta). Já o paciente tem o direito de ser informado, de forma clara e acessível, sempre que a inteligência artificial for utilizada.
A Resolução estabelece diretrizes para o desenvolvimento, a utilização e a governança de soluções de IA aplicadas à medicina, com o objetivo de promover o avanço tecnológico e a eficiência dos serviços médicos de forma segura, transparente, isonômica e ética, sempre em benefício do paciente e com estrita observância de seus direitos fundamentais. Na avaliação de Jeancarlo Cavalcante, a norma representa um marco regulatório para o setor ao instituir diretrizes claras para pesquisa, desenvolvimento, governança, auditoria, monitoramento, capacitação e uso responsável dessas tecnologias na prática médica.
Responsabilização
A norma reforça que a IA deve ser empregada exclusivamente como ferramenta de apoio, mantendo o médico como responsável final pelas decisões. O profissional deve exercer julgamento crítico sobre as recomendações geradas pelos sistemas, manter-se atualizado quanto a suas limitações e registrar em prontuário o uso da tecnologia como suporte à decisão. A resolução também protege o médico contra responsabilização indevida por falhas atribuíveis exclusivamente aos sistemas de IA, desde que comprovado o uso diligente, crítico e ético da ferramenta.
O texto normativo estabelece que o uso de IA não pode comprometer a relação médico-paciente, a escuta qualificada, a empatia, a confidencialidade e o respeito à dignidade da pessoa humana. O paciente deve ser informado, de forma clara e acessível, sempre que a IA for utilizada como apoio relevante em seu cuidado.
A Resolução proíbe que seja delegada à inteligência artificial a comunicação de diagnósticos, prognósticos ou decisões terapêuticas. A decisão final permanece, em todos os casos, sob responsabilidade do médico.
O paciente também terá o direito a ter acesso a informações claras sobre seu estado de saúde, a procurar uma segunda opinião, a ter seus dados pessoais protegidos, a não ser submetido a intervenções experimentais sem consentimento específico, além do direito à privacidade e à confidencialidade de seus dados pessoais.
Governança, classificação de riscos e proteção de dados – A Resolução CFM nº 2.454/2026 estabelece critérios de classificação dos sistemas de IA segundo níveis de risco – baixo, médio, alto ou inaceitável – considerando fatores como impacto nos direitos fundamentais, complexidade do modelo, grau de autonomia e sensibilidade dos dados utilizados.
Instituições médicas que desenvolvam ou utilizem sistemas próprios deverão instituir processos internos de governança e, quando aplicável, criar uma Comissão de IA e Telemedicina sob coordenação médica, vinculada à diretoria técnica, para assegurar o uso ético e seguro das soluções.
O texto também determina que todos os dados utilizados no desenvolvimento, treinamento e implementação dos sistemas observem rigorosamente a Lei Geral de Proteção de Dados (LGPD) e as normas específicas de segurança da informação em saúde, com medidas técnicas e administrativas compatíveis com a criticidade das informações tratadas.
Autonomia profissional e supervisão humana obrigatória – A Resolução deixa claro que as soluções de IA não são soberanas e que a supervisão humana é obrigatória. Em nenhuma hipótese a tecnologia poderá substituir ou restringir a autoridade final do médico. O profissional poderá acolher ou rejeitar as recomendações geradas pelo sistema, conforme seu julgamento técnico e ético, sem sofrer penalização por optar por não seguir determinada orientação da ferramenta.
As atividades de supervisão e fiscalização do cumprimento da norma caberão aos Conselhos Regionais de Medicina (CRMs), no âmbito de suas competências. Para Cavalcante, com a iniciativa, o CFM reafirma seu papel de liderança na proteção da sociedade, na valorização da ética médica e na construção de um ambiente seguro para a incorporação de inovações tecnológicas na assistência à saúde.
“A saúde é uma das áreas de conhecimento que mais recebe contribuições da inteligência artificial. O mundo inteiro hoje se preocupa com a sua regulamentação na medicina: a União Europeia tem a sua própria legislação, os EUA têm a sua legislação em cada estado, e o Brasil não tinha uma resolução para regulamentar a inteligência artificial na medicina. E é justamente essa lacuna que o CFM vem preencher. Essas regras são necessárias para uma regulação muito transparente e, acima de tudo, com segurança para o médico, para o paciente e para a sociedade”, resumiu.
A Resolução da IA foi debatida no CFM por um ano e meio na Comissão de Inteligência Artificial. Participaram dessa comissão, os conselheiros federais Rosylane Rocha, Marcelo Prado, Alexandre de Menezes, Mauro Ribeiro, Hideraldo Cabeça, Marcelo Lemos, Francisco Cardoso, Dilza Ribeiro, e Estevam Rivello. Também participaram da Comissão, a professora da Pontifícia Universidade Católica (PUC) São Paulo e articulista do jornal Valor Econômico, Dora Kaufman; o executivo da área da saúde Fabio Ferreira Cunha; o especialista em IA Gláucio Nóbrega de Souza; médico especialista em IA pelo MIT Francisco Neto, professor titular da Faculdade de Medicina da USP Carlos Eduardo Domene, professor titular da Faculdade de Medicina da USP Chao Lung Wen (FMUSP), diretor do InovaHC-USP, Giovanni Guido e Paula Calderon (SBIS – Sociedade Brasileira de Informática em Saúde).
Desafio
O advogado Pedro Sanches, sócio do escritório Prado Vidigal Advogados, comentou que “a nova Resolução CFM nº 2.454/2026 reforça a importância de controles de governança na utilização de sistemas de inteligência artificial na Medicina. Para as instituições, o foco deve estar na criação de processos internos que permitam o atendimento de todas as diretrizes apresentadas, como a documentação e a classificação dos sistemas de IA de acordo com os níveis de risco estabelecidos pela norma, além do atendimento das obrigações de transparência. Embora a norma passe a valer em 180 dias, a implementação de todas as medidas apresentadas na resolução pode se mostrar desafiadora dentro deste prazo.”
Para Renato Opice Blum, advogado da Opice Blum Advogados, economista e professor de direito digital, IA e proteção de dados na FAAP e INSPER, a Resolução 2454/26 sinaliza maturidade regulatória ao reconhecer o potencial da inteligência artificial sem afastar a responsabilidade do médico na tomada de decisão clínica. O texto impõe governança institucional, classificação de riscos e controle das ferramentas utilizadas, além de exigir supervisão humana contínua. Do ponto de vista legal, a exigência de conformidade com a LGPD e a responsabilização do usuário demonstram que tecnologia e responsabilidade caminham juntas.
“A resolução representa uma mudança estrutural para o setor. A partir de agora, não basta contratar uma solução de Inteligência Artificial e colocá-la em operação. As instituições médicas terão de implementar um programa formal de governança em IA, com critérios técnicos, fluxos de validação e mecanismos permanentes de controle”, afirma Henrique Fabretti, CEO do Opice Blum Advogados.
Segundo o advogado, cada sistema deverá passar por uma avaliação de risco antes mesmo da implantação e as ferramentas serão classificadas conforme o impacto potencial na saúde do paciente e seus direitos fundamentais.
A resolução também reforça a necessidade de transparência, já que o paciente deverá ser informado, de forma clara e acessível, quando a IA for utilizada como apoio relevante em seu cuidado. Inclusive, o uso da tecnologia deverá constar no prontuário, e é vedada a delegação à IA da comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida mediação médica./
Para complementar, a norma determina a implementação de mecanismos de auditoria especializada e monitoramento contínuo ao longo de todo o ciclo de vida dos sistemas, com o objetivo de identificar falhas, riscos relevantes e eventuais vieses discriminatórios.
Imagem: Freepik
https://tiinside.com.br/27/02/2026/cfm-normatiza-uso-da-ia-na-medicina/





