março 16 2026

CFM publica resolução sobre o uso da inteligência artificial na medicina

Share

O Conselho Federal de Medicina (CFM) publicou, em 27 de fevereiro de 2026, a Resolução CFM nº. 2.454/2026 (Resolução), que trata do uso de inteligência artificial (IA) na Medicina. A Resolução cria parâmetros para a utilização de modelos, sistemas e aplicações de IA por médicos e instituições médicas, e deve ser implementada seguindo padrões de auditoria, monitoramento, governança, capacitação e transparência.

Entre as principais novidades, destaca-se a possibilidade de utilização de IA como instrumento de apoio à prática médica, decisões clínicas, gestão em saúde, pesquisa científica e à educação médica continuada, respeitada a autonomia do profissional e o direito à informação pelo paciente. A Resolução também impõe limites substanciais à tecnologia, em especial a supervisão humana obrigatória e o direito de recusa dos pacientes.

As novas regras entram em vigor em 10 de agosto de 2026, 180 dias após a data de publicação. Assim, médicos e instituições médicas, incluindo hospitais, consultórios, centros de saúde, entre outros, deverão ter em mente as disposições abaixo para se adequarem às normativas vigentes e evitar sanções regulatórias.

I. PANORAMA REGULATÓRIO PARA INSTITUIÇÕES MÉDICAS

A Resolução impõe maior rigor regulatório e necessidade de governança para as instituições médicas. Uma das principais medidas adotadas é a vedação da imposição de metas ou políticas que subordinem as condutas dos médicos. Além disso, outro aspecto relevante é a transparência, que será apurada por indicadores científicos e relatórios acessíveis, com informações compreensíveis e em linguagem simples, garantindo que pacientes, médicos e gestores interajam com a IA de forma responsável.

Uma série de obrigações passam a existir para instituições médicas, que devem:

  • implementar mecanismos de auditoria e monitoramento contínuos;
  • instituir Comissão de IA e Telemedicina para garantir o uso ético de sistemas de IA;
  • priorizar o desenvolvimento cooperativo de modelos, sistemas e aplicações de IA promovendo a interoperabilidade e a disseminação de tecnologias, códigos, bases de dados e boas práticas com outros órgãos e entidades do setor médico sem prejuízo do sigilo; e
  • realizar avaliação preliminar do grau de risco, levando em consideração, entre outros fatores, os potenciais impactos aos pacientes, o nível de intervenção urbana e a criticidade do contexto de uso.

De acordo com a Resolução, os níveis de risco devem ser informados ao paciente e se classificam em baixo, médio e alto:

Grau de Risco Definição Exemplo
Soluções de baixo risco
  • Impacto mínimo ou inexistente aos direitos fundamentais ou à segurança de pacientes e profissionais.
  • Sem influência decisória direta em diagnósticos ou tratamentos individuais, atuando tipicamente em funções administrativas, operacionais ou de apoio de baixo impacto.
Agendamento automatizado, chatbots informativos, logística de insumos
Soluções de médio risco
  • Impacto adverso possível, porém mitigável via supervisão humana ativa e controles de segurança.
Sistemas que apoiam decisões clínicas ou operacionais importantes, mas não as executam de forma autônoma.
Soluções de alto risco
  • Alto potencial de danos físicos, psíquicos ou morais a indivíduos, ou impactos significativos à saúde pública, caso funcionem de modo indevido ou sem controle.
  • Demandam rigorosos processos de validação, auditorias regulares e monitoramento contínuo.
Sistemas que influenciam diretamente decisões médicas críticas ou executam ações automatizadas com consequências clínicas relevantes, especialmente quando envolvem pacientes em estado vulnerável ou questões de vida ou morte.

Apesar de prever a categoria de risco “inaceitável”, a norma não traz uma definição detalhada ou explícita do que a caracteriza.

II. RELAÇÃO MÉDICO-PACIENTE

A Resolução enfatiza, em suas disposições, a proteção da autonomia do médico em relação às tecnologias de IA. Segundo o documento, o profissional possui:

  • Direito ao uso de IA: o médico pode utilizar ferramentas de IA como instrumento de apoio profissional;
  • Direito de recusa: o médico pode recusar a utilização de sistemas de IA que não apresentem certificação regulatória, validação científica ou viole princípios da medicina;
  • Direito à informação: o médico deve ter acesso a informações claras, transparentes e compreensíveis sobre os sistemas de IA utilizados;
  • Direito à autonomia: o médico possui o direito de não concordar ou não seguir as recomendações feitas por IA.

Nesse sentido, a Resolução complementa que o médico é obrigado a:

  • Exercer julgamento crítico sobre as informações e recomendações realizadas por mecanismos de IA;
  • Utilizar apenas os sistemas que garantam padrões mínimos de segurança da informação compatíveis com os a proteção de dados pessoais sensíveis no Brasil;
  • Manter-se atualizado quanto aos sistemas de IA aplicados à medicina e seu funcionamento, finalidades, limitações, riscos e grau de evidência científica;
  • Informar ao paciente o uso de IA como apoio ao seu diagnóstico, cuidado ou tratamento, informação que deve constar no prontuário médico;
  • Respeitar a recusa informada do paciente, zelando pela integridade da relação médico-paciente, escuta qualificada, empatia, confidencialidade e respeito à dignidade da pessoa humana.

No campo da responsabilidade médica, os novos dispositivos esclarecerem que o profissional da medicina permanece integralmente responsável por seus atos praticados com o uso de IA. Contudo, observa-se que a responsabilização é indevida em caso de falhas atribuíveis exclusivamente a sistemas de IA, desde que comprovado o uso diligente, crítico e ético das ferramentas. É terminantemente proibido delegar à IA a comunicação ao paciente de prognósticos ou decisões terapêuticas.

III. PROTEÇÃO DE DADOS PESSOAIS

Os dados pessoais dos pacientes utilizados no desenvolvimento, treinamento, validação e implementação de sistemas de IA  devem observar rigorosamente a Lei Geral de Proteção de Dados (LGPD) e as normas de segurança da informação na saúde, com a implementação de padrões de segurança aptos a proteger as informações contra riscos de destruição, perda, alteração, vazamentos ou acessos não autorizados.

A Resolução adota o princípio do “privacy by design”, segundo o qual políticas de privacidade devem ocorrer durante todas as fases do ciclo de vida de sistemas de IA, desde o desenvolvimento até as atualizações e retreinamentos, observando também princípios éticos e científicos. Nesse sentido, a norma prevê que devem ser implementadas medidas técnicas e administrativas de segurança compatíveis com o estado da arte e com a criticidade dos dados e sistemas.

Adicionalmente, novas obrigações surgem para reforçar o dever de confidencialidade do médico, e podem levar a sanções regulatórias nas seguintes hipóteses:

  • Falta de zelo pela confidencialidade, integridade e segurança dos dados de saúde utilizados por sistemas de IA;
  • Não assegurar o tratamento adequado a dados dos pacientes, sobretudo os sensíveis, em relação às finalidades informadas aos titulares;
  • Não notificar as autoridades competentes sobre a suspeita de falhas, riscos relevantes ou usos inadequados de IA que possam comprometer o paciente ou a assistência prestada;
  • Utilizar tecnologias de IA que não garantam padrões de segurança da informação.

CONCLUSÃO

A Resolução publicada pelo CFM é um marco regulatório nos ramos da Privacidade de Dados, Inteligência Artificial e Bioética, reconhecendo a inovação tecnológica ao mesmo tempo em que garante a preservação das boas práticas e dignidade da pessoa humana na medicina. Assim, para profissionais e instituições adeptos da utilização de IA, o planejamento jurídico regulatório é altamente recomendável a fim de garantir segurança em suas práticas e dirimir riscos regulatórios perante a ANPD e o Conselho de Medicina.

A Resolução pode ser acessada na íntegra aqui.

*Este conteúdo foi produzido com a participação da estagiária Ana Loiola.

Stay Up To Date With Our Insights

See how we use a multidisciplinary, integrated approach to meet our clients' needs.
Subscribe