Brasil cria primeira regra para IA na medicina: diagnóstico não pode ser automático e paciente poderá recusar uso | G1
tecnologia

Brasil cria primeira regra para IA na medicina: diagnóstico não pode ser automático e paciente poderá recusar uso | G1

— Foto: Freepik

O Conselho Federal de Medicina definiu a primeira norma específica sobre o uso de inteligência artificial (IA) na prática médica no Brasil.

A resolução, publicada nesta sexta-feira (27) no Diário Oficial da União, estabelece que a tecnologia deve funcionar apenas como ferramenta de apoio —nunca substituindo a decisão clínica do médico.

A norma determina, ainda, que a responsabilidade final por diagnósticos, prognósticos e tratamentos continua sendo exclusivamente do profissional. Também proíbe que sistemas de IA comuniquem diagnósticos ou decisões terapêuticas diretamente ao paciente sem mediação humana.

A resolução entra em vigor em 180 dias.

Veja os vídeos que estão em alta no g1

IA como apoio, não como substituição

IA como apoio, não como substituição

O texto deixa explícito que a inteligência artificial pode ser utilizada para apoiar decisões clínicas, gestão em saúde, pesquisa e educação médica continuada. No entanto, reforça que:

  • o médico não pode ser obrigado a seguir automaticamente recomendações da IA;
  • a tecnologia não pode restringir a autonomia profissional;
  • a decisão final é sempre humana.

  • o médico não pode ser obrigado a seguir automaticamente recomendações da IA;
  • a tecnologia não pode restringir a autonomia profissional;
  • a decisão final é sempre humana.
  • Proibição de diagnósticos automatizados

    Proibição de diagnósticos automatizados

    Um dos pontos centrais é a vedação expressa à delegação da comunicação de diagnósticos à máquina. Segundo o texto:

    “É vedado ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas, sem a devida mediação humana.”

    Além disso, o paciente deve ser informado de forma clara quando a IA for utilizada como apoio relevante em seu cuidado. Ele também poderá recusar o uso da tecnologia.

    Médico continua responsável

    Médico continua responsável

    Mesmo utilizando sistemas avançados, o profissional permanece integralmente responsável pelos atos praticados. A resolução reforça que:

    • o uso de IA não exime o cumprimento do Código de Ética Médica;
    • falhas atribuíveis exclusivamente ao sistema não podem gerar responsabilização indevida, desde que o médico tenha agido de forma diligente;
    • é dever comunicar riscos ou falhas às instâncias competentes.

  • o uso de IA não exime o cumprimento do Código de Ética Médica;
  • falhas atribuíveis exclusivamente ao sistema não podem gerar responsabilização indevida, desde que o médico tenha agido de forma diligente;
  • é dever comunicar riscos ou falhas às instâncias competentes.
  • Também passa a ser obrigatório registrar em prontuário quando a IA for utilizada como apoio à decisão.

    Classificação de risco: de baixo a inaceitável

    Classificação de risco: de baixo a inaceitável

    A norma cria uma categorização dos sistemas de IA em quatro níveis de risco:

    • baixo
    • médio
    • alto
    • inaceitável

  • baixo
  • médio
  • alto
  • inaceitável
  • A classificação deve considerar fatores como impacto nos direitos fundamentais, sensibilidade dos dados utilizados, grau de autonomia do sistema e criticidade do contexto clínico.

    Instituições públicas e privadas terão que realizar avaliação preliminar antes de adotar a tecnologia.

    Hospitais terão que criar Comissão de IA

    Hospitais terão que criar Comissão de IA

    Hospitais e instituições que desenvolverem ou utilizarem sistemas próprios deverão criar uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e sob coordenação médica.

    Essa comissão será responsável por:

    • governança da tecnologia;
    • monitoramento contínuo;
    • auditoria especializada;
    • garantia de uso ético e seguro.

  • governança da tecnologia;
  • monitoramento contínuo;
  • auditoria especializada;
  • garantia de uso ético e seguro.
  • Proteção de dados e Lei Geral de Proteção de Dados

    Proteção de dados e Lei Geral de Proteção de Dados

    A resolução também reforça a necessidade de cumprimento rigoroso da Lei Geral de Proteção de Dados (LGPD). O uso de dados para treinamento ou validação de sistemas deverá observar princípios éticos e científicos, além de padrões mínimos de segurança da informação.

    O que muda na prática

    O que muda na prática

    Com a nova regulamentação:

    • médicos deverão registrar o uso de IA no prontuário;
    • pacientes terão direito de saber quando a tecnologia estiver sendo usada;
    • hospitais precisarão estruturar governança formal da IA;
    • a decisão clínica final continuará sendo exclusivamente humana;
    • diagnósticos não poderão ser comunicados por sistemas automatizados.

  • médicos deverão registrar o uso de IA no prontuário;
  • pacientes terão direito de saber quando a tecnologia estiver sendo usada;
  • hospitais precisarão estruturar governança formal da IA;
  • a decisão clínica final continuará sendo exclusivamente humana;
  • diagnósticos não poderão ser comunicados por sistemas automatizados.