
Um roteiro para uma IA mais segura e eficaz nos cuidados de saúde

Crédito: Pixabay/CC0 Domínio Público
Uma nova Comunicação Especial publicada em 13 de outubro de 2025, em JAMA descreve como o setor da saúde deve aproveitar de forma responsável as oportunidades da IA, incluindo o que deve mudar para garantir que a adoção da IA melhore os resultados dos pacientes, e não apenas a eficiência.
Entre as principais recomendações em “IA, saúde e cuidados de saúde hoje e amanhã” está a supervisão alargada pela Food and Drug Administration e o desenvolvimento de ferramentas de avaliação para medir a eficácia em ambientes clínicos.
O relatório foi coautor de Michelle Mello, professora de direito e política de saúde na Stanford Law School e na Stanford University School of Medicine. O relatório surgiu da Cúpula JAMA sobre Inteligência Artificial de 2024, uma reunião apenas para convidados que reuniu mais de 60 líderes da medicina, do direito, da política e da indústria para examinar as oportunidades e os riscos da integração da IA nos cuidados clínicos. A cimeira fez parte de um processo contínuo JAMA série lançada em 2023 para estimular o diálogo intersetorial e impulsionar soluções práticas para desafios urgentes da política de saúde.
“A IA está a ser adoptada a uma velocidade notável no sector dos cuidados de saúde, mas os nossos sistemas de avaliação e regulação não acompanharam o ritmo”, disse Mello, membro da Academia Nacional de Medicina, cuja investigação empírica se concentra na compreensão dos efeitos da lei e da regulamentação na prestação de cuidados de saúde e nos resultados de saúde da população. “Este relatório identifica medidas concretas que podem ajudar a tornar a integração da IA nos cuidados de saúde mais transparente, eficaz e justa.”
Mello e os seus coautores enfatizam que o potencial da IA é vasto para reduzir os encargos administrativos, melhorar a precisão do diagnóstico, personalizar o tratamento e alargar os cuidados às populações carenciadas. Mas sem melhores infra-estruturas, avaliações e incentivos, escrevem eles, essa promessa poderia ser minada por uma implantação limitada e desigual, danos não intencionais e desperdício de recursos.
Quatro prioridades para uma integração responsável
Os autores descrevem um roteiro para uma adoção de IA mais segura e eficaz:
- Envolvimento multissetorial ao longo do ciclo de vida de uma ferramenta de IA, reunindo desenvolvedores, médicos, reguladores, sistemas de saúde e pacientes para alinhar design, implantação e monitoramento.
- Ferramentas e métodos de avaliação robustos para medir a eficácia em ambientes reais, e não apenas o desempenho técnico em ambientes de teste. O relatório apela a novas formas de avaliar rapidamente os resultados em diversos ambientes de cuidados e populações de pacientes.
- Infraestrutura nacional de dados para apoiar a aprendizagem entre sistemas, semelhante à iniciativa Sentinel da FDA, que utiliza grandes redes de dados de saúde distribuídas para monitorizar a segurança dos produtos médicos em tempo real. Um ambiente de dados partilhados ajudaria a identificar mais rapidamente tanto os benefícios como os danos não intencionais.
- Quadros regulamentares e incentivos mais fortes para garantir a responsabilização e a utilização responsável, incluindo um papel de supervisão alargado e melhor coordenado para a FDA e outras agências federais. Os autores também apelam a mecanismos de financiamento, regras mais claras e incentivos alinhados para que os promotores e os sistemas de saúde participem nos esforços de avaliação e conformidade.
Um sistema de saúde já em transição
As ferramentas de IA estão cada vez mais incorporadas na prática clínica, desde sistemas de alerta de sepse em hospitais até aplicativos móveis que ajudam os pacientes a monitorar o ritmo cardíaco ou sintomas de saúde mental. Outros trabalham nos bastidores para automatizar o agendamento, o faturamento e a autorização prévia. Alguns, como os escribas de IA, abrangem os dois mundos: transcrevendo conversas clínicas e sugerindo opções de tratamento.
No entanto, apenas uma parte está sob supervisão da FDA, e mesmo aqueles que o fazem muitas vezes não são obrigados a demonstrar eficácia no mundo real, de acordo com os autores do relatório.
As ferramentas usadas para apoiar as operações comerciais, como algoritmos para autorização prévia ou agendamento de sala de cirurgia, podem moldar o acesso do paciente aos cuidados, mas geralmente não estão sujeitas à revisão da FDA. Os aplicativos diretos ao consumidor, que agora chegam a centenas de milhares, são normalmente comercializados como ferramentas de bem-estar de baixo risco, o que significa que podem evitar completamente o escrutínio regulatório. Mesmo para ferramentas clínicas de IA que passam pela aprovação da FDA, nem sempre é necessário demonstrar melhores resultados para os pacientes.
“Os hospitais estão adotando ferramentas de IA mais rápido do que conseguem avaliá-las de forma realista, e a maioria não tem infraestrutura ou recursos para realizar avaliações rigorosas internamente”, disse Mello. “No momento, a supervisão trata principalmente de verificações de processos e segurança – como prevenir erros algorítmicos ou atender a requisitos de transparência – e não se essas ferramentas realmente melhoram a saúde”.
O objectivo, argumentam os autores do relatório, não é abrandar a inovação, mas garantir que os seus benefícios sejam reais, mensuráveis e distribuídos de forma justa.
Mais informações:
Derek C. Angus et al, IA, Saúde e Cuidados de Saúde Hoje e Amanhã, JAMA (2025). DOI: 10.1001/jama.2025.18490
Fornecido pela Universidade de Stanford
Citação: Um roteiro para uma IA mais segura e eficaz nos cuidados de saúde (2025, 15 de outubro) recuperado em 15 de outubro de 2025 em https://medicalxpress.com/news/2025-10-roadmap-safer-efficient-ai-health.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.