
Orientação sobre o uso seguro de grandes modelos de linguagem na prática oncológica

Crédito: imagem gerada por IA
A Sociedade Europeia de Oncologia Médica (ESMO) lançou hoje a Orientação ESMO sobre o Uso de Grandes Modelos de Linguagem na Prática Clínica (ELCAP), o primeiro conjunto estruturado de recomendações para trazer modelos de linguagem de IA para a oncologia de forma segura e eficaz. A publicação da ELCAP na revista Anais de Oncologia coincide com uma sessão sobre Chat GPT e tratamento do câncer no Congresso ESMO 2025 em Berlim, destacando o papel crescente da IA na oncologia.
“A prioridade da ESMO é garantir que a inovação se traduza em benefícios mensuráveis para os pacientes e em soluções viáveis para os médicos. Com o ELCAP, a ESMO fornece uma estrutura pragmática e específica para oncologia que abrange a IA, ao mesmo tempo que mantém a responsabilidade clínica, a transparência e a proteção robusta de dados”, disse Fabrice André, presidente da ESMO.
À medida que a utilização de Grandes Modelos de Linguagem (LLMs) acelera em toda a oncologia, o ELCAP reconhece que as oportunidades e os riscos variam dependendo do utilizador – sejam pacientes, médicos ou instituições, e, portanto, ancora as recomendações numa estrutura de três tipos, traduzindo princípios de alto nível em 23 declarações de consenso para a prática diária:
- A primeira categoria (Tipo 1) aborda aplicativos voltados para o paciente como chatbots para educação e apoio a sintomas, que devem complementar os cuidados clínicos e operar em vias supervisionadas com escalonamento explícito e proteção robusta de dados.
- A segunda categoria (Tipo 2) abrange ferramentas voltadas para profissionais de saúde como suporte à decisão, documentação e tradução, que exigem validação formal, limitações transparentes e responsabilidade humana explícita pelas decisões clínicas.
- A terceira categoria (Tipo 3) diz respeito sistemas institucionais de fundo integrados com registros eletrônicos de saúde para tarefas como extração de dados, resumos automatizados e correspondência de ensaios clínicos; estes sistemas requerem testes pré-implantação, monitorização contínua de distorções e alterações de desempenho, governação institucional e revalidação quando os processos ou fontes de dados mudam. Os médicos também devem estar atentos quando tais sistemas estão operando em seu ambiente, pois seu impacto depende da interoperabilidade e de medidas de privacidade desde o projeto.
Em todos os contextos, a fiabilidade dos resultados depende da integralidade e exatidão dos dados de entrada: lacunas na documentação clínica ou consultas parciais dos pacientes podem levar a respostas imprecisas ou enganosas, sublinhando a necessidade de supervisão e rotas de escalada claras.
“A ELCAP reconhece que o valor dos modelos de linguagem depende de quem os utiliza”, disse Miriam Koopman, Presidente do Grupo de Trabalho de Dados do Mundo Real e Saúde Digital da ESMO, co-autora do artigo. “Ao distinguir os sistemas voltados para o paciente, voltados para o médico e os sistemas institucionais de base, definimos expectativas para cada contexto: caminhos supervisionados para os pacientes, ferramentas validadas e transparentes para os médicos e sistemas bem governados e monitorados continuamente, incorporados nos registros eletrônicos de saúde.”
O ELCAP concentra-se em LLMs assistenciais que operam sob supervisão humana, apoiando os médicos fornecendo informações ou redigindo conteúdo, em vez de realizar ações independentes. “Esses sistemas são projetados para aprimorar – e não substituir – os fluxos de trabalho clínicos e a tomada de decisões”, acrescentou Jakob N. Kather, vice-presidente da Força-Tarefa de Dados do Mundo Real e Saúde Digital da ESMO e coautor do estudo.
“Ao mesmo tempo, a orientação reconhece o rápido surgimento de modelos de IA autônomos, ou ‘agentes’, capazes de iniciar ações sem avisos diretos, o que levanta desafios distintos de segurança, regulatórios e éticos e exigirá orientação futura dedicada.”
Olhando para o futuro, o Presidente da ESMO enfatizou que os padrões partilhados são tão críticos como os algoritmos para garantir a confiança nos cuidados oncológicos baseados na IA. “O uso responsável da IA em oncologia requer padrões compartilhados tanto quanto requer algoritmos; o ELCAP estabelece como implantar modelos de linguagem de forma a melhorar a qualidade, a equidade e a eficiência do tratamento do câncer, sem comprometer a confiança no julgamento clínico”, concluiu André.
O ELCAP foi desenvolvido entre novembro de 2024 e fevereiro de 2025 por um painel internacional de 20 membros que abrange oncologia, IA, bioestatística, saúde digital, ética e a perspectiva do paciente, reunido no âmbito da Força-Tarefa ESMO Real World Data & Digital Health Task Force.
Mais informações:
EYT Wong et al, orientação da ESMO sobre o uso de grandes modelos de linguagem na prática clínica (ELCAP), Anais de Oncologia (2025). DOI: 10.1016/j.annonc.2025.09.001
Fornecido pela Sociedade Europeia de Oncologia Médica
Citação: Orientação sobre o uso seguro de modelos de linguagem grande na prática oncológica (2025, 20 de outubro) recuperado em 20 de outubro de 2025 em https://medicalxpress.com/news/2025-10-guidance-safe-large-language-oncology.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.