
Os controles europeus para mitigar o viés nos sistemas de saúde da IA são inadequados, dizem pesquisadores

Crédito: Pixabay/CC0 Public Domain
Os sistemas de inteligência artificial estão sendo cada vez mais usados em todos os setores, incluindo cuidados de saúde. Eles podem ser usados para propósitos diferentes; Os exemplos incluem sistemas de suporte de diagnóstico (por exemplo, um sistema amplamente utilizado na dermatologia para determinar se uma toupeira poderia se transformar em melanoma) ou sistemas de recomendação de tratamento (que, inserindo vários parâmetros, podem sugerir o tipo de tratamento mais adequado ao paciente).
Sua capacidade de melhorar e transformar os cuidados de saúde representa riscos inevitáveis. Um dos maiores problemas com os sistemas de inteligência artificial é o viés. Iñigo de Miguel questiona a prática de sempre usar bancos de dados maiores para melhorar os problemas de discriminação nos sistemas de saúde que usam IA.
De Miguel, professor de pesquisa de Ikerbasque da Universidade do País Basco (UPV/EHU), analisou os mecanismos usados na Europa para verificar se os sistemas de saúde baseados em IA operam com segurança e não se envolvem em práticas discriminatórias e prejudiciais. O pesquisador apresenta políticas alternativas para resolver o problema do viés nesses tipos de sistemas.
“Viés significa que há discriminação no que um sistema de IA está indicando. O viés é um problema sério nos cuidados de saúde, porque não apenas leva a uma perda de precisão, mas também afeta particularmente certos setores da população”, explica De Miguel.
“Suponhamos que usamos um sistema que tenha sido treinado com pessoas de uma população na qual predomina a pele muito justa; esse sistema tem um viés óbvio porque não funciona bem com tons de pele mais escuros”. O pesquisador presta atenção especial à propagação de viés ao longo do ciclo de vida do sistema, uma vez que “os sistemas mais complexos de IA mudam com o tempo; eles não são estáveis”.
O professor de UPV/Ehu publicou um artigo na revista Bioética Analisando políticas diferentes para mitigar o viés nos sistemas de saúde da IA, incluindo aqueles que figuram nos recentes regulamentos europeus sobre inteligência artificial e no espaço europeu de dados de saúde (EHDs).
De Miguel argumenta que “os regulamentos europeus sobre produtos médicos podem ser inadequados para enfrentar esse desafio, que não é apenas técnico, mas também social. Muitos dos métodos usados para verificar os produtos de saúde pertencem a outra idade, quando a IA não existia. Os regulamentos atuais são projetados para pesquisa biomédica tradicional, na qual tudo está relativamente estável”.
Sobre o uso de quantidades maiores de dados
O pesquisador apóia a idéia de que “é hora de ser criativo para encontrar soluções de políticas para essa questão difícil, onde muito está em jogo”. De Miguel reconhece que as estratégias de validação para esses sistemas são muito complicadas, mas questiona se é permitido “processar grandes quantidades de dados pessoais e sensíveis para ver se esses problemas de viés podem realmente ser corrigidos. Essa estratégia pode gerar riscos, principalmente em termos de privacidade.
“Simplesmente lançar mais dados no problema parece uma abordagem reducionista que se concentra exclusivamente nos componentes técnicos dos sistemas, entendendo o viés exclusivamente em termos de código e seus dados. Se forem necessários mais dados, fica claro que devemos analisar onde e como eles são processados”.
A esse respeito, o pesquisador considera o fato de que o conjunto de políticas analisadas nos regulamentos da IA e nos EHDs “são particularmente sensíveis quando se trata de estabelecer salvaguardas e limitações sobre onde e como os dados serão processados para mitigar esse viés.
“No entanto, também seria necessário ver quem tem o direito de verificar se o viés está sendo abordado adequadamente e em que estágios do ciclo de vida do sistema de saúde da IA. Nesse ponto, as políticas podem não ser tão ambiciosas”.
Bedbeds regulatórios ou caixas de areia
No artigo, De Miguel levanta a possibilidade de incluir mecanismos obrigatórios de validação não apenas para as fases de design e desenvolvimento, mas também para aplicação pós-comercialização. “Você nem sempre obtém um sistema melhor inserindo muito mais dados. Às vezes, precisa testá -los de outras maneiras”. Um exemplo disso seria a criação de cenários regulatórios para cuidados de saúde digital para avaliar sistematicamente as tecnologias de IA em configurações do mundo real.
“Assim como os novos medicamentos são testados em pequena escala para ver se eles funcionam, os sistemas de IA, em vez de serem testados em larga escala, devem ser testados na escala de um único hospital, por exemplo. E uma vez que o sistema for encontrado para funcionar, e para ser seguro etc., ele pode ser aberto a outros locais”.
De Miguel sugere que as instituições já envolvidas nos setores de pesquisa biomédica e saúde, como agências de avaliação ou comitês de ética, devem participar de maneira mais proativa e que terceiros – incluindo a sociedade civil – que desejam verificar que os sistemas de saúde da IA operam com segurança e não se envolvem em práticas discriminatórias ou prejudiciais.
“Estamos cientes de que a inteligência artificial representará problemas. É importante ver como os mitigamos, porque eliminá -los é quase impossível. No final do dia, isso se resume a como reduzir o inevitável, porque não podemos descartar a IA nem deve ser descartado.
“Haverá problemas ao longo do caminho, e devemos tentar resolvê -los da melhor maneira possível, enquanto comprometeu os direitos fundamentais o mínimo possível”, concluiu De Miguel.
Mais informações:
Guillermo Lazcoz et al, são mais dados sempre melhores? Sobre políticas alternativas para mitigar o viés em sistemas de saúde de inteligência artificial, Bioética (2025). Doi: 10.1111/bioe.13398
Fornecido pela Universidade do país basco
Citação: Os controles europeus para mitigar o viés nos sistemas de saúde da IA são inadequados, dizem os pesquisadores (2025, 8 de maio) recuperados em 8 de maio de 2025 de https://medicalxpress.com/news/2025-05-european-mitigate-bias-ai-health.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.