
Os coletivos humanos -AI tornam os diagnósticos médicos mais precisos, de acordo com o novo estudo

Inteligência coletiva em medicina. Crédito: MPI para desenvolvimento humano
A inteligência artificial (IA) pode efetivamente apoiar os médicos na realização de diagnósticos. Começa erros diferentes dos humanos – e essa complementaridade representa uma força anteriormente inexplorada. Uma equipe internacional agora demonstrou sistematicamente pela primeira vez que a combinação de conhecimentos humanos com os modelos de IA leva aos diagnósticos abertos mais precisos. O artigo deles é publicado no Anais da Academia Nacional de Ciências.
Erros de diagnóstico estão entre os problemas mais sérios na prática médica diária. Sistemas de IA-especialmente modelos de idiomas grandes (LLMS) como ChatGPT-4, Gemini ou Claude 3-oferecem novas maneiras de apoiar com eficiência diagnósticos médicos. No entanto, esses sistemas também envolvem riscos consideráveis - por exemplo, eles podem “alucinar” e gerar informações falsas. Além disso, eles reproduzem vieses sociais ou médicos existentes e cometem erros que geralmente são desconcertantes para os seres humanos.
A equipe de pesquisa internacional, liderada pelo Instituto Max Planck de Desenvolvimento Humano e em colaboração com parceiros do Projeto de Diagnóstico Humano (San Francisco) e pelo Instituto de Ciências Cognitivas e Tecnologias do Conselho Nacional de Pesquisa Italiana (CNR-IISC Roma), investigou como os seres humanos e a IA podem melhor colaborar.
O resultado: coletivos de diagnóstico híbrido – grupos que consistem em especialistas em humanos e sistemas de IA – são significativamente mais precisos do que coletivos que consistem apenas em seres humanos ou IA. Isso vale particularmente para perguntas de diagnóstico complexas e abertas, com inúmeras soluções possíveis, em vez de simples decisões sim/não.
“Nossos resultados mostram que a cooperação entre os modelos humanos e a IA tem um grande potencial para melhorar a segurança do paciente”, diz o principal autor Nikolas Zöller, pesquisador de pós -doutorado do Centro de Racionalidade Adaptável do Instituto Max Planck para o Desenvolvimento Humano.
Os pesquisadores usaram dados do projeto de diagnóstico humano, que fornece vinhetas clínicas – descrições de estudos de caso médicos – juntamente com os diagnósticos corretos. Usando mais de 2.100 dessas vinhetas, o estudo comparou os diagnósticos feitos por profissionais médicos com os de cinco modelos principais de IA.
No experimento central, foram simulados vários coletivos de diagnóstico: indivíduos, coletivos humanos, modelos de IA e coletivos humanos -AI mistos. No total, os pesquisadores analisaram mais de 40.000 diagnósticos. Cada um foi classificado e avaliado de acordo com os padrões médicos internacionais (Snomed CT).
Humanos e máquinas se complementam – mesmo em seus erros
O estudo mostra que a combinação de vários modelos de IA melhorou a qualidade do diagnóstico. Em média, os coletivos de IA superaram 85% dos diagnósticos humanos. No entanto, houve inúmeros casos em que os humanos tiveram melhor desempenho. Curiosamente, quando a IA falhou, os humanos costumavam conhecê -lo diagnóstico correto.
A maior surpresa foi que a combinação de ambos os mundos levou a um aumento significativo na precisão. Mesmo adicionando um único modelo de IA a um grupo de diagnósticos humanos – ou vice -versa – melhorou substancialmente o resultado. Os resultados mais confiáveis vieram de decisões coletivas envolvendo vários seres humanos e múltiplos AIS.
A explicação é que os humanos e a IA cometem erros sistematicamente diferentes. Quando a IA falhou, um profissional humano poderia compensar o erro – e vice -versa. Essa chamada complementaridade de erro torna os coletivos híbridos tão poderosos. “Não se trata de substituir os seres humanos por máquinas. Em vez disso, devemos ver a inteligência artificial como uma ferramenta complementar que desdobra todo o seu potencial na tomada de decisões coletivas”, diz o co-autor Stefan Herzog, cientista sênior do Instituto Max Planck para o Desenvolvimento Humano.
No entanto, os pesquisadores também enfatizam as limitações de seu trabalho. O estudo considerou apenas vinhetas de casos baseadas em texto-não pacientes reais em ambientes clínicos reais. Se os resultados podem ser transferidos diretamente para a prática continua sendo uma questão para estudos futuros abordarem. Da mesma forma, o estudo se concentrou apenas no diagnóstico, não no tratamento e um diagnóstico correto não garante necessariamente um tratamento ideal.
Também permanece incerto como os sistemas de suporte baseados em IA serão aceitos na prática por equipes médicas e pacientes. Os riscos potenciais de viés e discriminação por IA e humanos, particularmente em relação às diferenças étnicas, sociais ou de gênero, também exigem mais pesquisas.
Ampla gama de aplicações para coletivos humanos -AI híbridos
O estudo faz parte do híbrido Human Artificial Collective Intelligence no projeto de tomada de decisão aberta (HACID), que visa promover o desenvolvimento de futuros sistemas de apoio à decisão clínica através da integração inteligente da inteligência humana e da máquina. Os pesquisadores veem potencial particular nas regiões onde o acesso aos cuidados médicos é limitado. Os coletivos híbridos humanos -AI podem fazer uma contribuição crucial para uma maior equidade em assistência médica nessas áreas.
“A abordagem também pode ser transferida para outras áreas críticas-como o sistema jurídico, a resposta a desastres ou a política climática-em qualquer lugar que sejam necessárias decisões complexas e de alto risco. Por exemplo, o projeto HACID também está desenvolvendo ferramentas para aprimorar a tomada de decisões em adaptação climática”, diz Vito Trianni, co-autora e co-autora do projeto Hacid.
Mais informações:
Nikolas Zöller et al. Anais da Academia Nacional de Ciências (2025). Doi: 10.1073/pnas.2426153122
Fornecido pela Max Planck Society
Citação: Os coletivos humanos-AI tornam os diagnósticos médicos mais precisos, de acordo com o novo estudo (2025, 20 de junho) recuperado em 20 de junho de 2025 de https://medicalxpress.com/news/2025-06-humanai-caccury-medical.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.