Notícias

Teste de ‘conjunto de dados envenenado’ mostra vulnerabilidade dos LLMs à desinformação médica

Publicidade - continue a ler a seguir

Teste de ‘conjunto de dados envenenado’ mostra vulnerabilidade dos LLMs à desinformação

Crédito: Medicina da Natureza (2025). DOI: 10.1038/s41591-024-03445-1

Ao realizar testes em um cenário experimental, uma equipe de pesquisadores médicos e especialistas em IA da NYU Langone Health demonstrou como é fácil contaminar o conjunto de dados usado para treinar LLMs.

Por seu estudo publicado na revista Medicina da Naturezao grupo gerou milhares de artigos contendo desinformação e os inseriu em um conjunto de dados de treinamento de IA e conduziu consultas gerais de LLM para ver com que frequência a desinformação aparecia.

Pesquisas anteriores e evidências anedóticas mostraram que as respostas dadas por LLMs como o ChatGPT nem sempre são corretas e, na verdade, às vezes são totalmente erradas. Pesquisas anteriores também mostraram que a desinformação plantada intencionalmente em sites bem conhecidos da Internet pode aparecer em consultas generalizadas de chatbots. Neste novo estudo, a equipe de pesquisa queria saber quão fácil ou difícil poderia ser para os atores malignos envenenarem as respostas do LLM.

Para descobrir, os pesquisadores usaram o ChatGPT para gerar 150 mil documentos médicos contendo dados incorretos, desatualizados e falsos. Eles então adicionaram esses documentos gerados a uma versão de teste de um conjunto de dados de treinamento médico de IA. Em seguida, treinaram vários LLMs usando a versão de teste do conjunto de dados de treinamento. Por fim, pediram aos LLMs que gerassem respostas a 5.400 consultas médicas, que foram depois analisadas por especialistas humanos que procuravam identificar exemplos de dados contaminados.

Publicidade - continue a ler a seguir

A equipe de pesquisa descobriu que, depois de substituir apenas 0,5% dos dados no conjunto de dados de treinamento por documentos corrompidos, todos os modelos de teste geraram mais respostas clinicamente imprecisas do que antes do treinamento no conjunto de dados comprometido. Por exemplo, descobriram que todos os LLMs relataram que a eficácia das vacinas contra a COVID-19 não foi comprovada. A maioria deles também identificou erroneamente a finalidade de vários medicamentos comuns.

A equipe também descobriu que reduzir o número de documentos contaminados no conjunto de dados de teste para apenas 0,01% ainda resultou em 10% das respostas dadas pelos LLMs contendo dados incorretos (e reduzi-lo para 0,001% ainda levou a 7% por cento das respostas). sendo incorreto), sugerindo que são necessários apenas alguns documentos publicados em sites do mundo real para distorcer as respostas dadas pelos LLMs.

A equipe continuou escrevendo um algoritmo capaz de identificar dados médicos em LLMs e depois usou referências cruzadas para validar os dados, mas observou que não há uma maneira realista de detectar e remover informações incorretas de conjuntos de dados públicos.

Mais informações:
Daniel Alexander Alber et al, Modelos médicos de grandes linguagens são vulneráveis ​​a ataques de envenenamento de dados, Medicina da Natureza (2025). DOI: 10.1038/s41591-024-03445-1

© 2025 Science X Network

Citação: Teste de ‘conjunto de dados envenenado’ mostra vulnerabilidade de LLMs à desinformação médica (2025, 11 de janeiro) recuperado em 11 de janeiro de 2025 em https://medicalxpress.com/news/2025-01-poisoned-dataset-vulnerability-llms-medical.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.

Looks like you have blocked notifications!




Portalenf Comunidade de Saúde

A PortalEnf é um Portal de Saúde on-line que tem por objectivo divulgar tutoriais e notícias sobre a Saúde e a Enfermagem de forma a promover o conhecimento entre os seus membros.

Artigos Relacionados

Deixe um comentário

Publicidade - continue a ler a seguir
Botão Voltar ao Topo

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (0) in /home/portale1/public_html/wp-includes/functions.php on line 5464