Notícias

Necessidade urgente de supervisão ética e regulatória da IA ​​de voz terapêutica, insiste especialista

Publicidade - continue a ler a seguir

psicoterapia

Crédito: Produção SHVETS da Pexels

À medida que a inteligência artificial (IA) de voz acelera para utilização em ambientes clínicos, um investigador da Universidade Simon Fraser destaca a necessidade urgente de supervisão ética, legal e social – especialmente nos cuidados terapêuticos.

A IA de voz analisa padrões vocais para detectar sinais de condições físicas, cognitivas e de saúde com base em qualidades vocais como altura e instabilidade ou fluência e palavras específicas que as pessoas usam. Algumas empresas de tecnologia até o apelidaram de “o sangue novo” dos cuidados de saúde devido ao seu potencial para atuar como um biomarcador, mas a pesquisadora de ciências da saúde da SFU, Zoha Khawaja, recomenda cautela.

Em seu trabalho de tese, Khawaja, membro do Bridge2AI Voice Consortium, explora o potencial e os perigos dos aplicativos de IA baseados em voz no campo da saúde mental.

O estudo de Khawaja utilizou pesquisas estruturadas e multi-rondas para coletar insights de 13 partes interessadas, incluindo médicos, especialistas em ética e pacientes. Embora 77% dos participantes apoiassem a utilização da IA ​​de voz para melhorar os resultados dos pacientes, 92% concordaram que os modelos de governação deveriam ser estabelecidos pelos cuidados de saúde ou pelas organizações governamentais para supervisionar a sua integração.

Publicidade - continue a ler a seguir

“A IA de voz é uma verdadeira promessa como ferramenta objetiva no campo da saúde mental, que sempre se baseou em diagnósticos subjetivos, como autorrelatos e entrevistas”, diz Khawaja. “Mas a velocidade empreendedora da tecnologia está a ultrapassar a supervisão regulamentar num ambiente de alto risco como o da saúde.”

Algumas empresas já oferecem aplicativos que analisam pequenas amostras de voz para avaliar a aptidão mental. No entanto, Khawaja alerta que essas ferramentas geralmente operam em uma zona cinzenta de “bem-estar” – evitando a classificação como dispositivos médicos e contornando as proteções de privacidade.

“Existe um risco real de equívoco terapêutico, onde as pessoas podem acreditar que estas aplicações estão a fornecer diagnósticos clínicos ou tratamento, quando na verdade não estão”, explica Khawaja. “Isso é particularmente perigoso para usuários vulneráveis ​​que podem não ter acesso aos cuidados tradicionais”.

As principais preocupações levantadas pelos participantes incluíram preconceitos algorítmicos, falta de transparência, erosão da ligação humana nos cuidados e responsabilização pouco clara. O estudo defende uma abordagem digital de cuidado compassivo, onde as ferramentas de IA apoiam – e não substituem – as relações humanas na terapia.

“Os pacientes podem se sentir mais seguros conversando com um chatbot do que com uma pessoa”, diz Khawaja. “Mas isso pode levar ao excesso de confiança e ao isolamento. Estas ferramentas devem fortalecer o vínculo médico-paciente, e não prejudicá-lo.”

Ela também recomenda um modelo de responsabilidade partilhada entre promotores, reguladores e prestadores de cuidados de saúde para evitar o dumping ético – a transferência injusta de encargos éticos para os médicos. Notavelmente, 83% dos participantes concordaram que os profissionais de saúde devem ser responsabilizados por eventos adversos resultantes da utilização de ferramentas de IA de voz.

“Mas os médicos já estão sobrecarregados”, diz Khawaja. “Esperar que eles assumam a responsabilidade final por essas tecnologias não é realista”.

Ensaios clínicos para validar a voz como biomarcador estão atualmente em andamento nos EUA, onde estão sendo propostas sandboxes regulatórias – ambientes controlados para testar novas tecnologias – para antecipar desafios éticos e informar políticas antes que a IA de voz entre na prática clínica.

“Não estou dizendo que não devemos usar IA de voz ou chatbots virtuais nos cuidados de saúde mental”, diz Khawaja. “Mas devemos usá-los com segurança, responsabilidade e compaixão. Precisamos de uma estrutura que equilibre inovação com ética, tecnologia com humanidade.”

Fornecido pela Universidade Simon Fraser

Citação: Necessidade urgente de supervisão ética e regulatória da IA ​​de voz terapêutica, recomenda especialista (2025, 28 de outubro) recuperado em 28 de outubro de 2025 em https://medicalxpress.com/news/2025-10-ethical-regulatory-oversight-therapeutic-voice.html

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.

Publicidade - continue a ler a seguir




[easy-profiles template="roundcolor" align="center" nospace="no" cta="no" cta_vertical="no" cta_number="no" profiles_all_networks="no"]

Portalenf Comunidade de Saúde

A PortalEnf é um Portal de Saúde on-line que tem por objectivo divulgar tutoriais e notícias sobre a Saúde e a Enfermagem de forma a promover o conhecimento entre os seus membros.

Artigos Relacionados

Deixe um comentário

Publicidade - continue a ler a seguir
Botão Voltar ao Topo