
Os pesquisadores dos EUA procuram legitimar os cuidados de saúde mental da AI

Pesquisadores do Dartmouth College, vistos aqui, acreditam que desenvolveram um aplicativo confiável orientado a IA para fornecer psicoterapia, atendendo a uma necessidade crítica de assistência médica.
Pesquisadores do Dartmouth College acreditam que a inteligência artificial pode oferecer psicoterapia confiável, distinguindo seu trabalho dos aplicativos de saúde mental não comprovados e às vezes duvidosos que inundam o mercado de hoje.
Sua aplicação, TherABOT, aborda a escassez crítica de profissionais de saúde mental.
De acordo com Nick Jacobson, professor assistente de ciência e psiquiatria de dados em Dartmouth, até multiplicando o número atual de terapeutas dez vezes deixaria poucos para atender à demanda.
“Precisamos de algo diferente para atender a essa grande necessidade”, disse Jacobson à AFP.
A equipe de Dartmouth publicou recentemente um estudo clínico demonstrando a eficácia de Therabot em ajudar pessoas com ansiedade, depressão e distúrbios alimentares.
Um novo estudo está planejado para comparar os resultados da TherABOT com as terapias convencionais.
O estabelecimento médico parece receptivo a essa inovação.
Vaile Wright, diretora sênior de inovação em saúde da American Psychological Association (APA), descreveu “um futuro em que você terá um chatbot gerado pela IA enraizado na ciência que é co-criado por especialistas e desenvolvido com o objetivo de abordar a saúde mental”.
Wright observou que esses aplicativos “têm muitas promessas, principalmente se forem feitas de forma responsável e eticamente”, embora ela tenha expressado preocupações sobre possíveis danos aos usuários mais jovens.
A equipe de Jacobson até agora se dedicou quase seis anos ao desenvolvimento da TherABOT, com segurança e eficácia como objetivos primários.
Michael Heinz, psiquiatra e co-líder do projeto, acredita que o Rushing for Profit comprometeria a segurança.
A equipe de Dartmouth está priorizando a compreensão de como seu terapeuta digital funciona e estabelecendo confiança.
Eles também estão contemplando a criação de uma entidade sem fins lucrativos vinculada à TherABOT para tornar a terapia digital acessível àqueles que não podem pagar ajuda pessoal convencional.
Cuidado ou dinheiro?
Com a abordagem cautelosa de seus desenvolvedores, a TherAbot poderia potencialmente ser um destaque em um mercado de aplicativos não testados que afirmam abordar a solidão, a tristeza e outras questões.
Segundo Wright, muitos aplicativos parecem projetados mais para capturar atenção e gerar receita do que melhorar a saúde mental.
Esses modelos mantêm as pessoas envolvidas dizendo o que querem ouvir, mas os jovens usuários geralmente não têm o conhecimento para perceber que estão sendo manipulados.
Darlene King, presidente do Comitê de Tecnologia de Saúde Mental da American Psychiatric Association, reconheceu o potencial da IA para abordar os desafios da saúde mental, mas enfatiza a necessidade de mais informações antes de determinar benefícios e riscos reais.
“Ainda há muitas perguntas”, observou King.
Para minimizar resultados inesperados, a equipe da TherABOT foi além das transcrições de terapia de mineração e vídeos de treinamento para alimentar seu aplicativo de IA criando manualmente conversas simuladas para cuidadores de pacientes.
Embora teoricamente, a Administração de Alimentos e Medicamentos dos EUA seja responsável por regular o tratamento on -line em saúde mental, ele não certifica dispositivos médicos ou aplicativos de IA.
Em vez disso, “o FDA pode autorizar seu marketing depois de revisar o envio pré-mercado apropriado”, de acordo com um porta-voz da agência.
O FDA reconheceu que “as terapias de saúde mental digital têm o potencial de melhorar o acesso ao paciente a terapias comportamentais”.
Terapeuta sempre entra
Herbert Bay, CEO da Earkick, defende o terapeuta da AI de sua startup Panda como “super seguro”.
Bay diz que Earkick está conduzindo um estudo clínico de seu terapeuta digital, que detecta sinais de crise emocional ou ideação suicida e envia alertas de ajuda.
“O que aconteceu com o personagem.ai não poderia acontecer conosco”, disse Bay, referindo-se a um caso da Flórida no qual uma mãe afirma que um relacionamento de chatbot contribuiu para a morte de seu filho de 14 anos por suicídio.
A IA, por enquanto, é mais adequada para o suporte diário de saúde mental do que as falhas de agitação da vida, de acordo com Bay.
“Chamar seu terapeuta às duas da manhã simplesmente não é possível”, mas um chatbot de terapia permanece sempre disponível, observou Bay.
Um usuário chamado Darren, que se recusou a fornecer seu sobrenome, encontrou o Chatgpt útil para gerenciar seu transtorno de estresse traumático, apesar do assistente do Openai não ter sido projetado especificamente para a saúde mental.
“Sinto que está funcionando para mim”, disse ele.
“Eu o recomendaria a pessoas que sofrem de ansiedade e estão em perigo”.
© 2025 AFP
Citação: Os pesquisadores dos EUA procuram legitimar a AI Mental Health Care (2025, 4 de maio) Recuperado em 4 de maio de 2025 em https://medicalxpress.com/news/2025-05-legitimize-ai-mental-health.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.