
Ai pode ser seu terapeuta? Ainda não, diz um novo estudo

Crédito: Pixabay/CC0 Public Domain
Os chatbots estão melhorando em manter conversas – mas eles podem oferecer suporte significativo em um ambiente de terapia? Um novo estudo dos pesquisadores da USC sugere que grandes modelos de idiomas (LLMs), como o ChatGPT, ainda ficam aquém quando se trata das nuances da conexão humana.
Essa é a conclusão da pesquisa co-liderada pela USC Ph.D. Os estudantes de ciência da computação Mina Kian e Kaleen Shrestha, sob a orientação do professor robotico pioneiro Maja Matarić no Laboratório de Interação da USC.
Apresentado no capítulo norte-americano da Conferência da Association for Computational Linguistics (NAACL 2025), seu estudo descobriu que os LLMs continuam atrasados para os seres humanos na geração de respostas terapêuticas de alta qualidade.
O LLMS, descobriu o estudo, piorando no “arrastamento” linguístico, ou comunicação responsiva entre indivíduos em interação, do que humanos especialistas e até não especialistas. O arrastamento é um conceito importante que os terapeutas utilizam para melhorar o relacionamento com seus clientes, o que, por sua vez, foi encontrado para melhorar os resultados terapêuticos positivos.
Além disso, outros sete pesquisadores de ciência da computação da USC contribuíram para o estudo, juntamente com Katrin Fischer, um Ph.D. Aluno da Annenberg School for Communication and Journalism.
Suporte, não substituição
Os LLMs estão cada vez mais propostos para uso em cuidados de saúde mental, embora atualmente não sejam amplamente utilizados na terapia comportamental cognitiva clínica (TCC). E alguns estudos sinalizaram riscos significativos, incluindo viés racial e de gênero.
“Estamos vendo uma narrativa preocupante de que os LLMs poderiam substituir os terapeutas”, diz Kian. “Os terapeutas passam por anos de treinamento e treinamento clínico para se preparar para sua função voltada para o cliente, e acho muito preocupante sugerir que a tecnologia LLM poderia apenas substituí-los”.
A própria pesquisa de Kian se concentra em robôs socialmente assistidos (SARS) em cuidados de saúde mental – não para substituir os terapeutas, mas para apoiar e ampliar seu alcance.
O estudo da equipe, “Usando arrastamento lingüístico para avaliar grandes modelos de idiomas para uso em terapia cognitivo-comportamental”, explorou o quão bem um LLM líder (ChatGPT 3.5-Turbo) realizou em exercícios de lição de casa no estilo TCC.
Participantes-26 estudantes universitários-entraram em uma plataforma baseada em bate-papo alimentada pelo LLM. Eles escolheram entre os exercícios de reestruturação cognitiva e estratégia de enfrentamento, que os guiaram através de avisos para ajudar a processar e gerenciar o estresse.
Os pesquisadores analisaram transcrições dessas interações e descobriram que o arrastamento linguístico mais forte estava associado a maior auto-divulgação e engajamento-marcadores de apoio terapêutico mais eficaz. Mas, em comparações com terapeutas humanos e apoiadores de pares baseados no Reddit, o LLM mostrou consistentemente níveis mais baixos de arrastamento.
“Existe um crescente esforço de pesquisa na comunidade de processamento de linguagem natural (PNL) de validação cuidadosa de grandes modelos de idiomas em diversos domínios sensíveis”, diz Shrestha. “Passamos apenas perseguindo a geração de linguagem humana à medida que essas tecnologias se tornam mais influentes na vida de todos. Estudos específicos de caso de população como esse devem ser incentivados e compartilhados à medida que navegamos pelas complexidades de grandes LLMs pré-treinados”.
Kian e seus colegas dizem que, embora os LLMs possam ajudar a orientar os exercícios em casa, eles não substituem os médicos humanos.
“Gostaria de ver mais trabalho avaliando o desempenho dos LLMs em aplicações terapêuticas, analisando estilos de terapia além da TCC, talvez considerando seu uso em entrevistas motivacionais ou DBT (terapia com comportamento dialético)”, diz Kian. “Eu também gostaria de vê -los avaliados em relação a outras medidas terapêuticas importantes”.
Kian planeja continuar sua pesquisa sobre exercícios de lição de casa da TCC, avaliando se a SARS pode apoiar indivíduos com transtorno de ansiedade generalizada. “Espero que esta pesquisa possa eventualmente ser usada para expandir a tecnologia de cuidados em casa disponível para os terapeutas”, diz ela.
Mais informações:
Usando arrastamento linguístico para avaliar grandes modelos de linguagem para uso em terapia cognitivo -comportamental. aclanthology.org/2025.findings-naacl.430.pdf
Fornecido pela Universidade do Sul da Califórnia
Citação: Ai pode ser seu terapeuta? Ainda não, diz um novo estudo (2025, 9 de julho) recuperado em 9 de julho de 2025 de https://medicalxpress.com/news/2025-07-ai-therapist.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.