
Os chatbots consideraram mais julgadores do que as contrapartes do provedor de saúde mental humana, o estudo sugere

Crédito: Pixabay/CC0 Public Domain
Reconhecendo que algumas pessoas que enfrentam problemas de saúde mental não estão recorrendo aos provedores tradicionais para obter assistência, um professor associado da Universidade Temple examinou como a inteligência artificial poderia ser alavancada para ajudar a melhorar o acesso aos recursos de saúde.
“Nosso ponto de partida era que a saúde mental tem um grande estigma entre o público e as pessoas estariam mais abertas para divulgar suas informações a um robô em vez de um humano”, disse Sezgin Ayabakan, um colega de Harold Schaefer no Departamento de Sistemas de Informação da Gestão da FOX School of Business.
“Pensamos que as pessoas estariam mais dispostas a entrar em contato com um agente de IA, porque poderiam pensar que não seriam julgadas pelos robôs, porque não são treinados para julgar as pessoas”, acrescentou. “As pessoas podem sentir que a julgamento do profissional humano pode ser alta, para que não estejam alcançando”.
No entanto, depois de realizar vários experimentos de laboratório, sua equipe de pesquisa encontrou um resultado inesperado.
“As pessoas perceberam os agentes da IA como sendo mais crítica do que uma contraparte humana, embora ambos os agentes estivessem se comportando exatamente da mesma maneira”, disse Ayabakan. “Essa foi a principal descoberta.”
Os pesquisadores realizaram quatro experimentos de laboratório para um estudo de vinheta entre quatro grupos de 290 a 1.105 participantes. Durante os experimentos, os participantes receberam vídeos de uma conversa entre um agente e um paciente. Um grupo de participantes foi informado de que o agente era um agente de IA, enquanto o outro foi informado de que o agente era humano.
“A única variável que estava mudando foi o tipo de agente que estávamos divulgando”, explicou Ayabakan.
“Essa é a beleza dos estudos de vinheta. Você pode controlar todas as outras coisas e apenas mudar uma variável. Você obtém a percepção das pessoas com base nessa mudança”.
Em seguida, os pesquisadores conduziram um estudo qualitativo para entender como os chatbots são considerados mais julgadores. Eles realizaram 41 entrevistas detalhadas durante este estudo para saber por que as pessoas sentiram que estavam sendo julgadas por esses chatbots.
“Nossas descobertas sugerem que as pessoas não pensam que os chatbots têm esse pico de entendimento emocional, como as colegas humanas”, disse Ayabakan.
“Eles não conseguem entender profundamente porque não têm essas experiências humanas e não têm esses significados sociais e entendimento emocional que levam ao aumento da julgamento percebido”.
Os sujeitos da entrevista pensaram que os chatbots não eram capazes de ter empatia, compaixão e capacidade de validar seus sentimentos.
“As pessoas sentem que esses agentes não podem entregar esse toque humano ou essa conexão humana, pelo menos em um contexto de saúde mental”, continuou Ayabakan.
“O principal destaque é que as pessoas percebem esses agentes por aquelas coisas que não podem fazer, em vez das coisas que podem fazer. Mas se quiserem julgar um agente humano, normalmente os julgam por aquelas coisas que fazem, em vez das coisas que não podem fazer”.
Fornecido pela Temple University
Citação: Os chatbots percebidos como mais julgadores do que as contrapartes do provedor de saúde mental humana, sugerem o estudo (2025, 23 de maio) recuperado em 23 de maio de 2025 de https://medicalxpress.com/news/2025-05-chatbots-Judgmental-human-ty-Health.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa particular, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.