
Você poderia mentir para um chatbot de saúde, mas isso pode mudar a forma como você se percebe

Crédito: imagem gerada por IA
Imagine que você está na lista de espera para uma operação não urgente. Você foi atendido na clínica há alguns meses, mas ainda não tem data para o procedimento. É extremamente frustrante, mas parece que você apenas terá que esperar.
Porém, a equipe cirúrgica do hospital acaba de entrar em contato por meio de um chatbot. O chatbot faz algumas perguntas de triagem sobre se os seus sintomas pioraram desde a última vez que você foi visto e se eles estão impedindo você de dormir, trabalhar ou realizar suas atividades diárias.
Seus sintomas são praticamente os mesmos, mas parte de você se pergunta se deveria responder sim. Afinal, talvez isso faça com que você suba na lista ou, pelo menos, consiga falar com alguém. E de qualquer forma, não é como se esta fosse uma pessoa real.
A situação acima tem por base os chatbots já utilizados no SNS para identificar pacientes que já não precisam de estar em lista de espera, ou que precisam de ser priorizados.
Há um enorme interesse na utilização de grandes modelos de linguagem (como ChatGPT) para gerir eficientemente as comunicações nos cuidados de saúde (por exemplo, aconselhamento sobre sintomas, triagem e gestão de consultas). Mas quando interagimos com estes agentes virtuais, aplicam-se os padrões éticos normais? É errado – ou pelo menos é igualmente errado – se mentirmos para uma IA conversacional?
Há evidências psicológicas de que as pessoas têm muito mais probabilidade de serem desonestas se interagirem conscientemente com um agente virtual.
Em um experimento, foi pedido às pessoas que jogassem uma moeda e relatassem o número de caras. (Eles poderiam obter uma compensação maior se tivessem alcançado um número maior.) A taxa de trapaça era três vezes maior se eles se reportassem a uma máquina do que a um ser humano. Isso sugere que algumas pessoas estariam mais inclinadas a mentir para um chatbot em lista de espera.
Uma razão potencial pela qual as pessoas são mais honestas com os humanos é a sua sensibilidade à forma como são percebidas pelos outros. O chatbot não vai te desprezar, julgar ou falar mal de você.
Mas poderíamos fazer uma pergunta mais profunda sobre por que mentir é errado e se um parceiro de conversa virtual muda isso.
A ética da mentira
Existem diferentes maneiras de pensar sobre a ética da mentira.
Mentir pode ser ruim porque causa danos a outras pessoas. Mentiras podem ser profundamente prejudiciais para outra pessoa. Eles podem fazer com que alguém aja com base em informações falsas ou seja falsamente tranquilizado.
Às vezes, as mentiras podem prejudicar porque minam a confiança de outra pessoa nas pessoas em geral. Mas muitas vezes essas razões não se aplicam ao chatbot.
Mentiras podem prejudicar outra pessoa, mesmo que não causem danos. Se enganarmos voluntariamente outra pessoa, potencialmente deixamos de respeitar a sua agência racional ou a usamos como um meio para atingir um fim. Mas não está claro se podemos enganar ou errar um chatbot, uma vez que ele não tem mente nem capacidade de raciocínio.
Mentir pode ser ruim para nós porque prejudica nossa credibilidade. A comunicação com outras pessoas é importante. Mas quando fazemos declarações falsas conscientemente, diminuímos o valor, aos olhos das outras pessoas, do nosso testemunho.
Para a pessoa que repetidamente expressa falsidades, tudo o que ela diz fica em questão. Esta é parte da razão pela qual nos preocupamos com a mentira e com a nossa imagem social. Mas, a menos que as nossas interações com o chatbot sejam gravadas e comunicadas (por exemplo, aos humanos), as mentiras do nosso chatbot não terão esse efeito.
Mentir também é ruim para nós porque pode fazer com que os outros nos falem a verdade. (Por que as pessoas deveriam ser honestas conosco se não seremos honestos com elas?)
Mas, novamente, é improvável que isso seja consequência de mentir para um chatbot. Pelo contrário, este tipo de efeito pode ser, em parte, um incentivo para mentir a um chatbot, uma vez que as pessoas podem estar conscientes da tendência relatada do ChatGPT e de agentes semelhantes para confabularem.
Justiça
É claro que mentir pode ser errado por razões de justiça. Esta é potencialmente a razão mais significativa pela qual é errado mentir para um chatbot. Se você fosse promovido na lista de espera por causa de uma mentira, outra pessoa seria injustamente deslocada.
As mentiras podem se tornar uma forma de fraude se você obtiver um ganho injusto ou ilegal ou privar outra pessoa de um direito legal. As companhias de seguros estão particularmente interessadas em enfatizar isto quando utilizam chatbots em novas aplicações de seguros.
Sempre que você obtém um benefício real de uma mentira em uma interação do chatbot, sua reivindicação desse benefício é potencialmente suspeita. O anonimato das interações online pode levar a uma sensação de que ninguém jamais descobrirá.
Mas muitas interações do chatbot, como aplicações de seguros, são gravadas. Pode ser igualmente provável, ou até mais provável, que a fraude seja detectada.
Virtude
Concentrei-me nas más consequências da mentira e nas regras ou leis éticas que podem ser violadas quando mentimos. Mas há mais uma razão ética pela qual mentir é errado. Isso está relacionado ao nosso caráter e ao tipo de pessoa que somos. Isto é muitas vezes capturado na importância ética da virtude.
A menos que haja circunstâncias excepcionais, podemos pensar que devemos ser honestos na nossa comunicação, mesmo sabendo que isso não prejudicará ninguém nem violará quaisquer regras. Um caráter honesto seria bom pelas razões já mencionadas, mas também é potencialmente bom por si só. A virtude da honestidade também se fortalece: se cultivarmos a virtude, ela ajuda a reduzir a tentação de mentir.
Isto leva a uma questão em aberto sobre como estes novos tipos de interações irão mudar o nosso caráter de forma mais geral.
As virtudes que se aplicam à interação com chatbots ou agentes virtuais podem ser diferentes de quando interagimos com pessoas reais. Nem sempre é errado mentir para um chatbot. Isto pode, por sua vez, levar-nos a adoptar padrões diferentes para a comunicação virtual. Mas se isso acontecer, uma preocupação é se isso poderá afetar a nossa tendência de sermos honestos no resto da vida.
Fornecido por A Conversa
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.
Citação: Você poderia mentir para um chatbot de saúde – mas isso pode mudar a forma como você se percebe (2024, 11 de fevereiro) recuperado em 11 de fevereiro de 2024 em https://medicalxpress.com/news/2024-02-health-chatbot.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.