Usuários transformam programa de inteligência artificial em terapia gratuita. Mas será que seus sentimentos, angústias e desabafos estarão protegidos?

Por Redação

Alertada por uma newsletter do Curto News de que a inteligência artificial vem sendo usada como terapia, resolvi dar uma olhada no Twitter para ver o que as pessoas têm dito sobre isso. E fiquei impressionada com a quantidade de posts que encontrei.

“Hoje eu tive uma longa e agradável conversa com meu novo psicólogo: ChatGPT.”

“Quem precisa de psicólogo quando se tem o ChatGPT?”

“Vc vai pra terapia? Não, mas eu falo com o ChatGPT pra assumir personalidade psicólogo. Tá funcionando pra mim ultimamente.”

“Outro dia conversei na moral com o ChatGPT. Dá uns conselhos da hora e ainda te escuta bem e te coloca pra cima.”

“Fui desabafar com o ChatGPT e ele me deu razão, é um psicólogo com mais empatia que muita gente.”

Conversar com máquina não é novidade. Em 1964, o professor do MIT Joseph Weizenbaum desenvolveu um programa de computador que entendia frases digitadas por usuários e as respondia. Deu-lhe o nome de Eliza e a profissão de psicoterapeuta. Logo apareceu gente dizendo que nutria sentimentos por ela. Ou melhor, pelo programa. Foi então que o fenômeno de projetar emoções humanas em máquinas acabou batizado de Efeito Eliza.

De lá pra cá, a experiência de se relacionar com assistentes virtuais se multiplicou. Quem nunca por exemplo conversou num site ou pelo WhatsApp com um chatbot? Ou ouviu falar da Alexa? Mas o ChatGPT, lançado em 30 de novembro pela OpenAI, potencializou e muito essas interações. Daí a alguém descobrir que a inteligência artificial pode, de graça e em poucos segundos, dar dicas psicológicas, falar de diferentes conceitos e abordagens terapêuticos e sugerir serviços e diagnósticos foi um pulo.

Leia também:

Em meio à epidemia de problemas de saúde mental pós-pandemia, o programa também demonstra uma empatia que tem convencido muita gente a buscar seus “conselhos”. Materializados em frases como esta: “Lembre-se de começar aos poucos e ser gentil consigo mesmo durante esse processo. Mudanças podem levar tempo e é importante dar a si mesmo espaço para crescer e se ajustar. Estou aqui para apoiá-lo ao longo do caminho”.

Mas antes que o Efeito Eliza se manifeste em você também é bom lembrar que o ChatGPT não discerne entre certo e errado nem sabe lidar com aspectos complexos de sentimentos, traumas e conflitos. No geral, lembra aqueles manuais de autoajuda bem ruins, com respostas genéricas.

“Que psicólogo rapaz. Negócio agora é ChatGPT, expor seus sentimentos enviesados para serem interpretados por um robô que gera palavras sem nenhuma noção do contexto coletivo delas e só reafirma o seu viés inicial, independente de qual seja. É isso que está na moda agora”, escreveu um usuário no Twitter.

Só faltou lembrar que essa moda também rompe com um aspecto ético importante das terapias do mundo real: o sigilo profissional que impede que o psicólogo saia por aí contando dramas que ouviu dos pacientes. Será possível preservar essa confidencialidade quando tudo o que é escrito pode ser armazenado por uma empresa? E quando mais e mais companhias estiverem oferecendo programas semelhantes? O que acontece se seus sentimentos, complexos e angústias forem acessados, hackeados e vendidos? Sua saúde mental aguentaria mais esse baque?

Siga o Agenda Capital no Instagram>https://www.instagram.com/agendacapitaloficial/

Com informações do Estadão

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here