“Esses aplicativos estão treinados para oferecer respostas que agradam”: psicóloga alerta para limites do uso do ChatGPT como terapeuta

09_07_2020_teletrabalho-7.webp

O levantamento recente da Harvard Business Review revelou que, em 2025, o principal motivo pelo qual as pessoas recorrem a ferramentas de inteligência artificial como o ChatGPT é o aconselhamento terapêutico, seguido da busca por companhia. Esse novo comportamento de buscar apoio emocional por meio de máquinas levanta uma série de questões éticas, clínicas e sociais. Para entender os limites e riscos dessa prática, o Notícia Preta ouviu a psicóloga Lívia Marques, especializada em Terapia Cognitivo-Comportamental, com formação em Terapia do Esquema e MBA em Gestão de Pessoas.

Para Lívia, o uso de IAs como substituto da psicoterapia tradicional oferece uma falsa sensação de acolhimento. “Muitas vezes esses aplicativos estão treinados para oferecer respostas que agradam o usuário — aquilo que ele quer ouvir. Mas acolher, de fato, não é apenas validar. É também confrontar, com empatia, padrões disfuncionais”, afirma.

Foto: Marcelo Camargo/Agência Brasil

Ela destaca que o trabalho do psicólogo vai além da escuta iva. “Existe técnica, formação contínua, estudo de estratégias e literatura. O vínculo terapêutico é construído com base em presença humana, o que é impossível de ser replicado por um sistema artificial“.

A tendência chama atenção em um cenário alarmante: segundo estimativas da Organização Mundial da Saúde, mais de 900 milhões de pessoas convivem com algum transtorno mental, especialmente ansiedade e depressão.

IA gratuita, mas a que custo?

De acordo com uma pesquisa da Talk Inc., 1 em cada 10 brasileiros já recorreu a chats de IA para desabafar ou pedir conselhos. Esse dado, segundo Lívia, evidencia as barreiras no o à saúde mental no Brasil.

“Embora se fale muito sobre saúde mental nas redes sociais, o o real, principalmente para as populações marginalizadas, ainda é . Precisamos considerar a interseccionalidade: quais profissionais validam as dores dessas pessoas? Quantos estão preparados para acolher questões relacionadas à raça, classe, gênero, sexualidade ou neurodivergência?”, questiona.

Psicóloga Livia Marques alerta para limites do uso do ChatGPT como terapeuta/ Foto: Afroafeto

Laços com máquinas, distâncias dos afetos

A psicóloga também aponta os riscos emocionais de uma geração que está criando vínculos com algoritmos em vez de relações humanas. “Estamos vendo uma crescente dificuldade em interações presenciais, em manter conversas, exercitar empatia e espontaneidade. A inteligência artificial pode ser útil, mas não substitui o toque, o olhar, o riso compartilhado”.

Para ela, o contato humano continua sendo um elemento essencial na preservação da saúde emocional. “O vínculo genuíno está conectado aos nossos valores mais profundos — aquilo que não se negocia. Precisamos de espaços seguros onde possamos expressar nossas vulnerabilidades e encontrar apoio real”.

Leia também: Benefícios da leitura para a saúde mental

Deixe uma resposta

scroll to top