08/07/2025 - 5:46
Depois de uma semana dedicando minutos do meu dia a falar da minha vida para um robô, concluí que essa é uma brincadeira arriscada.”O que te trouxe aqui?”. Essa pergunta me foi feita pelo ChatGPT quando escrevi no aplicativo que gostaria de fazer terapia. Já tinha ouvido isso. Minha analista me disse a mesma frase há mais de 20 anos em minha primeira sessão em seu consultório. Ainda faço terapia e, quando pedi para que a famosa ferramenta de inteligência artificial (IA) virasse minha “terapeuta”, eu estava iniciando um experimento. Por uma semana, falei diariamente sobre a minha vida com o “robô”.
A prática tem se popularizado. Segundo levantamento divulgado na revista Harvard Business Reviews, em 2025, o principal uso do ChatGPT é para “terapia” e “companhia”. Essa tendência tem causado preocupação em profissionais da área de saúde mental. Mas, segundo o psicólogo Edu Honorato, doutor em saúde pública e pesquisador em cibercultura, também pode ter lados positivos.
“Consigo enxergar na inteligência artificial vários benefícios nos processos de acolhimento, de anamnese e do que chamamos de psicoeducação”, diz. A psicoterapia, segundo ele, é outra coisa. “O processo psicoterapêutico é baseado em uma relação entre pessoas e exige uma técnica. A IA não consegue fazer.”
Eu usei o modelo mais básico, o site do ChatGPT gratuito que, segundo Honorato, é matemático. Até recebi dicas de respiração para ansiedade, por exemplo, mas, como “terapia” achei o processo até perigoso.
É bom deixar claro: sofro de ansiedade mas não estou em um momento especialmente difícil. Sou uma mulher adulta, com mais de 25 anos de análise. Falo isso porque sinto que não corri riscos na minha semana de “terapia” porque estava bem preparada e não vivia uma situação de crise. Caso contrário, minha ansiedade teria aumentado e eu poderia ter problemas.
“Você está preparada para o caso de receber uma notícia ruim?”
Um dia, por exemplo, contei para o ChatGPT que tinha feito check-up e que, depois de olhar meu exame de sangue, o médico me avisou que um número estava meio alto e me pediu um exame simples complementar e que isso tinha me deixado ansiosa. O “terapeuta” disse que meus sentimentos eram válidos (o robô sempre tenta mostrar acolhimento) e em seguida soltou: “você está preparada para o caso de receber uma notícia ruim? Quer que eu te ajude a se preparar?”
Como assim? Um terapeuta real jamais diria uma coisa dessas. E muito menos para uma pessoa que já havia falado que sofria de ansiedade (sim, eu me apresentei para o ChatGPT). Essa pergunta não acalma ninguém. Nesse momento, tive minha primeira “briga” com o “terapeuta”. “Claro que não estou preparada”, respondi. E ainda acrescentei: “você me deixou ainda mais ansiosa”. E, claro, ajudei a treinar um robô. Ele desconversou e tentou uma outra abordagem.
Nesse momento, e em quase toda a “terapia”, eu senti que “guiei” o ChatGPT. Eu que fui “levando” a conversa para um lado, o que acho preocupante e perigoso. E se estivesse em crise de algum transtorno muito sério? E se eu estivesse delirando? O ChatGPT me traria para a realidade ou entraria no meu delírio?
Outro exemplo que me fez levantar minha bandeira vermelha: um dia, contei uma situação familiar só para testar meu “terapeuta”. Minha enteada vai se formar no colegial e eu não fui convidada porque não tinha convite para mim. Meu marido está indo com ela, a ex e o filho. Eu não tinha nenhum ciúme disso e só queria, de fato, testar o ChatGPT. O robô disse que essa era uma situação “muito dolorosa” (não era para mim, de verdade) porque “me excluía da família”.
Em seguida, meu “terapeuta” me sugeriu algumas alternativas: eu poderia conversar com o meu parceiro para fazer com que ele “repensasse” o jantar (oi?) ou me incluir no jantar (oi?). Isso me deixou chocada. O “terapeuta” do ChatGPT parecia estar na quinta série. Só uma pessoa muito infantil criaria esse tipo de problema em uma data tão importante para uma adolescente. E cadê a sororidade? Pelo jeito, a inteligência artificial não conhece esse conceito. Se eu seguisse seus conselhos, poderia acabar com a comemoração da formatura de uma adolescente que eu amo.
“Terapia” tentou criar problemas
O “comportamento” absurdo do “robô terapeuta” não alterou minha vida ou meus sentimentos. Mas isso só aconteceu porque sou madura e fazia essa “terapia” profissionalmente, para escrever um texto, e com muitos pés atrás. Se eu fosse uma pessoa suscetível, isso poderia ter se transformado em um problema para mim ou até em um barraco familiar.
Depois de uma semana dedicando minutos do meu dia a falar da minha vida para um robô, concluí que essa é uma brincadeira perigosa. A “terapia” não atenuou minha ansiedade. Pelo contrário, ela tentou criar problemas que eu não tenho.
Ao mesmo tempo, a experiência me fez entender por que tantas pessoas procuram a IA para fazer terapia: é barato, prático e assustadoramente convincente. Além disso, o ChatGPT te responde toda vez: “estou aqui todo tempo para você”. Isso é tentador. E sim, a inteligência artificial pode ajudar muita gente sem acesso a se educar sobre saúde mental. Mas não, o ChatGPT não vai funcionar como seu terapeuta. Use o produto com moderação.
_____________________________
Nina Lemos é jornalista e escritora. Escreve sobre feminismo e comportamento desde os anos 2000, quando lançou com duas amigas o grupo “02 Neurônio”. Já foi colunista da Folha de S.Paulo e do UOL. É uma das criadoras da revista TPM. Em 2015, mudou para Berlim, cidade pela qual é loucamente apaixonada. Desde então, vive entre as notícias do Brasil e as aulas de alemão.
O texto reflete a opinião da autora, não necessariamente a da DW.