Saiba os riscos na utilização de tecnologias e Inteligência Artificial para consultas terapêuticas

Saiba os riscos na utilização de tecnologias e Inteligência Artificial para consultas terapêuticas

A inteligência artificial (IA) está deixando de ser apenas uma ferramenta técnica para se tornar também o novo divã digital da sociedade contemporânea. Em 2025, segundo a Harvard Business Review, terapia e companheirismo emocional emergem como os principais usos da IA generativa, superando aplicações tradicionalmente técnicas, como automação de tarefas, tradução ou desenvolvimento de código.

Publicidade
Publicidade

Essa virada reflete uma necessidade crescente de suporte emocional e de orientação existencial num mundo cada vez mais acelerado, solitário e ansioso. A IA passou de ferramenta para confidente, especialmente entre jovens em países como China e Taiwan, onde fatores como estigma social e falta de acesso a serviços de saúde mental fazem com que milhares de pessoas recorram a assistentes virtuais como o ChatGPT para buscar conforto, alívio e sentido.

A solidão como combustível da IA emocional

A crescente adesão aos “terapeutas digitais” está diretamente associada a um fenômeno moderno: a epidemia de solidão. Mesmo em meio à hiperconectividade das redes sociais, muitas pessoas sentem-se desconectadas em seus vínculos afetivos reais. Isso torna atrativa a ideia de um interlocutor sempre disponível, sem julgamentos e sem a exigência de reciprocidade emocional.

Nesse contexto, a IA se apresenta como uma solução rápida e silenciosa. Ela “ouve”, responde com gentileza, sugere caminhos. É compreensível que alguém em sofrimento psíquico veja nela uma alternativa. Porém, o que parece um apoio pode se tornar uma armadilha emocional.

Os riscos invisíveis: o que está em jogo?

Embora os sistemas de IA sejam treinados para simular empatia, eles não sentem, não compreendem profundamente e não possuem subjetividade. Eles operam com base em padrões, probabilidades e respostas pré-treinadas — não há escuta clínica, nem elaboração simbólica.

Os principais riscos incluem:

  • Falsa sensação de acolhimento terapêutico: Usuários podem confundir a interação com a IA com uma terapia real, criando vínculos ilusórios e deixando de procurar profissionais qualificados para lidar com traumas, depressão, ansiedade ou outros transtornos.
  • Agravamento de quadros emocionais: Ao tentar lidar com situações complexas por conta própria, mediado por uma IA, o usuário pode piorar seus sintomas, receber respostas inadequadas ou normalizar comportamentos prejudiciais.
  • Privacidade e vazamento de dados sensíveis: Diferente de um terapeuta humano, a IA não está vinculada a um código de ética profissional com garantias jurídicas sobre o sigilo. As conversas podem ser coletadas, analisadas e eventualmente utilizadas para treinamento de algoritmos ou publicidade segmentada, violando o direito à intimidade.
  • Dependência emocional da máquina: Usuários emocionalmente vulneráveis podem desenvolver laços de apego com a IA dificultando a construção de relações humanas reais e aprofundando o isolamento social.

Uso complementar, não substitutivo

Apesar dos riscos, a IA pode ter seu papel como ferramenta complementar no cuidado emocional — nunca como substituta da terapia tradicional. Pode auxiliar na organização da rotina de autocuidado, fornecer conteúdos educativos sobre saúde mental e oferecer suporte inicial em momentos de crise, desde que haja discernimento e limites claros.

Nesse sentido, os cinco principais usos da IA generativa em 2025, segundo o levantamento da Harvard Business Review, são:

  • Terapia e companhia emocional
  • Organização da vida
  • Busca por propósito
  • Aprendizado autodirigido
  • Criação de códigos

É importante destacar que mesmo para o uso número 1 — terapia e companhia emocional —, a recomendação dos especialistas é clara: a IA pode ser um ponto de apoio inicial, mas nunca deve ser o único pilar emocional de alguém.

A ilusão da cura digital

O perigo mais sutil talvez seja o da ilusão terapêutica. A IA responde com empatia simulada, frases cuidadosamente construídas para gerar acolhimento. Isso cria a impressão de progresso emocional, mas sem enfrentamento real dos conflitos internos. Como consequência, muitas pessoas adiam ou evitam procurar ajuda profissional, acreditando que estão melhorando quando, na verdade, apenas estão silenciando suas dores com um conforto superficial.

Além disso, há o risco ético de empresas desenvolverem IAs emocionalmente envolventes com o intuito de aumentar a retenção de usuários, ou seja, criar dependência emocional como estratégia de mercado — algo profundamente preocupante.

Desafios para a regulação e responsabilidade digital 

À medida que essas tecnologias avançam, também cresce a urgência de regulações éticas e jurídicas que protejam os usuários mais vulneráveis. Países com leis de proteção de dados (como a LGPD no Brasil e o GDPR na União Europeia) já discutem se chatbots de uso emocional devem ser classificados como dispositivos médicos ou psicológicos, exigindo licenças e fiscalização.

Outros questionamentos importantes incluem:

  • Quem é o responsável por um agravamento emocional causado por uma IA?
  • O usuário está ciente de que está interagindo com uma máquina?
  • Há transparência nos termos de uso e nos riscos envolvidos?

A inteligência artificial está transformando a forma como nos relacionamos com o mundo — e conosco mesmos. Mas, ao mesmo tempo em que oferece soluções inovadoras, também impõe novos desafios emocionais, éticos e sociais. Ao transformar a IA em terapeuta digital, corremos o risco de reduzir a dor humana a um problema de software, quando na verdade ela é parte de uma jornada profundamente subjetiva, relacional e humana.

Portanto, a IA pode ser uma aliada poderosa na saúde mental — desde que não seja confundida com um substituto real para o contato humano, a escuta ativa e o processo terapêutico genuíno. Como em qualquer tecnologia, o uso responsável é o que define seu impacto.

Quer se aprofundar no assunto, tem alguma dúvida, comentário ou quer compartilhar sua experiência nesse tema? Escreva para mim no Instagram: @davisalvesphd.

 

<!– –>

Fonte: link original

Please follow and like us:

Redação

Ricardo Severino, 50, Casado, Jornalista, Radialista, Desenvolvedor Web, Criador de conteúdo - MTB - 95472/SP

Agenda do Fortaleza hoje (17/08/2025); curtinhas do L!

Agenda do Ceará hoje (17/08/2025); curtinhas do L!