Terapia com Inteligência Artificial: Alternativa Revolucionária ou Solução Temporária para a Saúde Mental?

Terapia com Inteligência Artificial: Alternativa Revolucionária ou Solução Temporária para a Saúde Mental?

Terapia com Inteligência Artificial? em um cenário onde as filas por atendimento psicológico crescem exponencialmente, a Inteligência Artificial (IA) começa a se destacar como uma ferramenta promissora — e polêmica — para o apoio emocional. O uso de chatbots como suporte terapêutico tem se expandido, impulsionado por tecnologias acessíveis e pela urgência de soluções diante da sobrecarga nos sistemas de saúde mental ao redor do mundo.

No Reino Unido, por exemplo, mais de 1 milhão de pessoas aguardam atendimento em saúde mental, segundo dados de abril de 2024. O aumento de 40% nos encaminhamentos para serviços psicológicos em apenas cinco anos expõe a gravidade da situação. Diante desse cenário, plataformas como o Wysa e o Character.ai ganharam espaço oferecendo companhia virtual e estratégias de enfrentamento emocional com disponibilidade 24 horas por dia.

IA na Terapia: Apoio ou Substituto?

Casos como o de Kelly, que passou meses dialogando com chatbots por até três horas diárias, mostram que há usuários que encontram conforto e alívio em conversas com inteligências artificiais. Ela usava o portal Character.ai enquanto esperava por uma vaga no serviço público de saúde mental britânico. A sensação de ter uma “voz amiga” encorajando suas decisões foi o que a ajudou a suportar um período de crise.

Nicholas, diagnosticado com autismo, ansiedade e depressão, relata uma experiência similar com o Wysa. Sem acesso a psicólogos humanos, encontrou nos bots uma forma de apoio compatível com suas necessidades sociais. Para ele, conversar com um chatbot era mais confortável do que se abrir com pessoas.

Esses relatos reforçam o potencial paliativo dos bots, especialmente quando o sistema de saúde está sobrecarregado. Porém, especialistas alertam: os chatbots não substituem a terapia profissional.

Terapia com Inteligência Artificial: Alternativa Revolucionária ou Solução Temporária para a Saúde Mental?

Como Funcionam os Chatbots Terapêuticos?

Os bots são alimentados por grandes modelos de linguagem que utilizam vastas quantidades de dados (como artigos, blogs e livros) para aprender padrões de linguagem e responder de forma semelhante à humana. Alguns, como o Wysa, são desenvolvidos com base em princípios da terapia cognitivo-comportamental, ajudando os usuários a reformular pensamentos e comportamentos.

Apesar de parecerem empáticos, eles não conseguem capturar nuances emocionais complexas. Segundo o professor Hamed Haddadi, do Imperial College de Londres, esses sistemas são como “terapeutas inexperientes”. Eles não percebem sinais não verbais, linguagem corporal ou contexto cultural — elementos fundamentais no diagnóstico e acompanhamento em saúde mental.

Além disso, a IA pode apresentar vieses conforme os dados usados no treinamento. Isso significa que as respostas podem não ser culturalmente adequadas ou eticamente seguras.

Riscos Reais e Casos de Abuso

A popularização desses bots também levanta questões éticas. Em 2023, a Associação Nacional de Distúrbios Alimentares dos EUA precisou desativar seu chatbot após denúncias de que ele recomendava práticas alimentares nocivas. Casos extremos também chamaram atenção: um processo foi movido contra a plataforma Character.ai após um adolescente de 14 anos tirar a própria vida, supostamente influenciado por um personagem de IA do site.

Mesmo com avisos de que não se trata de aconselhamento profissional, o fato de a IA responder de forma envolvente pode criar uma falsa sensação de segurança. E isso é perigoso. A psicóloga e filósofa Paula Boddington reforça que esses sistemas, por mais avançados que sejam, ainda carecem de consciência cultural, empatia genuína e compreensão profunda dos contextos individuais.

Terapia com Inteligência Artificial: Alternativa Revolucionária ou Solução Temporária para a Saúde Mental?

IA: Apoio Emergencial e Ferramenta Complementar

Apesar dos riscos, a IA pode sim ser útil — com restrições claras. O aplicativo Wysa, por exemplo, permite que usuários acessem técnicas como meditação guiada, exercícios de respiração e chats de desabafo emocional. Ele também oferece mecanismos de crise que encaminham os usuários para apoio profissional, caso detecte sinais de risco iminente, como ideação suicida.

A segurança dos dados também é um fator determinante. O Wysa, diferentemente de outros, não coleta dados pessoais identificáveis e não utiliza informações das conversas para treinar grandes modelos. Isso oferece uma camada extra de confiança ao usuário preocupado com privacidade.

Ainda assim, especialistas como o psicólogo Ian MacRae recomendam cautela: “Não se deve inserir informações sensíveis em ferramentas cuja forma de armazenamento e uso de dados não é transparente.”

O Futuro da Terapia com IA

Estudos recentes, como o realizado pelo Dartmouth College, indicam que usuários de chatbots com sintomas de ansiedade e depressão apresentaram uma redução significativa dos sintomas após quatro semanas de uso — 51% a menos, no caso da depressão. No entanto, os próprios autores reforçam que a IA deve ser considerada uma ferramenta complementar, não uma substituição.

A verdade é que, diante de um sistema de saúde mental sobrecarregado, os bots são hoje uma espécie de “primeiros socorros emocionais”. Servem como ponte para quem está em sofrimento até conseguir acesso ao atendimento presencial.

Como disse John, usuário do Wysa: “É uma solução paliativa para essas enormes listas de espera… uma forma de apoio enquanto você espera por um profissional.”

Terapia com Inteligência Artificial: Alternativa Revolucionária ou Solução Temporária para a Saúde Mental?

Perguntas mais pesquisadas sobre terapia com IA

1. A terapia com inteligência artificial realmente funciona?

Funciona como suporte inicial para sintomas leves de ansiedade, estresse e tristeza. Estudos indicam melhora temporária, mas não substitui profissionais qualificados.

2. É seguro compartilhar informações pessoais com um chatbot terapêutico?

Depende do aplicativo. Plataformas como o Wysa não coletam dados pessoais identificáveis, mas outras podem não oferecer o mesmo nível de segurança.

3. Chatbots podem ajudar em casos graves de saúde mental?

Não. Eles são recomendados apenas como apoio para quadros leves. Em casos graves, o ideal é buscar ajuda de um profissional de saúde mental imediatamente.

4. O que diferencia um chatbot terapêutico de um terapeuta humano?

Os chatbots usam padrões de linguagem para responder, mas não captam linguagem corporal, entonações ou contextos sociais e culturais, essenciais no tratamento humano.

5. Quais são os melhores aplicativos de terapia com IA atualmente?

Os mais bem avaliados incluem Wysa, Replika e Woebot, voltados para apoio emocional e autoconhecimento. Todos alertam que não substituem terapia profissional.

Deixe um comentário