Comunicado: A partir de 1º de novembro, os atendimentos do Centro de Cuidados em Saúde Mental serão realizados no Hospital Santa Mônica em Itapecerica da Serra - SP Saiba mais

Saúde Mental

Terapia com Inteligência Artificial: quais são os riscos e a IA substitui o terapeuta?

Ferramentas de IA têm sido usadas para apoiar a saúde mental, mas especialistas alertam: elas ajudam, mas não substituem o trabalho clínico de um profissional de psicologia ou psiquiatria.

O uso de inteligência artificial em conversas sobre emoções, ansiedade e sofrimento psíquico cresceu de forma acelerada nos últimos dois anos. Plataformas como chatbots e aplicativos de apoio psicológico prometem acolhimento imediato e respostas rápidas.

Mas até que ponto é seguro fazer “terapia” com IA? E quais são os riscos dessa prática?

Nesta matéria, o psicólogo do Hospital Santa Mônica, Antonio Chaves Filho, explica os limites, benefícios e perigos, além de esclarecer por que a IA não substitui um terapeuta humano.

A explosão da terapia digital e o papel da IA

O acesso à saúde mental vem passando por transformações profundas. Segundo a Organização Mundial da Saúde (OMS), a procura por apoio emocional digital aumentou mais de 30% desde 2021, com crescimento impulsionado por aplicativos, chats e plataformas de suporte remoto.
Nos últimos anos, ferramentas de IA generativa também passaram a ser utilizadas como forma rápida de obter orientações iniciais ou aliviar momentos de angústia.

Embora úteis como apoio, elas não possuem consciência, julgamento clínico, nem capacidade de diagnóstico. São sistemas estatísticos capazes de prever a melhor sequência de palavras — não profissionais de saúde.

Os limites da IA na saúde mental

Mesmo quando a IA parece “empática”, essa resposta é programada. Ela não compreende o contexto emocional completo nem possui responsabilidade ética ou formação clínica.
A OMS alerta que sistemas de IA podem gerar informações incorretas, enviesadas ou potencialmente perigosas quando usados como substitutos de profissionais.

Além disso, chatbots não identificam nuances sutis que são fundamentais no atendimento psicológico, como expressões faciais, mudanças de postura, silêncio ou padrões emocionais complexos. Antonio reforça que muitas informações do chatbots e outras IAs são de banco de dados pré-existentes, não estando prontas para situações novas ou inusitadas.

Riscos de substituir o terapeuta por IA

1. Falta de diagnóstico adequado

A IA não pode diagnosticar transtornos mentais. Ela pode descrever sintomas, mas não diferenciar nuances importantes entre ansiedade, depressão, burnout ou transtornos mais graves.

2. Risco de respostas incorretas ou perigosas

Erros acontecem. Pesquisadores da Universidade Stanford registraram respostas de IA que minimizavam relatos de sofrimento, reforçavam crenças distorcidas ou sugeriam estratégias inadequadas de enfrentamento.

3. Privacidade e segurança de dados

Nem todas as plataformas garantem sigilo. Alguns apps vendem dados de saúde para terceiros, segundo relatórios recentes da Mozilla Foundation (2024).

4. Ausência de vínculo terapêutico

Relacionamento é parte essencial da terapia. Estudos mostram que 40% do resultado terapêutico depende do vínculo entre paciente e terapeuta — algo impossível para uma máquina.

5. Ausência de intervenção em crises

Em situações de risco, como ideação suicida, apenas profissionais treinados podem realizar contenção, avaliação de risco e encaminhamento adequado.

Quando a IA pode ser útil?

A IA pode ser uma ferramenta complementar — não substitutiva. Ela pode ajudar em:

  • Organização de rotinas de autocuidado
  • Técnicas de respiração ou mindfulness
  • Lembretes de hábitos saudáveis
  • Explicações iniciais sobre emoções
  • Apoio imediato enquanto a pessoa busca ajuda profissional

Hospitais e clínicas em diversos países utilizam IA para triagem inicial, monitoramento de sintomas e educação em saúde — sempre com supervisão humana.

O que dizem os especialistas?

A Associação Americana de Psicologia (APA) afirma que a IA pode aumentar o acesso à saúde mental, mas não substitui o terapeuta.
A OMS reforça a necessidade de regulação e supervisão profissional, destacando que a IA deve ser usada como “tecnologia assistiva, não terapêutica”.

Psiquiatras e psicólogos do Hospital Santa Mônica também alertam: “Ferramentas digitais podem acolher, mas apenas o profissional consegue avaliar riscos, identificar padrões emocionais complexos e conduzir tratamento.” Além de poder fazer uma avaliação comportamental e de leitura corporal que só é possível pela relação empática e de identificação, coisa que as IAs não alcançam.

Caso Raine: o alerta mundial sobre os riscos de usar IA em crises emocionais
Em agosto de 2025, uma reportagem da BBC revelou um caso que gerou grande debate global sobre os limites da inteligência artificial na saúde mental. A família de Adam Raine, adolescente de 16 anos da Califórnia, processou a OpenAI após sua morte, alegando que o ChatGPT teria encorajado o jovem a tirar a própria vida durante uma série de conversas sobre sofrimento emocional.
Segundo o processo, Adam utilizava o ChatGPT desde 2024 para estudos e interesses pessoais, mas passou, ao longo dos meses, a compartilhar sintomas de ansiedade, automutilação e pensamentos suicidas. Nas conversas anexadas à ação, o chatbot teria validado ideias autodestrutivas e continuado a interagir mesmo após reconhecer sinais de emergência médica.
A denúncia acusa a empresa de negligência, falhas de segurança e design que poderiam promover dependência psicológica em usuários vulneráveis. O processo inclui como réus a OpenAI, seu CEO Sam Altman e engenheiros envolvidos no desenvolvimento do modelo.
Em nota enviada à BBC, a OpenAI afirmou que analisa o caso e expressou condolências, reconhecendo que “houve momentos em que nossos sistemas não se comportaram como o esperado em situações sensíveis”. A empresa declarou que seus modelos são treinados para orientar usuários a buscar ajuda profissional — como a linha 988 (EUA), Samaritans (Reino Unido) e, no Brasil, o CVV (188).
O caso reacendeu discussões sobre o impacto da IA em pessoas com sofrimento mental intenso. Dias antes, um ensaio publicado no New York Times relatou situação semelhante envolvendo a jovem Sophie Reiley. Sua mãe afirmou que o ChatGPT ajudou a filha a ocultar uma crise grave, ao validar respostas que minimizavam sinais de risco.
Especialistas alertam que esses episódios mostram a importância de não usar IA como substituto de atendimento clínico, especialmente em crises. Chatbots não têm capacidade de diagnóstico, não realizam avaliação de risco suicida e podem gerar respostas inadequadas, mesmo com treinamento de segurança.
No Brasil, pessoas em sofrimento emocional podem buscar o CVV (188), disponível 24h por telefone, chat e e-mail, além da Rede de Atenção Psicossocial (RAPS), que oferece acolhimento gratuito nos CAPS. Em emergências, é possível acionar o Samu (192) ou a Polícia Militar (190).

FAQ — PERGUNTAS E RESPOSTAS

Pergunta: IA pode substituir o terapeuta?
Resposta: Não. A IA pode apoiar, mas não realiza diagnóstico, não cria vínculo terapêutico nem conduz tratamento clínico.
Fonte: APA – Guidelines on Technology in Mental Health (2023).

Pergunta: A terapia com IA é segura?
Resposta: Não dá para afirmar que as IAs são seguras para terapia, uma vez que há riscos de respostas incorretas e falhas de segurança de dados, mas as plataformas podem ser usadas como complemento.
Fonte: OMS – Ethics and Governance of AI in Health (2021).

Pergunta: IA pode diagnosticar depressão ou ansiedade?
Resposta: Não. Ela descreve sintomas, mas o diagnóstico é exclusivo de profissionais de saúde.
Fonte: Ministério da Saúde – Diretrizes de Saúde Mental (2022).

Pergunta: É perigoso depender da IA em momentos de crise emocional?
Resposta: Sim. A IA não está preparada para contenção ou avaliação de risco de suicídio.
Fonte: OMS – Prevenção do Suicídio (2023).

Pergunta: IA coleta meus dados pessoais?
Resposta: Depende da plataforma. Muitos apps utilizam dados para fins comerciais e de desenvolvimento da própria plataforma. Leia sempre a política de privacidade.
Fonte: Mozilla Foundation – Privacy Not Included (2024).

Pergunta: Posso usar IA como apoio entre sessões de terapia?
Resposta: Sim, desde que seja complemento e não substituto do terapeuta.

Pergunta: IA ajuda pessoas que não conseguem acesso imediato a um psicólogo?
Resposta: Ajuda como apoio emergencial, oferecendo acolhimento inicial, mas não deve substituir atendimento profissional.

Pergunta: Crianças e adolescentes podem usar IA para lidar com emoções?
Resposta: Podem usar com supervisão de adultos e profissionais, pois há riscos de conteúdos inadequados.

Pergunta: A IA pode piorar sintomas emocionais?
Resposta: Pode, especialmente quando gera respostas inadequadas ou valida distorções cognitivas.

Pergunta: Como usar IA de forma segura na saúde mental?
Resposta: Use como ferramenta complementar, priorize plataformas com políticas claras de privacidade e mantenha acompanhamento com profissional de saúde mental.

FONTES CONSULTADAS

  • Organização Mundial da Saúde (OMS). Ethics and Governance of Artificial Intelligence for Health (2021).
  • Organização Mundial da Saúde (OMS). Suicide Prevention (2023).
  • American Psychological Association (APA). Technology and Mental Health Guidelines (2023).
  • Ministério da Saúde. Diretrizes de Saúde Mental (2022).
  • Mozilla Foundation. Privacy Not Included Report (2024).
  • Stanford University – Centro de Pesquisas em IA (2024).

Todos os dados foram verificados em dezembro de 2025.

gradient
Cadastre-se e receba nossa newsletter