"Sessão de terapia" no ChatGPT levanta preocupações sobre uso de IA a sáude
Especialistas discutem riscos de confiar em chatbots para apoio emocional e terapêutico
A crescente utilização de ferramentas de inteligência artificial, como o ChatGPT, para fins terapêuticos tem gerado preocupações entre especialistas e profissionais da saúde mental. Um diálogo simulado entre um usuário e um chatbot ilustra a interação que muitos têm considerado como uma "sessão de terapia". No entanto, essa conversa é apenas uma sequência de palavras geradas por algoritmos, sem a capacidade de compreensão emocional que um profissional treinado possui. O professor Victor Hugo de Albuquerque, da Universidade Federal do Ceará, explica que, embora esses sistemas sejam sofisticados, eles não raciocinam, mas apenas replicam padrões de linguagem baseados em grandes volumes de dados.
- Participe do nosso grupo de WhatsApp
- Participe do nosso grupo de Telegram
- Confira os jogos e classificação dos principais campeonatos

Diante do aumento da busca por aconselhamento terapêutico através de IA, o Conselho Federal de Psicologia (CFP) criou um grupo de trabalho para discutir o uso de tecnologias com fins terapêuticos. A conselheira Maria Carolina Roseiro destacou que o CFP recebe frequentemente consultas sobre o uso de inteligência artificial na psicologia, tanto para ferramentas desenvolvidas especificamente para esse fim quanto para outras que estão sendo usadas de maneira terapêutica. O órgão busca regulamentar essas ferramentas, garantindo que sejam usadas de forma responsável por profissionais habilitados.
Embora haja um lado positivo na popularização dessas tecnologias, como o aumento da atenção à saúde mental, especialistas alertam para os riscos envolvidos. O professor Leonardo Martins, da PUC-Rio, ressalta que chatbots que não seguem critérios técnicos e éticos podem levar a resultados prejudiciais, como induzir os usuários a evitar situações que poderiam ser benéficas para eles. Além disso, a simulação de empatia por parte das máquinas pode criar uma falsa sensação de acolhimento, que não substitui a relação humana essencial no processo terapêutico.
Outro ponto crítico levantado pelo grupo de trabalho do CFP envolve a privacidade dos dados compartilhados pelos usuários. O professor Albuquerque aponta que os dados pessoais podem ser interceptados ou acessados por pessoas não autorizadas, aumentando o risco de vazamentos em contextos sensíveis como a saúde mental. Com a falta de regulação sobre a privacidade em plataformas de IA, o CFP enfatiza a necessidade de conscientização sobre os perigos de compartilhar informações pessoais em ambientes que não garantem segurança adequada. Essa preocupação deve ser um alerta para aqueles que buscam ajuda emocional através de tecnologias não regulamentadas.
Fonte: Agência Brasil