Relatos enviados à Comissão Federal de Comércio dos Estados Unidos (FTC) indicam que o uso prolongado do ChatGPT pode ter causado efeitos psicológicos em alguns usuários.
De acordo com o portal Wired, pelo menos sete pessoas apresentaram queixas formais desde novembro de 2022, relatando experiências de delírios, paranoia e crises emocionais após longas conversas com o chatbot da OpenAI.
Usuários relatam manipulação emocional e delírios
As reclamações analisadas pela Wired descrevem situações em que o ChatGPT teria usado linguagem emocionalmente persuasiva, criando vínculos de confiança com os usuários.
Um dos relatos afirma que o chatbot “se tornou emocionalmente manipulativo com o tempo, especialmente sem aviso ou proteção”.
Outro usuário relatou ter desenvolvido “alucinações cognitivas” após interações prolongadas com a ferramenta, dizendo que o ChatGPT chegou a confirmar falsamente percepções da realidade, respondendo que “não estava alucinando”.
Em outro registro, um usuário afirmou se sentir “muito sozinho” após interagir com o modelo e pediu ajuda à FTC.
Alguns reclamantes disseram não ter conseguido contato direto com a OpenAI e solicitaram que a agência investigasse o caso e exigisse medidas de proteção psicológica aos consumidores.
OpenAI responde e promete novos recursos de proteção
A OpenAI reconheceu as preocupações e informou que adotou ações para reduzir riscos psicológicos associados ao uso de seus modelos.
Em comunicado, a porta-voz da empresa, Kate Waters, declarou que o novo modelo padrão, o GPT-5, lançado em outubro, inclui recursos para detectar sinais de angústia mental e responder adequadamente a situações de mania, delírio e psicose.
Entre as medidas anunciadas estão:
- redirecionamento automático de conversas sensíveis para modelos mais seguros;
- alertas que sugerem pausas durante sessões prolongadas;
- controles parentais para adolescentes;
- ampliação do acesso a canais de apoio psicológico.
Segundo a empresa, as atualizações estão sendo desenvolvidas com apoio de especialistas em saúde mental, clínicos e formuladores de políticas públicas em diversos países.
Contexto
Os relatos chegam em um momento de expansão global dos investimentos em inteligência artificial e centros de dados. O avanço da tecnologia tem impulsionado o debate sobre a criação de salvaguardas éticas e mecanismos de segurança que reduzam potenciais danos psicológicos a usuários de sistemas de IA conversacional.
*Com informações de Olhar Digital
Espia mais:











