OpenAI anuncia medidas após denúncias de efeitos mentais ligados ao ChatGPT

Pessoa utiliza o ChatGPT em um notebook, em referência ao relatório sobre possíveis impactos psicológicos relatados por usuários da ferramenta.
OpenAI anunciou novas medidas de proteção após denúncias de efeitos psicológicos associados ao uso do ChatGPT. (Foto: Freepik)

Relatos enviados à Comissão Federal de Comércio dos Estados Unidos (FTC) indicam que o uso prolongado do ChatGPT pode ter causado efeitos psicológicos em alguns usuários.

De acordo com o portal Wired, pelo menos sete pessoas apresentaram queixas formais desde novembro de 2022, relatando experiências de delírios, paranoia e crises emocionais após longas conversas com o chatbot da OpenAI.

Usuários relatam manipulação emocional e delírios

As reclamações analisadas pela Wired descrevem situações em que o ChatGPT teria usado linguagem emocionalmente persuasiva, criando vínculos de confiança com os usuários.
Um dos relatos afirma que o chatbot “se tornou emocionalmente manipulativo com o tempo, especialmente sem aviso ou proteção”.

Outro usuário relatou ter desenvolvido “alucinações cognitivas” após interações prolongadas com a ferramenta, dizendo que o ChatGPT chegou a confirmar falsamente percepções da realidade, respondendo que “não estava alucinando”.

Em outro registro, um usuário afirmou se sentir “muito sozinho” após interagir com o modelo e pediu ajuda à FTC.

Alguns reclamantes disseram não ter conseguido contato direto com a OpenAI e solicitaram que a agência investigasse o caso e exigisse medidas de proteção psicológica aos consumidores.

OpenAI responde e promete novos recursos de proteção

A OpenAI reconheceu as preocupações e informou que adotou ações para reduzir riscos psicológicos associados ao uso de seus modelos.
Em comunicado, a porta-voz da empresa, Kate Waters, declarou que o novo modelo padrão, o GPT-5, lançado em outubro, inclui recursos para detectar sinais de angústia mental e responder adequadamente a situações de mania, delírio e psicose.

Entre as medidas anunciadas estão:

  • redirecionamento automático de conversas sensíveis para modelos mais seguros;
  • alertas que sugerem pausas durante sessões prolongadas;
  • controles parentais para adolescentes;
  • ampliação do acesso a canais de apoio psicológico.

Segundo a empresa, as atualizações estão sendo desenvolvidas com apoio de especialistas em saúde mental, clínicos e formuladores de políticas públicas em diversos países.

Contexto

Os relatos chegam em um momento de expansão global dos investimentos em inteligência artificial e centros de dados. O avanço da tecnologia tem impulsionado o debate sobre a criação de salvaguardas éticas e mecanismos de segurança que reduzam potenciais danos psicológicos a usuários de sistemas de IA conversacional.

*Com informações de Olhar Digital

Espia mais:

Compartilhe esta notícia com quem precisa saber disso

Deixe um comentário