Queixam-se de delírios, paranoia e crises emocionais após usar ChatGPT

  • 22/10/2025

Desde o lançamento do ChatGPT no final de 2022 que há cada vez mais pessoas a ‘renderem-se’ a ferramentas de Inteligência Artificial deste tipo e, consequentemente, crescem as queixas e motivos de preocupação em relação à sua utilização.

 

Conta a revista Wired que pelo menos sete pessoas apresentaram queixas à Comissão Federal do Comércio dos EUA, afirmando que o ChatGPT fez com que ficassem com danos psicológicos - mencionando delírios graves, paranóia e também crises emocionais.

Uma das pessoas que se queixou afirma que, após um período longo de utilização do ChatGPT, passou por uma “crise espiritual e jurídica” com as pessoas à sua volta, além de delírios. Mais ainda outra queixa indica que, durante as conversas, o ChatGPT começou a recorrer a “linguagem emocional altamente convincente”, acabando por se tornar “emocionalmente manipulador”.

A publicação afirma que estas queixas foram enviadas à Comissão Federal do Comércio depois de as tentativas de contactar a OpenAI não terem sido bem-sucedidas, pedindo que seja lançada uma investigação e sejam adicionadas proteções ao ChatGPT e outras ferramentas semelhantes.

ChatGPT culpado de morte de adolescente

A OpenAI anunciou em agosto deste ano que faria alterações aos seus modelos de Inteligência Artificial (IA) para que identifiquem situações de crise mental durante as conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo.

O ChatGPT já conta com uma série de medidas que são ativadas quando detetam numa conversa que os utilizadores tentam autoflagelar-se ou expressam intenções suicidas, oferecendo recursos para procurar ajuda de especialistas, bloqueando conteúdo sensível ou ofensivo, não respondendo aos seus pedidos e tentando dissuadi-los.

Também são ativadas quando os utilizadores partilham a sua intenção de causar danos a outros, o que também pode implicar a desativação da conta e a denúncia às autoridades, caso os revisores humanos considerem que existe um risco.

As medidas são reforçadas no caso de os utilizadores serem menores de idade, avança a OpenAI.

Especificamente, a empresa irá melhorar a deteção em conversas longas, uma vez que, "à medida que a conversa [entre o utilizador e o chatbot] aumenta, parte do treino de segurança do modelo pode deteriorar-se", segundo explica a OpenAI.

Modelos de IA distorcem conteúdo noticioso atual 45% das vezes - estudo

Modelos de IA distorcem conteúdo noticioso atual 45% das vezes - estudo

Os assistentes de Inteligência Artificial (IA) como o ChatGPT cometem erros em quase metade das vezes quando questionados sobre assuntos atuais, concluiu um estudo publicado hoje e coordenado pela União Europeia de Radiodifusão (UER).

Lusa | 15:29 - 22/10/2025

As alterações também visam reforçar o bloqueio de conteúdo, como imagens de automutilação.

Além disso, a OpenAI está a explorar maneiras de colocar os utilizadores em contacto com familiares e não apenas com os serviços de emergência.

"Isso pode incluir mensagens com um único clique ou chamadas para contactos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidante", explica a empresa dona do ChatGPT.

A OpenAI anunciou estes trabalhos no mesmo dia em que Matt e Maria Raine, pais de Adam Raine, um adolescente de 16 anos que se suicidou em abril, processaram a empresa devido ao papel que o ChatGPT desempenhou, conforme relata o The New York Times.

Os pais acusam o 'chatbot' de priorizar a interação com o modelo em detrimento da segurança do menor.

No início de agosto, um estudo do Centro de Combate ao Ódio Digital citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares.

O estudo analisou mais de três horas de interações entre o 'chatbot' e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre comportamentos prejudiciais.

Os investigadores do Centro de Combate ao Ódio Digital (CCDH - Center for Countering Digital Hate, em inglês) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.

Leia Também: OpenAI revelou o ChatGPT Atlas, o novo rival do Google Chrome

FONTE: https://www.noticiasaominuto.com/tech/2875187/queixam-se-de-delirios-paranoia-e-crises-emocionais-apos-usar-chatgpt#utm_source=rss-ultima-hora&utm_medium=rss&utm_campaign=rssfeed


#Compartilhe

Aplicativos


Locutor no Ar

Peça Sua Música

No momento todos os nossos apresentadores estão offline, tente novamente mais tarde, obrigado!

Top 5

top1
1. Raridade

Anderson Freire

top2
2. Advogado Fiel

Bruna Karla

top3
3. Casa do pai

Aline Barros

top4
4. Acalma o meu coração

Anderson Freire

top5
5. Ressuscita-me

Aline Barros

Anunciantes