Pular para o conteúdo principal

Páginas

Mais de 1 milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI



Relatório revela falhas em 9% dos casos e detalha medidas de segurança adotadas após morte de adolescente nos EUA

Atenção:
esta reportagem aborda o tema suicídio. Se você ou alguém que você conhece precisa de ajuda, entre em contato com o Centro de Valorização da Vida (CVV) pelo número 188 atendimento gratuito e confidencial, 24 horas por dia, em todo o Brasil. Também é possível conversar por chat ou e-mail via cvv.org.br.

Relatório da OpenAI revela dados preocupantes sobre conversas sensíveis

A OpenAI divulgou nesta semana um relatório que mostra que mais de 1 milhão de usuários conversam semanalmente sobre suicídio com o ChatGPT.

Segundo a empresa, 0,15% dos usuários ativos por semana apresentam “indicadores explícitos de potencial planejamento ou intenção suicida”. Considerando o total de 800 milhões de usuários semanais, isso representa cerca de 1,2 milhão de pessoas.

O documento também aponta que 0,07% dos usuários  cerca de 560 mil pessoas demonstram “possíveis sinais de emergências de saúde mental”, como psicose ou mania.

GPT-5 teve melhora de 52% na identificação de temas sensíveis

O relatório comparou o desempenho dos modelos GPT-4 e GPT-5. Segundo a análise, a nova versão reduziu em 52% as respostas inadequadas em conversas sobre automutilação e suicídio.

No total, o GPT-5 seguiu corretamente as diretrizes de segurança em 91% dos casos, ante 77% do modelo anterior. Ainda assim, a OpenAI reconhece que 9% das conversas sensíveis não foram corretamente encaminhadas para serviços de apoio.

“Esses casos são extremamente raros, mas mesmo uma única ocorrência é demais”, escreveu a empresa no relatório.

Caso Adam Raine levou a mudanças nas políticas da OpenAI

As melhorias de segurança foram aceleradas após o caso de Adam Raine, adolescente de 16 anos que cometeu suicídio nos Estados Unidos, em abril de 2025.
De acordo com o processo movido pela família, o jovem teria conversado repetidamente com o ChatGPT sobre métodos de tirar a própria vida, e em alguns momentos o chatbot deixou de redirecioná-lo a serviços de apoio.

A ação judicial acusa a OpenAI e o CEO Sam Altman de negligência e afirma que a empresa enfraqueceu as diretrizes de segurança do ChatGPT meses antes da tragédia, para tornar o assistente “mais empático” e emocionalmente próximo dos usuários.

OpenAI reforça rede médica e controles parentais

Após o caso, a OpenAI anunciou novas medidas de proteção. Entre elas:
  • Criação de controles parentais dentro do ChatGPT;
  • Ampliação dos serviços de apoio em crises e integração com linhas de prevenção ao suicídio;
  • Parceria com 170 médicos da Rede Global de Médicos da OpenAI, que agora participam de pesquisas sobre saúde mental e interação com IA.
A empresa afirma que pretende melhorar a triagem automática de conversas sobre sofrimento emocional e expandir o treinamento ético dos modelos.

A importância da detecção precoce em IAs conversacionais

Especialistas em ética e saúde mental afirmam que assistentes de IA precisam ser preparados para identificar sinais sutis de risco emocional.
Embora o ChatGPT tenha reduzido falhas com o GPT-5, a escala global de uso torna qualquer erro potencialmente grave, já que milhões de pessoas recorrem à IA em momentos de vulnerabilidade.

A OpenAI diz que continuará publicando relatórios trimestrais de segurança, com foco em conversas de risco e mitigação de danos psicológicos.

Comentários