
Relatório revela falhas em 9% dos casos e detalha medidas de segurança adotadas após morte de adolescente nos EUA
Atenção: esta reportagem aborda o tema suicídio. Se você ou alguém que você conhece precisa de ajuda, entre em contato com o Centro de Valorização da Vida (CVV) pelo número 188 atendimento gratuito e confidencial, 24 horas por dia, em todo o Brasil. Também é possível conversar por chat ou e-mail via cvv.org.br.
Relatório da OpenAI revela dados preocupantes sobre conversas sensíveis
A OpenAI divulgou nesta semana um relatório que mostra que mais de 1 milhão de usuários conversam semanalmente sobre suicídio com o ChatGPT.Segundo a empresa, 0,15% dos usuários ativos por semana apresentam “indicadores explícitos de potencial planejamento ou intenção suicida”. Considerando o total de 800 milhões de usuários semanais, isso representa cerca de 1,2 milhão de pessoas.
O documento também aponta que 0,07% dos usuários cerca de 560 mil pessoas demonstram “possíveis sinais de emergências de saúde mental”, como psicose ou mania.
GPT-5 teve melhora de 52% na identificação de temas sensíveis
O relatório comparou o desempenho dos modelos GPT-4 e GPT-5. Segundo a análise, a nova versão reduziu em 52% as respostas inadequadas em conversas sobre automutilação e suicídio.No total, o GPT-5 seguiu corretamente as diretrizes de segurança em 91% dos casos, ante 77% do modelo anterior. Ainda assim, a OpenAI reconhece que 9% das conversas sensíveis não foram corretamente encaminhadas para serviços de apoio.
“Esses casos são extremamente raros, mas mesmo uma única ocorrência é demais”, escreveu a empresa no relatório.
Caso Adam Raine levou a mudanças nas políticas da OpenAI
As melhorias de segurança foram aceleradas após o caso de Adam Raine, adolescente de 16 anos que cometeu suicídio nos Estados Unidos, em abril de 2025.De acordo com o processo movido pela família, o jovem teria conversado repetidamente com o ChatGPT sobre métodos de tirar a própria vida, e em alguns momentos o chatbot deixou de redirecioná-lo a serviços de apoio.
A ação judicial acusa a OpenAI e o CEO Sam Altman de negligência e afirma que a empresa enfraqueceu as diretrizes de segurança do ChatGPT meses antes da tragédia, para tornar o assistente “mais empático” e emocionalmente próximo dos usuários.
OpenAI reforça rede médica e controles parentais
Após o caso, a OpenAI anunciou novas medidas de proteção. Entre elas:- Criação de controles parentais dentro do ChatGPT;
- Ampliação dos serviços de apoio em crises e integração com linhas de prevenção ao suicídio;
- Parceria com 170 médicos da Rede Global de Médicos da OpenAI, que agora participam de pesquisas sobre saúde mental e interação com IA.
A importância da detecção precoce em IAs conversacionais
Especialistas em ética e saúde mental afirmam que assistentes de IA precisam ser preparados para identificar sinais sutis de risco emocional.Embora o ChatGPT tenha reduzido falhas com o GPT-5, a escala global de uso torna qualquer erro potencialmente grave, já que milhões de pessoas recorrem à IA em momentos de vulnerabilidade.
A OpenAI diz que continuará publicando relatórios trimestrais de segurança, com foco em conversas de risco e mitigação de danos psicológicos.
Comentários
Postar um comentário