OpenAI | Centenas de milhares no ChatGPT apresentam sinais de crise toda semana
A OpenAI divulgou dados sobre interações de usuários com o ChatGPT que tiveram como foco temas relacionados à saúde mental. As informações apresentadas indicam que centenas de milhares de pessoas demonstram sinais de comportamento suicida semanalmente em conversas com a inteligência artificial (IA). Jovem tira a própria vida após se apaixonar por personagem criado por IA 1º processo por homicídio culposo envolvendo IA acusa OpenAI em caso de suicídio Impacto imprevisto da IA na saúde mental é um alerta sobre a ameaça existencial Os dados foram divulgados em um relatório que aborda as melhorias nas respostas do GPT-5 em conversas voltadas à saúde mental. Esse tipo de otimização se mostra cada vez mais necessário em um contexto em que cresce o número de pessoas que usam ferramentas de IA para consultas e conversas diárias sobre o tema — inclusive com registros de óbitos associados a essas interações. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Interações indicam ideação suicida e psicose No comunicado, a companhia destacou que, semanalmente, 0,15% dos usuários ativos da ferramenta de IA têm conversas que incluem “indicadores explícitos de possível planejamento ou intenção suicida”. Além disso, 0,05% das mensagens apresentam menções a intenção ou ideação suicida. Outro dado apresentado pela empresa indica que 0,07% dos usuários ativos do ChatGPT e 0,01% das mensagens exibem sinais de emergências de saúde mental relacionadas à psicose ou mania. Sam Altman, CEO da OpenAI, afirmou no início de outubro que o ChatGPT conta com 800 milhões de usuários ativos por semana. Assim, os números apresentados indicam que cerca de 560 mil pessoas que conversam com o chatbot demonstram sinais de emergência relacionados à psicose, enquanto interações de aproximadamente 1,2 milhão de usuários apontam planejamento ou intenção suicida. OpenAI revelou dados sobre números de usuários que realizam interações com indícios de psicose e ideação suicida (Pexels/Matheus Bertelli) Apego emocional ao chatbot A OpenAI também revelou dados relacionados à quantidade de pessoas que, em uma semana, apresentaram comportamentos de apego emocional ao chatbot. “Embora essas conversas sejam difíceis de detectar e mensurar devido à sua raridade, nossa análise inicial estima que cerca de 0,15% dos usuários ativos em uma determinada semana (cerca de 1,2 milhão de pessoas) e 0,03% das mensagens indicam níveis potencialmente elevados de apego emocional ao ChatGPT”, informou a empresa. Otimização das respostas do GPT-5 Segundo a OpenAI, foram realizadas atualizações para otimizar a forma como o modelo mais recente do ChatGPT — o GPT-5 — aborda situações relacionadas à saúde mental. “Atualizamos a especificação do modelo para tornar alguns de nossos objetivos de longa data mais explícitos: o modelo deve apoiar e respeitar os relacionamentos reais dos usuários, evitar afirmar crenças infundadas que possam se relacionar com sofrimento mental ou emocional, responder com segurança e empatia a possíveis sinais de delírio ou mania e prestar mais atenção a sinais indiretos de risco potencial de automutilação ou suicídio”, destacou a companhia. Atualizações da OpenAI tiveram como foco a otimização de respostas geradas pelo GPT-5 (Marcelo Salvatico/Canaltech) Para isso, a empresa afirma ter criado um grupo com cerca de 300 médicos e psicólogos para fomentar pesquisas voltadas às melhorias. Desses profissionais, 170 participaram de etapas como: Criação de respostas ideais para perguntas relacionadas à saúde mental; Análises personalizadas das respostas dos modelos; Avaliação da segurança das respostas da IA; Orientação e feedback sobre a abordagem da OpenAI nas atualizações. “Estimamos que o modelo agora retorne respostas que não atendem totalmente ao comportamento desejado em nossas taxonomias (guias detalhados) com uma frequência de 65% a 80% menor em diversos domínios relacionados à saúde mental”, destacou a empresa. A OpenAI pontuou ainda que avaliações finais dos especialistas constataram reduções de 39% a 52% nas respostas indesejadas da ferramenta. A iniciativa de otimizar as respostas do chatbot diante de tópicos sensíveis — assim como a de revelar dados sobre essas conversas — representa um passo importante para tornar as ferramentas de IA um espaço mais seguro e controlado para os usuários. Leia mais: IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente
Como vai funcionar o controle parental do ChatGPT? Conheça a nova função da IA
VÍDEO | TODO MUNDO ODEIA A INTELIGÊNCIA ARTIFICIAL Leia a matéria no Canaltech.
