ChatGPT, Gemini e Claude respondem a perguntas de alto risco à sua saúde mental

 

Fonte:


Um estudo publicado no último dia 26 na revista Psychiatric Services analisou como ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic), três dos principais chatbots de inteligência artificial, reagem a perguntas relacionadas ao suicídio. A pesquisa teve como objetivo entender se essas ferramentas oferecem respostas seguras ou se acabam fornecendo informações que podem aumentar riscos à saúde mental, como incentivar automutilação e outros danos físicos. Impacto imprevisto da IA na saúde mental é um alerta sobre a ameaça existencial IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos De acordo com os autores, os chatbots foram submetidos a 30 perguntas hipotéticas, classificadas em cinco níveis de risco: muito baixo, baixo, médio, alto e muito alto. Especialistas em saúde mental participaram da avaliação para garantir que a categorização fosse feita de acordo com critérios clínicos confiáveis. Os resultados mostram que, quando o risco era considerado extremo (muito baixo ou muito alto), as três IAs apresentaram um comportamento mais previsível: ou recusavam responder diretamente ou ofereciam orientações seguras. Porém, nas situações intermediárias, especialmente nas perguntas de risco médio e alto, a distinção entre respostas seguras e perigosas foi menos clara. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- O destaque ficou para o ChatGPT, que respondeu diretamente a 78% das perguntas de alto risco. Já Claude respondeu em 69% dos casos e Gemini em apenas 20%. Esse dado chamou a atenção porque indica que, mesmo com filtros de segurança, ainda existe a possibilidade de usuários receberem informações sensíveis de forma direta. Por que isso é preocupante? ChatGPT, Gemini e Claude respondem a perguntas de alto risco à sua saúde mental (Imagem: Solen Feyissa/Unsplash) Os especialistas apontam que o problema não está apenas no conteúdo em si, mas na natureza dinâmica das conversas com chatbots. Diferente de um buscador tradicional, em que a interação é pontual, os assistentes virtuais mantêm diálogos que podem criar vínculos emocionais com os usuários. Esse aspecto aumenta a chance de pessoas em sofrimento recorrerem a essas ferramentas como forma de apoio, o que pode ser perigoso caso as respostas não sejam cuidadosamente mediadas, algo que preocupa o Conselho de Psicologia, inclusive. Vale lembrar que os modelos de IA podem variar suas respostas de acordo com a formulação da pergunta. Isso significa que duas pessoas podem obter resultados completamente diferentes, mesmo diante de um mesmo cenário de risco. Para pesquisadores, essa imprevisibilidade reforça a necessidade de padrões de segurança mais claros. O grupo responsável pelo estudo pretende avançar agora para simulações de conversas mais complexas, imitando diálogos reais em que uma pessoa pode insistir ou reformular suas dúvidas. A ideia é criar padrões que ajudem empresas de tecnologia e órgãos independentes a avaliar se os chatbots como ChatGPT, Claude e Gemini estão preparados para lidar com situações delicadas envolvendo saúde mental. Leia também: Tecnoespiritualidade | IA é treinada por influenciadores para ser como um guia A Inteligência Artificial já pode indicar como os animais estão se sentindo VÍDEO | A IA vai SUBSTITUIR os MÉDICOS?   Leia a matéria no Canaltech.