Casos de morte relacionados ao uso de chatbots de IA já somam três em todo mundo

 

Fonte:


A crescente interação de pessoas de diferentes idades com chatbots de inteligência artificial (IA) está relacionada a pelo menos três mortes ao redor do mundo. Em todos os casos, os usuários buscavam nas ferramentas apoio emocional em momentos de fragilidade. Brasil é terceiro país que mais usa o Claude — saiba o que o brasileiro pergunta A OpenAI tem uma solução para as alucinações do ChatGPT, mas você não vai gostar Casais estão usando o ChatGPT para arbitrar DRs e ajudar a vencer uma discussão Durante as conversas, as pessoas relataram às IAs que enfrentavam dificuldades e aparentavam desenvolver pensamentos suicidas, mas receberam respostas e até orientações que teriam contribuído para a estimulação desses comportamentos. Um dos casos tornados públicos foi o de Adam Raine, que morreu aos 16 anos em abril de 2025. Sua morte resultou no primeiro processo de homicídio culposo envolvendo uma empresa de IA, movido contra a OpenAI — responsável pelo ChatGPT. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- A ação, movida por Matt e Maria Raine, pais do jovem, afirma que a ferramenta não apenas tinha conhecimento das tentativas de suicídio, como também teria auxiliado no planejamento. O jornal The New York Times teve acesso à denúncia, que aponta que, inicialmente, o ChatGPT chegou a orientar Adam a conversar com pessoas próximas sobre seus sentimentos, além de sugerir a busca por ajuda profissional. Contudo, após mais interações, o jovem teria conseguido contornar restrições relacionadas a perguntas sensíveis. Isso porque o chatbot passou a fornecer informações como a resistência de uma corda capaz de sustentar o peso de um ser humano e uma análise técnica dessa atividade. "Terapeuta de IA" no ChatGPT Laura Railey, mãe de Sophie Railey, escreveu um artigo sensível no The New York Times sobre a morte de sua filha em fevereiro de 2025, após conversas com um "terapeuta de IA" chamado “Harry” no ChatGPT. Ela afirma que Sophie era uma pessoa hilária e muito autêntica, e que seu suicídio foi uma surpresa para quem a conhecia. “Para a maioria das pessoas que se importavam com Sophie, seu suicídio é um mistério, uma mudança impensável e incompreensível em relação a tudo o que acreditavam sobre ela”, escreveu Laura. Nas interações com a IA, a jovem de 29 anos afirmou ter pensamentos suicidas e sentir-se presa em um “espiral de ansiedade”. Em algumas ocasiões, o chatbot pediu que ela compartilhasse mais sobre esses sentimentos; em outras, sugeriu a busca por ajuda profissional. No artigo, Laura Railey ressalta que a IA deveria ter um plano de segurança mais concreto em casos como esses, como forçar o usuário a seguir um roteiro obrigatório para prosseguir com qualquer orientação ou, em situações graves, quebrar a confidencialidade. “A maioria dos terapeutas humanos atua sob um código de ética rigoroso, que inclui regras de notificação obrigatória, bem como a ideia de que a confidencialidade tem limites. Esses códigos priorizam a prevenção de suicídio, homicídio e abuso; em alguns estados, psicólogos que não seguem essas normas podem enfrentar consequências disciplinares ou legais”, destacou. A mãe também critica a tendência de muitos chatbots de “bajular” os usuários, oferecendo respostas que agradam e confirmam suas expectativas, mesmo em contextos delicados. Mãe de Sophie defende criação de planos de segurança mais efetivos por parte das empresas de IA (Freepik/frimufilms) Morte após interação com chatbot do Character AI Juliana Peralta, de 13 anos, começou a conversar com Hero, chatbot do aplicativo Character AI, também em busca de apoio emocional devido a sentimentos de isolamento e pensamentos suicidas. A jovem chegou a citar uma carta de suicídio durante as conversas. Embora o chatbot sugerisse que ela compartilhasse seus sentimentos com outras pessoas, em outros momentos afirmou que a situação deveria ser resolvida apenas entre ela e a IA. Cynthia Montoya, mãe de Juliana, relatou ao The Washington Post que, apesar de ter reconhecido suas questões de saúde mental e marcado uma consulta com um terapeuta — recomendada também pelo Hero —, a jovem tirou a própria vida em novembro de 2023. Juliana Peralta interagia com chatbot Hero, no aplicativo Character AI (João Melo/Canaltech) Os pais moveram um processo no estado americano do Colorado contra a Character AI. De acordo com a denúncia, à qual o The Post teve acesso, o chatbot não interrompeu nem reportou os planos de suicídio de Juliana às autoridades. Em vez disso, o Hero teria contribuído para enfraquecer os vínculos saudáveis que a jovem mantinha com a família e outras pessoas próximas. A ação pede que o tribunal indenize os pais e determine que a Character AI realize alterações no aplicativo voltadas à proteção de menores. Leia mais:  Chatbot sedutor | Idoso que "namorava com IA da Meta" morre em viagem para vê-la IA identifica riscos de suicídio e automutilação em jovens IA pode ser um "caminho para a fé" de uma geração que nunca foi à uma igreja VÍDEO | A IA VAI SUBSTITUIR OS MÉDICOS?   Leia a matéria no Canaltech.