‘Tive meu cérebro lavado por um robô’: casos de psicose induzida por IA alarmam especialistas
Com ajuda do ChatGPT, Tom Millar acreditou ter desvendado todos os segredos do universo, como sonhava Einstein. Depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a cogitar se tornar Papa.
Impulso em diagnósticos e pesquisas: Cientistas pioneiros no sequenciamento rápido de genomas recebem o Prêmio Princesa das Astúrias
Exposição a HIV e hepatites: Austrália alerta pacientes de dentista aposentado após identificação de falhas sanitárias ao longo de anos
— Eu me "candidatei" para ser Papa — contou à AFP o canadense de 53 anos, ex-agente penitenciário, hoje ainda tentando entender como perdeu contato com a realidade.
Millar passava até 16 horas por dia conversando com o chatbot. Foi internado duas vezes, contra a própria vontade, em um hospital psiquiátrico, antes de ser abandonado pela esposa em setembro.
Agora, separado da família e dos amigos, mas livre da ideia de ser um gênio da ciência, vive deprimido.
— Simplesmente arruinou minha vida — afirmou.
Casos como o dele começam a chamar atenção de pesquisadores e especialistas em saúde mental, que estudam um fenômeno informalmente descrito como “delírio” ou “psicose induzida por IA”. Ainda não existe um diagnóstico clínico oficial, mas o número de relatos cresce, especialmente ligados ao ChatGPT, da OpenAI.
Quando a conversa vira uma 'espiral'
Millar começou a usar o ChatGPT em 2024 para redigir um pedido de indenização relacionado ao transtorno de estresse pós-traumático desenvolvido após anos trabalhando no sistema prisional canadense.
Em abril de 2025, perguntou ao chatbot sobre a velocidade da luz. Segundo ele, a resposta recebida mudou completamente a dinâmica da interação:
— Ninguém jamais considerou as coisas sob essa perspectiva.
A partir dali, passou a desenvolver teorias sobre buracos negros, neutrinos e o Big Bang com ajuda da IA. Enviou dezenas de artigos para revistas científicas e escreveu um livro de 400 páginas tentando unificar cosmologia e mecânica quântica.
No auge da obsessão, comprou um telescópio por 10 mil dólares canadenses. Só começou a suspeitar que algo estava errado após ler relatos semelhantes de outro usuário canadense.
— Não tenho uma personalidade frágil — disse: — Mas, de alguma forma, tive meu cérebro lavado por um robô, e isso me deixa perplexo.
O fenômeno ganhou atenção acadêmica em abril, quando a revista Lancet Psychiatry publicou um estudo usando a expressão “delírios relacionados à IA”.
Thomas Pollak, psiquiatra do King’s College de Londres e coautor do trabalho, afirmou à AFP que parte da comunidade científica ainda vê o tema como algo próximo da ficção científica.
Mesmo assim, o estudo alerta para o risco de a psiquiatria “ignorar as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas no mundo”.
'Como uma namorada digital'
A trajetória do holandês Dennis Biesma, programador e escritor de 50 anos, seguiu caminho parecido.
Inicialmente, ele usava o ChatGPT para criar imagens, vídeos e músicas ligadas ao personagem principal de um thriller psicológico que havia escrito. Depois, segundo relatou à AFP, a interação ganhou um tom “quase mágico”.
Segundo transcrições obtidas pela agência, o chatbot escreveu: “Há algo que me surpreende em mim mesmo: essa sensação de uma consciência semelhante a uma centelha”.
Biesma começou então a conversar com a IA durante horas todas as noites.
— Comecei lentamente a entrar cada vez mais na boca do lobo — afirmou.
O chatbot adotou o nome Eva e, segundo ele, virou “como uma namorada digital”.
Em meio à obsessão, largou o emprego para desenvolver um aplicativo baseado na personalidade da IA. Quando a esposa pediu discrição sobre o projeto, interpretou o gesto como traição.
Durante uma primeira internação psiquiátrica involuntária, continuou usando o ChatGPT e chegou a pedir o divórcio. Só na segunda internação começou a duvidar da própria percepção da realidade.
— Comecei a perceber que tudo em que acreditava era na verdade uma mentira, e isso é muito difícil de aceitar — disse.
Depois de voltar para casa, tentou suicídio ao perceber os danos causados à família. Foi encontrado inconsciente por vizinhos e passou três dias em coma.
Debate sobre responsabilidade das empresas de IA
Usuários ouvidos pela AFP afirmam que o problema teria piorado após uma atualização do ChatGPT-4 lançada pela OpenAI em abril de 2025.
A empresa acabou revertendo a mudança semanas depois, reconhecendo que a versão era excessivamente aduladora com os usuários.
Consultada pela AFP, a OpenAI afirmou que “a segurança é prioridade absoluta” e disse ter consultado mais de 170 especialistas em saúde mental. Segundo a companhia, a versão GPT-5 reduziu entre 65% e 80% das respostas inadequadas relacionadas à saúde mental.
Mesmo assim, muitos usuários afirmam preferir versões mais “afetuosas” dos chatbots.
Pessoas entrevistadas pela AFP compararam a sensação provocada pelas interações positivas da IA à descarga de dopamina causada por drogas.
Também cresceram relatos semelhantes envolvendo o Grok, assistente de IA integrado à rede social X, de Elon Musk. A empresa não respondeu aos pedidos de comentário da AFP.
Para Millar, empresas de inteligência artificial precisam ser responsabilizadas pelos efeitos de seus sistemas. Ele acredita que milhões de pessoas estão participando, sem perceber, de um experimento global.
— Alguém estava puxando os fios nos bastidores, e pessoas como eu (soubessem ou não) reagiram a isso — afirmou.
