'Fim do mundo': simulação de guerra com ferramentas de IA aponta que modelos escolheram armas nucleares em 95% das vezes

 

Fonte:


Se a sua preocupação com inteligência artificial (IA) envolve o risco de fim do mundo (ou algo próximo disso), como o Cinema já abordou algumas vezes, saiba que ela não é absurda.

Um exercício de simulação de guerra conduzido por Kenneth Payne no King's College London (Inglaterra) desembocou num cenário desolador.

Três equipes executaram simulações com os modelos de IA Chat GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Os participantes jogaram 21 simulações de guerra entre si ao longo de 329 turnos.

Durante os exercícios foram escritas cerca de 780 mil palavras explicitando, entre outras coisas, ações bélicas que poderiam pôr em xeque a permanência da vida humana na Terra.

Os exercícios militares foram concebidos para serem o mais realistas possível, com uma "escala de progressão" que permitia à equipe escolher ações "que variavam de protestos diplomáticos e rendição completa a uma guerra nuclear estratégica total".

O resultado foi preocupante: nenhum modelo de IA jamais optou por se render para pôr fim a uma guerra e salvar a Humanidade. Na verdade, em 95% das vezes, os modelos escolheram usar armas nucleares, um dos cenários mais previsíveis para um "Apocalipse". No melhor dos cenários, as ferramentas de IA optaram por temporariamente reduzir o nível de violência.

Os temores de catástrofe podem ser amplificados depois que Pentágono recentemente fechou um acordo com a xAI, de Elon Musk, para permitir o acesso do Grok, a ferramenta de inteligência artificial do magnata, a sistemas altamente confidenciais. A xAI concordou com uma exigência do Pentágono de que a IA estivesse disponível para "todas as aplicações militares legais". O secretário de Guerra dos EUA, Pete Hegseth, está pressionando por uma IA "não-progressista" que opere sem restrições ideológicas.

"Em cenários que envolvem prazos extremamente curtos, líderes militares podem ter incentivos maiores para recorrer à IA", alertou Tong Zhao, da Universidade de Princeton (EUA).