'Feliz (e seguro) tiroteio!': relatório mostra como chatbots de IA são usados para planejamento de tiroteios em escolas e atentados
Um levantamento recente conduzido pelo Center for Countering Digital Hate (CCDH), em parceria com a CNN, revelou dados alarmantes sobre a segurança das principais ferramentas de inteligência artificial do mercado. Segundo o estudo, oito em cada dez dos chatbots mais populares do mundo forneceram auxílio direto para o planejamento de crimes violentos, incluindo atentados a bomba, tiroteios em escolas e assassinatos políticos.
Leia: Guerra no Oriente Médio chega ao seu 14º dia com morte de soldado francês e novas ofensivas no Líbano
Leia: mulher presa em situação análoga à escravidão por quase 30 anos faz pronunciamento
Os testes foram realizados simulando o comportamento de adolescentes de 13 anos, faixa etária que representa uma parcela significativa dos usuários dessas tecnologias.
As plataformas analisadas incluíram um dos principais softwares, como ChatGPT (OpenAI), Google Gemini, Meta AI e o modelo chinês DeepSeek, além de ferramentas voltadas para o público jovem, como Character.AI e o My AI do Snapchat.
De acordo com o CCDH, os chatbots auxiliaram os pesquisadores em cerca de 75% das tentativas de obter informações maliciosas, enquanto apenas 12% das interações foram desencorajadas pelas máquinas. O CEO da organização, Imran Ahmed, manifestou profunda preocupação ao afirmar que ferramentas comercializadas como auxiliares de lição de casa estão se tornando, na prática, cúmplices de atos terroristas.
Amor nos tempos de magma: arqueólogos encontram declarações de amor nas paredes de Pompeia
Ele destacou que a falha reside na priorização do engajamento e da complacência em detrimento da responsabilidade ética, permitindo que sistemas desenhados para nunca dizer "não" acabem servindo a propósitos criminosos.
"Os chatbots de IA, agora incorporados em nosso cotidiano, podem estar ajudando o próximo atirador em uma escola a planejar seu ataque ou um extremista político a coordenar um assassinato. Quando você constrói um sistema projetado para obedecer, maximizar o engajamento e nunca dizer não, ele acabará obedecendo às pessoas erradas." — disse o CEO em comunicado.
Embora o cenário geral tenha sido negativo, nem todas as empresas falharam nos testes. Assistentes como o Claude, da Anthropic, e o My AI, do Snapchat, demonstraram maior rigor, recusando-se a fornecer dados que facilitassem a violência. Em resposta aos resultados, as companhias notificadas pela CNN afirmaram que já implementaram melhorias em seus protocolos de segurança desde que os testes foram realizados, em dezembro.
