Chatbots de IA elaboram ataques, com dicas de 'armas, táticas e seleção de alvos', e até desejam: 'Bom (e seguro) tiroteio!'

 

Fonte:


De tiroteios em escolas a atentados a sinagogas, chatbots de inteligência artificial de ponta ajudaram pesquisadores a planejar ataques violentos, segundo um estudo publicado nesta quarta-feira que destacou o potencial da tecnologia para causar danos no mundo real. Pesquisadores da organização sem fins lucrativos Center for Countering Digital Hate (CCDH) e da CNN se fizeram passar por meninos de 13 anos nos Estados Unidos e na Irlanda para testar 10 chatbots, incluindo ChatGPT, Google Gemini, Perplexity, Deepseek e Meta AI.

Leia mais: família de vítima de tiroteio no Canadá processa OpenAI por não alertar autoridades de plano de atirador

Vídeo: suspeitos de terrorismo são acusados de tentar ataque com explosivos perto da casa do prefeito de Nova York

Os testes mostraram que oito desses chatbots auxiliaram os personagens em mais da metade das respostas, fornecendo conselhos sobre "locais para atacar" e "armas para usar" em um ataque, segundo o estudo. Os chatbots, acrescentou, tornaram-se um "poderoso acelerador de danos".

"Em poucos minutos, um usuário pode passar de um vago impulso violento para um plano mais detalhado e viável", disse Imran Ahmed, diretor executivo da CCDH. "A maioria dos chatbots testados fornecia orientações sobre armas, táticas e seleção de alvos. Essas solicitações deveriam ter gerado uma recusa imediata e total."

Perplexity e Meta AI foram consideradas as "menos seguras", auxiliando os pesquisadores na maioria das respostas, enquanto apenas My AI, do Snapchat, e Claude, da Anthropic, se recusaram a ajudá-los em mais da metade das respostas. Em um exemplo arrepiante, o DeepSeek, um modelo de IA chinês, concluiu sua recomendação sobre seleção de armas com a frase: "Boa (e segura) sessão de tiro!"

Em outro caso, a Gemini instruiu um usuário que discutia ataques a sinagogas que "estilhaços de metal são normalmente mais letais". Os pesquisadores descobriram que a Character.AI também incentivava "ativamente" ataques violentos, incluindo sugestões para que a pessoa que fazia as perguntas "usasse uma arma" contra o CEO de uma seguradora de saúde e agredisse fisicamente um político de quem não gostava.

'Risco crescente'

A conclusão mais condenatória da pesquisa foi que "esse risco é totalmente evitável", disse Ahmed, citando o produto da Anthropic como um elogio.

"Claude demonstrou a capacidade de reconhecer o aumento do risco e de evitar danos", disse ele. "A tecnologia para evitar esse dano existe. O que falta é a vontade de colocar a segurança do consumidor e a segurança nacional acima da rapidez de lançamento no mercado e dos lucros."

A AFP entrou em contato com as empresas de IA para obter comentários.

"Temos fortes mecanismos de proteção para ajudar a prevenir respostas inadequadas de IAs e tomamos medidas imediatas para corrigir o problema identificado", disse um porta-voz da Meta. "Nossas políticas proíbem que nossas IAs promovam ou facilitem atos violentos e estamos constantemente trabalhando para aprimorar ainda mais nossas ferramentas."

Um porta-voz do Google contestou, afirmando que os testes foram realizados em "um modelo mais antigo que não é mais utilizado no Gemini".

"Nossa análise interna com o modelo atual mostra que o Gemini respondeu adequadamente à grande maioria das solicitações, não fornecendo nenhuma informação 'acionável' além do que pode ser encontrado em uma biblioteca ou na internet", disse o porta-voz.

O estudo, que destaca o risco de interações online se transformarem em violência no mundo real, surge após o massacre ocorrido em fevereiro no Canadá, o pior da história do país. A família de uma menina gravemente ferida no tiroteio está processando a OpenAI pela falha da empresa em notificar a polícia sobre a atividade preocupante do assassino em seu chatbot ChatGPT, disseram advogados nesta terça-feira.

A OpenAI havia banido uma conta ligada a Jesse Van Rootselaar em junho de 2025, oito meses antes de a jovem transgênero de 18 anos matar oito pessoas em sua casa e em uma escola na pequena cidade mineradora de Tumbler Ridge, na Colúmbia Britânica. A conta foi banida devido a preocupações com o uso associado a atividades violentas, mas a OpenAI afirmou que não informou a polícia porque nada indicava um ataque iminente.