Claude Mythos indica perigos em cibersegurança, mas recicla discurso do medo da IA
Representantes de governos, bancos e mercado financeiro dos EUA, Reino Unido e Canadá estão assustados desde a semana passada. O motivo é o Claude Mythos, novo modelo de inteligência artificial (IA) da Anthropic, que foi revelado na terça (7) e apontado pela própria companhia como sua “IA mais poderosa” — e supostamente mais perigosa. Agora, o que especialistas e autoridades tentam entender é o quanto desses avanços são reais e o quanto são exageros no discurso da empresa de Dario Amodei.
Na documentação do novo modelo, a companhia deixou claro que a nova IA pode encontrar e explorar brechas de forma autônoma em todos os sistemas operacionais, navegadores e programas de computador do mundo, incluindo software de código aberto e código fechado. Engenheiros da Anthropic sem treinamento formal em segurança conseguiram usar o modelo para encontrar vulnerabilidades complexas de execução da noite para o dia, o que significa que, na melhor das hipóteses, hackers teriam acesso a um poderoso assistente.
Banco Central britânico vai discutir nova IA da Anthropic com instituições financeiras do país
Por que o Mythos, novo modelo de IA da Anthropic, suscita temor de que a China possa tirar vantagem do sistema
Isso espalhou temores no setor financeiro. Kristalina Georgieva, diretora-gerente do Fundo Monetário Internacional (FMI), disse neste domingo (12): “Não temos capacidade coletiva de proteger o sistema monetário internacional contra riscos cibernéticos de grande magnitude”.
Antes, Scott Bessent, secretário do Tesouro americano, e Jerome Powell, presidente do Federal Reserve, convocaram os chefes dos principais bancos, incluindo JPMorgan Chase, Bank of America, Citigroup, Goldman Sachs, Morgan Stanley e Wells Fargo, para discutir os riscos de cibersegurança do Mythos. Reguladores financeiros do Reino Unido tomaram iniciativa parecida.
A movimentação seguiu após a Anthropic revelar que criou o Projeto Glasswing, um consórcio com 45 organizações, incluindo Amazon, Apple, Broadcom, Cisco, Google, Linux Foundation, Microsoft e Nvidia, para testar o Mythos. A ideia é dar às principais companhias do mundo um tempo de vantagem para testar o Claude Mythos antes que ele seja disponibilizado publicamente.
Ou seja, a IA não foi lançada publicamente, o que aumentou o mistério a respeito do sistema. A avaliação sobre o quão perigoso só pode ser feita por meio da documentação oficial ou pelos testes realizados pelos parceiros do Glasswing. Nesse sentido, a Anthropic, de fato, parece ter algo diferente nas mãos, como explica Edney Souza, professor de IA na Escola Superior de Propaganda e Marketing (ESPM) e Insper.
— O Mythos tem resultados que sustentam a narrativa assustadora. No Cybench, ele atingiu 100% de exploração de vulnerabilidades reais. E foi além: ele identificou uma vulnerabilidade de 17 anos no FreeBSD, um sistema de servidores em Linux que dava controle total ao servidor sem intervenção humana.
O Cybench é um teste público de capacidades de IA em cibersegurança composto por 40 desafios. Ao esgotar o teste, a Anthropic afirma que está buscando novas métricas para medir a capacidade de seus modelos.
O AI Security Institute (AISI), uma organização vinculada ao Departamento de Ciência, Inovação e Tecnologia do Reino Unido, publicou nesta segunda (13) uma análise detalhada e concluir: “Nossos resultados mostram que o Mythos representa um avanço em relação aos modelos de ponta anteriores, num cenário em que o desempenho cibernético já vinha melhorando rapidamente”.
A organização destacou como o Mythos opera de forma autônoma para encontrar e explorar vulnerabilidades com velocidade acima da capacidade humana. Também publicou que ele foi o primeiro modelo a resolver integralmente o "The Last Ones" (TLO), uma simulação de ataque de 32 etapas a uma rede corporativa. O modelo completou uma média de 22 etapas, enquanto o Claude Opus 4.6, IA antecessora ao Mythos, completou 16.
O instituto também notou que o desempenho do modelo continua a crescer conforme mais tokens são consumidos. Ou seja, quanto mais texto ele processa, mais problemas encontra e melhor explora essas falhas.
— Durante décadas, a pesquisa de vulnerabilidades zero-day foi um jogo de alto risco e alto custo, praticado por um pequeno círculo de pesquisadores de elite. Agora é possível direcionar um modelo agente para uma base de código enorme, definir um objetivo e deixá-lo investigar. Ele não se cansa e não deixa passar os bugs "chatos" que os humanos ignoram — explica Fabio Assolini, chefe de pesquisa para a América Latina e Europa da empresa de cibersegurança Kaspersky.
Ou seja, em mãos erradas, o Mythos poderia se tornar uma arma poderosa, além de democratizar ciberataques para criminosos que não têm conhecimento técnico. Assim, parte do setor vê com bons olhos a pauta proposta pela Anthropic, como explica Fernando de Falchi, gerente de engenharia de segurança da Check Point Software.
— O modelo é muito bom para encontrar vulnerabilidades. Se eles liberarem para o público, podem gerar muitos problemas. Faz sentido preparar o mercado para o que está vindo.
Lançamento sabor hype
Ao mesmo tempo, a Anthropic vem sendo acusada de promover o medo como um propulsor de vendas, então especialistas também pregam cautela até que mais análises possam ser realizadas. O discurso de que "temos uma IA muito poderosa para ser lançada publicamente” se tornou padrão na indústria — em 2019, por exemplo, a OpenAI afirmava que não iria lançar o GPT-2 por ser um modelo perigoso demais.
— O hype do medo está em no enquadramento do assunto, que cumpre dois papéis: posiciona a Anthropic como uma empresa muito responsável. E eles fazem isso ao mesmo tempo em que anunciam que atingiram receita recorrente anual de US$ 30 bilhões, uma informação que passaria despercebida e volta a ganhar atenção — diz Souza.
O AISI encontrou limitações no Mythos, que o deixam com um ar bem menos apocalíptico. Segundo a organização, os testes foram realizados em ambientes que carecem de recursos comuns no mundo real, como defensores ativos e ferramentas de proteção automatizadas. Além disso, não houve penalidades para o modelo por tomar ações que disparariam alertas de segurança. Por isso, o instituto afirma que não é possível garantir que o Mythos teria sucesso contra sistemas bem protegidos.
Gary Marcus, professor da Universidade de Nova York e crítico das gigantes da IA, argumentou que o sistema encarou tarefas mais fáceis do que desafios do mundo real, que modelos abertos já conseguem fazer boa parte do que o Mythos realiza e que a nova IA é um avanço em relação aos sucessores, mas não uma revolução.
Ele escreveu em seu site: “De certa maneira, sinto que fomos enganados. A demonstração foi, sem dúvida, uma prova de conceito de que precisamos colocar em ordem nossas questões regulatórias e técnicas, mas não a ameaça imediata que a mídia e o público foram levados a acreditar”.
