Conflito no Oriente Médio e chuvas em MG impulsionam vídeos falsos com IA e mostram nova face da desinformação

 

Fonte:


Fogo no Burj Khalifa, corredeiras descontroladas de água, voos rasantes de aviões iranianos e solidariedade inacreditável entre animais. O novo conflito no Oriente Médio e a tragédia climática em Minas Gerais mostraram o novo estágio face da desinformação online: a disseminação em massa de vídeos gerados por inteligência artificial durante eventos de grande atenção pública.

Logo após a ação coordenada de EUA e Israel contra alvos iranianos no sábado (28), e a retaliação imediata que seguiu, vídeos no X passaram a circular do que seriam alguns dos ataques. Em um deles, o Burj Khalifa, o edifício mais alto do mundo, aparece em chamas, como se tivesse sido atacado por uma bomba, algo que não aconteceu. Apenas um dos perfis que reproduzem o vídeo, que tem sinais claros de produção por IA, tinha mais de 1 milhão de visualizações.

Índia e big techs roubam holofotes em cúpula da IA, enquanto governança global perde força

Pornografia infantil gerada por IA faz denúncias na internet crescerem 19,3% em 2025, diz Safernet

Nesta segunda (2), um outro vídeo postado no X durante a madrugada mostra aviões dando rasantes em Dubai, enquanto lança mísseis. Era outro conteúdo falso gerado por IA — a mão do homem na sacada denuncia a fabricação. Somente um dos perfis tinha mais de 6,5 milhões de visualizações. A rede social de Elon Musk traz ainda vídeos de pessoas supostamente aterrorizadas nas ruas de cidades que tentam imitar os Emirados Árabes, além de supostos ataques contra porta-aviões americanos.

A disseminação de informações falsas durante conflitos não é nova, mas, na semana passada, também se estendeu para um evento de comoção pública: as enchentes em Minas Gerais. No TikTok, vídeos mostravam correntezas desproporcionais e desabamento de imóveis: um dos vídeos já tinha mais de 1 milhão de visualizações, enquanto outro se aproximava de 700 mil.

Initial plugin text

Em alguns casos, os conteúdos estavam marcados como produzidos por IA, mas, nos comentários, a reação das pessoas mostrava tristeza e medo. Os vídeos de um dos perfis que sinaliza uso de IA passou a ser reproduzido em outros perfis sem a indicação — e tinham manipulações para esconder as marcas d’água que identificam conteúdo sintético.

Surgiram também vídeos comoventes de animais presos pela enchente em um tentativa de reproduzir a história do cavalo Caramelo nas grandes enchentes do Rio Grande do Sul, em 2025. Um único vídeo de uma vaca carregando quatro cachorros tinha quase meio milhão de visualizações. Em alguns casos, os vídeos levavam a supostas campanhas de arrecadação de fundos para vítimas das enchentes. Em outros casos, havia críticas a governantes.

O X não responde a pedidos da imprensa. A reportagem aguarda resposta do TikTok.

Problema que deve se agravar

O uso de IA em assuntos de interesse público não é algo novo: desde a disseminação dos geradores de imagem, a partir de 2023, as ferramentas vêm sendo cada vez mais usadas. Em 2023, o argentino Javier Milei chegou a usar vídeos criados por IA na sua vitoriosa campanha à presidência, enquanto Donald Trump passou a usar rotineiramente imagens sintéticas desde que assumiu a Casa Branca. Em janeiro deste ano, fotos geradas por IA viralizaram durante o ataque dos EUA à Venezuela, especialmente as que mostravam a suposta detenção de Nicolas Maduro. E a tentativas de usar deep fakes, vídeos reais alterados por IA, ocorrem há alguns anos.

Mas os eventos no Oriente Médio em Minas Gerais mostram que os geradores de vídeo por IA se tornarão um grande desafio no já complexo cenário da desinformação online. Ao menos duas novas IAs lançadas em fevereiro impressionam pelo nível de detalhes, realismo e precisão: o Seedance 2.0, da ByteDance, dona do TikTok, e Nanobanana 2, do Google.

Lançado em 10 de fevereiro, o Seedance incomodou produtores de Hollywood pela sua capacidade cinematográfica de produzir conteúdo. Já o Nanobanana 2 saiu em 26 de fevereiro e foi integrado ao Gemini. Ele é alimentado por informações e imagens em tempo real provenientes de buscas no Google para representar com mais precisão assuntos específicos — nos primeiros testes feitos por especialistas, chamou atenção pela riqueza e nível de detalhe.

Initial plugin text

Até aqui, geradores de IA apresentavam limitações que não passavam despercebidas a olhos mais atentos — e céticos — como explica Carolina Terra, pesquisadora e professora da USP.

— Os vídeos apresentam inconsistências visuais, iluminação incoerente e desalinhamento entre voz e imagem.

Tanto os vídeos do Oriente Médio quanto os de Minas Gerais mostravam problemas: corredeiras que desafiavam a gravidade, pessoas com mãos deformadas e incêndios com aspecto artificial. Tudo isso deve ser reduzido nas próximas gerações de vídeos criados com IA. E não há solução fácil.

Grandes empresas de tecnologia, como OpenAI, Google e Meta, colocam marcas d’água em seus geradores de vídeo, que podem ser removidas com facilidade. No ano passado, o Google lançou também o SynthID, uma espécie de marcação invisível em conteúdos gerados por suas IAs. É uma iniciativa parecida com a que a Meta implementou no final de 2024.

Em todos os casos, técnicas simples também podem afetar a eficiência dessas assinaturas. Além disso, as ferramentas de detecção disponibilizadas por essas empresas só funcionam com IAs desenvolvidas por elas. Ou seja, a detecção do Google não funciona para IAs da OpenAI.

A esperança seria uma detector universal de vídeos gerados por IA, mas esse caminho também enfrenta desafios técnicos, como explica Gabriel Bertocco, pesquisador do Recod.ai, laboratório de IA da Universidade Estadual de Campinas (Unicamp):

— Existem dois pontos: um referente aos dados e a outro referente aos modelos. Sobre a primeira questão, eu teria que usar o maior número de geradores possíveis e criar uma quantidade grande de conteúdos. Se aparecer uma uma imagem falsa criada por uma ferramenta não utilizada durante o treinamento, a performance do detector pode ser inferior.

Ou seja, os desenvolvedores de detectores vivem uma caça eterna de gato e rato para aprimorar suas ferramentas à medida que os modelos evoluem. Sobre a diferença de arquiteturas entre os detectores, Bertocco diz:

— Um modelo de IA de um detector é desenhado para uma tarefa em particular e pode ter problemas ao lidar com tipos de dados que não fizeram parte do treinamento. Uma arquitetura menor pode ser mais rápida, mas perder em generalização.

Detectores podem não saber lidar, inclusive, com novas gerações de IAs que participaram do treinamento inicial. Por exemplo, uma ferramenta treinada com dados da primeira versão do Sora, da OpenAI, pode não ser tão eficiente para material feito pelo Sora 2.

Como identificar vídeos por IA

Para não ser enganado por vídeos como os que dominaram as redes nos últimos dias, os especialistas dão dicas que vão além de soluções tecnológicas ou de apontar para falhas evidentes nas produções

— A origem do vídeo é muito importante. A primeira coisa é ficar atento a quem publicou e em qual momento. Isso coincide com algum período crítico? Desconfie — diz Carolina Terra.

Bertocco acrescenta:

— É preciso buscar veículos responsáveis de jornalismo e fazer a sincronização de informações com múltiplas fontes. Essa é a dica que eu sempre dou.