Falha expões rede com 1 milhão de deepfakes pornôs de adultos e crianças
Após ser alvo de um vazamento de dados, a MagicEdit, uma ferramenta que gera imagens com inteligência artificial (IA), foi exposta na web por incluir em sua biblioteca deepfakes e “nudificação” (ou nudify, recursos que removem roupas de pessoas) de adultos e crianças. Qualquer um pode criar vírus com esta nova inteligência artificial Como acontecem os golpes com reconhecimento facial e como empresas se protegem A ação foi detectada pelo pesquisador de cibersegurança Jeremiah Fowler, que descobriu que o banco de dados público da plataforma continha cerca de um milhão de imagens e vídeos pornográficos, todos gerados ou manipulados com o uso de IA. Grande parte dos registros mostrava troca de rostos e corpos entre adultos e pessoas mais jovens, além de também incluírem imagens que pareciam legítimas como uma espécie de referência, algo que supostamente era feito sem o consentimento dos indivíduos. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Fowler entrou em contato com os desenvolvedores da MagicEdit após a confirmação do vazamento de dados. Em resposta, a empresa restringiu o acesso ao banco de imagens da plataforma, tornando-o indisponível, assim como o aplicativo. Também foi enviado uma declaração a respeito do caso, afirmando que eles “estão conduzindo uma investigação completa sobre o alcance da exposição”. MagicEdit tira site e aplicativo do ar para "melhorar a experiência geral" após exposição de deepfakes e conteúdos pornográficos de IA (Imagem: Reprodução/MagicEdit). Vazamento gera preocupação Usado por aqueles que queriam criar imagens ou editá-las usando IA, o MagicEdit também servia como um meio para indivíduos que queriam produzir conteúdo adulto. Durante as investigações, Fowler identificou que o aplicativo do gerador de imagens era descrito na App Store como uma plataforma “destinada a usuários maiores de 18 anos”. O app ainda exibia um aviso de que poderia conter conteúdo sexual ou nudez. Foi exatamente isso que o pesquisador encontrou no banco de dados do MagicEdit após o vazamento das informações, mas com um adicional alarmante: grande parte das imagens era voltada para materiais pornográficos, sendo que muitos registros traziam sobreposições de rostos adultos em corpos de menores de idade, até mesmo crianças. Pesquisa mostra como ferramenta de IA para imagens continha banco de dados repleto de deepfakes e "nudificação" (Imagem: Reprodução/We Live Security). Também foi identificado que havia um complemento de navegador de código aberto para inspecionar páginas, além de outros domínios que dividiam o mesmo endereço IP que o MagicEdit, como o “pandoraai.app”., domínio do Pandora AI, uma ferramenta de IA que cria artes a partir de fotos e que também saiu do ar depois do vazamento. O especialista ainda faz um alerta para a possibilidade da falta de consentimento por trás do uso dessas imagens para deepfakes pornográficos e outros tipos de conteúdos adultos, além da possibilidade desses registros gerados por IA serem usados para chantagens e golpes. Por outro lado, Fowler ressalta que sua análise apresenta “cenários hipotéticos de risco” para fins “estritamente educacionais”, sem implicar que essas ocorrências teriam de fato acontecido com imagens geradas pela plataforma. Leia também: Falso ChatGPT Atlas é usado para roubar senhas de usuários em navegadores Com alta de 126%, Brasil lidera uso de deepfakes em fraudes na América Latina Deepfakes de IA aumentam 1740% e tornam golpes indetectáveis Leia a matéria no Canaltech.
