União Europeia chega a acordo e proíbe IA de criar imagens de nudez sem consentimento
Os Estados-membros da União Europeia e o Parlamento Europeu chegaram a um acordo nesta quinta-feira para proibir ferramentas de inteligência artificial capazes de gerar imagens de nudez de pessoas reais sem consentimento.
Vídeo: Robô humanoide se torna monge budista em cerimônia na Coreia do Sul
Veja: Startup Genesis AI revela seu primeiro modelo de robô, com mãos capazes de realizar tarefas precisas
A medida foi impulsionada pela repercussão de uma função introduzida meses atrás no Grok, assistente de inteligência artificial ligado a Elon Musk, que permitia a usuários solicitar a criação de imagens hiper-realistas — os chamados deepfakes — de adultos e crianças nus a partir de fotografias reais, sem autorização.
O recurso provocou forte reação em diversos países europeus e levou à abertura de uma investigação na União Europeia.
A primeira-ministra da Itália, Giorgia Meloni, denunciou a circulação de imagens falsas criadas por inteligência artificial com sua aparência e classificou a ferramenta como uma "ferramenta perigosa".
O que muda com a nova regra?
Segundo o Parlamento Europeu, a proibição mira sistemas capazes de criar imagens, vídeos e sons de caráter pedopornográfico, além de conteúdos que exponham partes íntimas de uma pessoa identificável ou a retratem participando de atividades sexuais sem consentimento.
A nova regulamentação entrará em vigor em 2 de dezembro de 2026. Até lá, serviços de inteligência artificial terão de implementar mecanismos de segurança capazes de impedir a geração desse tipo de conteúdo.
A medida integra uma revisão da legislação europeia sobre inteligência artificial, considerada pioneira e formalmente aprovada há dois anos.
No mesmo acordo, os 27 países do bloco e os eurodeputados também decidiram adiar a entrada em vigor das normas voltadas à regulação dos chamados sistemas de inteligência artificial de alto risco, usados em áreas sensíveis como segurança, saúde e direitos fundamentais.
