Governos e empresas correm contra o tempo para criar regulação adequada às mudanças provocadas pela IA
Atentos ao potencial da inteligência artificial para redefinir mercados, economia, sociedade e até a geopolítica mundial, países de todos os continentes têm se mobilizado para estudar e implementar marcos regulatórios em torno das novas tecnologias — que costumam surgir e se popularizar muito antes que qualquer projeto de lei saia do papel.
Nos últimos anos, os governos têm se dividido basicamente entre três modelos de regulação. O primeiro é calcado em risco, adotado pela União Europeia (UE) e considerado por especialistas como referência para o debate. Há também um enfoque intermediário em fomento e governança, usado por países como o Reino Unido. Já dos Estados Unidos de Donald Trump vem o esforço pela desregulamentação, inclusive com pressão diplomática e tarifária sobre a UE para alterar suas regras. Um cenário de poucas certezas e muitas obrigações e riscos para empresas que atuam nesse segmento, ainda segundo especialistas.
Para eles, não adianta esperar o cenário regulatório se definir para tomar as medidas necessárias.
— O risco de insegurança jurídica não vem só da falta ou da mudança da lei, mas também de empresas que esperam a lei sair para só então se organizar. Quem usa IA no Brasil, por exemplo, já está exposto a Lei Geral de Proteção de Dados (LGPD), Código de Defesa do Consumidor (CDC), regras setoriais, propriedade intelectual, deveres de informação e responsabilidade civil. Essas empresas precisam construir desde já uma governança operacional de IA — alerta André Zanatta, sócio da área de Tecnologia, Privacidade, IA e Law Enforcement do Felsberg Advogados, escritório especializado em direito empresarial.
Na prática, diz Zanatta, empresas globais já operam combinando governança, gestão de risco e controles que precisam funcionar em diferentes jurisdições ao mesmo tempo.
— O mercado já entendeu que publicar princípios éticos no site não resolve — completa.
Distintas escolhas
Para Ricardo Santana, sócio-líder de Data & Analytics, Automação e Inteligência Artificial da KPMG no Brasil, o principal desafio para empresas globais é como se posicionar nesse cenário de distintas escolhas regulatórias.
De acordo com Santana, o modelo europeu é o mais consolidado. Tem regras proporcionais ao risco de cada aplicação e inclui um forte arcabouço voltado para medidas de governança, rastreamento e explicabilidade — ou seja, o modelo precisa ter suas decisões e algoritmos entendidos por humanos. De acordo com o especialista, lá as multas por descumprimento podem chegar a 7% da receita global anual, um patamar considerado severo e que explica, em parte, a reação do governo norte-americano e das big techs, corporações mais sujeitas a possíveis penalidades.
A Comissão Europeia lançou uma proposta de revisão, conta Santana, referindo-se ao Digital Omnibus, de novembro de 2025.
— A proposta é adiar parte das obrigações de sistemas de alto risco, reduzir exigências documentais para pequenas e médias empresas e reforçar a supervisão de modelos de propósito geral — explica Santana, que considera o movimento um reconhecimento de que a implementação enfrenta desafios de coordenação e de ferramentas de conformidade.
Professor pesquisador em tempo integral da FGV Direito Rio e Coordenador do Centro de Tecnologia e Sociedade (CTS-FGV), Luca Belli resume:
— O foco dos Estados Unidos não é o risco do sistema de IA contra usuários ou humanos, como no modelo europeu, mas contra a segurança nacional. Eles não têm regulação de risco, mas uma maneira de regular totalmente irresponsável — diz ele, atribuindo a iniciativa da Comissão Europeia à pressão do governo Trump e dos principais nomes do Vale do Silício.
Políticas de fomento
No Brasil, esse debate se materializa no Projeto de Lei nº 2.338/2023, principal tentativa de criar um marco regulatório para inteligência artificial.
A proposta segue linha próxima à europeia, baseada em risco, já foi aprovada no Senado e está em análise na Câmara — mas se arrasta há mais de três anos. Em exemplos recentes, como a própria LGPD e o Estatuto da Criança e do Adolescente (ECA) Digital, foi necessário um caso concreto de violação para que o projeto em questão fosse aprovado.
Paralelamente, o governo federal tem iniciativas de regulação por meio de políticas de fomento. É o caso do Sistema Nacional para Desenvolvimento, Regulação e Governança de IA, do Plano Brasileiro de Inteligência Artificial Para Todos e do projeto que busca aprovar incentivos fiscais para atrair data centers.
— O Brasil tem ativos tecnológicos e estratégias, como alavancar compras públicas. Precisamos ter uma abordagem de sistema se não quisermos ser uma colônia digital — afirma o professor da FGV, autor do livro “Diálogos Atlânticos de Tecnologia”, que trata do tema.
Belli considera acertada a estratégia do Brasil de combinar regulação e fomento. Ele se preocupa, porém, com a capacidade brasileira de implementação da futura lei. Uma das questões problemáticas é que o PL coloca a Agência Nacional de Proteção de Dados (ANPD) como principal agente de regulação, mas o órgão já sofre com falta de recursos financeiros e humanos para cumprir apenas com suas obrigações originais.
— O sistema de governança é muito positivo, inclui também um Conselho Setorial, mas quem vai de fato regular é a ANPD, que não é reconhecida por ser um órgão efetivo do sistema de regulação brasileira — diz, destacando que, desde a sua criação, a agência impôs apenas uma sanção. — Não é possível que o país tenha tido apenas um caso de violação de dados em todo esse tempo. (Renata Batista)
