Especialistas da ONU querem "linhas vermelhas" contra riscos inaceitáveis da IA

 

Fonte:


Neste mês de setembro, durante a 80ª Assembleia Geral das Nações Unidas, foi lançado o movimento Global Call for AI Red Lines, uma iniciativa que pede limites claros e universais para o desenvolvimento da inteligência artificial. Mais de 200 laureados com o Prêmio Nobel, além de especialistas em tecnologia e 70 organizações ligadas à IA assinaram uma carta pública pedindo que governos do mundo estabeleçam “linhas vermelhas” para prevenir riscos inaceitáveis da IA até 2026. Avaliadores de IA | Como trabalham os humanos que treinam o Gemini do Google Casais estão usando o ChatGPT para arbitrar DRs e ajudar a vencer uma discussão Embora a IA tenha potencial para promover avanços significativos no bem-estar humano, seu crescimento descontrolado pode trazer ameaças sem precedentes. Entre os riscos citados estão: Pandemias artificiais ou armas biológicas criadas com auxílio de IA; Disseminação de desinformação em larga escala; Manipulação psicológica de indivíduos, incluindo crianças; Violações sistemáticas de direitos humanos; Desafios à segurança nacional e internacional; Desemprego em massa causado pela automação. Segundo a carta, “alguns sistemas de IA avançada já demonstraram comportamentos enganosos e prejudiciais, e ainda assim recebem mais autonomia para agir no mundo real”. Por isso, os especialistas defendem que é preciso agir rapidamente antes que seja impossível manter o controle humano significativo sobre essas tecnologias. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- O apelo reúne nomes de peso no debate sobre inteligência artificial. Entre os mais destacados estão Geoffrey Hinton, conhecido como “padrinho da IA”, que desde 2022 alerta sobre os riscos da chamada inteligência artificial geral (AGI), Gary Marcus, cientista cognitivo que, apesar de cético quanto à chegada próxima da AGI, reconhece a necessidade de limites globais e Wojciech Zaremba, cofundador da OpenAI. Ahmet Üzümcü, ex-diretor-geral da Organização para a Proibição de Armas Químicas também assina. Linhas vermelhas 🎥 WATCH: Nobel Peace Prize laureate Maria Ressa presents the call for global red lines on AI to the UN General Assembly."We urge your governments to establish clear international boundaries to prevent universally unacceptable risks for AI."https://t.co/sv5uMh70ld — ControlAI (@ai_ctrl) September 22, 2025

Apesar de a carta oficial não listar regras específicas, menciona que esses parâmetros "devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores de IA avançada sejam responsáveis ​​por limites compartilhados". Alguns especialistas já propuseram exemplos práticos, como o professor Stuart Russell, da Universidade da Califórnia em Berkeley, defende que sistemas de IA deveriam: Não tentar se replicar; Nunca invadir outros sistemas computacionais; Não fornecer instruções para fabricar armas biológicas; Evitar produzir declarações falsas e prejudiciais sobre pessoas reais. Russell ressalta que as empresas de tecnologia, em geral, tentam corrigir falhas após a criação do sistema. Para ele, o foco deveria estar em segurança embutida desde o design, evitando que comportamentos nocivos surjam em primeiro lugar. Prazo e próximos passos O movimento pede que os governos negociem e firmem um acordo internacional até o final de 2026, com mecanismos de aplicação e fiscalização. Para os especialistas, regulamentar a IA deve seguir o exemplo de áreas críticas como energia nuclear e medicina, nas quais a dificuldade de cumprir normas não é desculpa para deixar de proteger a sociedade. Leia também: IA consegue prever doenças até 20 anos antes dos sintomas começarem a aparecer Por que a IA usa tanta energia? Há duas partes focais: treinamento e inferência VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?   Leia a matéria no Canaltech.