Entenda como funciona IA feminista da América Latina

 

Fonte:


Os espaços on-line perpetuam estereĂłtipos sobre quem os cria e sobre os dados que neles sĂŁo inseridos — atualmente, de forma predominante, homens. Esse fenĂŽmeno global vem impulsionando a construção de alternativas tecnolĂłgicas, como a Rede Feminista de IA da AmĂ©rica Latina e do Caribe.

Alexa, Siri, Lu, Bia: por que assistentes virtuais sĂŁo geralmente associadas ao gĂȘnero feminino?

Viés sexista: Algoritmos reproduzem machismo e racismo por se basearem em pråticas discriminatórias dos humanos

A literatura tecnolĂłgica estĂĄ repleta de exemplos de viĂ©s de gĂȘnero. Sistemas de reconhecimento de imagens tĂȘm dificuldade para identificar com precisĂŁo mulheres, especialmente mulheres negras, o que jĂĄ resultou em identificaçÔes equivocadas com consequĂȘncias graves para as forças de segurança.

Assistentes de voz, por muito tempo, utilizaram exclusivamente vozes femininas, reforçando o estereótipo de que mulheres seriam mais adequadas a funçÔes de serviço.

Na geração de imagens, as IAs costumam associar o termo “CEO” a um homem, enquanto uma busca por “assistente” retorna imagens de mulheres.

— A inteligĂȘncia artificial se alimenta de dados que nĂŁo sĂŁo neutros: ela reflete sociedades marcadas por desigualdades histĂłricas e relaçÔes de poder. Se uma empresa deseja obter resultados justos, precisa analisar os conjuntos de dados, verificar sua representatividade e intervir ativamente quando isso nĂŁo ocorre. A equidade nĂŁo surge sozinha: ela precisa ser projetada — afirmou Ă  agĂȘncia ANSA Ivana Bartoletti, especialista internacional em governança da IA e autora de um estudo do Conselho da Europa sobre inteligĂȘncia artificial e gĂȘnero.

Galerias Relacionadas

Para Bartoletti, o recente caso do Grok — a IA de Elon Musk que permitia gerar imagens falsas de mulheres e menores nus, função que depois foi descontinuada — “mostra o que acontece quando a segurança e os direitos das mulheres não são considerados no desenho dos sistemas”.

— Se existem ferramentas para despir mulheres, elas serĂŁo usadas. Os nudes deepfake sĂŁo uma forma de humilhação e controle. A mensagem implĂ­cita Ă© perigosa: vocĂȘ estĂĄ on-line, portanto, merece isso. É assim que muitas mulheres sĂŁo silenciadas e abandonam o espaço digital — explicou.

É nesse contexto que surgem alternativas tecnolĂłgicas para repensar a inteligĂȘncia artificial e transformĂĄ-la em um espaço de luta e de poder compartilhado.

IAs feministas

Na AmĂ©rica Latina e no Caribe, por exemplo, surgiu a Rede Feminista de IA, que apoia dezenas de projetos voltados Ă  transparĂȘncia e Ă s polĂ­ticas pĂșblicas. Ferramentas como AymurAI, Arvage AI e SofIA aplicam a perspectiva de gĂȘnero Ă  anĂĄlise jurĂ­dica e expĂ”em os vieses e a discriminação inerentes aos algoritmos.

O afrofeminismo tambĂ©m vem reivindicando a inteligĂȘncia artificial como um espaço de autodeterminação, com assistentes como o AfrofĂ©minasGPT, treinados com base no conhecimento e nas vozes de pessoas negras.

— Elas demonstram que podemos nos organizar para usar a IA em benefĂ­cio de todos, compartilhar dados de forma coletiva e desenvolver soluçÔes centradas em necessidades reais. Mas a chave continua sendo o poder. A questĂŁo feminista na IA Ă© uma questĂŁo de poder: as mulheres precisam ter mais poder. NĂŁo nas margens, mas no topo das empresas e nos espaços onde se decidem as polĂ­ticas tecnolĂłgicas. Precisamos de diversidade nos ambientes de tomada de decisĂŁo, nĂŁo apenas entre quem programa. A inteligĂȘncia artificial nĂŁo Ă© apenas tecnologia, Ă© uma escolha sobre como queremos transformar a sociedade — concluiu Ivana Bartoletti.