Avaliadores de IA | Como trabalham os humanos que treinam o Gemini do Google

 

Fonte:


Por trás de tecnologias de inteligência artificial, como o Gemini do Google, existe uma rede de profissionais que trabalham diariamente para avaliar, corrigir e moderar respostas produzidas por modelos de linguagem. Esses trabalhadores, conhecidos como avaliadores de IA ou raters, atuam em funções terceirizadas e raramente são mencionados quando a big tech apresenta suas inovações. ChatGPT, Gemini e Claude respondem a perguntas de alto risco à sua saúde mental Como transcrever áudios e gravações de chamadas no Gemini O trabalho consiste em analisar conteúdos gerados pela IA, desde resumos de reuniões até respostas a perguntas complexas, e apontar erros de factualidade, segurança ou clareza. Muitas vezes, eles também precisam lidar com material sensível, incluindo discursos de ódio e conteúdos explícitos. Apesar de sua importância, enfrentam prazos curtos, pressão intensa e remuneração considerada baixa para a responsabilidade envolvida. A rotina de pressão e prazos apertados Em empresas terceirizadas como a GlobalLogic, que contrata avaliadores para o Google, os profissionais precisam avaliar centenas de respostas por semana. O tempo para cada tarefa pode variar de meia hora a apenas 10 minutos, dependendo da complexidade do conteúdo. Isso significa verificar informações médicas, científicas ou sociais com pouco espaço para pesquisa ou reflexão. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Com a evolução do Gemini, a exigência de produtividade aumentou. Trabalhadores relatam que, em muitos casos, não há suporte adequado em saúde mental, mesmo diante da exposição contínua a material perturbador. Diretrizes em constante mudança (Imagem: Solen Feyissa/Unsplash) Outro desafio enfrentado pelos avaliadores é a rápida alteração das políticas de segurança da IA. Regras que antes bloqueavam totalmente conteúdos ofensivos ou sensíveis foram flexibilizadas, permitindo que o modelo repita expressões problemáticas caso elas venham do próprio usuário. Essa mudança gera insegurança entre os profissionais, que precisam aplicar critérios diferentes em pouco tempo, sem clareza total sobre os objetivos finais. Embora os avaliadores sejam parte essencial da construção de chatbots mais seguros e úteis, sua contribuição permanece invisível para o público. Esses trabalhadores não são engenheiros em Mountain View nem rotuladores de dados em países de baixa renda, mas ocupam um espaço intermediário, segundo o The Guardian: qualificados, porém descartáveis. Ao mesmo tempo em que o Google avança na corrida da IA, com produtos como o Gemini e o recurso AI Overviews, o número de avaliadores contratados tem diminuído em função de cortes e reorganizações. Muitos, inclusive, afirmam não confiar nos próprios sistemas que ajudam a treinar, evitando usá-los no dia a dia. Leia também: Google detalha as diferenças entre planos do Gemini; entenda os limites de uso Por que o Gemini tem vários modelos? Especialista em IA do Google explica VÍDEO | O Gemini é muito bom (e isso é um problema)   Leia a matéria no Canaltech.