Por que algumas habilidades de chatbots de IA melhoram mais rápido do que outras

 

Fonte:


Nos últimos meses, modelos como GPT-5, Gemini 2.5 e Sonnet 4.5 têm mostrado avanços notáveis, especialmente em tarefas de programação. Desenvolvedores estão percebendo uma automação cada vez mais sofisticada em tarefas que antes exigiam horas de trabalho manual. No entanto, quem usa IA para escrever e-mails, responder mensagens ou criar textos sente pouca diferença em relação a um ano atrás. Então por que algumas habilidades de chatbots de IA melhoram mais rápido do que outras? Ex-pesquisador da OpenAI revela que ChatGPT mente sobre as próprias capacidades ChatGPT "sacrifica precisão em prol da simplicidade" e acha que tudo é inovador Esse fenômeno é conhecido como reinforcement gap: enquanto algumas habilidades de IA evoluem rapidamente, outras permanecem praticamente estagnadas. O motivo está na forma como essas tecnologias são treinadas e avaliadas. Grande parte do progresso recente vem do aprendizado por reforço (Reinforcement Learning), um método no qual a IA melhora com base em feedbacks automáticos e mensuráveis. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Em tarefas como codificação, é fácil aplicar esse tipo de treinamento: o sistema pode testar bilhões de linhas de código e verificar automaticamente se elas funcionam ou não. O resultado é um ciclo de aprendizado contínuo e rápido. Quanto mais testes, mais a IA aprende. Já em tarefas mais subjetivas, como redigir e-mails, escrever artigos ou criar roteiros, é muito mais difícil estabelecer o que é “correto”. Não há um teste objetivo para “bom texto”, o que torna o aprendizado mais lento e dependente de feedback humano. Codificação e aprendizado por reforço Algumas habilidades de chatbots de IA melhoram mais rápido do que outras (Imagem: Solen Feyissa/Unsplash) O desenvolvimento de software já contava, antes da IA, com testes padronizados para garantir que o código não quebrasse. Isso criou o ambiente perfeito para aplicar RL em larga escala. Assim, modelos de IA especializados em programação conseguem melhorar rapidamente, porque dispõem de métricas claras de sucesso e falha. Cada erro de compilação ou bug é um dado valioso para o modelo aprender. Nem todas as áreas são facilmente testáveis, mas isso pode mudar. Startups em setores como finanças, contabilidade ou saúde já estão tentando criar “kits de teste” para suas próprias tarefas, a fim de aplicar RL e acelerar o aprendizado de IA. O caso do Sora 2, da OpenAI, mostra que até áreas consideradas “difíceis de testar”, como geração de vídeo, podem avançar rapidamente com sistemas de reforço bem projetados. No fim das contas, a testabilidade de uma tarefa pode determinar quais profissões serão automatizadas primeiro. À medida que a lacuna do reforço cresce, entender quais habilidades são treináveis por IA se tornará essencial. Leia também: Modelos de IA famosos estão usando artigos científicos retratados como fonte 7 alternativas ao ChatGPT gratuitas VÍDEO | Cuidado com o que você pede para o ChatGPT   Leia a matéria no Canaltech.