Treinamento do DeepSeek R1 custou 300 vezes menos que o do GPT-4; entenda

 

Fonte:


O custo para o treinamento do DeepSeek finalmente foi revelado em um relatório divulgado pela própria empresa. O modelo R1 da inteligência artificial (IA) movimentou o mercado em janeiro por ter capacidade de raciocínio semelhante à de concorrentes por um custo muito menor. O que é DeepSeek? IA chinesa desafia big techs 7 em cada 10 alunos do Ensino Médio já usam IA generativa em pesquisas no Brasil De acordo com a publicação da empresa chinesa na Nature, o modelo custou US$ 294 mil (cerca de R$ 1,6 milhão) para ser treinado, e utilizou 512 chips H800 da Nvidia.  Para comparação, o treinamento do GPT-4 da OpenAI custou entre US$ 80 milhões e US$ 100 milhões, de acordo com o CEO da OpenAI, Sam Altman. Ou seja, se considerarmos uma média de custo de R$ 90 milhões, o DeepSeek R1 foi mais de 300 vezes mais barato.  -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Por que tão mais barato? Segundo a empresa chinesa de IA, o motivo do valor tão abaixo para o treinamento do modelo de linguagem é devido à técnicas de aprendizagem baseadas em tentativa e erro. A maioria dos modelos de linguagem de IA são treinados com exemplos humanos e demonstrações específicas para aprender a resolver tarefas que necessitam de raciocínio. Este processo é caro e difícil de escalar à medida que os problemas se tornam mais complexos.  O que o DeepSeek fez foi, ao invés de fazer com que seu modelo aprendesse a partir de exemplos semelhantes, aprendesse com tentativa e erro, até que encontrasse a resposta certa. No artigo publicado na Nature, a professora-assistente da Universidade Carnegie Mellon e o doutorando Yiming Zhang comparam o método de aprendizado do DeepSeek R1 com uma criança jogando videogame.  “À medida em que a criança explora com seu avatar pelo mundo do jogo, ela aprende por tentativa e erro que algumas ações, como coletar moedas, rendem pontos, enquanto outras, como ser atacado por inimigos, fazem com que perca pontuação”, afirmaram os pesquisadores.  Eles contam que, assim como em um jogo, o R1 recebia uma pontuação alta quando respondia perguntas corretamente, e perdia pontos quanto às errava.  Usando este mesmo exemplo, enquanto o DeepSeek era treinado por tentativa e erro, os modelos comuns estariam seguindo infinitos tutoriais para passar pelas fases do jogo.  Ou seja, como o R1 tinha maior entendimento de como seguir no jogo a partir do seu aprendizado, a partir de um certo ponto, levou muito menos tempo para chegar onde outros modelos chegaram. O efeito DeepSeek Quando foi lançado em janeiro de 2025, o DeepSeek surpreendeu o mundo e o mercado, por ser um modelo de linguagem de inteligência artificial de código aberto e gratuito, com potencial semelhante à concorrência de OpenAI e Google. Pouco depois do seu lançamento, a Nvidia viu suas ações caírem cerca de 18%, resultando em perda de US$ 600 bilhões em valor de mercado, o maior declínio de uma única empresa na história da bolsa dos Estados Unidos.  O impacto do DeepSeek foi também geopolítico, à medida que países como os EUA, Canadá e Itália colocaram restrições de uso ao DeepSeek em dispositivos governamentais devido a preocupações com privacidade e segurança. Veja também: Dona da Rolling Stone processa Google por uso de seu conteúdo em resumos de IA Por que empreendedores precisam dominar a criação de prompt? Entenda em 5 pontos Quanto ganha um Gerente de TI | Tecnologia da Informação VÍDEO: Como instalar o DeepSeek R1 no seu computador? Ele consegue rodar a inteligência artificial offline?   Leia a matéria no Canaltech.