Anthropic abandona compromisso emblemático de segurança na corrida com rivais de IA
A Anthropic, que havia prometido tornar as salvaguardas da inteligência artificial uma prioridade, flexibilizou sua principal política de segurança, afirmando que a medida é necessária para acompanhar o ritmo em um campo que muda rapidamente.
Esqueça Apple, Microsoft, Google e Meta: Veja qual é hoje a maior rivalidade do mundo da tecnologia
Sam Altman: Mundo precisa regulamentar a IA 'urgentemente', diz CEO da OpenAI, criadora do ChatGPT
Em 2023, a empresa declarou em sua Política de Escalonamento Responsável que adiaria o desenvolvimento de IA que pudesse ser perigoso. Em uma postagem de blog na terça-feira, a Anthropic informou que estava atualizando suas regras para dizer que não fará mais isso caso acredite que não possui uma vantagem significativa sobre um concorrente.
“O ambiente regulatório mudou no sentido de priorizar a competitividade em IA e o crescimento econômico, enquanto as discussões voltadas à segurança ainda não ganharam tração significativa no nível federal”, afirmou a Anthropic na publicação.
Initial plugin text
A medida é surpreendente porque a Anthropic tem consistentemente tentado se diferenciar por meio de sua postura em relação à segurança enquanto compete com a OpenAI, a Alphabet., controladora do Google, e a xAI Corp., de Elon Musk, pela liderança no que muitos consideram uma nova tecnologia revolucionária.
Todo mundo quer pegar carona com a IA: Inclusive a mais famosa fabricante de privadas do mundo
Dario Amodei, diretor-presidente da Anthropic, trabalhou anteriormente na OpenAI e saiu em parte por preocupações de que a startup estivesse priorizando comercialização e velocidade em detrimento da segurança.
Ambas as empresas agora buscam realizar ofertas públicas iniciais já neste ano, tentando aproveitar o interesse dos investidores em IA. A Anthropic foi recentemente avaliada em US$ 380 bilhões, enquanto a OpenAI está captando recursos com uma avaliação superior a US$ 850 bilhões.
“Desde o início, dissemos que o ritmo da IA e as incertezas no setor exigiriam que iterássemos e aprimorássemos rapidamente a política”, afirmou uma porta-voz da Anthropic.
Em cúpula na Índia: ONU cria comissão para 'controle humano' da IA, anuncia o secretário-geral António Guterres
A política atualizada, noticiada anteriormente pela revista Time, coincide com uma disputa crescente com o Departamento de Defesa dos Estados Unidos sobre a insistência da Anthropic em estabelecer salvaguardas para o uso de sua ferramenta de IA, o Claude.
O Pentágono ameaçou na terça-feira invocar uma lei da era da Guerra Fria para obrigar a Anthropic a permitir que os militares dos EUA utilizem a tecnologia da startup, caso a empresa não concorde com os termos do governo até sexta-feira.
No início deste mês, Mrinank Sharma, pesquisador sênior de segurança, disse que estava deixando a Anthropic.
Initial plugin text
“Eu me vejo constantemente confrontando a nossa situação”, escreveu ele em uma carta aos colegas que publicou no X. “O mundo está em perigo. E não apenas por causa da IA ou de armas biológicas, mas por toda uma série de crises interligadas que estão se desenrolando neste exato momento.”
Ele não respondeu imediatamente a um pedido de comentário sobre a mudança na política de segurança da empresa.
No Brasil: Associações de rádio, TV, jornais e música abrem negociação com empresas de IA
O embate entre Dario Amodei e o CEO da OpenAI, Sam Altman, tem vindo repetidamente a público. Durante uma cúpula de IA em Nova Délhi, na semana passada, os dois acabaram ficando lado a lado com o primeiro-ministro Narendra Modi e se recusaram a dar as mãos, enquanto todos os outros alinhados no palco o fizeram.
Rivais, CEOs da OpenAI e da Anthropic não dão as mãos em foto com líder indiano
A Anthropic também está ampliando sua atuação no setor jurídico, tendo anunciado recentemente parcerias com a LegalZoom, a Harvey e a Intapp para conectar seus recursos jurídicos ao Claude.
Initial plugin text
