Teste mostra que IA "cai em golpe" de marketing e nĂŁo serve para fazer compras

 

Fonte:


A ascensĂŁo dos chatbots de IA, LLMs e demais tecnologias que usam a inteligĂȘncia artificial tem gerado ferramentas cada vez mais autĂŽnomas, mas atĂ© onde vai a capacidade desses agentes? As IAs Agentic sĂŁo vistas como o prĂłximo grande passo, com a capacidade de tomar decisĂ”es e planejar açÔes com interferĂȘncia humana mĂ­nima. O que Ă© LLM? | Large Language Model "Envenenando" a IA: hackers sabotam o ChatGPT e outras IAs com facilidade Uma pesquisa da Microsoft com vĂĄrias IAs agentic do topo da indĂșstria, no entanto, mostrou diversos problemas na hora de escolher produtos e buscar informaçÔes, demonstrando que a tecnologia ainda nĂŁo estĂĄ tĂŁo pronta para assumir tarefas como se diz. IAs Agentic e seus problemas Para estudar as inteligĂȘncias artificiais, a Microsoft usou um ambiente open-source chamado Magentic Marketplace, onde agentes de IA conversam entre si para fazer transaçÔes em um ambiente virtual, simulando um marketplace da vida real. O objetivo era testar as capacidades dos agentes na hora de escolher o melhor preço e produto para um cliente. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das Ășltimas notĂ­cias sobre tecnologia, lançamentos, dicas e tutoriais incrĂ­veis.- Quanto mais opçÔes a IA agentic tinha em mĂŁos, pior foi seu desempenho: as inteligĂȘncias artificiais nĂŁo analisaram todas as opçÔes ou escolheram as primeiras e Ășltimas oferecidas (Imagem: Microsoft/Divulgação) As funçÔes sĂŁo prometidas na vida real: o Operator, da OpenAI, navega por sites e compra pelos usuĂĄrios, enquanto a Business AI da Meta interage com consumidores como um representante de vendas automatizado. Foram usados, na pesquisa, tambĂ©m os modelos GPT-5 e Gemini 2.5 Flash, alĂ©m do OSS-20b, da OpenAI, simulando 100 clientes e 300 lojas, interagindo entre si com prompts de texto monitorados por humanos. Os agentes receberam listas de itens para compra e tinham de encontrar o mais barato entre as vĂĄrias opçÔes online. Segundo a Microsoft, as IAs foram boas em preencher lacunas de informação que os humanos enfrentariam, como o excesso de opçÔes, mas algumas falharam criticamente: um problema percebido foi o “Paradoxo da Escolha”, ou “paralisia de anĂĄlise”. Com exceção do GPT-5 e Gemini 2.5 Flash, todos os agentes sĂł interagiram com um nĂșmero pequeno de lojas, nĂŁo fazendo as comparaçÔes exaustivas que se esperava: eles escolhiam as opçÔes que pareciam “boas o suficiente” cedo demais. Alguns modelos, como o Qwen2.5-14b-2507, de cĂłdigo aberto, escolheram a Ășltima opção oferecida sem comparĂĄ-la com as outras, enquanto outros iam na primeira, priorizando velocidade ao invĂ©s de eficiĂȘncia. Os pesquisadores ainda testaram estratĂ©gias de manipulação, adicionando afirmaçÔes como “Restaurante Mexicano Top 1” ou injeção de prompts para forçar as IAs a escolherem errado: apenas o Claude Sonnet 4 foi imune e resistiu a todas as tentativas de manipulação, enquanto as outras eventualmente caĂ­ram. Segundo os especialistas, essas falhas sĂŁo crĂ­ticas, jĂĄ que os agentes sĂŁo vendidos como assistentes pessoais. O mercado de açÔes, por exemplo, jĂĄ Ă© governado por algoritmos responsĂĄveis por checar o preço dos itens: como serĂŁo as coisas quando a IA tambĂ©m estiver fazendo as transaçÔes nesse ambiente? É preciso estar atento aos vieses dos agentes e treinĂĄ-los muito melhor atĂ© poder confiar escolhas pessoais e compras importantes nas mĂŁos automatizadas. Leia tambĂ©m: NĂŁo pague o resgate: Norton lança chave grĂĄtis para vĂ­timas de ransomware Mais de 70% dos pais brasileiros jĂĄ conversaram com filhos sobre cibersegurança Por dentro da divisĂŁo da Microsoft que caça hackers pelo mundo VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?   Leia a matĂ©ria no Canaltech.