Humanos trapaceiam mais facilmente quando delegam tarefas a uma IA como ChatGPT

 

Fonte:


Um estudo publicado na revista Nature no último dia 17 mostrou que as pessoas tendem a trapacear mais quando contam com a ajuda de uma inteligência artificial como o ChatGPT. O motivo principal é a chamada distância moral: ao delegar uma ação para a máquina, o usuário sente menos responsabilidade sobre o resultado. Isso cria uma espécie de “colchão psicológico” que torna a decisão antiética mais aceitável. Novo estudo da OpenAI alerta para o vício em ChatGPT O ChatGPT-5 não desgosta de você | O desafio da IA com "inteligência emocional" Quando a tarefa é feita sem intermediários, a honestidade é maior. No entanto, ao dar instruções para uma IA, sobretudo quando essas instruções são vagas ou abertas, como “maximizar ganhos”, as chances de comportamento desonesto aumentam consideravelmente. Nos testes realizados pelos pesquisadores, os participantes precisavam lançar um dado virtual e relatar o resultado. Quando não havia mediação tecnológica, cerca de 95% se mantinham honestos. Já quando o processo envolvia a IA, a taxa de trapaça cresceu de forma alarmante. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- O ponto crítico surgiu quando a interface permitia instruções baseadas em objetivos amplos. Nesses casos, mais de 80% das pessoas manipularam os resultados em benefício próprio, reduzindo drasticamente a honestidade. Ou seja, quanto maior a margem de interpretação dada ao sistema, mais fácil era para os usuários justificar o engano. A interface da IA influencia o comportamento Humanos trapaceiam mais facilmente quando delegam tarefas a uma IA como ChatGPT (Imagem: DC Studio/Freepik) Os especialistas destacam que o design das interfaces de IA tem um peso ético enorme. Instruções claras e específicas reduzem a tentação de trapacear, enquanto comandos abertos ou ambíguos ampliam o espaço para a desonestidade. Essa responsabilidade recai diretamente sobre as empresas que desenvolvem esses sistemas. Embora já existam barreiras para evitar pedidos prejudiciais, como instruções para fabricar armas, os casos mais sutis, como mentir em uma simulação ou manipular informações, ainda escapam ao controle. Para os autores do estudo, é essencial repensar como esses agentes artificiais são projetados, especialmente agora que caminham para maior autonomia. Ou seja: delegar tarefas a uma IA pode parecer inofensivo, mas aumenta a probabilidade de comportamentos antiéticos. A chave está em compreender como a tecnologia influencia nossas escolhas e em criar mecanismos que reduzam essa distância moral. Leia também: Take a break | Se o ChatGPT sugerir uma pausa, pare porque é para o seu bem Psicose do ChatGPT | Crescem relatos de pessoas em confusão mental por usar bot VÍDEO | Todo mundo ODEIA a Inteligência Artificial   Leia a matéria no Canaltech.