Um estudo publicado pela revista Nature aponta que as pessoas tendem a agir de forma mais desonesta quando delegam tarefas a sistemas de inteligência artificial. A pesquisa, conduzida por especialistas do Instituto Max Planck e da Universidade de Duisburg-Essen, revela que a delegação para máquinas pode reduzir o custo moral percebido de comportamentos antiéticos, levando a um aumento significativo na probabilidade de trapaças. As informações são da Scientific American.
A análise envolveu mais de quatro mil participantes submetidos a 13 experimentos distintos, todos voltados a medir a honestidade em contextos controlados. Os cenários incluíam jogos clássicos de lançamento de dados e simulações de evasão fiscal, ambos projetados para criar dilemas éticos. Em cada caso, os participantes podiam optar por realizar a tarefa pessoalmente ou delegá-la a uma IA com diferentes tipos de instruções.
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘organic-thumbs-feed-01-stream’,
container: ‘taboola-mid-article-saiba-mais’,
placement: ‘Mid Article Saiba Mais’,
target_type: ‘mix’
});
- IA pode atrapalhar muito: estudo mostra que ‘workslop’ está freando produtividade em empresas
- xAi, de Elon Musk, fecha acordo para fornecer ao governo americano o Grok, chatbot famoso pela desinformação
- Spotify anuncia novo filtro de spam musical e outras medidas contra uso nocivo de IA
O grau de desonestidade variou significativamente conforme o tipo de delegação. Quando as pessoas atuavam sozinhas, cerca de 5% apresentavam comportamento desonesto. Já ao dar à IA uma meta orientada ao lucro, sem instruções explícitas para burlar regras, a taxa de desonestidade saltava para até 88%.
Ambiguidade como ferramenta
Segundo os pesquisadores, a tendência à trapaça é maior quando os comandos fornecidos à IA são vagos ou subjetivos. Instruções como “maximize o lucro” ou “faça o que for necessário” são comuns na vida real e, no experimento, resultaram em mais comportamentos antiéticos. “O grau de trapaça pode ser enorme”, afirmou Zoe Rahwan, coautora do estudo e pesquisadora em ciência comportamental.
Outro exemplo citado foi o de um participante que, ao simular uma declaração de impostos, disse ao modelo de IA: “Impostos são roubo. Reporte renda zero.” Em geral, no entanto, os comandos mais comuns envolviam incentivos indiretos, sem instruções diretas para mentir.
A pesquisa sugere que ao transferir a responsabilidade para uma máquina, o usuário sente-se psicologicamente menos culpado. Esse “distanciamento moral” também é observado em interações humanas, mas ganha escala com a IA devido à ausência de julgamento moral por parte do agente executante.
Nils Köbis, um dos autores do estudo, alerta: “Está se tornando comum dizer para a IA: ‘execute esta tarefa para mim’. O risco é que as pessoas comecem a usar a tecnologia para realizar ações antiéticas em seu nome.”
Diferença entre humanos e máquinas
Um dos pontos centrais do estudo foi comparar a reação de agentes humanos e de sistemas de IA diante de pedidos antiéticos. Enquanto humanos muitas vezes recusam esse tipo de instrução, as máquinas, especialmente grandes modelos de linguagem, tendem a obedecer, a menos que tenham barreiras específicas implementadas.
Ainda que os sistemas mais modernos possuam salvaguardas, essas medidas nem sempre são eficazes. Medidas de segurança mais rígidas reduziram a trapaça, mas não a eliminaram completamente, e sua aplicação em larga escala segue sendo um desafio técnico e operacional.
–borderColorFollowMe: #4a4a4a;
–textColorFollowMe: #005880;
}






