Apesar dos avanços recentes da inteligência artificial, a capacidade dessas ferramentas de identificar mentiras humanas ainda está longe de ser confiável. Um estudo conduzido pela Michigan State University (MSU), publicado no Journal of Communication, avaliou o desempenho de diferentes personas de IA em 12 experimentos, totalizando mais de 19 mil testes. Os resultados indicam que, mesmo com contextos variados e tipos de mídia distintos, os modelos de IA não superaram os seres humanos na tarefa de distinguir verdades de mentiras.
A análise da MSU utilizou como base a Truth-Default Theory (Teoria do Padrão da Verdade), que parte do princípio de que os humanos tendem a acreditar nos outros por padrão. Essa “tendência à verdade” é considerada útil do ponto de vista evolutivo: duvidar constantemente exigiria muito esforço e dificultaria a convivência social.
Já os sistemas de IA mostraram uma oscilação de desempenho de acordo com o tipo de interação. Em situações de interrogatório, por exemplo, a IA teve desempenho similar ao de humanos. Mas em contextos mais cotidianos, como avaliações de histórias sobre amizades, o desempenho caiu, revelando um viés para considerar informações como falsas ou verdadeiras com base em variáveis como o tipo de mídia (áudio ou audiovisual) e o cenário apresentado.
Desempenho inconsistente e viés
Uma das descobertas mais marcantes do estudo foi o viés da IA para detectar mentiras: em certos testes, os modelos acertaram 85,8% das mentiras, mas apenas 19,5% das verdades. Essa desproporção preocupa, sobretudo em aplicações que envolvem decisões sensíveis, como triagens de segurança, processos judiciais ou análises comportamentais.
David Markowitz, professor associado do Departamento de Comunicação da MSU e principal autor do estudo, declarou que a IA “se mostrou sensível ao contexto, mas isso não a tornou melhor em detectar mentiras”. Segundo ele, o estudo serve de alerta para pesquisadores e profissionais sobre os riscos de usar modelos de linguagem de forma precipitada nessa área.
Aplicações futuras exigem mais rigor
Embora a tecnologia seja vista por muitos como uma forma potencialmente imparcial de avaliar comportamentos, os resultados do estudo sugerem que ainda há um longo caminho a percorrer. “É fácil entender por que as pessoas gostariam de usar a IA para detectar mentiras, parece algo de alta tecnologia, justo e sem viés. Mas nossa pesquisa mostra que ainda não chegamos lá”, afirmou Markowitz, conforme publicado pela MSUToday, o veículo oficial da universidade.
A conclusão do trabalho é clara: os modelos atuais de IA não oferecem um nível de precisão aceitável para detectar mentiras em ambientes reais. A promessa de uma tecnologia neutra e eficiente nesse campo ainda depende de avanços técnicos significativos, além de mais estudos que aprofundem a complexidade da comunicação humana.






