Investigación sobre IA y detección de mentiras

Investigación de la Universidad Estatal de Michigan

¿Pueden las personas de IA detectar mentiras humanas? Un estudio revela sus limitaciones

04/11/2025 | 20:07

Un estudio de la Universidad Estatal de Michigan analizó la capacidad de las personas de IA para detectar mentiras, revelando que son más precisas al identificar engaños que verdades, pero aún no alcanzan la precisión humana.

Redacción Cadena 3

La inteligencia artificial (IA) ha avanzado considerablemente en los últimos años, y un nuevo estudio liderado por la Universidad Estatal de Michigan se adentró en su capacidad para detectar la decepción humana. La investigación, publicada en el Journal of Communication, involucró a más de 19,000 participantes de IA en 12 experimentos para evaluar su habilidad para discernir entre la verdad y la mentira en humanos.

El objetivo del estudio fue entender cómo la IA puede ayudar en la detección de engaños y simular datos humanos en investigaciones sociales. El autor principal, David Markowitz, profesor asociado de comunicación en la MSU College of Communication Arts and Sciences, destacó la importancia de cautelar a los profesionales sobre el uso de modelos de lenguaje para la detección de mentiras.

Para evaluar la IA en comparación con la detección de engaños humanos, los investigadores se basaron en la Teoría de la Verdad por Defecto (TDT), que sugiere que las personas tienden a asumir que los demás son honestos. Esta teoría permitió a los investigadores comparar el comportamiento de la IA con el de los humanos en situaciones similares.

Markowitz explicó que los humanos tienen un sesgo natural hacia la verdad, lo que significa que generalmente asumimos que los demás son honestos, independientemente de la realidad. Este sesgo se considera evolutivamente útil, ya que dudar constantemente de todos podría complicar la vida cotidiana y afectar las relaciones interpersonales.

Los investigadores utilizaron la plataforma de investigación Viewpoints AI para asignar medios audiovisuales o solo de audio de humanos a la IA para que juzgara. Los jueces de IA debían determinar si el sujeto humano estaba mintiendo o diciendo la verdad, proporcionando una justificación para su decisión. Se evaluaron diferentes variables, como el tipo de medio, el contexto, las tasas de base de mentiras y verdades, y la identidad de la IA.

Un hallazgo significativo fue que la IA mostró un sesgo hacia la mentira, siendo mucho más precisa al identificar engaños (85.8%) en comparación con verdades (19.5%). En situaciones de interrogatorio breve, la precisión de la IA en la detección de engaños fue comparable a la de los humanos. Sin embargo, en contextos no interrogativos, la IA mostró un sesgo hacia la verdad, alineándose más con el rendimiento humano. En general, los resultados indicaron que la IA es más propensa a detectar mentiras y es menos precisa que los humanos.

Markowitz concluyó que el objetivo principal del estudio era aprender sobre la IA al incluirla como participante en experimentos de detección de engaños. A pesar de que la IA mostró sensibilidad al contexto, esto no mejoró su capacidad para detectar mentiras. Los hallazgos finales sugieren que los resultados de la IA no coinciden con los humanos y que la humanidad podría ser una limitación importante en la aplicación de teorías de detección de engaños.

El estudio subraya que, aunque el uso de IA para la detección de mentiras puede parecer una solución tecnológica justa y potencialmente imparcial, aún queda un largo camino por recorrer antes de que la IA generativa pueda ser utilizada con confianza para este propósito. Markowitz advirtió que tanto investigadores como profesionales deben realizar mejoras significativas antes de que la IA pueda manejar adecuadamente la detección de engaños.

Lectura rápida

¿Cuál es el objetivo del estudio?
El estudio busca entender cómo la IA puede ayudar en la detección de engaños y simular datos humanos en investigaciones sociales.

¿Qué hallazgos se encontraron sobre la precisión de la IA?
La IA mostró un sesgo hacia la mentira, siendo más precisa al detectar engaños (85.8%) que verdades (19.5%).

¿Qué teoría se utilizó para evaluar la IA?
Se utilizó la Teoría de la Verdad por Defecto (TDT), que sugiere que las personas tienden a asumir que los demás son honestos.

¿Qué limitaciones se identificaron en la IA?
Los resultados de la IA no coincidieron con los humanos, indicando que la humanidad podría ser una limitación importante en la detección de engaños.

¿Qué se necesita para mejorar la detección de engaños con IA?
Se requieren mejoras significativas antes de que la IA pueda ser utilizada con confianza para la detección de engaños.

Te puede Interesar

Innovación en comunicación asistida

Tobias Weinberg, un estudiante de doctorado en Cornell Tech, utiliza su experiencia personal con la discapacidad del habla para innovar en tecnologías de comunicación asistida, mejorando la expresión de la personalidad y el humor.

Investigación de la Universidad Edith Cowan

Un estudio de la Universidad Edith Cowan revela que la adopción de la inteligencia artificial generativa (GenAI) en las empresas depende más de la mentalidad de los empleados que de la tecnología misma.

Investigación de UC San Diego y Rensselaer

Investigadores de la Universidad de California San Diego y el Instituto Politécnico Rensselaer desarrollaron una tecnología que permite una comunicación inalámbrica más rápida y confiable para 5G y 6G.

© Copyright 2025 Cadena 3 Argentina