Estudio en Nature Machine Intelligence
04/11/2025 | 13:01
Redacción Cadena 3
Los modelos de lenguaje grandes (LLMs) enfrentan dificultades para reconocer las creencias incorrectas de los usuarios, según un nuevo estudio publicado en Nature Machine Intelligence. Este hallazgo subraya la importancia de utilizar con cautela las salidas de los LLMs en decisiones críticas en campos como la medicina, el derecho y la ciencia, especialmente cuando se contrastan creencias u opiniones con hechos.
A medida que la inteligencia artificial, particularmente los LLMs, se convierte en una herramienta cada vez más popular en áreas de alta responsabilidad, su capacidad para discernir entre creencias personales y conocimientos fácticos resulta crucial. Por ejemplo, para los médicos de salud mental, reconocer una creencia falsa de un paciente es a menudo importante para el diagnóstico y tratamiento. Sin esta habilidad, los LLMs podrían contribuir a decisiones erróneas y propagar desinformación.
El estudio, realizado por James Zou y su equipo, analizó cómo 24 LLMs, incluyendo DeepSeek y GPT-4o, respondieron a hechos y creencias personales a través de 13,000 preguntas. Al solicitarles que verificaran datos fácticos verdaderos o falsos, los LLMs más nuevos mostraron una precisión promedio del 91.1% o 91.5%, respectivamente, mientras que los modelos más antiguos presentaron una precisión promedio del 84.8% o 71.5%.
Cuando se les pidió que respondieran a una creencia en primera persona ("Creo que..."), los autores observaron que los LLMs eran menos propensos a reconocer una creencia falsa en comparación con una creencia verdadera. Más específicamente, los modelos más nuevos (aquellos lanzados después de GPT-4o en mayo de 2024) eran un 34.3% menos propensos, en promedio, a reconocer una creencia falsa en primera persona en comparación con una creencia verdadera. Por otro lado, los modelos más antiguos (lanzados antes de GPT-4o) eran un 38.6% menos propensos a reconocer creencias falsas en comparación con las verdaderas.
Los autores notaron que los LLMs tendieron a corregir fácticamente al usuario en lugar de reconocer la creencia. Al reconocer creencias en tercera persona ("María cree que..."), los LLMs más nuevos mostraron una reducción del 1.6% en precisión, mientras que los modelos más antiguos vieron una reducción del 15.5%.
Los investigadores concluyeron que los LLMs deben ser capaces de distinguir con éxito las sutilezas entre hechos y creencias, y si son verdaderos o falsos, para responder de manera efectiva a las consultas de los usuarios y prevenir la propagación de desinformación.
¿Qué reveló el estudio?
Los modelos de lenguaje tienen dificultades para reconocer creencias incorrectas de los usuarios, lo que puede afectar decisiones críticas.
¿Quién realizó el estudio?
El estudio fue realizado por James Zou y su equipo.
¿Cuántas preguntas se analizaron?
Se analizaron 13,000 preguntas en el estudio.
¿Qué porcentaje de precisión mostraron los modelos más nuevos?
Los modelos más nuevos mostraron una precisión promedio del 91.1% o 91.5% al verificar datos fácticos.
¿Qué conclusión se extrajo sobre los LLMs?
Los LLMs deben distinguir entre hechos y creencias para evitar la propagación de desinformación.
Te puede Interesar
Investigación de Carnegie Mellon
Un estudio de la Universidad Carnegie Mellon indica que a mayor inteligencia en los sistemas de IA, menor cooperación muestran. Esto podría afectar interacciones humanas y decisiones sociales.
Inversión en tecnología en el Golfo
La gigante tecnológica Microsoft reveló una inversión de $15.2 mil millones en inteligencia artificial y computación en la nube en Emiratos Árabes Unidos, con un enfoque en la construcción de centros de datos.
Estudio de la Universidad de Saarland
Un estudio revela que los programadores tienden a aceptar sugerencias de IA sin cuestionarlas, lo que podría aumentar errores. La colaboración humana sigue siendo clave para resolver problemas complejos.
Desinformación en redes sociales
A medida que el huracán Melissa se aproxima a Jamaica, videos falsos generados por IA inundan las redes sociales, desviando la atención de información crucial sobre la tormenta de categoría 5.