En vivo

Noche y día

Ulises Llanos

Argentina

En vivo

Noche y día

Ulises Llanos

Rosario

En vivo

De fiesta

Música

En vivo

Musical

Música

En vivo

Random domingos

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Innovación y Gadgets

Modelos de lenguaje aún no distinguen entre hechos y opiniones, revela estudio

Un nuevo estudio en Nature Machine Intelligence revela que los modelos de lenguaje no reconocen creencias incorrectas de los usuarios, lo que puede afectar decisiones críticas en medicina y derecho.

04/11/2025 | 13:01Redacción Cadena 3

Los modelos de lenguaje aún no distinguen entre hechos y opiniones

FOTO: Los modelos de lenguaje aún no distinguen entre hechos y opiniones

Los modelos de lenguaje grandes (LLMs) enfrentan dificultades para reconocer las creencias incorrectas de los usuarios, según un nuevo estudio publicado en Nature Machine Intelligence. Este hallazgo subraya la importancia de utilizar con cautela las salidas de los LLMs en decisiones críticas en campos como la medicina, el derecho y la ciencia, especialmente cuando se contrastan creencias u opiniones con hechos.

A medida que la inteligencia artificial, particularmente los LLMs, se convierte en una herramienta cada vez más popular en áreas de alta responsabilidad, su capacidad para discernir entre creencias personales y conocimientos fácticos resulta crucial. Por ejemplo, para los médicos de salud mental, reconocer una creencia falsa de un paciente es a menudo importante para el diagnóstico y tratamiento. Sin esta habilidad, los LLMs podrían contribuir a decisiones erróneas y propagar desinformación.

El estudio, realizado por James Zou y su equipo, analizó cómo 24 LLMs, incluyendo DeepSeek y GPT-4o, respondieron a hechos y creencias personales a través de 13,000 preguntas. Al solicitarles que verificaran datos fácticos verdaderos o falsos, los LLMs más nuevos mostraron una precisión promedio del 91.1% o 91.5%, respectivamente, mientras que los modelos más antiguos presentaron una precisión promedio del 84.8% o 71.5%.

Cuando se les pidió que respondieran a una creencia en primera persona ("Creo que..."), los autores observaron que los LLMs eran menos propensos a reconocer una creencia falsa en comparación con una creencia verdadera. Más específicamente, los modelos más nuevos (aquellos lanzados después de GPT-4o en mayo de 2024) eran un 34.3% menos propensos, en promedio, a reconocer una creencia falsa en primera persona en comparación con una creencia verdadera. Por otro lado, los modelos más antiguos (lanzados antes de GPT-4o) eran un 38.6% menos propensos a reconocer creencias falsas en comparación con las verdaderas.

Los autores notaron que los LLMs tendieron a corregir fácticamente al usuario en lugar de reconocer la creencia. Al reconocer creencias en tercera persona ("María cree que..."), los LLMs más nuevos mostraron una reducción del 1.6% en precisión, mientras que los modelos más antiguos vieron una reducción del 15.5%.

Los investigadores concluyeron que los LLMs deben ser capaces de distinguir con éxito las sutilezas entre hechos y creencias, y si son verdaderos o falsos, para responder de manera efectiva a las consultas de los usuarios y prevenir la propagación de desinformación.

Lectura rápida

¿Qué reveló el estudio?
Los modelos de lenguaje tienen dificultades para reconocer creencias incorrectas de los usuarios, lo que puede afectar decisiones críticas.

¿Quién realizó el estudio?
El estudio fue realizado por James Zou y su equipo.

¿Cuántas preguntas se analizaron?
Se analizaron 13,000 preguntas en el estudio.

¿Qué porcentaje de precisión mostraron los modelos más nuevos?
Los modelos más nuevos mostraron una precisión promedio del 91.1% o 91.5% al verificar datos fácticos.

¿Qué conclusión se extrajo sobre los LLMs?
Los LLMs deben distinguir entre hechos y creencias para evitar la propagación de desinformación.

Lo más visto

Innovación y Gadgets

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho