En vivo

Rony en Vivo

Rony Vargas

Argentina

En vivo

Rony en Vivo

Rony Vargas

Rosario

En vivo

Maratón de clásicos

Fernando Varea

En vivo

Ranking de la semana

Celeste Pereyra

En vivo

Sunday morning

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Innovación y Gadgets

El uso de IA nos hace sobreestimar nuestro rendimiento cognitivo, revela estudio

Un estudio de la Universidad Aalto muestra que el uso de modelos de lenguaje como ChatGPT lleva a los usuarios a sobreestimar su rendimiento cognitivo, incluso aquellos con alta alfabetización en IA.

28/10/2025 | 19:58Redacción Cadena 3

El uso de IA y su impacto en la percepción del rendimiento cognitivo

FOTO: El uso de IA y su impacto en la percepción del rendimiento cognitivo

Un reciente estudio realizado por la Universidad Aalto ha revelado que el uso de inteligencia artificial (IA), en particular de modelos de lenguaje como ChatGPT, provoca que los usuarios sobreestimen consistentemente su rendimiento cognitivo. Este fenómeno se observa independientemente de la habilidad real o del nivel de alfabetización en IA de los individuos.

La investigación destaca que, a diferencia del conocido Efecto Dunning-Kruger, donde las personas con menor habilidad tienden a sobreestimar sus capacidades, en el caso del uso de IA, este efecto se invierte. Los usuarios más alfabetizados en IA tienden a asumir que sus habilidades son mayores de lo que realmente son. Esto sugiere que la confianza en la IA puede llevar a una percepción distorsionada de la propia competencia.

El profesor Robin Welsch, quien lideró el estudio, comentó: "Encontramos que cuando se trata de IA, el Efecto Dunning-Kruger desaparece. Lo sorprendente es que una mayor alfabetización en IA conlleva más sobreconfianza. Esperaríamos que las personas con conocimientos en IA no solo interactuaran mejor con los sistemas de IA, sino que también evaluaran su rendimiento de manera más precisa, pero esto no fue el caso".

Este hallazgo se suma a un creciente cuerpo de investigaciones que indican que confiar ciegamente en los resultados de la IA puede tener riesgos, como la disminución de la capacidad de las personas para buscar información confiable y la descalificación en el ámbito laboral. Aunque los usuarios mejoraron su rendimiento al utilizar ChatGPT, todos sobreestimaron su desempeño.

Welsch enfatizó la importancia de la alfabetización en IA en la actualidad, señalando que "la alfabetización en IA podría ser muy técnica y no está ayudando a las personas a interactuar de manera fructífera con los sistemas de IA". La investigadora doctoral Daniela da Silva Fernandes agregó: "Las herramientas de IA actuales no son suficientes. No fomentan la metacognición [la conciencia de los propios procesos de pensamiento] y no estamos aprendiendo de nuestros errores".

El estudio se publicó en la revista Computers in Human Behavior y se basa en dos experimentos en los que participaron alrededor de 500 personas que utilizaron IA para completar tareas de razonamiento lógico del famoso examen de admisión a la facultad de derecho de EE. UU. (LSAT). La mitad del grupo utilizó IA y la otra mitad no. Después de cada tarea, se pidió a los participantes que evaluaran su rendimiento, prometiéndoles una compensación adicional si lo hacían con precisión.

Los resultados mostraron que la mayoría de los usuarios rara vez interactuaron con ChatGPT más de una vez por pregunta. A menudo, simplemente copiaron la pregunta, la ingresaron en el sistema de IA y aceptaron la solución sin verificarla. Welsch explicó: "Observamos si realmente reflexionaron con el sistema de IA y descubrimos que las personas pensaban que la IA resolvería las cosas por ellos. Generalmente, hubo una sola interacción para obtener los resultados, lo que significa que los usuarios confiaron ciegamente en el sistema. Esto se llama descarga cognitiva, cuando toda la carga de procesamiento la asume la IA".

Para mejorar esta situación, Welsch sugirió que "la IA podría preguntar a los usuarios si pueden explicar su razonamiento más a fondo. Esto obligaría al usuario a comprometerse más con la IA, a enfrentar su ilusión de conocimiento y a promover el pensamiento crítico".

Lectura rápida

¿Qué revela el estudio?
El estudio muestra que el uso de IA lleva a los usuarios a sobreestimar su rendimiento cognitivo, independientemente de su habilidad real.

¿Quién realizó el estudio?
El estudio fue realizado por la Universidad Aalto.

¿Cuándo se publicó el estudio?
El estudio se publicó el 28 de octubre de 2025.

¿Qué es el Efecto Dunning-Kruger?
Es un fenómeno donde las personas con menor habilidad tienden a sobreestimar sus capacidades.

¿Cuál es la recomendación de los investigadores?
Se sugiere que la IA fomente la reflexión y el pensamiento crítico en los usuarios.

Lo más visto

Innovación y Gadgets

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho