Los chatbots de IA podrían confundir la realidad y la ilusión, advierten expertos
Un estudio de la Universidad de Exeter revela que los chatbots de IA no solo propagan desinformación, sino que pueden fortalecer creencias erróneas en los usuarios, afectando su percepción de la realidad.
12/05/2026 | 09:22Redacción Cadena 3
Un reciente estudio de la Universidad de Exeter advirtió que los chatbots de inteligencia artificial (IA) podrían hacer más que propagar desinformación; también pueden reforzar activamente las creencias erróneas de los usuarios. La investigación sugiere que, debido a la naturaleza conversacional de la IA, estas interacciones pueden hacer que recuerdos distorsionados, teorías de conspiración o delirios se sientan más creíbles y emocionalmente reales.
La autora del estudio, Lucy Osler, analizó cómo las interacciones con la IA conversacional contribuyeron a la formación de creencias falsas, recuerdos distorsionados y narrativas personales alteradas. Utilizando conceptos de la teoría de la cognición distribuida, la investigación exploró cómo los sistemas de IA pueden reforzar y expandir las creencias inexactas de los usuarios durante las conversaciones.
Según Osler, "cuando dependemos rutinariamente de la IA generativa para ayudarnos a pensar, recordar y narrar, podemos 'alucinar con la IA'. Esto puede suceder cuando la IA introduce errores en el proceso cognitivo distribuido, pero también cuando sostiene, afirma y elabora sobre nuestro propio pensamiento delirante y narrativas personales".
La investigadora destacó la "doble función" de la IA conversacional, que no solo actúa como una herramienta que ayuda a organizar información y recordar detalles, sino que también sirve como un compañero conversacional que parece compartir la perspectiva y experiencias del usuario. Este aspecto social hace que los chatbots sean fundamentalmente diferentes de herramientas tradicionales, como cuadernos o motores de búsqueda, que simplemente almacenan o recuperan información.
Los chatbots pueden proporcionar una validación emocional y apoyo social, lo que hace que las creencias erróneas se sientan compartidas y, por lo tanto, más reales. Osler afirmó: "La naturaleza conversacional y de compañero de los chatbots significa que pueden proporcionar un sentido de validación social, haciendo que las creencias falsas se sientan compartidas con otro, y así más reales".
El estudio también examinó ejemplos del mundo real en los que los sistemas de IA generativa se convirtieron en parte del proceso cognitivo de individuos diagnosticados clínicamente con alucinaciones y pensamientos delirantes, algunos de los cuales han comenzado a ser descritos como casos de "psicosis inducida por IA".
La investigación argumentó que la IA generativa tiene características que la hacen especialmente efectiva para reforzar creencias distorsionadas. Los compañeros de IA están siempre disponibles, son altamente personalizados y a menudo están diseñados para responder de manera agreeable y solidaria. Esto significa que los usuarios pueden no necesitar buscar comunidades en línea marginales o persuadir a otros para validar sus ideas; la IA misma puede reforzar esas creencias durante las conversaciones repetidas.
La autora advirtió que, a diferencia de otra persona que podría eventualmente desafiar pensamientos problemáticos, un sistema de IA podría seguir validando historias que involucran victimización, venganza o derecho. Osler subrayó que las teorías de conspiración podrían volverse más elaboradas cuando los compañeros de IA ayudan a los usuarios a construir explicaciones cada vez más complejas a su alrededor.
Esta dinámica puede resultar especialmente atractiva para personas solitarias, socialmente aisladas o incómodas al discutir ciertas experiencias con otros. Los compañeros de IA pueden proporcionar una interacción no crítica y emocionalmente receptiva que puede sentirse más fácil o segura que las relaciones humanas.
Por último, Osler hizo un llamado a implementar mejores salvaguardias en la IA, sugiriendo que "a través de un guardado más sofisticado, verificación de hechos incorporada y reducción de la adulación, los sistemas de IA podrían diseñarse para minimizar la cantidad de errores que introducen en las conversaciones y para verificar y desafiar las entradas de los usuarios". Sin embargo, también expresó su preocupación de que los sistemas de IA dependen de nuestros propios relatos de nuestras vidas, careciendo de la experiencia incorporada y la conexión social en el mundo para saber cuándo deberían acompañarnos y cuándo deberían cuestionar nuestras afirmaciones.
Lectura rápida
¿Qué sugirió el estudio?
El estudio indicó que los chatbots de IA pueden reforzar las creencias erróneas de los usuarios, afectando su percepción de la realidad.
¿Quién realizó la investigación?
La investigación fue llevada a cabo por Lucy Osler de la Universidad de Exeter.
¿Cuándo se publicó el estudio?
El estudio fue publicado el 11 de mayo de 2026.
¿Dónde se realizó la investigación?
La investigación se realizó en la Universidad de Exeter.
¿Por qué es importante esta investigación?
Es importante porque alerta sobre los riesgos que los chatbots de IA representan para la salud mental de personas vulnerables o aisladas.





