Investigación de la Universidad de Nevada
04/11/2025 | 13:07
Redacción Cadena 3
La creciente dependencia de la tecnología ha llevado a una relación cada vez más cercana entre los humanos y los sistemas de inteligencia artificial (IA). Este fenómeno ha generado vínculos complejos y emocionales, especialmente a través de chatbots que simulan conversaciones humanas. Según Soon Cho, investigadora del Centro de Consejería Individual, de Parejas y Familiar de la Universidad de Nevada, Las Vegas, "la IA puede infiltrarse en la naturaleza humana y satisfacer el anhelo de conexión, ser escuchado y comprendido".
Cho se encuentra en las primeras etapas de un estudio que evalúa cómo las interacciones humanas con la IA pueden diferir de las conversaciones con personas reales. "Espero aprender más sobre qué tipos de conversaciones con chatbots son beneficiosas para los usuarios y cuáles podrían considerarse riesgosas", comentó. Su objetivo es identificar cómo se puede aprovechar la IA para alentar a los usuarios a buscar ayuda profesional cuando la necesiten.
Desde la pandemia de COVID-19, la competencia entre las grandes empresas tecnológicas por desarrollar IA ha crecido exponencialmente. Los chatbots se han vuelto comunes en el lugar de trabajo y en las redes sociales, ayudando a los usuarios a encontrar información y completar tareas de manera más eficiente. Sin embargo, esta ayuda también ha llevado a algunos usuarios a compartir experiencias personales y emocionales con la IA.
"Las personas hoy en día se sienten cada vez más cómodas compartiendo experiencias personales y emocionales con la IA", explicó Cho. Este deseo de conexión puede llevar a una sobre-personalización de la IA, donde los individuos desarrollan una dependencia emocional, especialmente cuando la IA responde de manera más validante que sus relaciones reales.
Los chatbots han demostrado ser efectivos para aumentar la claridad emocional de los usuarios. Al ser algoritmos basados en lenguaje, pueden entender y resumir los pensamientos y emociones de los usuarios. Sin embargo, su capacidad se limita a los datos existentes, a diferencia de la mente humana, que puede generar ideas originales.
Los sistemas de IA generativa, como ChatGPT o Google Gemini, crean respuestas prediciendo patrones de palabras basados en grandes cantidades de datos lingüísticos. Aunque sus respuestas pueden sonar reflexivas, no producen ideas originales, sino que recombinan información existente.
Cho señala que las personas tienden a abrirse a los profesionales de la salud mental cuando se sienten bienvenidos y comprendidos, y la IA a menudo produce respuestas que imitan esas cualidades. Dado que los chatbots están programados para ser consistentemente solidarios y no juzgar, los usuarios pueden sentirse seguros al revelar luchas personales profundas, a veces más que en relaciones reales.
"La IA no juzga ni presiona, lo que crea un espacio donde las personas pueden abrirse fácilmente, casi como hablar frente a un espejo que refleja sus pensamientos y sentimientos", afirmó Cho. Sin embargo, advirtió que esto no proporciona el tipo de desafío relacional o reparación emocional que apoya el verdadero crecimiento terapéutico.
Cho también advirtió que las personas que se sienten aisladas o desconectadas pueden ser particularmente vulnerables a desarrollar una relación poco saludable con la IA. Estas experiencias a menudo coexisten con condiciones como la depresión o la ansiedad, lo que facilita la formación de un apego poco saludable a la IA.
"Es importante aumentar la alfabetización sobre la IA entre adolescentes y jóvenes, fortalecer su pensamiento crítico para que puedan reconocer sus limitaciones y distinguir entre una conexión humana genuina y respuestas algorítmicas", concluyó Cho.
¿Qué se estudia?
La relación emocional entre humanos y chatbots, y sus implicaciones en la salud mental.
¿Quién es la investigadora?
La investigación está a cargo de Soon Cho, del Centro de Consejería de la Universidad de Nevada, Las Vegas.
¿Cuándo se realizó el estudio?
El estudio se encuentra en sus primeras etapas y se desarrolla en el contexto post-pandemia.
¿Dónde se lleva a cabo?
En el Centro de Consejería Individual, de Parejas y Familiar de la Universidad de Nevada, Las Vegas.
¿Por qué es importante?
Para entender cómo las interacciones con la IA pueden afectar la salud mental y fomentar la búsqueda de ayuda profesional.
Te puede Interesar
Informe sobre inclusión digital en Australia
El Índice de Inclusión Digital de Australia reveló que el 46% de los australianos utilizó recientemente herramientas de inteligencia artificial generativa, con un uso destacado entre estudiantes y jóvenes adultos.
Estudio en Nature Machine Intelligence
Un nuevo estudio en Nature Machine Intelligence revela que los modelos de lenguaje no reconocen creencias incorrectas de los usuarios, lo que puede afectar decisiones críticas en medicina y derecho.
Crisis de salud mental
Un informe de OpenAI indica que aproximadamente 1.2 millones de usuarios de ChatGPT han mostrado interés en el suicidio. La empresa implementó nuevas medidas de seguridad y apoyo para abordar esta problemática.
Tendencias en inteligencia artificial
La inteligencia artificial se ha vuelto parte de la rutina diaria, con un uso creciente en tareas cotidianas. Un estudio revela que el 73% de las interacciones con ChatGPT no están relacionadas con el trabajo.