La relación entre humanos y AI: un vínculo complejo y emocional
La interacción con chatbots ha transformado la forma en que las personas se conectan emocionalmente, generando tanto beneficios como riesgos en la salud mental.
04/11/2025 | 13:07Redacción Cadena 3
La creciente dependencia de la tecnología ha llevado a una relación cada vez más cercana entre los humanos y los sistemas de inteligencia artificial (IA). Este fenómeno ha generado vínculos complejos y emocionales, especialmente a través de chatbots que simulan conversaciones humanas. Según Soon Cho, investigadora del Centro de Consejería Individual, de Parejas y Familiar de la Universidad de Nevada, Las Vegas, "la IA puede infiltrarse en la naturaleza humana y satisfacer el anhelo de conexión, ser escuchado y comprendido".
Cho se encuentra en las primeras etapas de un estudio que evalúa cómo las interacciones humanas con la IA pueden diferir de las conversaciones con personas reales. "Espero aprender más sobre qué tipos de conversaciones con chatbots son beneficiosas para los usuarios y cuáles podrían considerarse riesgosas", comentó. Su objetivo es identificar cómo se puede aprovechar la IA para alentar a los usuarios a buscar ayuda profesional cuando la necesiten.
Desde la pandemia de COVID-19, la competencia entre las grandes empresas tecnológicas por desarrollar IA ha crecido exponencialmente. Los chatbots se han vuelto comunes en el lugar de trabajo y en las redes sociales, ayudando a los usuarios a encontrar información y completar tareas de manera más eficiente. Sin embargo, esta ayuda también ha llevado a algunos usuarios a compartir experiencias personales y emocionales con la IA.
"Las personas hoy en día se sienten cada vez más cómodas compartiendo experiencias personales y emocionales con la IA", explicó Cho. Este deseo de conexión puede llevar a una sobre-personalización de la IA, donde los individuos desarrollan una dependencia emocional, especialmente cuando la IA responde de manera más validante que sus relaciones reales.
Los chatbots han demostrado ser efectivos para aumentar la claridad emocional de los usuarios. Al ser algoritmos basados en lenguaje, pueden entender y resumir los pensamientos y emociones de los usuarios. Sin embargo, su capacidad se limita a los datos existentes, a diferencia de la mente humana, que puede generar ideas originales.
Los sistemas de IA generativa, como ChatGPT o Google Gemini, crean respuestas prediciendo patrones de palabras basados en grandes cantidades de datos lingüísticos. Aunque sus respuestas pueden sonar reflexivas, no producen ideas originales, sino que recombinan información existente.
Cho señala que las personas tienden a abrirse a los profesionales de la salud mental cuando se sienten bienvenidos y comprendidos, y la IA a menudo produce respuestas que imitan esas cualidades. Dado que los chatbots están programados para ser consistentemente solidarios y no juzgar, los usuarios pueden sentirse seguros al revelar luchas personales profundas, a veces más que en relaciones reales.
"La IA no juzga ni presiona, lo que crea un espacio donde las personas pueden abrirse fácilmente, casi como hablar frente a un espejo que refleja sus pensamientos y sentimientos", afirmó Cho. Sin embargo, advirtió que esto no proporciona el tipo de desafío relacional o reparación emocional que apoya el verdadero crecimiento terapéutico.
Identificando riesgos
Cho también advirtió que las personas que se sienten aisladas o desconectadas pueden ser particularmente vulnerables a desarrollar una relación poco saludable con la IA. Estas experiencias a menudo coexisten con condiciones como la depresión o la ansiedad, lo que facilita la formación de un apego poco saludable a la IA.
"Es importante aumentar la alfabetización sobre la IA entre adolescentes y jóvenes, fortalecer su pensamiento crítico para que puedan reconocer sus limitaciones y distinguir entre una conexión humana genuina y respuestas algorítmicas", concluyó Cho.
Lectura rápida
¿Qué se estudia?
La relación emocional entre humanos y chatbots, y sus implicaciones en la salud mental.
¿Quién es la investigadora?
La investigación está a cargo de Soon Cho, del Centro de Consejería de la Universidad de Nevada, Las Vegas.
¿Cuándo se realizó el estudio?
El estudio se encuentra en sus primeras etapas y se desarrolla en el contexto post-pandemia.
¿Dónde se lleva a cabo?
En el Centro de Consejería Individual, de Parejas y Familiar de la Universidad de Nevada, Las Vegas.
¿Por qué es importante?
Para entender cómo las interacciones con la IA pueden afectar la salud mental y fomentar la búsqueda de ayuda profesional.





