La ilusión de amor en los chatbots: ¿Qué relaciones formamos con ellos?
Cada día, millones de personas interactúan con chatbots y asistentes de IA como ChatGPT y Replika. Un estudio revela cómo estas interacciones crean la ilusión de amistad y conexión emocional.
12/11/2025 | 08:40Redacción Cadena 3
En un mundo donde la tecnología avanza a pasos agigantados, cada vez más personas se encuentran conversando con chatbots y asistentes de inteligencia artificial como ChatGPT, Replika y Gemini. Sin embargo, surge la pregunta: ¿qué tipo de "relaciones" estamos realmente formando con estas entidades digitales?
Un artículo publicado en la revista New Media & Society por Iliana Depounti de la Universidad de Loughborough y Simone Natale de la Universidad de Turín, explora el fenómeno de la "socialidad artificial". Este término se refiere a tecnologías que simulan comportamientos sociales y conexiones emocionales sin poseerlas realmente.
El estudio, titulado "Decoding Artificial Sociality: Technologies, Dynamics, Implications", pone de manifiesto varios problemas asociados con el auge de los Modelos de Lenguaje Grande (LLMs) y los chatbots de IA. Los autores argumentan que la ilusión de amistad o comprensión que crean estas inteligencias artificiales es deliberadamente cultivada por las empresas tecnológicas para aumentar el compromiso de los usuarios. Ejemplos de esto son el "DJ de IA" de Spotify, que utiliza una voz humana amigable, y los chatbots de Replika, que actúan como compañeros virtuales.
Según Depounti, "los bots generativos de IA como Replika o Character AI son ejemplos de tecnologías de socialidad artificial. Están diseñados para fomentar la proyección emocional, ofreciendo a los usuarios intimidad y compañía a través de características como avatares, juegos de roles, personalización y gamificación, todo ello con beneficios monetarios para las empresas que los desarrollan."
El artículo también menciona que ChatGPT utiliza técnicas de socialidad artificial, como referirse a sí mismo como 'yo' y adoptar tonos de autoridad, empatía o experiencia. Sin embargo, aunque estos sistemas simulan la socialidad, su poder radica en esa simulación, en su capacidad para involucrar, persuadir y mover emocionalmente a millones de usuarios en todo el mundo, lo que plantea profundas cuestiones éticas.
El estudio destaca cómo se ingenian las señales sociales en los productos para mantener a las personas interactuando durante más tiempo. Otros problemas que se abordan incluyen:
- Las máquinas solo imitan el comportamiento social, pero los usuarios aún proyectan sentimientos, confianza y empatía hacia ellas.
- Los datos de los usuarios y el trabajo emocional son explotados para entrenar y "personalizar" los sistemas de IA, lo que plantea preocupaciones éticas y ambientales sobre el trabajo humano oculto y el uso masivo de energía en los centros de datos.
- Los sesgos y estereotipos en los sistemas de IA reflejan desigualdades sociales, moldeando cómo se representan el género, la clase y la raza en las conversaciones digitales.
- Los usuarios se adaptan a los "compañeros" de IA a través de lo que los investigadores llaman "re-domesticación", renegociando relaciones cada vez que cambia la personalidad o el comportamiento de un chatbot.
- La línea entre autenticidad y engaño se está volviendo difusa, ya que las personalidades de IA se comercializan como "amigos", "compañeros de trabajo" o incluso "influencers".
Por su parte, Natale afirmó: "La socialidad artificial es la nueva frontera de la comunicación humano-máquina en nuestras interacciones con tecnologías de IA generativa. Estos sistemas no sienten, pero están diseñados para hacernos sentir, y esa proyección emocional tiene profundas consecuencias sociales, económicas y éticas. Las tecnologías de socialidad artificial invitan y fomentan estas proyecciones."
Detrás de estas conversaciones aparentemente sencillas, los investigadores advierten que existe una vasta infraestructura de costos humanos y ambientales. Los modelos de IA dependen de enormes conjuntos de datos extraídos de las interacciones en línea de las personas y, a menudo, de sus conversaciones con las máquinas mismas. Estos datos se utilizan para "entrenar" a los chatbots para que suenen más humanos, a veces con los usuarios realizando sin saberlo un trabajo emocional o lingüístico no remunerado.
Al mismo tiempo, los servidores que alimentan la IA generativa consumen enormes cantidades de electricidad y agua. Los autores destacan una inversión de 500 mil millones de dólares por parte de las principales empresas tecnológicas en nuevos centros de datos para satisfacer la demanda de IA, describiéndola como parte de un sistema "extractivo" que convierte la comunicación humana en activos corporativos.
Lectura rápida
¿Qué estudia el artículo?
El artículo analiza cómo los chatbots y asistentes de IA simulan relaciones sociales y emocionales sin tener una comprensión real.
¿Quiénes son los autores?
Los autores son Iliana Depounti y Simone Natale, investigadores de la Universidad de Loughborough y la Universidad de Turín, respectivamente.
¿Qué problemas se destacan?
Se destacan problemas como la proyección emocional de los usuarios, la explotación de datos y el consumo de recursos por parte de los sistemas de IA.
¿Qué es la "socialidad artificial"?
Es un término que describe tecnologías que simulan comportamientos sociales y conexiones emocionales sin poseerlas realmente.
¿Cuál es la conclusión del estudio?
El estudio concluye que estas tecnologías generan profundas implicaciones éticas y sociales, invitando a los usuarios a proyectar emociones en sistemas que no sienten.





