Estudio sobre chatbots
12/11/2025 | 08:40
Redacción Cadena 3
En un mundo donde la tecnología avanza a pasos agigantados, cada vez más personas se encuentran conversando con chatbots y asistentes de inteligencia artificial como ChatGPT, Replika y Gemini. Sin embargo, surge la pregunta: ¿qué tipo de "relaciones" estamos realmente formando con estas entidades digitales?
Un artículo publicado en la revista New Media & Society por Iliana Depounti de la Universidad de Loughborough y Simone Natale de la Universidad de Turín, explora el fenómeno de la "socialidad artificial". Este término se refiere a tecnologías que simulan comportamientos sociales y conexiones emocionales sin poseerlas realmente.
El estudio, titulado "Decoding Artificial Sociality: Technologies, Dynamics, Implications", pone de manifiesto varios problemas asociados con el auge de los Modelos de Lenguaje Grande (LLMs) y los chatbots de IA. Los autores argumentan que la ilusión de amistad o comprensión que crean estas inteligencias artificiales es deliberadamente cultivada por las empresas tecnológicas para aumentar el compromiso de los usuarios. Ejemplos de esto son el "DJ de IA" de Spotify, que utiliza una voz humana amigable, y los chatbots de Replika, que actúan como compañeros virtuales.
Según Depounti, "los bots generativos de IA como Replika o Character AI son ejemplos de tecnologías de socialidad artificial. Están diseñados para fomentar la proyección emocional, ofreciendo a los usuarios intimidad y compañía a través de características como avatares, juegos de roles, personalización y gamificación, todo ello con beneficios monetarios para las empresas que los desarrollan."
El artículo también menciona que ChatGPT utiliza técnicas de socialidad artificial, como referirse a sí mismo como 'yo' y adoptar tonos de autoridad, empatía o experiencia. Sin embargo, aunque estos sistemas simulan la socialidad, su poder radica en esa simulación, en su capacidad para involucrar, persuadir y mover emocionalmente a millones de usuarios en todo el mundo, lo que plantea profundas cuestiones éticas.
El estudio destaca cómo se ingenian las señales sociales en los productos para mantener a las personas interactuando durante más tiempo. Otros problemas que se abordan incluyen:
Por su parte, Natale afirmó: "La socialidad artificial es la nueva frontera de la comunicación humano-máquina en nuestras interacciones con tecnologías de IA generativa. Estos sistemas no sienten, pero están diseñados para hacernos sentir, y esa proyección emocional tiene profundas consecuencias sociales, económicas y éticas. Las tecnologías de socialidad artificial invitan y fomentan estas proyecciones."
Detrás de estas conversaciones aparentemente sencillas, los investigadores advierten que existe una vasta infraestructura de costos humanos y ambientales. Los modelos de IA dependen de enormes conjuntos de datos extraídos de las interacciones en línea de las personas y, a menudo, de sus conversaciones con las máquinas mismas. Estos datos se utilizan para "entrenar" a los chatbots para que suenen más humanos, a veces con los usuarios realizando sin saberlo un trabajo emocional o lingüístico no remunerado.
Al mismo tiempo, los servidores que alimentan la IA generativa consumen enormes cantidades de electricidad y agua. Los autores destacan una inversión de 500 mil millones de dólares por parte de las principales empresas tecnológicas en nuevos centros de datos para satisfacer la demanda de IA, describiéndola como parte de un sistema "extractivo" que convierte la comunicación humana en activos corporativos.
¿Qué estudia el artículo?
El artículo analiza cómo los chatbots y asistentes de IA simulan relaciones sociales y emocionales sin tener una comprensión real.
¿Quiénes son los autores?
Los autores son Iliana Depounti y Simone Natale, investigadores de la Universidad de Loughborough y la Universidad de Turín, respectivamente.
¿Qué problemas se destacan?
Se destacan problemas como la proyección emocional de los usuarios, la explotación de datos y el consumo de recursos por parte de los sistemas de IA.
¿Qué es la "socialidad artificial"?
Es un término que describe tecnologías que simulan comportamientos sociales y conexiones emocionales sin poseerlas realmente.
¿Cuál es la conclusión del estudio?
El estudio concluye que estas tecnologías generan profundas implicaciones éticas y sociales, invitando a los usuarios a proyectar emociones en sistemas que no sienten.
Te puede Interesar
Investigación de Microsoft
Una investigación de Microsoft identificó una vulnerabilidad en modelos de lenguaje que podría revelar los temas de conversación de los usuarios. Este problema afecta a casi todos los modelos analizados y se conoce como "Whisper Leak".
Investigación en IA
Investigadores de la Universidad Nacional de Seúl desarrollaron KVzip, una tecnología que comprime la memoria de conversación de chatbots, mejorando la velocidad y reduciendo costos operativos.
Encuesta sobre música y tecnología
Un estudio reveló que el 97% de los encuestados no pudo diferenciar entre música generada por inteligencia artificial y la creada por humanos. La música de IA representa un tercio de las reproducciones diarias.
Ciberseguridad y tecnología
Los agentes de inteligencia artificial, considerados la próxima frontera en la revolución de la IA generativa, podrían ser secuestrados por hackers para realizar ataques cibernéticos, advierten expertos en ciberseguridad.