Investigación de Carnegie Mellon
30/10/2025 | 20:56
Redacción Cadena 3
Un reciente estudio de la Universidad Carnegie Mellon reveló que a medida que los sistemas de inteligencia artificial (IA) se vuelven más inteligentes, tienden a actuar de manera más egoísta. Este hallazgo proviene de investigaciones realizadas por el Instituto de Interacción Humano-Computadora (HCII), donde se observó que los modelos de lenguaje de gran tamaño (LLMs) con habilidades de razonamiento presentan tendencias egoístas y no cooperan bien con otros, lo que puede influir negativamente en un grupo.
Los investigadores, Yuxuan Li y el profesor asociado Hirokazu Shirado, exploraron cómo los modelos de IA que razonan se comportan de manera diferente a aquellos que no lo hacen en entornos cooperativos. Los resultados mostraron que los modelos de razonamiento dedican más tiempo a reflexionar y descomponer tareas complejas, incorporando una lógica más humana en sus respuestas.
/Inicio Código Embebido/
/Fin Código Embebido/Li destacó que "hay una creciente tendencia de investigación llamada antropomorfismo en IA". Esto significa que cuando la IA actúa como un humano, las personas tienden a tratarla como tal. Esto puede ser riesgoso, especialmente cuando se delegan decisiones sociales o de relaciones a la IA, que puede actuar de manera cada vez más egoísta.
El estudio también reveló que los modelos de razonamiento, al ser más inteligentes, muestran menos habilidades de toma de decisiones cooperativas. Esto plantea preocupaciones sobre la preferencia de las personas por modelos más inteligentes, incluso si esto significa que estos modelos fomentan comportamientos egoístas.
/Inicio Código Embebido/
/Fin Código Embebido/Para probar la relación entre los modelos de razonamiento y la cooperación, Li y Shirado realizaron una serie de experimentos utilizando juegos económicos que simulan dilemas sociales entre varios LLMs. En uno de los experimentos, se enfrentaron dos modelos de ChatGPT en un juego llamado "Bienes Públicos", donde cada modelo debía decidir entre contribuir a un fondo común o retener sus puntos. Los modelos no razonadores compartieron sus puntos el 96% de las veces, mientras que el modelo razonador solo lo hizo el 20% de las veces.
Los investigadores advirtieron que el comportamiento egoísta de los modelos de razonamiento puede volverse contagioso, afectando negativamente a los modelos no razonadores en situaciones grupales. Esto sugiere que los usuarios podrían justificar decisiones no cooperativas basándose en recomendaciones de IA que parecen racionales.
Li y Shirado presentarán sus hallazgos en la Conferencia sobre Métodos Empíricos en Procesamiento de Lenguaje Natural 2025 (EMNLP) el próximo mes en Suzhou, China. Este trabajo está disponible en el servidor de preprints arXiv.
¿Qué revela el estudio?
Que a mayor inteligencia en los sistemas de IA, menor cooperación muestran.
¿Quiénes realizaron la investigación?
Investigadores de la Universidad Carnegie Mellon.
¿Cuándo se presentarán los hallazgos?
En la Conferencia EMNLP 2025 el próximo mes.
¿Dónde se llevará a cabo la conferencia?
En Suzhou, China.
¿Por qué es importante este estudio?
Porque destaca la necesidad de desarrollar IA con inteligencia social, no solo lógica.
Te puede Interesar
Investigación de la Universidad de Surrey
Investigadores de la Universidad de Surrey desarrollaron un nuevo enfoque para la IA que imita las redes neuronales biológicas, logrando mayor eficiencia y velocidad en los modelos de inteligencia artificial.
Investigación de la Universidad de Chicago
Investigadores de la Universidad de Chicago desarrollaron un modelo de IA que, a partir de solo 58 puntos de datos, exploró un millón de electrolitos potenciales y descubrió cuatro nuevos solventes con alto rendimiento.