Investigadores de Carnegie Mellon exploran el papel de la IA en la colaboración humana

Investigación de Carnegie Mellon

La IA como aliada: cómo potenciar la colaboración humana en el trabajo

01/11/2025 | 21:56

Un equipo de la Universidad Carnegie Mellon investiga cómo la inteligencia artificial puede fortalecer el trabajo en equipo, sin reemplazar a los humanos. La investigación se centra en la colaboración efectiva y la dinámica laboral.

Redacción Cadena 3

Investigadores de la Universidad Carnegie Mellon, específicamente del Tepper School of Business, exploraron cómo la inteligencia artificial (IA) puede ser utilizada para apoyar el trabajo en equipo en lugar de reemplazar a los compañeros de trabajo. La profesora Anita Williams Woolley, especialista en comportamiento organizacional, se centró en la inteligencia colectiva, que se refiere a cómo los equipos pueden desempeñarse mejor juntos y cómo la IA podría cambiar la dinámica laboral.

Woolley expresó su interés en la tecnología que puede ayudarnos a ser una mejor versión de nosotros mismos, tanto a nivel individual como colectivo. "¿Cómo podemos cambiar la forma en que pensamos y estructuramos el trabajo para ser más efectivos?", se preguntó. Para abordar estas cuestiones, colaboró con tecnólogos y otros expertos para desarrollar el marco COHUMAIN (Collective HUman-MAchine INtelligence), que busca entender cómo se integra la IA dentro de los límites establecidos de la psicología social organizacional.

En una publicación de 2023, los investigadores detrás de COHUMAIN advirtieron sobre el peligro de tratar a la IA como cualquier otro compañero de trabajo. En cambio, la consideran un socio que opera bajo la dirección humana, con el potencial de fortalecer las capacidades o relaciones existentes. Woolley afirmó: "Los agentes de IA podrían crear el vínculo que falta debido a cómo han cambiado nuestros entornos laborales, y en última instancia, mejorar nuestras relaciones entre nosotros".

El estudio enfatizó que, aunque la integración de la IA en el lugar de trabajo puede tomar formas que aún no comprendemos, no cambiará los principios fundamentales detrás de la inteligencia organizacional y probablemente no podrá llenar todos los roles que desempeñan los humanos. Por ejemplo, aunque la IA podría ser excelente resumiendo una reunión, sigue siendo responsabilidad de las personas captar el estado de ánimo de la sala o entender el contexto más amplio de la discusión.

Las organizaciones aún requieren una estructura que les permita aprovechar la experiencia única de cada miembro humano del equipo. Woolley sugirió que los sistemas de IA podrían servir mejor en roles de "asociación" o facilitación, en lugar de roles gerenciales, como una herramienta que puede motivar a los compañeros a comunicarse entre sí o proporcionar al usuario una perspectiva alternativa.

Con el aumento de la colaboración a través de pantallas, las herramientas de IA podrían ayudar a los equipos a fortalecer las conexiones entre compañeros de trabajo. Sin embargo, estas mismas herramientas también plantean preguntas sobre lo que se está grabando y por qué. Woolley comentó: "Las personas tienen mucha sensibilidad, con razón, en torno a la privacidad. A menudo, tienes que ceder algo para obtener algo, y eso es cierto aquí".

El nivel de riesgo que sienten los usuarios, tanto social como profesionalmente, puede cambiar dependiendo de cómo interactúan con la IA, según Allen Brown, un estudiante de doctorado que trabaja estrechamente con Woolley. Brown investiga dónde aparece esta tensión y cómo los equipos pueden superarla, centrándose en cómo se sienten las personas al tomar riesgos o expresar sus opiniones en un grupo.

Brown mencionó que, en el mejor de los casos, la IA podría ayudar a las personas a sentirse más cómodas al expresar nuevas ideas que de otro modo podrían no ser escuchadas. "En un aula, podemos imaginar a alguien diciendo: 'Oh, estoy un poco preocupado. No sé lo suficiente para mi profesor, o cómo mis compañeros van a juzgar mi pregunta', o 'Creo que esta es una buena idea, pero tal vez no lo sea'. No lo sabemos hasta que lo expresamos".

Como la IA depende de un registro digital que podría o no ser guardado permanentemente, una preocupación es que un humano podría no saber qué interacciones con una IA serán utilizadas para evaluación. Brown explicó: "En nuestros espacios de trabajo cada vez más mediáticos digitalmente, gran parte de lo que hacemos está siendo rastreado y documentado. Hay un registro digital de las cosas, y si me doy cuenta de que, 'Oh, de repente nuestra conversación podría ser utilizada para evaluación', vemos una diferencia significativa en la interacción".

A pesar de que pensaban que sus comentarios podrían ser monitoreados o juzgados profesionalmente, las personas aún se sentían relativamente seguras al hablar con otro ser humano. "Estamos hablando juntos. Estamos trabajando en algo juntos, pero ambos somos personas. Hay una especie de suposición mutua de riesgo", explicó.

El estudio encontró que las personas se sentían más vulnerables cuando pensaban que un sistema de IA las estaba evaluando. Brown desea entender cómo la IA puede ser utilizada para crear el efecto opuesto, uno que construya confianza y seguridad.

"¿Cuáles son esos contextos en los que la IA podría ser un socio, podría ser parte de esta práctica comunicativa conversacional dentro de una pareja de individuos en el trabajo, como una relación supervisor-supervisado, o tal vez dentro de un equipo donde están trabajando en algún tema que podría tener conflicto de tareas o de relaciones?" preguntó Brown. "¿Cómo ayuda la IA a resolver el proceso de toma de decisiones o mejorar la resolución para que las personas se sientan más seguras psicológicamente?".

En el nivel individual, los investigadores de Tepper también están aprendiendo cómo la forma en que la IA explica su razonamiento afecta cómo las personas la utilizan y confían en ella. Zhaohui (Zoey) Jiang y Linda Argote están estudiando cómo las personas reaccionan a diferentes tipos de sistemas de IA, específicamente aquellos que explican su razonamiento (IA transparente) frente a aquellos que no explican cómo toman decisiones (IA de caja negra).

"Vemos a muchas personas abogando por la IA transparente", dijo Jiang, "pero nuestra investigación revela una ventaja de mantener la IA como una caja negra, especialmente para un participante de alta habilidad".

Una de las razones para esto, explicó, es la sobreconfianza y desconfianza en los tomadores de decisiones hábiles. "Para un participante que ya está haciendo un buen trabajo de manera independiente en la tarea, son más propensos a la tendencia bien documentada de aversión a la IA. Penalizarán el error de la IA mucho más que los humanos que cometen el mismo error, incluidos ellos mismos", dijo Jiang. "Encontramos que esta tendencia es más evidente si les dices el funcionamiento interno de la IA, como su lógica o reglas de decisión".

Las personas que tienen dificultades con la toma de decisiones en realidad mejoran sus resultados al utilizar modelos de IA transparentes que muestran un nivel moderado de complejidad en su proceso de toma de decisiones. "Encontramos que decirles cómo la IA está pensando sobre este problema es en realidad mejor para los usuarios menos hábiles, porque pueden aprender de las reglas de toma de decisiones de la IA para ayudar a mejorar su propia toma de decisiones independiente futura".

Lectura rápida

¿Qué investigan los científicos?
Investigadores de la Universidad Carnegie Mellon estudian cómo la IA puede apoyar el trabajo en equipo sin reemplazar a los humanos.

¿Quién es la investigadora principal?
La profesora Anita Williams Woolley lidera el estudio sobre inteligencia colectiva y el papel de la IA.

¿Cuándo se publicó el estudio?
El marco COHUMAIN fue publicado en 2023.

¿Dónde se lleva a cabo la investigación?
En la Tepper School of Business de la Universidad Carnegie Mellon.

¿Por qué es importante la investigación?
La investigación busca entender cómo la IA puede mejorar la colaboración y la dinámica laboral sin comprometer la privacidad y la seguridad psicológica.

Te puede Interesar

Competencia de robótica en Teherán

En las Olimpíadas Tecnológicas de Irán, estudiantes de ingeniería exhibieron sus habilidades en robótica, inteligencia artificial y más, a pesar de las limitaciones impuestas por las sanciones internacionales.

Investigación de la Universidad de Miami

Un estudio de la Universidad de Miami revela que empoderar a los consumidores, en lugar de depender solo de algoritmos, mejora las decisiones de compra y reduce las devoluciones.

Investigación de Carnegie Mellon

Un estudio de la Universidad Carnegie Mellon indica que a mayor inteligencia en los sistemas de IA, menor cooperación muestran. Esto podría afectar interacciones humanas y decisiones sociales.

Investigación en Corea del Sur

Un equipo de investigación de Corea del Sur reveló el mecanismo molecular que permite cambiar la polaridad de semiconductores orgánicos mediante dopaje controlado.

© Copyright 2025 Cadena 3 Argentina