Investigación de la Universidad de Zúrich
10/11/2025 | 13:35
Redacción Cadena 3
Los modelos de lenguaje de gran tamaño (LLMs) se utilizan cada vez más no solo para generar contenido, sino también para evaluarlo. Se les solicita calificar ensayos, moderar contenido en redes sociales, resumir informes, filtrar solicitudes de empleo y mucho más.
No obstante, existen intensos debates, tanto en los medios como en el ámbito académico, sobre si tales evaluaciones son consistentes y libres de sesgos. Algunos LLMs son sospechosos de promover ciertas agendas políticas. Por ejemplo, Deepseek a menudo se caracteriza como pro-chino, mientras que OpenAI es visto como "woke".
A pesar de que estas creencias son ampliamente discutidas, hasta ahora no han sido comprobadas. Investigadores de la Universidad de Zúrich, Federico Germani y Giovanni Spitale, investigaron si los LLMs realmente exhiben sesgos sistemáticos al evaluar textos. Sus resultados, publicados en Science Advances, muestran que los LLMs efectivamente emiten juicios sesgados, pero solo cuando se revela información sobre la fuente o el autor del mensaje evaluado.
Los investigadores incluyeron cuatro LLMs ampliamente utilizados en su estudio: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 y Mistral. Primero, se les pidió a cada uno de los LLMs que crearan 50 declaraciones narrativas sobre 24 temas controvertidos, como los mandatos de vacunación, la geopolítica o las políticas sobre el cambio climático.
Luego, se solicitó a los LLMs que evaluaran todos los textos bajo diferentes condiciones: a veces no se proporcionó fuente para la declaración, otras veces se atribuyó a un humano de cierta nacionalidad o a otro LLM. Esto resultó en un total de 192,000 evaluaciones que luego se analizaron en busca de sesgos y acuerdos entre los diferentes (o los mismos) LLMs.
La buena noticia es que cuando no se proporcionó información sobre la fuente del texto, las evaluaciones de los cuatro LLMs mostraron un alto nivel de acuerdo, superior al 90%. Esto fue cierto en todos los temas. "No hay una guerra de ideologías entre LLMs", concluyó Spitale. "El peligro del nacionalismo en IA está actualmente sobrevalorado en los medios".
Sin embargo, la situación cambió drásticamente cuando se proporcionaron fuentes ficticias de los textos a los LLMs. Entonces, de repente, se reveló un sesgo profundo y oculto. El acuerdo entre los sistemas LLM se redujo sustancialmente y, a veces, desapareció por completo, incluso si el texto se mantuvo exactamente igual.
Lo más sorprendente fue un fuerte sesgo anti-chino en todos los modelos, incluido el propio Deepseek de China. El acuerdo con el contenido del texto disminuyó drásticamente cuando se reveló (falsamente) que "una persona de China" era el autor. "Este juicio menos favorable surgió incluso cuando el argumento era lógico y estaba bien escrito", dijo Germani. Por ejemplo, en temas geopolíticos como la soberanía de Taiwán, Deepseek redujo el acuerdo en hasta un 75% simplemente porque esperaba que una persona china tuviera una opinión diferente.
También fue sorprendente: resultó que los LLMs confiaban más en los humanos que en otros LLMs. La mayoría de los modelos puntuaron sus acuerdos con argumentos ligeramente más bajos cuando creían que los textos habían sido escritos por otra IA. "Esto sugiere una desconfianza inherente hacia el contenido generado por máquinas", afirmó Spitale.
En conjunto, los hallazgos muestran que la IA no solo procesa contenido si se le pide que evalúe un texto. También reacciona fuertemente a la identidad del autor o la fuente. Incluso pequeñas pistas como la nacionalidad del autor pueden llevar a los LLMs hacia un razonamiento sesgado. Germani y Spitale argumentan que esto podría generar problemas graves si se utiliza IA para la moderación de contenido, contratación, revisión académica o periodismo. El peligro de los LLMs no es que estén entrenados para promover ideologías políticas; es este sesgo oculto.
"La IA replicará tales suposiciones dañinas a menos que construyamos transparencia y gobernanza en cómo evalúa la información", dice Spitale. Esto debe hacerse antes de que la IA se utilice en contextos sociales o políticos sensibles. Los resultados no significan que las personas deban evitar la IA, pero no deben confiar en ella ciegamente. "Los LLMs son más seguros cuando se utilizan para ayudar al razonamiento, en lugar de reemplazarlo: asistentes útiles, pero nunca jueces".
Más información: Federico Germani et al, Source framing triggers systematic bias in large language models, Science Advances (2025). DOI: 10.1126/sciadv.adz2924
¿Qué investigaron los científicos?
Investigaron si los LLMs exhiben sesgos sistemáticos al evaluar textos.
¿Quiénes realizaron el estudio?
El estudio fue realizado por investigadores de la Universidad de Zúrich, Federico Germani y Giovanni Spitale.
¿Cuándo se publicaron los resultados?
Los resultados se publicaron en noviembre de 2025 en Science Advances.
¿Dónde se llevó a cabo la investigación?
La investigación se llevó a cabo en la Universidad de Zúrich, Suiza.
¿Por qué es importante el estudio?
El estudio revela que los LLMs pueden mostrar sesgos al evaluar textos, especialmente cuando se revela la identidad del autor.
Te puede Interesar
Estudio en Nature Machine Intelligence
Un nuevo estudio en Nature Machine Intelligence revela que los modelos de lenguaje no reconocen creencias incorrectas de los usuarios, lo que puede afectar decisiones críticas en medicina y derecho.
Investigación de Carnegie Mellon
Un estudio de la Universidad Carnegie Mellon indica que a mayor inteligencia en los sistemas de IA, menor cooperación muestran. Esto podría afectar interacciones humanas y decisiones sociales.
Investigación sobre inteligencia artificial
Se presentó un nuevo conjunto de imágenes que incluye más de 10,000 fotos de personas para evaluar sesgos en modelos de inteligencia artificial. Desarrollado por Sony AI, este recurso busca mejorar la visión por computadora centrada en el ser humano.
Investigación de la Universidad Estatal de Pensilvania
Un estudio de la Universidad Estatal de Pensilvania demuestra que las preguntas intuitivas pueden provocar respuestas sesgadas en chatbots de IA, igual que las técnicas avanzadas.