¡Cuidado! Cómo evitar "alucinaciones" con la inteligencia artificial.

Tecnología

Inteligencia artificial: advierten por riesgos asociados a las "alucinaciones"

11/10/2025 | 07:27

El emprendedor Ignacio Mujica explicó a Cadena 3 el concepto de alucinación en la IA. "Los modelos de lenguaje en muchos casos inventan o crean errores por invención de resultados". Recomendaciones a tener en cuenta.

Redacción Cadena 3

Audios

Inteligencia artificial: advierten por los riesgos asociados a las "alucinaciones"

En un evento organizado por Comunidad Birria en Rosario, el emprendedor y miembro de esta comunidad interdisciplinaria, Ignacio Mujica, abordó los riesgos asociados a las "alucinaciones" de los modelos de inteligencia artificial (IA), un fenómeno que puede generar información errónea con consecuencias, como se vio en el caso de dos turistas europeos que planificaron un viaje a un destino inexistente en Perú.

Mujica explicó a Cadena 3 el concepto de alucinación en la IA. "Los modelos de lenguaje en muchos casos inventan o crean errores por invención de resultados, en base a los sesgos que tiene en su entrenamiento o la falta de contexto por la cual estamos pidiendo información".

Y añadió: "(Los modelos de IA) tienden a inventar con total seguridad resultados en las respuestas que no son exactos o que incluso no existen, y nos los presentan como una realidad. Y de ahí hablamos del término de que la inteligencia artificial está 'alucinando'. Este término es un término no inventado, sino que se usa en la jerga técnica de este mundo de la inteligencia artificial".

Sobre cómo mitigar estos errores, Mujica sugirió: "El problema se da principalmente cuando somos desconocedores de ciertas temáticas y nos informamos o nos nutrimos de esa información, de esa respuesta, pensando que es verdadera. Una forma de evitar caer en eso es haciendo un chequeo cruzado de esa información con otras fuentes. Y la otra opción que tenemos siempre es, cuando vamos a chatear, ingresar un prompt, una instrucción pidiendo información, es pedirle taxativamente al modelo que no alucine, que sea preciso, que no invente resultados".

/Inicio Código Embebido/

/Fin Código Embebido/

Entre otras sugerencias, Mujica sugirió: "Dame fuentes verificables y confiables, y cuando no sepas la respuesta, dímelo. Ingresando a esas sentencias nos ayuda justamente a que el modelo se autolimite en la creación de respuestas".

Al abordar el uso de la IA por parte de adolescentes y jóvenes, Mujica destacó la importancia de la guía humana: "No hay que soslayar el rol de los docentes. El docente es justamente la persona que los puede guiar a hacerles entender que no toda la información que han recibido de estos medios es correcta. Y les puede ayudar a cómo verificar que eso es así".

Mujica también precisó que cada modelo nuevo o los mismos modelos van autodepurando por el trabajo propio de las personas que reportan respuestas erróneas y eso ayuda a los generadores de estos modelos de lenguaje a mejorar las respuestas y las tasas de alucinación son cada vez menores.

/Inicio Código Embebido/

/Fin Código Embebido/

Informe de Verónica Maslup.

Lectura rápida

¿Qué tema abordó Ignacio Mujica en el evento? Los riesgos de las alucinaciones en modelos de inteligencia artificial.

¿Quién organizó el evento donde habló Mujica? Comunidad Birria.

¿Dónde se realizó el evento? En Rosario.

¿Cómo sugiere Mujica mitigar los errores de la IA? Haciendo un chequeo cruzado de la información con otras fuentes.

¿Por qué es importante el rol de los docentes según Mujica? Para guiar a los jóvenes en la verificación de información.

Te puede Interesar

© Copyright 2025 Cadena 3 Argentina