Investigadores coreanos proponen estándares internacionales para la seguridad de la IA
Investigadores de Corea del Sur lideran el desarrollo de estándares internacionales para garantizar la seguridad y confiabilidad de la inteligencia artificial, abordando un desafío global en la era digital.
30/10/2025 | 14:09Redacción Cadena 3
La rápida incorporación de la tecnología de inteligencia artificial (IA) en nuestras vidas y en diversas industrias plantea un desafío global en términos de seguridad y confiabilidad. En este contexto, investigadores de Corea del Sur han comenzado a liderar el desarrollo de dos estándares internacionales clave.
El Instituto de Investigación en Electrónica y Telecomunicaciones (ETRI) propuso el estándar de "Pruebas de Equipo Rojo de IA", que busca identificar proactivamente los riesgos en los sistemas de IA, y el estándar de "Etiqueta de Hecho de Confiabilidad (TFL)", que tiene como objetivo ayudar a los consumidores a comprender fácilmente el nivel de autenticidad de la IA. Estos estándares han sido presentados a la Organización Internacional de Normalización (ISO/IEC) y se ha iniciado su desarrollo a gran escala.
Con esta iniciativa, Corea del Sur ha elevado su estatus de ser un simple "seguidor rápido" de la tecnología a convertirse en un "pionero", estableciendo las reglas para la era de la IA.
El método de "Pruebas de Equipo Rojo de IA" implica explorar y probar de manera agresiva la seguridad de un sistema de IA. Por ejemplo, se enfoca en identificar situaciones en las que la IA generativa podría producir información incorrecta o ser explotada para eludir las protecciones al usuario.
ETRI actúa como editor del estándar internacional ISO/IEC 42119-7, creando procedimientos y métodos de prueba comunes que pueden aplicarse en una amplia gama de campos, incluyendo medicina, finanzas y defensa nacional.
Además, ETRI, en colaboración con el Ministerio de Seguridad Alimentaria y Medicamentos, organizó el primer "Desafío de Pruebas de Equipo Rojo para Productos Médicos Digitales Avanzados" en Corea, que tuvo lugar en el Hotel Novotel de Seúl Dongdaemun los días 4 y 5 de septiembre. Este desafío es el primero de su tipo en Asia y Corea para dispositivos médicos avanzados, donde profesionales médicos, expertos en seguridad y el público en general participan para examinar los sesgos y riesgos de la IA.
ETRI también está desarrollando una metodología de evaluación específica para el ámbito médico en colaboración con el Centro Médico Asan de Seúl, y planea crear un sistema de pruebas de equipo rojo para productos médicos digitales que aplique tecnología de IA avanzada y realice pruebas empíricas. Además, ha formado un consejo con empresas importantes como STA, NAVER, Upstage, SelectStar, KT y LG AI Research Institute para fortalecer la cooperación en la estandarización internacional de pruebas de equipo rojo de IA.
Otro estándar clave son las etiquetas de hecho de confiabilidad (TFL)
La etiqueta es una visualización rápida de cuán confiable es un sistema de IA, proporcionando información transparente a los consumidores, similar a una etiqueta nutricional en un producto alimenticio.
ETRI lidera el desarrollo de la serie de estándares ISO/IEC 42117, que puede ser operacionalizada de diversas maneras, ya sea mediante la auto-provisión de información por parte de las empresas o su verificación y certificación por una organización externa.
En el futuro, ETRI incluso está considerando incorporar factores ESG, como la huella de carbono de la IA.
Junto con el Estándar de Sistema de Gestión de IA (ISO/IEC 42001), que se utiliza como estándar de certificación internacional para organizaciones que utilizan IA, el estándar servirá como un marco para demostrar cuán confiables son los productos y servicios desarrollados.
Estos dos estándares están alineados con las estrategias de IA Soberana y de salto G3 del gobierno. Se evalúa como un ejemplo que va más allá de simplemente asegurar la destreza tecnológica y realiza una contribución práctica a la competencia por el liderazgo en la creación de reglas globales de IA.
Así como el Instituto Nacional de Estándares y Tecnología (NIST) en los Estados Unidos apoya la normalización nacional e internacional para realizar la estrategia nacional de IA, ETRI prevé apoyar la realización de la estrategia nacional de IA desarrollando tecnologías de seguridad de IA y liderando la normalización internacional de la seguridad y confiabilidad de la IA, incluyendo las actividades del Instituto de Investigación en Seguridad de IA.
Kim Wook, PM del Instituto de Planificación y Evaluación de Tecnología de Información y Comunicaciones (IITP), afirmó: "Proporcionar seguridad y confiabilidad en la IA facilitará su uso para todos, y liderar el camino en los estándares internacionales en este momento es un punto de inflexión para convertirnos en un país que lidera las normas de IA".
Lee Seung Yun, Vicepresidente Asistente de la División de Investigación en Estándares y Código Abierto de ETRI, también comentó: "Las pruebas de equipo rojo de IA y las etiquetas de confiabilidad son elementos técnicos clave incluidos en las políticas regulatorias de IA en EE. UU., UE y otros países, y estos estándares internacionales servirán como criterios comunes para evaluar la seguridad y confiabilidad de los sistemas de IA en todo el mundo".
"ETRI continuará liderando la normalización internacional en el campo de la seguridad y confiabilidad de la IA, convirtiendo a Corea en el centro de excelencia no solo para la IA Soberana, sino también para las tecnologías de seguridad de IA Soberana".
Lectura rápida
¿Qué estándares se están desarrollando?
Se están desarrollando dos estándares: Pruebas de Equipo Rojo de IA y Etiquetas de Hecho de Confiabilidad (TFL).
¿Quién lidera esta iniciativa?
El Instituto de Investigación en Electrónica y Telecomunicaciones (ETRI) de Corea del Sur.
¿Cuándo se presentó esta propuesta?
La propuesta fue presentada a la Organización Internacional de Normalización (ISO/IEC) y se inició su desarrollo a gran escala.
¿Dónde se llevó a cabo el primer desafío de pruebas de equipo rojo?
En el Hotel Novotel de Seúl Dongdaemun, Corea del Sur.
¿Por qué son importantes estos estándares?
Estos estándares buscan garantizar la seguridad y confiabilidad de la IA, facilitando su uso y estableciendo criterios comunes a nivel global.





