En vivo

Viva la Radio

Raúl y Geo

Argentina

En vivo

Estadio 3

Claudio y Marcelo

Rosario

En vivo

Horario corrido

Flavia Dellamaggiore

En vivo

Los Populares

Colorete Gianola

En vivo

Lista manija

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Innovación y Gadgets

Nuevo conjunto de imágenes busca reducir sesgos en inteligencia artificial

Se presentó un nuevo conjunto de imágenes que incluye más de 10,000 fotos de personas para evaluar sesgos en modelos de inteligencia artificial. Desarrollado por Sony AI, este recurso busca mejorar la visión por computadora centrada en el ser humano.

06/11/2025 | 00:00Redacción Cadena 3

Nuevo conjunto de imágenes para evaluar sesgos en IA

FOTO: Nuevo conjunto de imágenes para evaluar sesgos en IA

Un nuevo conjunto de datos que incluye más de 10,000 imágenes humanas fue presentado en la revista Nature esta semana. Este recurso, denominado Fair Human-Centric Image Benchmark (FHIBE), fue desarrollado por Sony AI y tiene como objetivo evaluar los sesgos en los modelos de inteligencia artificial (IA) utilizados en la visión por computadora centrada en el ser humano.

El conjunto de datos FHIBE es éticamente obtenido y se basa en el consentimiento de los participantes, lo que permite su uso para evaluar tareas de visión por computadora centradas en el ser humano, ayudando a identificar y corregir sesgos y estereotipos. La visión por computadora abarca una variedad de aplicaciones, desde vehículos autónomos hasta tecnología de reconocimiento facial.

Muchos modelos de IA utilizados en la visión por computadora se desarrollaron utilizando conjuntos de datos defectuosos, que a menudo fueron recolectados sin consentimiento, mediante la recopilación masiva de imágenes de la web. Estos modelos han demostrado reflejar sesgos que pueden perpetuar estereotipos sexistas, racistas y otros.

El equipo liderado por Alice Xiang implementó en FHIBE las mejores prácticas en varios factores, incluyendo el consentimiento, la diversidad y la privacidad. El conjunto incluye 10,318 imágenes de 1,981 personas de 81 países o regiones distintas. Además, se incluyen anotaciones exhaustivas sobre atributos demográficos y físicos, como edad, categoría de pronombre, ascendencia, color de cabello y piel.

Los participantes recibieron información detallada sobre el proyecto y los riesgos potenciales para ayudarles a proporcionar un consentimiento informado, cumpliendo así con las leyes de protección de datos. Estas características hacen del conjunto de datos un recurso confiable para evaluar el sesgo en la IA de manera responsable.

Los autores compararon FHIBE con 27 conjuntos de datos existentes utilizados en aplicaciones de visión por computadora centradas en el ser humano y encontraron que FHIBE establece un estándar más alto para la diversidad y el consentimiento robusto en la evaluación de IA. Además, cuenta con una mitigación efectiva de sesgos, conteniendo más anotaciones autoinformadas sobre los participantes que otros conjuntos de datos, e incluye una proporción notable de individuos comúnmente subrepresentados.

El conjunto de datos puede ser utilizado para evaluar modelos de IA existentes en tareas de visión por computadora y puede descubrir una variedad más amplia de sesgos que antes no era posible, según los autores. A pesar de que la creación del conjunto de datos fue un desafío y resultó costosa, concluyeron que FHIBE podría representar un paso hacia una IA más confiable.

Lectura rápida

¿Qué es FHIBE?
Es un conjunto de datos que incluye más de 10,000 imágenes humanas para evaluar sesgos en modelos de IA.

¿Quién lo desarrolló?
Fue desarrollado por Sony AI.

¿Cuántas imágenes incluye?
Incluye 10,318 imágenes de 1,981 personas.

¿Cuál es su objetivo?
Buscar identificar y corregir sesgos en la visión por computadora centrada en el ser humano.

¿Por qué es importante?
Establece un estándar más alto para la diversidad y el consentimiento en la evaluación de IA.

Lo más visto

Innovación y Gadgets

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho