Nuevo conjunto de imágenes para evaluar sesgos en IA

Investigación sobre inteligencia artificial

Nuevo conjunto de imágenes busca reducir sesgos en inteligencia artificial

06/11/2025 | 00:00

Se presentó un nuevo conjunto de imágenes que incluye más de 10,000 fotos de personas para evaluar sesgos en modelos de inteligencia artificial. Desarrollado por Sony AI, este recurso busca mejorar la visión por computadora centrada en el ser humano.

Redacción Cadena 3

Un nuevo conjunto de datos que incluye más de 10,000 imágenes humanas fue presentado en la revista Nature esta semana. Este recurso, denominado Fair Human-Centric Image Benchmark (FHIBE), fue desarrollado por Sony AI y tiene como objetivo evaluar los sesgos en los modelos de inteligencia artificial (IA) utilizados en la visión por computadora centrada en el ser humano.

El conjunto de datos FHIBE es éticamente obtenido y se basa en el consentimiento de los participantes, lo que permite su uso para evaluar tareas de visión por computadora centradas en el ser humano, ayudando a identificar y corregir sesgos y estereotipos. La visión por computadora abarca una variedad de aplicaciones, desde vehículos autónomos hasta tecnología de reconocimiento facial.

Muchos modelos de IA utilizados en la visión por computadora se desarrollaron utilizando conjuntos de datos defectuosos, que a menudo fueron recolectados sin consentimiento, mediante la recopilación masiva de imágenes de la web. Estos modelos han demostrado reflejar sesgos que pueden perpetuar estereotipos sexistas, racistas y otros.

El equipo liderado por Alice Xiang implementó en FHIBE las mejores prácticas en varios factores, incluyendo el consentimiento, la diversidad y la privacidad. El conjunto incluye 10,318 imágenes de 1,981 personas de 81 países o regiones distintas. Además, se incluyen anotaciones exhaustivas sobre atributos demográficos y físicos, como edad, categoría de pronombre, ascendencia, color de cabello y piel.

Los participantes recibieron información detallada sobre el proyecto y los riesgos potenciales para ayudarles a proporcionar un consentimiento informado, cumpliendo así con las leyes de protección de datos. Estas características hacen del conjunto de datos un recurso confiable para evaluar el sesgo en la IA de manera responsable.

Los autores compararon FHIBE con 27 conjuntos de datos existentes utilizados en aplicaciones de visión por computadora centradas en el ser humano y encontraron que FHIBE establece un estándar más alto para la diversidad y el consentimiento robusto en la evaluación de IA. Además, cuenta con una mitigación efectiva de sesgos, conteniendo más anotaciones autoinformadas sobre los participantes que otros conjuntos de datos, e incluye una proporción notable de individuos comúnmente subrepresentados.

El conjunto de datos puede ser utilizado para evaluar modelos de IA existentes en tareas de visión por computadora y puede descubrir una variedad más amplia de sesgos que antes no era posible, según los autores. A pesar de que la creación del conjunto de datos fue un desafío y resultó costosa, concluyeron que FHIBE podría representar un paso hacia una IA más confiable.

Lectura rápida

¿Qué es FHIBE?
Es un conjunto de datos que incluye más de 10,000 imágenes humanas para evaluar sesgos en modelos de IA.

¿Quién lo desarrolló?
Fue desarrollado por Sony AI.

¿Cuántas imágenes incluye?
Incluye 10,318 imágenes de 1,981 personas.

¿Cuál es su objetivo?
Buscar identificar y corregir sesgos en la visión por computadora centrada en el ser humano.

¿Por qué es importante?
Establece un estándar más alto para la diversidad y el consentimiento en la evaluación de IA.

Te puede Interesar

Innovación tecnológica

La nueva versión de Google Maps, impulsada por Gemini AI, promete una experiencia de navegación más interactiva y personalizada, ofreciendo recomendaciones en tiempo real y utilizando puntos de referencia para guiar a los usuarios.

Desarrollo de IA en el mundo físico

La inteligencia artificial ha dominado el mundo digital, pero ahora necesita aprender a moverse en el mundo físico. Un equipo global de entrenadores está trabajando en esta tarea.

Investigación de la Universidad Estatal de Pensilvania

Un estudio de la Universidad Estatal de Pensilvania demuestra que las preguntas intuitivas pueden provocar respuestas sesgadas en chatbots de IA, igual que las técnicas avanzadas.

© Copyright 2025 Cadena 3 Argentina