Inteligencia artificial en diagnóstico de cáncer: ¿un sesgo oculto en los resultados?
Un estudio de la Escuela de Medicina de Harvard revela que los sistemas de IA para diagnóstico de cáncer pueden inferir datos demográficos de los pacientes, lo que genera resultados sesgados. Se propone un nuevo enfoque para mitigar estas disparidades.
20/12/2025 | 12:17Redacción Cadena 3
Un reciente estudio de la Escuela de Medicina de Harvard reveló que las herramientas de inteligencia artificial (IA) diseñadas para diagnosticar cáncer a partir de muestras de tejido no solo identifican patrones de enfermedad, sino que también pueden inferir información demográfica de los pacientes. Esta capacidad inesperada puede llevar a resultados sesgados en el diagnóstico de cáncer, afectando la precisión en diferentes grupos demográficos.
Los investigadores evaluaron varios modelos de IA ampliamente utilizados en la identificación de cáncer y encontraron que la precisión del diagnóstico variaba según la raza, el género y la edad de los pacientes. Este hallazgo subraya la importancia de evaluar rutinariamente la IA médica para garantizar un cuidado equitativo y confiable en el tratamiento del cáncer.
La patología ha sido fundamental en el diagnóstico y tratamiento del cáncer durante décadas. Un patólogo examina una delgada sección de tejido humano bajo un microscopio, buscando signos visuales que indiquen la presencia de cáncer y su tipo y etapa. Sin embargo, la IA está demostrando que puede extraer detalles demográficos de las diapositivas de tejido, lo que introduce un sesgo en el diagnóstico.
Los investigadores desarrollaron un marco llamado FAIR-Path, que busca reducir significativamente este sesgo en los modelos de IA evaluados. El autor principal, Kun-Hsing Yu, destacó que reconocer y corregir el sesgo en la IA médica es crucial, ya que puede influir directamente en la precisión del diagnóstico y en los resultados para los pacientes.
El equipo examinó cuatro modelos de IA de patología que se están desarrollando para el diagnóstico del cáncer. Estos sistemas de aprendizaje profundo fueron entrenados con grandes colecciones de diapositivas de patología etiquetadas, lo que les permitió aprender patrones biológicos y aplicarlos a nuevas muestras. Sin embargo, se encontraron diferencias de rendimiento en la precisión del diagnóstico según el grupo demográfico, lo que indica que la IA puede estar extrayendo información demográfica de las imágenes de tejido y utilizando patrones relacionados con esos datos al tomar decisiones diagnósticas.
Los investigadores identificaron tres factores principales que contribuyen a este sesgo. En primer lugar, los datos de entrenamiento suelen ser desiguales, ya que es más fácil obtener muestras de tejido de ciertos grupos demográficos que de otros. Esto dificulta que los modelos de IA diagnostiquen con precisión a grupos subrepresentados. En segundo lugar, algunas enfermedades ocurren con más frecuencia en poblaciones específicas, lo que permite que los modelos de IA sean más precisos para esos grupos. Por último, los modelos de IA pueden detectar diferencias moleculares sutiles entre grupos demográficos, lo que puede afectar la precisión del diagnóstico en poblaciones donde esas diferencias son menos comunes.
El marco FAIR-Path se basa en un método de aprendizaje automático conocido como aprendizaje contrastivo, que modifica el entrenamiento de la IA para que los modelos se concentren más en distinciones críticas, como las diferencias entre tipos de cáncer, y menos en diferencias menos relevantes, como las características demográficas. Cuando se aplicó FAIR-Path a los modelos evaluados, las disparidades diagnósticas disminuyeron en aproximadamente un 88 por ciento.
Los investigadores continúan trabajando con instituciones de todo el mundo para estudiar el sesgo en la IA de patología en regiones con diferentes demografías y prácticas clínicas. El objetivo final es desarrollar sistemas de IA de patología que apoyen a los expertos humanos, proporcionando diagnósticos rápidos, precisos y justos para todos los pacientes.
Lectura rápida
¿Qué reveló el estudio?
El estudio mostró que los sistemas de IA para diagnóstico de cáncer pueden inferir datos demográficos, lo que genera sesgos en los resultados.
¿Quién realizó la investigación?
La investigación fue realizada por la Escuela de Medicina de Harvard.
¿Cuándo se publicó el estudio?
El estudio fue publicado el 16 de diciembre de 2025.
¿Cómo se abordó el sesgo?
Se desarrolló un marco llamado FAIR-Path para reducir el sesgo en los modelos de IA evaluados.
¿Por qué es importante este estudio?
Es crucial para garantizar diagnósticos justos y precisos en el tratamiento del cáncer para todos los pacientes.





