Un estudio internacional revela preocupaciones sobre imágenes médicas
26/03/2026 | 17:13
Redacción Cadena 3
Un nuevo estudio publicado el 24 de marzo en Radiology, la revista de la Radiological Society of North America, demostró que tanto radiologistas como modelos de lenguaje de inteligencia artificial (IA) tienen dificultades para distinguir radiografías reales de imágenes "deepfake" generadas por IA. Los hallazgos generaron preocupaciones sobre los riesgos que representan las imágenes médicas sintéticas y resaltaron la necesidad de mejores herramientas y formación para proteger la precisión de la imagenología médica y preparar a los profesionales de la salud para reconocer deepfakes.
Un "deepfake" es un archivo de video, foto, imagen o audio que parece auténtico, pero ha sido creado o alterado mediante IA. El autor principal del estudio, el Dr. Mickael Tordjman, becario postdoctoral en la Icahn School of Medicine at Mount Sinai, Nueva York, declaró: "Nuestro estudio demuestra que estas radiografías deepfake son lo suficientemente realistas como para engañar a los radiólogos, los especialistas en imágenes médicas más capacitados, incluso cuando eran conscientes de que se presentaban imágenes generadas por IA. Esto crea una vulnerabilidad de alto riesgo para litigios fraudulentos si, por ejemplo, una fractura fabricada pudiera ser indistinguible de una real. También existe un riesgo significativo de ciberseguridad si los hackers obtienen acceso a la red de un hospital e inyectan imágenes sintéticas para manipular diagnósticos de pacientes o causar un caos clínico general al socavar la fiabilidad fundamental del registro médico digital.
Detalles del estudio y pruebas de imagen
La investigación incluyó a 17 radiólogos de 12 instituciones en seis países (Estados Unidos, Francia, Alemania, Turquía, Reino Unido y Emiratos Árabes Unidos). Su experiencia variaba desde principiantes hasta especialistas con hasta 40 años de práctica. En total, el estudio examinó 264 imágenes de rayos X, divididas equitativamente entre escaneos reales y generados por IA.
Los participantes revisaron dos conjuntos de imágenes separados sin superposición. Un conjunto contenía una mezcla de imágenes reales y radiografías generadas por ChatGPT de diferentes partes del cuerpo. El segundo conjunto se centró en radiografías de tórax, con la mitad reales y la mitad creadas utilizando RoentGen, un modelo de difusión generativa de IA de código abierto desarrollado por investigadores de Stanford Medicine.
Precisión de detección para radiólogos e IA
Cuando los radiólogos no fueron informados de que se incluían imágenes falsas, solo el 41% reconoció las radiografías generadas por IA tras evaluar su calidad técnica. Una vez que se les informó que estaban presentes imágenes sintéticas, su precisión promedio para distinguir lo real de lo falso aumentó al 75%.
El rendimiento varió ampliamente entre los individuos. Los radiólogos identificaron correctamente entre el 58% y el 92% de las imágenes generadas por ChatGPT. Los sistemas de IA mostraron limitaciones similares. Cuatro modelos de lenguaje multimodal - GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) y Llama 4 Maverick (Meta) - lograron tasas de precisión que variaron del 57% al 85%. Incluso ChatGPT-4o, que se utilizó para generar las imágenes deepfake, no detectó todas ellas, aunque tuvo un mejor desempeño que los otros modelos.
Para las radiografías de tórax generadas por RoentGen, los radiólogos lograron tasas de precisión entre el 62% y el 78%, mientras que los modelos de IA variaron del 52% al 89%.
La experiencia no garantiza la detección
El estudio no encontró vínculo entre los años de experiencia de un radiólogo y su capacidad para identificar radiografías falsas. Sin embargo, los radiólogos músculo-esqueléticos se desempeñaron significativamente mejor que otros subespecialistas.
Pistas visuales en radiografías deepfake
Los investigadores identificaron varios patrones que pueden aparecer en imágenes sintéticas. "Las imágenes médicas deepfake a menudo parecen demasiado perfectas", dijo el Dr. Tordjman. "Los huesos son excesivamente lisos, las columnas vertebrales son anormalmente rectas, los pulmones son excesivamente simétricos, los patrones de los vasos sanguíneos son excesivamente uniformes, y las fracturas aparecen inusualmente limpias y consistentes, a menudo limitadas a un lado del hueso."
Riesgos y salvaguardias para la imagenología médica
Los resultados resaltaron riesgos graves si las radiografías deepfake son mal utilizadas. Las imágenes fabricadas podrían ser utilizadas en casos legales o insertadas en sistemas hospitalarios para influir en diagnósticos y alterar la atención médica.
Para reducir estas amenazas, los investigadores recomendaron protecciones digitales más sólidas. Estas incluyen marcas de agua invisibles incrustadas directamente en las imágenes y firmas criptográficas vinculadas al tecnólogo en el momento de la captura de la imagen, lo que puede ayudar a verificar la autenticidad.
El futuro de la IA en la imagenología médica
"Estamos viendo potencialmente solo la punta del iceberg", dijo el Dr. Tordjman. "El siguiente paso lógico en esta evolución es la generación de imágenes sintéticas 3D por IA, como tomografías computadas y resonancias magnéticas. Establecer conjuntos de datos educativos y herramientas de detección ahora es crítico."
Para apoyar la educación y la concienciación, los investigadores han lanzado un conjunto de datos de deepfake curado que incluye cuestionarios interactivos para fines de capacitación.
¿Qué reveló el estudio?
Las radiografías deepfake generadas por IA son tan realistas que engañan a radiólogos y modelos de IA.
¿Quién realizó la investigación?
El estudio fue liderado por el Dr. Mickael Tordjman de la Icahn School of Medicine at Mount Sinai.
¿Cuándo se publicó el estudio?
El estudio se publicó el 24 de marzo de 2026 en la revista Radiology.
¿Dónde se llevó a cabo la investigación?
Participaron radiólogos de 12 instituciones en seis países diferentes.
¿Por qué es importante este estudio?
Resalta los riesgos de las imágenes médicas sintéticas y la necesidad de mejores herramientas para su detección.
Te puede Interesar
Innovación en la recolección agrícola
Un nuevo robot cosechador de tomates predice la facilidad de recolección de cada fruto, logrando un 81% de éxito. La innovación promete un futuro donde humanos y robots trabajen juntos en el campo.
Investigación en biología celular
Investigadores del EMBL crearon un sistema llamado MAGIC que identifica células con micronúcleos, un signo temprano de cáncer. Este avance podría revolucionar el estudio de la enfermedad.
Investigación en Alemania
Investigadores del Centro Helmholtz para la Investigación de Infecciones hallaron una firma celular que podría explicar la persistencia de síntomas en pacientes con Long COVID, afectando hasta un 10% de los infectados.
Investigación de Stanford sobre la longevidad
Un estudio de la Universidad de Stanford reveló que comportamientos como el movimiento y el sueño en la mediana edad pueden predecir la esperanza de vida de los peces, sugiriendo patrones similares en humanos.