En vivo

Informados al regreso

Luis Fernández Echegaray

Argentina

En vivo

La Cadena del Gol

Mauricio Coccolo

Argentina

En vivo

Informados al regreso

Luis Fernández Echegaray

Rosario

En vivo

La Central Deportiva

Nicolás Mai

Santa Fe

En vivo

Heatódromo

Música

En vivo

Vuelta popular

Celeste Pereyra

En vivo

Música ligera

Radio

Podcast

Amamos Argentina

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Escuchá lo último

Elegí tu emisora

Ciencia

Radiografías deepfake engañan a médicos y modelos de inteligencia artificial

Un estudio reciente reveló que las radiografías deepfake generadas por inteligencia artificial son tan realistas que tanto médicos como modelos de IA tienen dificultades para diferenciarlas de las imágenes reales. Esto plantea serios riesgos en el ámbito médico.

26/03/2026 | 17:13Redacción Cadena 3

Radiografías deepfake generadas por IA

FOTO: Radiografías deepfake generadas por IA

Un nuevo estudio publicado el 24 de marzo en Radiology, la revista de la Radiological Society of North America, demostró que tanto radiologistas como modelos de lenguaje de inteligencia artificial (IA) tienen dificultades para distinguir radiografías reales de imágenes "deepfake" generadas por IA. Los hallazgos generaron preocupaciones sobre los riesgos que representan las imágenes médicas sintéticas y resaltaron la necesidad de mejores herramientas y formación para proteger la precisión de la imagenología médica y preparar a los profesionales de la salud para reconocer deepfakes.

Un "deepfake" es un archivo de video, foto, imagen o audio que parece auténtico, pero ha sido creado o alterado mediante IA. El autor principal del estudio, el Dr. Mickael Tordjman, becario postdoctoral en la Icahn School of Medicine at Mount Sinai, Nueva York, declaró: "Nuestro estudio demuestra que estas radiografías deepfake son lo suficientemente realistas como para engañar a los radiólogos, los especialistas en imágenes médicas más capacitados, incluso cuando eran conscientes de que se presentaban imágenes generadas por IA. Esto crea una vulnerabilidad de alto riesgo para litigios fraudulentos si, por ejemplo, una fractura fabricada pudiera ser indistinguible de una real. También existe un riesgo significativo de ciberseguridad si los hackers obtienen acceso a la red de un hospital e inyectan imágenes sintéticas para manipular diagnósticos de pacientes o causar un caos clínico general al socavar la fiabilidad fundamental del registro médico digital.

Detalles del estudio y pruebas de imagen

La investigación incluyó a 17 radiólogos de 12 instituciones en seis países (Estados Unidos, Francia, Alemania, Turquía, Reino Unido y Emiratos Árabes Unidos). Su experiencia variaba desde principiantes hasta especialistas con hasta 40 años de práctica. En total, el estudio examinó 264 imágenes de rayos X, divididas equitativamente entre escaneos reales y generados por IA.

Los participantes revisaron dos conjuntos de imágenes separados sin superposición. Un conjunto contenía una mezcla de imágenes reales y radiografías generadas por ChatGPT de diferentes partes del cuerpo. El segundo conjunto se centró en radiografías de tórax, con la mitad reales y la mitad creadas utilizando RoentGen, un modelo de difusión generativa de IA de código abierto desarrollado por investigadores de Stanford Medicine.

Precisión de detección para radiólogos e IA

Cuando los radiólogos no fueron informados de que se incluían imágenes falsas, solo el 41% reconoció las radiografías generadas por IA tras evaluar su calidad técnica. Una vez que se les informó que estaban presentes imágenes sintéticas, su precisión promedio para distinguir lo real de lo falso aumentó al 75%.

El rendimiento varió ampliamente entre los individuos. Los radiólogos identificaron correctamente entre el 58% y el 92% de las imágenes generadas por ChatGPT. Los sistemas de IA mostraron limitaciones similares. Cuatro modelos de lenguaje multimodal - GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) y Llama 4 Maverick (Meta) - lograron tasas de precisión que variaron del 57% al 85%. Incluso ChatGPT-4o, que se utilizó para generar las imágenes deepfake, no detectó todas ellas, aunque tuvo un mejor desempeño que los otros modelos.

Para las radiografías de tórax generadas por RoentGen, los radiólogos lograron tasas de precisión entre el 62% y el 78%, mientras que los modelos de IA variaron del 52% al 89%.

La experiencia no garantiza la detección

El estudio no encontró vínculo entre los años de experiencia de un radiólogo y su capacidad para identificar radiografías falsas. Sin embargo, los radiólogos músculo-esqueléticos se desempeñaron significativamente mejor que otros subespecialistas.

Pistas visuales en radiografías deepfake

Los investigadores identificaron varios patrones que pueden aparecer en imágenes sintéticas. "Las imágenes médicas deepfake a menudo parecen demasiado perfectas", dijo el Dr. Tordjman. "Los huesos son excesivamente lisos, las columnas vertebrales son anormalmente rectas, los pulmones son excesivamente simétricos, los patrones de los vasos sanguíneos son excesivamente uniformes, y las fracturas aparecen inusualmente limpias y consistentes, a menudo limitadas a un lado del hueso."

Riesgos y salvaguardias para la imagenología médica

Los resultados resaltaron riesgos graves si las radiografías deepfake son mal utilizadas. Las imágenes fabricadas podrían ser utilizadas en casos legales o insertadas en sistemas hospitalarios para influir en diagnósticos y alterar la atención médica.

Para reducir estas amenazas, los investigadores recomendaron protecciones digitales más sólidas. Estas incluyen marcas de agua invisibles incrustadas directamente en las imágenes y firmas criptográficas vinculadas al tecnólogo en el momento de la captura de la imagen, lo que puede ayudar a verificar la autenticidad.

El futuro de la IA en la imagenología médica

"Estamos viendo potencialmente solo la punta del iceberg", dijo el Dr. Tordjman. "El siguiente paso lógico en esta evolución es la generación de imágenes sintéticas 3D por IA, como tomografías computadas y resonancias magnéticas. Establecer conjuntos de datos educativos y herramientas de detección ahora es crítico."

Para apoyar la educación y la concienciación, los investigadores han lanzado un conjunto de datos de deepfake curado que incluye cuestionarios interactivos para fines de capacitación.

Lectura rápida

¿Qué reveló el estudio?
Las radiografías deepfake generadas por IA son tan realistas que engañan a radiólogos y modelos de IA.

¿Quién realizó la investigación?
El estudio fue liderado por el Dr. Mickael Tordjman de la Icahn School of Medicine at Mount Sinai.

¿Cuándo se publicó el estudio?
El estudio se publicó el 24 de marzo de 2026 en la revista Radiology.

¿Dónde se llevó a cabo la investigación?
Participaron radiólogos de 12 instituciones en seis países diferentes.

¿Por qué es importante este estudio?
Resalta los riesgos de las imágenes médicas sintéticas y la necesidad de mejores herramientas para su detección.

Lo más visto

Ciencia

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf