El uso de IA en videos manipulados por la Casa Blanca genera preocupaciones
La administración Trump ha compartido imágenes generadas por IA, lo que ha despertado la alarma entre expertos. Una imagen alterada de Nekima Levy Armstrong ha sido especialmente criticada, evidenciando el riesgo de confundir la realidad.
27/01/2026 | 13:24Redacción Cadena 3
LOS ÁNGELES — La administración de Donald Trump ha estado utilizando imágenes generadas por inteligencia artificial en sus comunicaciones, mezclando memes y caricaturas en los canales oficiales de la Casa Blanca. Sin embargo, el uso de una imagen manipulada de la abogada de derechos civiles Nekima Levy Armstrong llorando tras su arresto ha generado preocupaciones sobre la veracidad de la información que se difunde.
La cuenta de la secretaria de Seguridad Nacional Kristi Noem compartió la imagen original del arresto, que fue seguida por una versión alterada publicada por la Casa Blanca. Esta situación se da en un contexto donde se han difundido numerosas imágenes editadas por IA a raíz de incidentes violentos recientes, como los tiroteos de Renee Good y Alex Pretti por parte de agentes federales en Minneapolis.
Los expertos en desinformación han expresado su preocupación por cómo la difusión de tales imágenes puede erosionar la percepción pública de la verdad y generar desconfianza. La Casa Blanca, en respuesta a las críticas, defendió su enfoque, con el subdirector de comunicaciones Kaelan Dorr afirmando en X que los "memes continuarán". La subsecretaria de Prensa, Abigail Jackson, también se unió a las burlas sobre las críticas recibidas.
El profesor de ciencias de la información en la Universidad de Cornell, David Rand, advirtió que presentar la imagen manipulada como un meme parece un intento de minimizar la seriedad de su contenido. Según él, el objetivo de compartir esta imagen es mucho más ambiguo en comparación con las caricaturas que la administración ha compartido anteriormente.
Los memes, que pueden transmitir mensajes complejos, son utilizados por la Casa Blanca para conectar con los jóvenes que pasan tiempo en línea. El consultor de comunicaciones republicano Zach Henry explicó que estas imágenes pueden ser reconocidas instantáneamente por quienes están familiarizados con la cultura de internet, mientras que otros pueden no entender su contexto, lo que genera confusión.
La creación y difusión de contenido alterado por IA, especialmente cuando proviene de fuentes oficiales, puede distorsionar la realidad, según Michael A. Spikes, profesor en la Universidad Northwestern. La confianza del público en el gobierno podría verse comprometida si este tipo de contenido continúa circulando.
La proliferación de videos generados por IA sobre acciones del Servicio de Inmigración y Control de Aduanas (ICE) ha sido evidente en las redes sociales, con numerosos clips que representan situaciones ficticias. El creador de contenido Jeremy Carrasco señaló que muchos de estos videos son creados por cuentas que buscan clics, pero advierte que la mayoría de los espectadores no pueden discernir su veracidad.
La desconfianza en la información es un problema que va más allá de los incidentes de inmigración. La difusión de contenido político generado por IA está destinada a aumentar, según los expertos, quienes también sugieren que se implemente un sistema de marcas de agua para identificar la procedencia de los medios. Sin embargo, Carrasco considera que este tipo de soluciones no se adoptará rápidamente.
"Este problema persistirá", concluyó Carrasco. "No creo que la gente comprenda la gravedad de esta situación".
Lectura rápida
¿Qué está ocurriendo?
La administración Trump ha compartido imágenes generadas por IA, generando preocupaciones sobre la manipulación de la información.
¿Quiénes están preocupados?
Expertos en desinformación, incluidos académicos y consultores de comunicación, están alarmados por la difusión de contenido alterado.
¿Cuál es un ejemplo específico?
Una imagen manipulada de la abogada Nekima Levy Armstrong llorando tras su arresto ha generado críticas significativas.
¿Qué opinan los expertos?
Los especialistas advierten que el uso de IA en este contexto erosiona la confianza pública en la veracidad del contenido oficial.
¿Qué se puede hacer?
Se sugiere implementar un sistema de marcas de agua para identificar la procedencia de los medios generados por IA.
[Fuente: AP]





