En vivo

La Cadena del Gol

Claudio Giglioni

Argentina

En vivo

La Cadena del Gol

Claudio Giglioni

Rosario

En vivo

Una noche más

Melina Uliarte

En vivo

Modo Cuarteto

Agostina y Conrado

En vivo

Música ligera

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Mundo

Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA

Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA. La inteligencia artificial genera desafíos complejos en seguridad para gobiernos y empresas.

28/07/2025 | 11:23Redacción Cadena 3

FOTO: Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA

WASHINGTON (AP) — El teléfono suena. Es el secretario de Estado llamando. ¿O no?

Para los conocedores de Washington, ver y oír ya no es creer, gracias a una serie de incidentes recientes que involucraron deepfakes que suplantaron a altos funcionarios de la administración del presidente Donald Trump.

Las falsificaciones digitales también llegaron a las empresas de Estados Unidos, ya que bandas criminales y hackers asociados con adversarios como Corea del Norte utilizaron videos y audios sintéticos para hacerse pasar por directores de empresas y candidatos a empleos de bajo nivel para acceder a sistemas críticos o secretos empresariales.

Gracias a los avances en inteligencia artificial, crear deepfakes realistas fue más fácil que nunca, causando problemas de seguridad para gobiernos, empresas e individuos privados y haciendo que la confianza sea la moneda más valiosa de la era digital.

Responder al desafío requirió leyes, mejor alfabetización digital y soluciones técnicas que combatieran la IA con más IA.

“Como humanos, somos notablemente susceptibles al engaño”, dijo Vijay Balasubramaniyan, CEO y fundador de la empresa tecnológica Pindrop Security. Pero cree que las soluciones al desafío de los deepfakes pueden estar al alcance: “Vamos a contraatacar”.

Los deepfakes de IA se convierten en una amenaza para la seguridad nacional

Este verano, alguien utilizó IA para crear un deepfake del secretario de Estado Marco Rubio en un intento de comunicarse con ministros extranjeros, un senador estadounidense y un gobernador a través de mensajes de texto, correo de voz y la aplicación de mensajería Signal.

En mayo, alguien se hizo pasar por la jefa de despacho de Trump, Susie Wiles.

Otro falso Rubio apareció en un deepfake a principios de este año, diciendo que quería cortar el acceso de Ucrania al servicio de internet Starlink de Elon Musk. El gobierno de Ucrania posteriormente refutó la afirmación falsa.

Las implicaciones para la seguridad nacional son enormes: las personas que piensan que están conversando con Rubio o Wiles, por ejemplo, podrían discutir información sensible sobre negociaciones diplomáticas o estrategia militar.

“Estás tratando de extraer secretos sensibles o información competitiva o estás buscando acceso, a un servidor de correo electrónico u otra red sensible”, dijo Kinny Chan, director general de la firma de ciberseguridad QiD, sobre las posibles motivaciones.

Los medios sintéticos también pueden tener como objetivo alterar el comportamiento. El año pasado, los votantes demócratas en Nueva Hampshire recibieron una llamada automática instándolos a no votar en las próximas primarias del estado. La voz en la llamada sonaba sospechosamente como la del entonces presidente Joe Biden, pero en realidad fue creada usando IA.

Su capacidad para engañar hizo que los deepfakes de IA sean un arma potente para actores extranjeros. Tanto Rusia como China han utilizado desinformación y propaganda dirigida a los estadounidenses como una forma de socavar la confianza en las alianzas e instituciones democráticas.

Steven Kramer, el consultor político que admitió haber enviado las llamadas automáticas falsas de Biden, dijo que quería enviar un mensaje sobre los peligros que los deepfakes representan para el sistema político estadounidense. Kramer fue absuelto el mes pasado de los cargos de supresión de votantes y suplantación de un candidato.

“Hice lo que hice por 500 dólares”, dijo Kramer. ”¿Puedes imaginar lo que sucedería si el gobierno chino decidiera hacer esto?”.

Estafadores apuntan a la industria financiera con deepfakes

La mayor disponibilidad y sofisticación de los programas significó que los deepfakes se utilizaron cada vez más para espionaje corporativo y fraudes comunes.

“La industria financiera está justo en el punto de mira”, dijo Jennifer Ewbank, exsubdirectora de la CIA que trabajó en ciberseguridad y amenazas digitales. “Incluso personas que se conocen entre sí han sido convencidas de transferir grandes sumas de dinero”.

En el contexto del espionaje corporativo, utilizaron deepfakes para hacerse pasar por directores ejecutivos pidiendo a los empleados que entreguen contraseñas o números de ruta.

Los deepfakes también permitieron a los estafadores solicitar empleos, e incluso realizarlos, bajo una identidad asumida o falsa. Para algunos, esta fue una forma de acceder a redes sensibles, robar secretos o instalar ransomware. Otros querían el trabajo y podían estar trabajando en varios empleos similares en diferentes empresas al mismo tiempo.

Las autoridades en Estados Unidos dijeron que miles de norcoreanos con habilidades en tecnología de la información han sido enviados a vivir al extranjero, utilizando identidades robadas para obtener empleos en empresas tecnológicas en Estados Unidos y otros lugares. Los trabajadores obtuvieron acceso a las redes de la empresa, así como un cheque de pago. En algunos casos, los trabajadores instalaron ransomware que luego puede usarse para extorsionar aún más dinero.

Los esquemas generaron miles de millones de dólares para el gobierno de Corea del Norte.

Dentro de tres años, se espera que hasta uno de cada cuatro solicitudes de empleo sea falsa, según una investigación de Adaptive Security, una empresa de ciberseguridad.

“Hemos entrado en una era en la que cualquiera con una computadora portátil y acceso a un modelo de código abierto puede hacerse pasar convincentemente por una persona real”, dijo Brian Long, CEO de Adaptive. “Ya no se trata de hackear sistemas, se trata de hackear la confianza”.

Expertos despliegan IA para luchar contra la IA

Investigadores, expertos en políticas públicas y empresas tecnológicas investigaron las mejores formas de abordar los desafíos económicos, políticos y sociales que plantean los deepfakes.

Nuevas regulaciones podrían requerir que las empresas tecnológicas hagan más para identificar, etiquetar y potencialmente eliminar deepfakes en sus plataformas. Los legisladores también podrían imponer mayores sanciones a quienes usen tecnología digital para engañar a otros, si pueden ser atrapados.

Mayores inversiones en alfabetización digital también pudieron aumentar la inmunidad de las personas al engaño en línea enseñándoles formas de detectar medios falsos y evitar caer en manos de estafadores.

La mejor herramienta para detectar IA puede ser otro programa de IA, uno entrenado para detectar los pequeños defectos en los deepfakes que pasarían desapercibidos para una persona.

Sistemas como el de Pindrop analizaron millones de puntos de datos en el discurso de cualquier persona para identificar rápidamente irregularidades. El sistema puede usarse durante entrevistas de trabajo u otras videoconferencias para detectar si la persona está usando software de clonación de voz, por ejemplo.

Programas similares pueden algún día ser comunes, funcionando en segundo plano mientras las personas conversan con colegas y seres queridos en línea. Algún día, los deepfakes podrían seguir el camino del spam de correo electrónico, un desafío tecnológico que una vez amenazó con trastornar la utilidad del correo electrónico, dijo Balasubramaniyan, director general de Pindrop.

“Puedes adoptar una visión derrotista y decir que vamos a ser subordinados a la desinformación”, dijo. “Pero eso no va a suceder”.

_____

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

Lectura rápida

¿Qué están haciendo los estafadores? Se hacen pasar por CEOs y funcionarios de Trump usando deepfakes de IA.

¿Quién los menciona en la nota? Se mencionan al presidente Trump, su jefa de despacho Susie Wiles y el secretario de Estado Marco Rubio.

¿Dónde sucedieron los incidentes? Los incidentes se registraron en Estados Unidos y otros países relacionados con la tecnología.

¿Por qué son un problema los deepfakes? Porque generan desconfianza y pueden ser utilizados para cometer espionaje, robo de información y fraude.

¿Cómo se pretende combatir esta amenaza? Con leyes, inversiones en alfabetización digital y tecnologías de detección de deepfakes.

[Fuente: AP]

Lo más visto

Mundo

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho