Ciberseguridad y tecnología
11/11/2025 | 11:41
Redacción Cadena 3
Expertos en ciberseguridad advirtieron que los agentes de inteligencia artificial, ampliamente considerados como la próxima frontera en la revolución de la IA generativa, podrían ser secuestrados y utilizados para realizar trabajos sucios para hackers.
Los agentes de IA son programas que utilizan chatbots de inteligencia artificial para realizar tareas en línea que normalmente harían los humanos, como comprar un pasaje de avión o agregar eventos a un calendario.
Sin embargo, la capacidad de dar órdenes a los agentes de IA mediante lenguaje sencillo permite que incluso aquellos sin conocimientos técnicos puedan causar problemas.
La startup de IA Perplexity mencionó en un blog: "Estamos entrando en una era donde la ciberseguridad ya no se trata de proteger a los usuarios de actores malintencionados con habilidades técnicas avanzadas".
Por primera vez en décadas, se están observando nuevos y novedosos vectores de ataque que pueden provenir de cualquier lugar.
Estos ataques de inyección, aunque no son nuevos en el mundo del hacking, anteriormente requerían código informático ingeniosamente escrito y oculto para causar daño.
A medida que las herramientas de IA evolucionaron de generar solo texto, imágenes o videos a ser "agentes" que pueden explorar la web de manera independiente, el potencial de que sean controlados por comandos maliciosos ha crecido.
El ingeniero de software Marti Jorda Roca de NeuralTrust, que se especializa en la seguridad de modelos de lenguaje grandes, afirmó: "Las personas deben entender que existen peligros específicos al usar IA en un sentido de seguridad".
Meta se refiere a esta amenaza de inyección de consultas como una "vulnerabilidad". El director de seguridad de la información de OpenAI, Dane Stuckey, la ha calificado como "un problema de seguridad no resuelto".
Ambas compañías están invirtiendo miles de millones de dólares en IA, cuyo uso está aumentando rápidamente junto con sus capacidades.
La inyección de consultas puede ocurrir en tiempo real cuando un comando del usuario, como "reserva un hotel", es manipulado por un actor hostil en algo diferente, como "transfiere $100 a esta cuenta".
Sin embargo, estos comandos maliciosos también pueden estar ocultos en la web, ya que los agentes de IA integrados en los navegadores encuentran datos en línea de dudosa calidad o procedencia, potencialmente llenos de comandos ocultos de hackers.
Eli Smadja de la firma de ciberseguridad israelí Check Point considera que la inyección de consultas es el "principal problema de seguridad" para los modelos de lenguaje grandes que alimentan a los agentes y asistentes de IA que están surgiendo rápidamente tras la revolución de ChatGPT.
Los principales rivales en la industria de la IA han instalado defensas y publicado recomendaciones para contrarrestar tales ciberataques.
Microsoft ha integrado una herramienta para detectar comandos maliciosos basándose en factores como el origen de las instrucciones para los agentes de IA.
OpenAI alerta a los usuarios cuando los agentes que realizan sus órdenes visitan sitios web sensibles y bloquea el avance hasta que el software sea supervisado en tiempo real por el usuario humano.
Algunos profesionales de la seguridad sugieren requerir que los agentes de IA obtengan la aprobación del usuario antes de realizar cualquier tarea importante, como exportar datos o acceder a cuentas bancarias.
Smadja advirtió: "Un gran error que veo es dar al mismo agente de IA todo el poder para hacer todo".
El investigador de ciberseguridad Johann Rehberger, conocido en la industria como "wunderwuzzi", considera que el mayor desafío es que los ataques están mejorando rápidamente.
Rehberger comentó: "Solo mejoran" en referencia a las tácticas de los hackers.
Parte del desafío, según el investigador, es encontrar un equilibrio entre la seguridad y la facilidad de uso, ya que las personas desean la conveniencia de que la IA realice tareas sin constantes verificaciones y monitoreos.
Rehberger argumentó que los agentes de IA aún no son lo suficientemente maduros como para confiarles misiones o datos importantes.
"No creo que estemos en una posición en la que se pueda tener una IA agente que se aleje durante mucho tiempo y realice una tarea de manera segura", dijo el investigador.
"Simplemente se desvían".
¿Qué advierten los expertos sobre los agentes de IA?
Los expertos advierten que los agentes de IA pueden ser secuestrados por hackers para realizar ataques cibernéticos.
¿Qué son los agentes de IA?
Son programas que utilizan chatbots de IA para realizar tareas en línea que normalmente harían los humanos.
¿Cuál es el principal problema de seguridad según Check Point?
La inyección de consultas es considerada el principal problema de seguridad para los modelos de lenguaje grandes.
¿Qué medidas están tomando las empresas para contrarrestar estos ataques?
Microsoft y OpenAI han implementado herramientas y alertas para detectar y prevenir comandos maliciosos.
¿Por qué los agentes de IA no son confiables aún?
Los investigadores consideran que los agentes de IA no son lo suficientemente maduros para manejar tareas importantes de manera segura.
Te puede Interesar
Investigación de Texas A&M
Investigadores de Texas A&M aplicaron principios de ecosistemas naturales para fortalecer la red eléctrica, mejorando su resistencia ante ciberataques y desastres naturales.
Medidas de seguridad en el transporte público
La empresa de transporte público Ruter implementará medidas de seguridad más estrictas después de que pruebas revelaran que los buses eléctricos de Yutong pueden ser detenidos de forma remota por el fabricante.
Fallo en Múnich
Un tribunal de Múnich determinó que OpenAI infringió la ley de derechos de autor en Alemania al utilizar letras de canciones para entrenar sus modelos de inteligencia artificial.
Reestructuración de OpenAI
La reciente reestructuración de OpenAI a una corporación de beneficio público permitirá aumentar las oportunidades de inversión y mantener su legado sin fines de lucro, según expertos de Northeastern University.