Pornografía infantil con IA: es delito, aunque no haya víctima real
Un fallo de la Justicia provincial bonaerense abrió un debate sobre los límites del derecho penal en la era de la inteligencia artificial.
04/07/2025 | 11:25Redacción Cadena 3

Un fallo reciente de la Justicia provincial bonaerense abrió un debate sobre los límites del derecho penal en la era de la inteligencia artificial (IA). Por primera vez, un tribunal dictaminó que se debe ir a juicio contra una persona acusada de producir y publicar imágenes de pornografía infantil generadas mediante IA.
Este caso, histórico e inédito, pone sobre la mesa una pregunta: ¿Cómo se regula un delito cuando no hay una víctima identificable?
El artículo 128 del Código Penal argentino establece penas de seis meses a cuatro años de prisión para quien produzca o publique imágenes pornográficas que exhiban a menores de 18 años.
Sin embargo, la defensa del acusado argumentó que, al tratarse de imágenes generadas por IA, no hay una víctima real ni un daño concreto. Plantean, además, una cuestión técnica: ¿Cómo determinar la edad de una figura virtual que no representa a una persona específica? Según esta postura, el artículo 128 castiga un daño tangible, no una conducta privada o una expresión artística, y sin una víctima identificable, no habría delito.
Los jueces, sin embargo, adoptaron una perspectiva más amplia. A simple vista, sostienen, las imágenes representan a menores de edad, y permitir su difusión podría normalizar la pedofilia, un peligro que trasciende la existencia de una víctima concreta. Este argumento se basa en la protección de un bien jurídico superior: las infancias. Aunque no haya un menor específico perjudicado, el tribunal consideró que estas imágenes contribuyen a un entorno que banaliza y propicia conductas delictivas, con un impacto social que va más allá del caso individual.
/Inicio Código Embebido/
Fallo inédito. La Justicia consideró delito crear imágenes de abuso sexual infantil con IA
El dictamen judicial surgió a raíz de una denuncia contra un hombre acusado de publicar y distribuir representaciones de menores de 18 años en actividades sexuales.
/Fin Código Embebido/
El fallo, aunque no resuelve la cuestión de fondo, marca un precedente significativo. Nos enfrenta a un vacío legal: el Código Penal, tal como está redactado, no contempla explícitamente las creaciones de IA. Esto plantea un desafío ético y jurídico. ¿Qué sucede, por ejemplo, si en lugar de imágenes generadas por IA se tratara de ilustraciones hechas a mano o de espectáculos con robots sexuales que simulan menores? ¿Dónde trazamos la línea? La defensa podría argumentar que no existe una ley previa que tipifique estas conductas, invocando el principio de legalidad: nadie puede ser juzgado por un delito no codificado.
Este caso recuerda a otro reciente en Córdoba, donde un joven de 18 años fue imputado por generar imágenes pornográficas con IA, utilizando rostros identificables de sus compañeros. Allí, la existencia de víctimas reconocibles facilitó la imputación. Pero en el caso bonaerense, la ausencia de rostros reales complica la aplicación del derecho.
Sin embargo, el daño potencial no es menor: la difusión de este tipo de contenido, aunque virtual, puede alimentar una cultura que legitime la explotación infantil.
La protección de las infancias como bien jurídico abstracto no es un concepto nuevo. Existen precedentes, como las sanciones a proclamas racistas o antisemitas, que no requieren una víctima específica para ser punibles. Este enfoque podría servir de base para reformular el Código Penal, adaptándolo a los desafíos de la IA. No se trata solo de castigar un daño consumado, sino de prevenir un impacto social más amplio.
El fallo bonaerense es un primer paso, una semilla para repensar el derecho penal en la era digital. Es probable que el acusado en este caso logre evitar una condena, dada la ambigüedad legal actual. Pero el precedente obliga a preguntarnos: ¿Cómo protegemos a las infancias frente a tecnologías que desdibujan la línea entre lo real y lo virtual?
Redactar un nuevo código que contemple estas realidades será un desafío complejo, pero necesario. Porque, como señala el tribunal, el daño potencial de normalizar estas imágenes es inmenso, y la Justicia no puede quedarse atrás frente a los avances de la tecnología.
/Inicio Código Embebido/
Córdoba. Irá a juicio el alumno que usó IA para crear fotos pornográficas de compañeras
El caso ocurrió en el Colegio Manuel Belgrano. El abogado de las víctimas, José Dantona, dijo a Cadena 3 que el daño psicológico puede ser equiparable a delitos con penas de hasta 20 o 30 años.
/Fin Código Embebido/