Inteligencia artificial
30/05/2025 | 14:47
Redacción Cadena 3
En 2018, con la aparición de los primeros deepfakes, se advirtió que esto podría marcar el inicio del fin de la credibilidad del video como evidencia. Sin embargo, esa afirmación resultó ser prematura. Lo que ocurrió fue un primer aviso de que el desenlace estaba más cerca de lo que se pensaba.
Hoy, con el lanzamiento de Veo 3 de Google, ese momento llegó. Los videos que circulan en plataformas como Reddit y X son prácticamente indistinguibles de las grabaciones reales. No se trata de imágenes que presenten anomalías como manos con seis dedos o rostros inquietantes. Se trata de clips que superan cualquier prueba visual que un espectador promedio podría realizar. Y si no lo logran en este momento, es probable que lo consigan en un futuro cercano, especialmente en un mundo donde el contenido se consume en pantallas pequeñas, donde los detalles son menos notorios.
Durante años, el video ha sido considerado la prueba estándar para la evidencia. Una grabación podía derrocar gobiernos o demostrar inocencias. Sin embargo, ese principio ahora está en jaque.
Los usuarios de Veo 3 han comenzado a compartir clips de noticias falsas que incluyen desastres, políticos fallecidos y actos de violencia que nunca ocurrieron. Estos videos presentan diálogos sincronizados, efectos visuales realistas y una física convincente. El modelo incluso genera conversaciones que no estaban en el texto original, como si tuviera un criterio editorial propio. Se trata de inteligencia artificial con un instinto narrativo.
/Inicio Código Embebido/
/Fin Código Embebido/Sin embargo, el verdadero problema radica en que no solo se pueden crear videos falsos que resulten convincentes, sino que también se está perdiendo la capacidad de distinguir entre lo real y lo sintético sin el uso de herramientas técnicas avanzadas. Se está entrando en una era de agnosticismo visual permanente, donde cada nuevo video plantea la pregunta: "¿Esto realmente sucedió?".
Si cualquier video puede ser sintético, cualquier grabación incómoda puede ser desacreditada simplemente alegando que es artificial. La IA se ha convertido en el argumento de escape universal. Políticos en problemas, empresas que vulneran derechos y regímenes que documentan represión ahora cuentan con la duda razonable más eficaz jamás creada.
No es necesario demostrar que un vídeo es falso; basta con sembrar la sospecha. En un mundo donde la falsificación es técnicamente viable, la mera posibilidad se convierte en un argumento suficiente.
/Inicio Código Embebido/
/Fin Código Embebido/Paradójicamente, una tecnología que permite crear ficción perfecta también facilita la negación de realidades bien documentadas.
Si cada video puede ser falso, surgen interrogantes sobre el impacto en una sociedad que basa su comprensión del mundo en el consumo audiovisual.
La solución no puede ser únicamente técnica. Es necesario desarrollar una alfabetización mediática que reconozca la falsificabilidad como un punto de partida. Pero, sobre todo, es crucial aceptar que se ha perdido para siempre uno de los instrumentos más básicos para diferenciar la realidad de la ficción.
El vídeo como prueba ha muerto, o está a punto de hacerlo. Solo queda aprender a vivir en un mundo donde ver ya no equivale a creer.
/Inicio Código Embebido/
/Fin Código Embebido/Te puede Interesar
Debate
José María Pérez Corti, abogado especialista en Derecho Público y en Derecho Electoral, planteó en Cadena 3 los desafíos éticos y legales que tiene el uso de la inteligencia artificial.
Alerta por estafas
Ciberdelincuentes usan el SEO Poisoning para engañar a usuarios de Google con sitios falsos.
Internet
La nueva versión ofrece una experiencia sin publicidad para contenidos generales, aunque con limitaciones en música y Shorts.