Barry Diller defiende a Sam Altman, pero advierte sobre la AGI y su imprevisibilidad
En un reciente evento, Barry Diller respaldó al CEO de OpenAI, Sam Altman, pero destacó que la inteligencia artificial general (AGI) plantea riesgos desconocidos que requieren atención.
06/05/2026 | 21:56Redacción Cadena 3
Barry Diller, magnate de los medios, expresó su confianza en Sam Altman, CEO de OpenAI, durante la conferencia "Future of Everything" del Wall Street Journal. Diller subrayó que, a pesar de la buena fe de Altman, la preocupación principal no es la confianza en él, sino las consecuencias desconocidas que puede generar la inteligencia artificial general (AGI).
En su intervención, Diller comentó que, aunque Altman es sincero en sus intenciones, el verdadero desafío radica en lo inesperado que puede ser el desarrollo de la AGI. "Una de las grandes cuestiones sobre la IA va más allá de la confianza. Puede ser que la confianza sea irrelevante porque las cosas que están ocurriendo son una sorpresa incluso para quienes las están creando", afirmó Diller.
Además, Diller hizo hincapié en la necesidad de establecer "guardrails" o límites en el desarrollo de la AGI. "Estamos en un camino que cambiará casi todo. No se trata de si estas grandes inversiones tendrán éxito, sino de que se avanzará en este campo", añadió.
El empresario, cofundador de Fox Broadcasting y presidente de IAC y Expedia Group, también destacó que, aunque confía en que la mayoría de los líderes en el campo son buenos administradores, la clave es abordar lo desconocido. Diller mencionó que "no sabemos lo que puede suceder una vez que se alcance la AGI, y estamos cada vez más cerca de ello".
Finalmente, Diller advirtió que si los humanos no establecen límites, podría ser otra fuerza, en este caso, una AGI, quien lo haga. "Una vez que eso ocurra, no habrá vuelta atrás", concluyó.
Lectura rápida
¿Qué dijo Barry Diller sobre Sam Altman?
Diller defendió a Altman, pero advirtió sobre los riesgos de la AGI.
¿Cuál es la principal preocupación de Diller?
La imprevisibilidad de la AGI y sus posibles consecuencias.
¿Qué propone Diller respecto a la AGI?
Establecer límites o "guardrails" para su desarrollo.
¿Cómo ve Diller a los líderes en IA?
Confía en que la mayoría son buenos administradores.
¿Qué advierte sobre el futuro de la AGI?
Si no se establecen límites, una AGI podría tomar decisiones sin control humano.





