Desarrollo de herramientas para la protección juvenil
24/03/2026 | 15:53
Redacción Cadena 3
OpenAI lanzó un conjunto de herramientas de código abierto destinado a ayudar a los desarrolladores a crear aplicaciones más seguras para adolescentes. Este anuncio se realizó el pasado martes, donde la compañía destacó que los desarrolladores pueden utilizar estas políticas para reforzar la seguridad en sus aplicaciones sin necesidad de comenzar desde cero.
Las nuevas políticas de seguridad abordan temas críticos, como la violencia gráfica, el contenido sexual, los ideales de cuerpo dañinos y las actividades peligrosas. Estos lineamientos están diseñados para ser fácilmente adaptables y pueden ser utilizados junto a otros modelos de inteligencia artificial, aunque se espera que sean más efectivos dentro del ecosistema de OpenAI.
Para desarrollar estas políticas, OpenAI colaboró con organizaciones de vigilancia de la seguridad en inteligencia artificial, como Common Sense Media y everyone.ai. "Estas políticas basadas en prompts ayudan a establecer un estándar de seguridad significativo en todo el ecosistema", expresó Robbie Torney, jefe de Evaluaciones Digitales de Common Sense Media.
OpenAI también admitió que estos lineamientos no son una solución definitiva a los desafíos complejos de la seguridad en inteligencia artificial, pero representan un avance significativo. La empresa ha trabajado previamente en salvaguardias a nivel de producto, como controles parentales y predicción de edad, y el año pasado actualizó sus guías para modelos de lenguaje que interactúan con usuarios menores de 18 años.
Sin embargo, OpenAI enfrenta críticas por su historial en la gestión de la seguridad. La compañía está siendo demandada por familias de personas que se suicidaron tras un uso extremo de ChatGPT. Estas relaciones peligrosas a menudo se forman cuando los usuarios logran eludir las salvaguardias del chatbot, lo que plantea la pregunta de si algún modelo puede garantizar la seguridad absoluta. A pesar de esto, las nuevas políticas son un paso en la dirección correcta, especialmente para los desarrolladores independientes.
¿Qué anunció OpenAI?
OpenAI lanzó herramientas de código abierto para ayudar a los desarrolladores a crear aplicaciones más seguras para adolescentes.
¿Cuáles son los temas que abordan estas políticas?
Las políticas abordan la violencia gráfica, el contenido sexual y los ideales de cuerpo dañinos, entre otros.
¿Con quién colaboró OpenAI para desarrollar estas políticas?
Colaboró con Common Sense Media y everyone.ai.
¿Qué desafíos enfrenta OpenAI en cuanto a la seguridad?
OpenAI enfrenta críticas y demandas relacionadas con suicidios tras el uso extremo de ChatGPT.
¿Cuál es el objetivo de estas nuevas políticas?
El objetivo es establecer un estándar de seguridad y facilitar la adaptación por parte de los desarrolladores.
Te puede Interesar
Innovación tecnológica en Texas
Tras una inversión de 50 mil millones en OpenAI, Amazon mostró su laboratorio de chips Trainium, que promete revolucionar la inteligencia artificial y desafiar a Nvidia.
Reacciones en redes sociales
El CEO de OpenAI, Sam Altman, expresó su gratitud hacia quienes escriben código desde cero, pero su comentario provocó reacciones mixtas y memes en las redes sociales.
Nuevas herramientas educativas
OpenAI lanzó una nueva función en ChatGPT que permite a los usuarios interactuar con visualizaciones en tiempo real sobre conceptos matemáticos y científicos, facilitando el aprendizaje.
Novedades de OpenAI
El 'modo adulto' de ChatGPT, que otorgará acceso a contenido para adultos, fue pospuesto nuevamente. Originalmente se esperaba su lanzamiento en diciembre.