OpenAI ha anunciado la liberación de un conjunto de indicaciones diseñadas para ayudar a los desarrolladores a crear aplicaciones más seguras para los adolescentes. Estas políticas de seguridad pueden ser utilizadas junto con su modelo de seguridad de peso abierto, conocido como gpt-oss-safeguard. Con estas herramientas, los desarrolladores pueden abordar temas críticos como la violencia gráfica, el contenido sexual, y ideales corporales dañinos, brindando así un entorno más seguro en sus aplicaciones para los usuarios jóvenes.
Conjunto de políticas de seguridad
OpenAI ha elaborado un conjunto de políticas de seguridad destinadas a ser utilizadas como indicaciones. Esto facilita su integración con otros modelos además del gpt-oss-safeguard, aunque son más efectivas dentro del ecosistema de OpenAI. Estas políticas son el resultado de la colaboración con organizaciones dedicadas a la seguridad de la inteligencia artificial como Common Sense Media y everyone.ai.
Objetivos de las políticas
Los nuevos prompts abordan una variedad de temas críticos, tales como:
- Violencia gráfica y contenido sexual.
- Ideales corporales nocivos y comportamientos.
- Actividades y desafíos peligrosos.
- Roles románticos o violentos.
- Bienes y servicios restringidos por edad.
Beneficios de las nuevas políticas
Según Robbie Torney, jefe de evaluaciones digitales en Common Sense Media, estas políticas basadas en indicaciones contribuyen a establecer una base de seguridad significativa en el ecosistema. Al ser abiertas, pueden adaptarse y mejorarse a lo largo del tiempo. OpenAI destaca que muchos desarrolladores, incluso aquellos con experiencia, a menudo encuentran dificultades para traducir sus objetivos de seguridad en reglas de funcionamiento precisas. Esta falta de claridad puede dar lugar a gaps en la protección, aplicación inconsistente o un filtrado demasiado amplio. Por lo tanto, la claridad y definición de las políticas son esenciales para construir sistemas de seguridad efectivos.
Contexto y limitaciones
Si bien estas políticas ofrecen un avance, OpenAI reconoce que no son una solución definitiva ante los retos complejos de la seguridad en inteligencia artificial. En el pasado, la empresa ha implementado sistemas de protección a nivel de producto, como controles parentales y predicción de edad. Sin embargo, también enfrenta demandas por parte de familias de personas que se suicidaron tras un uso extremo de ChatGPT. Esto recalca que, a pesar de todos los esfuerzos, no hay un sistema que garantice una protección total frente a los peligros inherentes a la interacción con tales tecnologías.
Consejos para emprendedores y negocios
- Incorporar políticas de seguridad proactivas: A la hora de desarrollar aplicaciones, asegúrate de que las políticas de seguridad se integren desde el principio para evitar problemas futuros.
- Colaborar con expertos: Al igual que OpenAI, trabajar junto a organizaciones dedicadas a la seguridad puede ofrecer perspectivas valiosas y mejorar la efectividad de las políticas de seguridad.
- Definir objetivos claros: Establecer objetivos concretos de seguridad que sean fáciles de seguir por el equipo de desarrollo.
- Actualizar regularmente: Mantener políticas de seguridad actualizadas en función de los cambios en la legislación y las necesidades del mercado.
- Revisar el feedback de los usuarios: Escuchar a los usuarios, especialmente si son jóvenes, y adaptar la aplicación según sus experiencias puede ser crucial para crear un entorno seguro.
Conclusiones
Las nuevas políticas de seguridad de OpenAI son un paso adelante importante en la dirección correcta para proteger a los adolescentes en el espacio digital. Aunque no son la solución completa, ofrecen una base sobre la cual los desarrolladores pueden construir. La colaboración entre empresas de tecnología y expertos en seguridad es fundamental para abordar los retos que presenta la inteligencia artificial. Los emprendedores deben estar atentos a estas iniciativas y la importancia de integrar una cultura de seguridad en el desarrollo de sus productos.