OpenAI añade herramientas de código abierto para ayudar a los desarrolladores a crear aplicaciones seguras para adolescentes.

robot
Generación de resúmenes en curso

OpenAI ha lanzado un conjunto de políticas de seguridad de código abierto basadas en indicaciones, diseñadas para ayudar a los desarrolladores, especialmente a los equipos independientes, a integrar más fácilmente funciones de protección para usuarios jóvenes en sus aplicaciones de IA. Estas políticas, desarrolladas en colaboración con Common Sense Media y everyone.ai, abordan temas como escenas de violencia, estándares estéticos dañinos y contenido con restricciones de edad. Aunque son compatibles con varios modelos, están optimizadas para el propio modelo de OpenAI gpt-oss-safeguard. El objetivo de este plan es establecer una base de “líneas de seguridad” para todo el ecosistema y, sobre esa base, mejorar las medidas de seguridad existentes de OpenAI, como controles parentales y las últimas directrices para interactuar con usuarios menores de 18 años.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado