OpenAI lanza un modelo de Filtro de Privacidad de código abierto para la detección y anonimización de PII

Mensaje de Gate News, 22 de abril — OpenAI ha lanzado Privacy Filter, un modelo de lenguaje de código abierto diseñado para detectar y anonimizar información personal identificable (PII) en texto. El modelo se ejecuta localmente y procesa documentos largos en una sola pasada hacia adelante, con capacidad de hasta 128.000 tokens de contexto. Con 1.500 millones de parámetros totales y 50 millones de parámetros activos, Privacy Filter identifica nombres privados, direcciones, direcciones de correo electrónico, números de teléfono, URLs, fechas, números de cuenta, contraseñas, claves de API y otra información sensible.

El modelo está disponible bajo la licencia Apache 2.0 en Hugging Face y GitHub. Puede identificar una amplia gama de categorías de PII, incluyendo datos personales de contacto, información financiera y credenciales de autenticación.

OpenAI señaló que Privacy Filter está destinado a utilizarse en flujos de trabajo que preservan la privacidad, como la preparación de datos de entrenamiento, la indexación, el registro (logging) y la moderación de contenido.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios