OpenAI ha lanzado el modelo de razonamiento seguro Código abierto gpt-oss-safeguard, que admite la clasificación impulsada por políticas

robot
Generación de resúmenes en curso

PANews 29 de octubre, OpenAI lanzó hoy el modelo de razonamiento seguro de código abierto gpt-oss-safeguard (120b, 20b), que permite a los desarrolladores proporcionar políticas personalizadas para la clasificación de contenido durante el razonamiento, así como las conclusiones y la cadena de razonamiento del modelo. Este modelo está basado en el ajuste fino de pesos abiertos gpt-oss y utiliza la licencia Apache 2.0, y se puede descargar desde Hugging Face. Las evaluaciones internas muestran que su precisión en múltiples políticas supera a gpt-5-thinking y gpt-oss, y su rendimiento en conjuntos de datos externos es comparable al de Safety Reasoner. Las limitaciones incluyen: en muchos escenarios de anotación de alta calidad, los clasificadores tradicionales siguen siendo superiores, y el tiempo de razonamiento y la Potencia computacional son relativamente altos. ROOST establecerá una comunidad de modelos y publicará un informe técnico.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)