OpenAI a lancé le modèle de raisonnement sécuritaire Open Source gpt-oss-safeguard, qui prend en charge la classification basée sur des politiques.

robot
Création du résumé en cours

PANews 29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification du contenu lors du raisonnement, les conclusions de sortie du modèle et la chaîne de raisonnement. Ce modèle est basé sur le poids ouvert gpt-oss, affiné, et utilise la licence Apache 2.0, et peut être téléchargé depuis Hugging Face. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en termes de précision multi-politique, et ses performances sur les ensembles de données externes sont proches de Safety Reasoner. Les limitations incluent : dans de nombreux scénarios annotés de haute qualité, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la Puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)