Tout le monde ne sait peut-être pas à quel point l'acceptation de 4 articles par @SentientAGI à NeurIPS est significative. D'un point de vue des percées technologiques, ces quatre directions constituent exactement un cycle complet de sécurité et de performance de l'IA.



🔍 La signification de la percée d'OML 1.0
24576 empreintes digitales persistantes par rapport aux 100 plus grandes empreintes digitales traditionnelles, c'est un saut qualitatif d'un ordre de grandeur. De plus, cela est réalisé sans compromettre les performances du modèle.

La technologie des empreintes digitales traditionnelle fait face à des difficultés de mise à l'échelle, l'augmentation du nombre d'empreintes digitales s'accompagnant souvent d'une baisse des performances du modèle. OML a franchi ce cap grâce à des primitives cryptographiques natales de l'IA, permettant aux modèles open source de bénéficier d'une protection de propriété vérifiable.

⚡️ La valeur pratique de LiveCodeBenchPro
Former un modèle réduit de 10 fois avec 20 % des données, atteignant des performances équivalentes à celles des concurrents. Cela reflète une compréhension approfondie de la nature des tâches de programmation.

Les tests de référence traditionnels sont facilement influencés par la pollution des données. LiveCodeBenchPro propose des normes d'évaluation des compétences en programmation plus fiables grâce à des sujets de compétition constamment mis à jour et à un contrôle strict de la pollution.

🎮 L'Arena des MindGames est avant-gardiste

L'amélioration autonome de l'IA par le biais de jeux sociaux représente un changement de paradigme de l'apprentissage supervisé vers l'apprentissage autonome.

Actuellement, l'amélioration de l'IA dépend principalement des données annotées manuellement et des retours externes. MindGames Arena explore la possibilité d'une optimisation spontanée de l'IA dans l'interaction. Une fois que ce mécanisme d'auto-amélioration sera mature, il changera la structure des coûts de l'entraînement de l'IA.

🔒 Cadre de sécurité pour Lock-LLMs

Le contrôle coercitif de la cryptographie sous accès en boîte blanche résout le problème de la sécurité des modèles open source.

Le paradoxe des modèles open source réside dans le fait que l'ouverture favorise l'innovation, mais entraîne également des risques d'abus. Les Lock-LLMs permettent aux développeurs de maintenir l'ouverture des modèles tout en réalisant un contrôle d'utilisation précis grâce à un contrôle cryptographique vérifiable.

—————————————————————————
De la reconnaissance d'empreintes digitales du modèle aux tests de performance, de l'amélioration autonome au contrôle de la sécurité, cela couvre l'ensemble du cycle de vie des systèmes d'IA. @SentientAGI ne construit pas seulement une percée technologique ponctuelle, mais une infrastructure complète qui rend l'IA open source véritablement contrôlable, fiable et durable.
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)