亲爱的广场用户们,广场使用界面全新升级啦!新版本界面更清新简洁、操作更流畅丝滑,还有多项贴心新功能上线,快来更新体验吧!你对新版界面有什么感受?你最喜欢的新功能是哪一个?你发现了哪些惊喜或变化呢?发帖分享新版广场使用体验,瓜分 $10 分享奖励!
🎁 我们将精选 10 位幸运用户,每人奖励 $10 合约体验券!
参与方式:
1⃣️ 关注 Gate广场_Official;
2⃣️ 带上 #我的广场升级体验 标签发帖,分享你的使用感受,比如界面风格体验、细节功能变化、你最喜欢的新功能,或优化建议等;
3⃣️ 帖子内容需至少 30 字,并且只带本活动标签;
广场界面焕新介绍文章:https://gate.com/post?post_id=14774358&tim=ARAbClhcBQNwWRIVGAoGBB5QX1sO0O0O&ref=BFlBUFwL&ref_type=105
活动截止时间:2025/10/26 18:00(UTC+8)
你的体验是我们持续优化的动力!赶快参与和大家分享吧!
大家可能有所不知, @SentientAGI 在 NeurIPS拿下4篇论文接收的含金量有多高。从技术突破的角度来看,这四个方向恰好构成了完整的AI安全与性能闭环。
🔍 OML 1.0的突破意义
24576个持久指纹对比传统最大的100个指纹,这是数量级质的跨越。而且是在不损失模型性能的前提下实现。
传统指纹技术面临规模化困境,指纹数量增加往往伴随模型性能下降。OML通过AI原生密码学原语突破了这个瓶颈,让开源模型真正具备可验证的所有权保护。
⚡️ LiveCodeBenchPro的实用价值
用20%的数据训练出规模缩小10倍的模型,达到竞争对手同等性能。这背后反映的是对编程任务本质的深度理解。
传统基准测试容易被数据污染影响,LiveCodeBenchPro通过持续更新的竞赛题目和严格的污染控制,提供了更可靠的编程能力评估标准。
🎮 MindGames Arena的前瞻性
通过社交游戏让AI自我改进,这是从监督学习向自主学习的范式转变。
当前AI改进主要依赖人工标注数据和外部反馈,MindGames Arena探索的是AI在交互中自发优化的可能性。这种自我改进机制一旦成熟,将改变AI训练的成本结构。
🔒 Lock-LLMs的安全框架
白盒访问下的密码学强制控制,解决了开源模型安全性的问题。
开源模型的悖论在于开放带来创新,但也带来滥用风险。Lock-LLMs通过可验证的密码学控制,让开发者能在保持模型开放性的同时实现精确的使用控制。
—————————————————————————
从模型指纹识别到性能基准测试,从自主改进到安全控制,覆盖了AI系统的完整生命周期。 @SentientAGI 正在构建的不仅是单点技术突破,而是让开源AI真正可控、可信、可持续发展的完整基础设施。