gWarden ✌️
AI验证中的真正问题不在于信任……而在于确定性
大多数系统期望相同的输入总能得到相同的输出……但在真正的LLM任务中,这种情况会崩溃,因为输出可能会变化
老式的ZKML是为具有可预测结果的小模型设计的,并且包含大量的加密验证
现代AI代理被设计成输出会变化
最近吸引我注意的是@wardenprotocol 👌的SPEX
它不是将一切强制纳入严格的证明,而是对过程本身进行采样……无需完全重跑或长时间的ZK证明💯
只需:
-> 运行 → 保存状态 → 采样 → 检查
成本保持低廉且平稳,而不是飙升👌
对于像LLM思考、代理选择或非可重复计算这样的场景,这比完美的理论更重要💯
它并不取代ZKML,但在成本和技术上实际上实现了扩展
如果以AI为核心的网络是未来,这可能是首次在大规模验证方面的真正尝试💯
gWarden ✌️
查看原文