gWarden ✌️



AI驗證中的真正問題不在於信任……而在於確定性

大多數系統期望相同的輸入總是產生相同的輸出……但在真正的LLM任務中,這一點會崩潰,因為輸出可能會有所不同

舊式的ZKML是為具有可預測結果的小型模型和大量加密檢查而設計的

現代AI代理則被設計成輸出會變化

最近吸引我注意的是來自@wardenprotocol 👌的SPEX

它不將一切強制轉入嚴格的證明,而是對過程本身進行抽樣……不需要完整重跑或長時間的ZK證明💯

只需要:

-> 執行 → 保存狀態 → 抽樣 → 檢查

成本保持低廉且平穩,而非飆升👌

對於像LLM思考、代理選擇或非可重複計算這類事情,這比完美理論更重要💯

它不取代ZKML,但在成本和技術上實際上可以擴展

如果專注於AI的網絡是未來,這可能是首次在大規模驗證它們的真正嘗試💯

gWarden ✌️
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)