gWarden ✌️



AI検証の本当の問題は信頼性ではなく...決定論に関するものです

ほとんどのシステムは同じ入力に対して常に同じ出力を期待します...しかし、それは実際のLLMタスクでは崩れます。出力が変動するからです

従来のZKMLは、小さなモデルで予測可能な結果と多くの暗号チェックのために作られました

現代のAIエージェントは、変化する出力を持つように設計されています

最近私の注意を引いたのは、@wardenprotocol 👌のSPEXです

すべてを厳格な証明に押し込めるのではなく、彼らはプロセス自体をサンプリングします...完全な再実行や長いZK証明は必要ありません 💯

ただ:

-> 実行 → 状態を保存 → サンプル → チェック

コストは低く一定のままで、高騰しません 👌

LLMの思考、エージェントの選択、または非再現性の計算のようなものには、これが完璧な理論よりも重要です 💯

これはZKMLを置き換えるものではありませんが、実際にはコストと技術の面でスケールします

AIに焦点を当てたネットワークが未来なら、これが大規模な検証への最初の本当の試みの一つかもしれません 💯

gWarden ✌️
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン