将个人数据喂给黑箱模型并不大胆。
这是设计缺陷。
实现真正的DeAI需求的最快途径是让企业和消费者在仍然依赖开放网络的情况下使用敏感数据与AI。模式是:私有输入,可证明输出。
医院、银行或工作室不会将原始数据传输到一个谁也不知道在哪里托管的模型中。然而,他们会使用加密技术,确保模型永远不会看到明文。
今天有两个实用工具:FHE 和 zkML。
@zama_fhe 的 Concrete ML 编译模型,以便推理的部分直接在加密数据上运行。最近的文档和发布介绍了加密 LLM 推理和私有文本分类演示。虽然它比明文慢,但它将以前“无法交付”的工作负载转变为可部署的工作负载。
同时,zkML让你在不暴露提示或权重的情况下证明推理发生是正确的。@ezklxyz处理模型到电路的路线;@MinaProtocol的zkML将可验证的推理带入zkApps,以便合同可以接受结果,而输入保持隐藏。你最终得到了私密的提示和公开的验证,这正是合规组织所需要的。
然而,单靠隐私并不能解决支付或访问权限的问题。你需要一份任何人都可以检查的收据。这就是 zkVMs 和 zk 协处理器的作用。@RiscZero 的 Bonsai 提供了一项证明服务和通用验证器,以便在链之间传递收据;@SuccinctLabs 的 SP1 专注于性能和多链验证。像 @axiom_xyz 或 @lagrangedev 这样的协处理器使合
查看原文