可验证AI与加密货币的未来:技术与挑战

2024-10-22 16:42:00
本文深入探讨了去中心化、区块链和零知识证明等技术如何实现 AI 模型的可验证性,以应对潜在的 AI 滥用风险。

最近我参加了 Delphi Digital 的 AI 月度活动,跟几位加密和 AI 领域的创始人围绕“可验证 AI”进行了圆桌讨论。以下是一些重要的见解,嘉宾们包括 colingagich、ryanmcnutty33、immorriv 和 Iridium Eagleemy。

🔍 AI模型的未来
未来的 AI 模型将成为一种软实力,经济应用越广泛,滥用的风险也随之上升。即便模型的输出未被操控,仅仅是意识到这种可能性就会产生负面影响。

⚠️ 去中心化和可验证性的重要性
如果我们对 AI 模型的看法变得像对社交媒体算法一样,那可就糟糕了。去中心化、区块链和可验证性是解决这一问题的关键。AI 本质上是个黑箱,我们得想办法让 AI 的过程变得可证明或可验证,以确保其未被篡改。

可验证推理的核心
可验证推理要解决的问题就是确保输入没有被篡改,使用的模型是承诺的那个,输出保持原样。这个简洁的定义来自 @Shaughnessy119,我觉得特别到位。

🔑 零知识证明的应用
在现有的 truth terminal 案例中,使用零知识证明来验证模型输出绝对是安全的,然而,这也带来了计算成本的剧增,可能增加 100 到 1000 倍的开销。而且,并非所有内容都能轻松转换为电路,一些函数(比如 sigmoid)需要进行近似处理,可能会有浮点精度损失。

💡 计算开销的优化
不少团队正在努力提升 ZK 技术,以显著降低开销。虽然大型语言模型比较庞大,但大部分金融应用场景可能相对较小,比如资本配置模型,这样的开销就显得微不足道。对于那些对安全性要求不高的应用场景,受信执行环境(TEEs)是一个不错的选择,适合对成本或模型大小更为敏感的情况。 ambient 的 travis 提到了他们打算在一个超大分片模型上验证推理,这不是个通用问题,而是针对具体模型的解决方案。不过,因为 ambient 还在神秘阶段,这项工作暂时保密,我们得盯紧他们即将发布的论文。

optimistic method 💡,在推理时不生成证明,而是让执行推理的节点质押代币,如果被质疑且发现问题就扣代币,这招引来嘉宾们的一些反对。

要实现这一点,首先得有确定性输出,而为了这一目标得做些妥协,比如确保所有节点用同一个随机种子。如果面临 100 亿美元的风险,质押多少才足够确保经济安全?这个问题依然没有明确答案,这也强调了让消费者选择是否愿意支付完整证明费用的重要性。

关于闭源模型,inference labs 和 aizel network 都能提供支持。这引发了一些哲学争论,信任不需要了解正在运行的模型,因此私有模型并不受欢迎,这和可验证 AI 是矛盾的。然而,有时候了解模型内部工作原理可能导致被操控,解决这个问题的唯一办法有时就是把模型设为闭源。闭源模型经过 100 次或 1000 次验证后仍然可靠,尽管无法访问其权重,也足以让人产生信心。

最后,我们讨论了隐私、延迟和带宽等问题,AI 推理是否会转向边缘设备(如手机和笔记本)。大家达成的共识是,这种转变正在到来,但还需要几次迭代。

对于大型模型,空间、计算需求和网络要求都是挑战。不过,模型正变得更小,设备也越来越强大,因此这种转变似乎正在发生,只是还没完全到位。然而,如果能保持推理过程私密,我们依然可以享受本地推理的许多好处,而不必担心失败模式。

Reminder: Develop a sound understanding of currency and investment, approach blockchain rationally, and stay aware of risks. Report any illegal activities to the authorities
温馨提醒,请广大读者树立正确的货币观念和投资理念,理性看待区块链,切实提高风险意识;对发现的违法犯罪线索,可积极向有关部门举报反映。
  • English ·
  • 简体中文 ·
  • 繁體中文 ·