
随着世界各地的公司竞相开发人工智能产品,这项技术在日常生活中的作用也日益突出:它可以管理财务、帮助医生诊断疾病、驾驶汽车。
然而,对于我们大多数人来说,人工智能模型实际上是黑箱,我们别无选择,只能盲目地相信底层算法,因为我们无法了解它们的工作原理。
为了建立信任,用户必须能够验证模型的训练方式以及生成输出的推理过程,ICP 的计算能力和智能合约表达能力在实现此功能方面具有独特的优势。

斯坦福大学《2024 年人工智能指数报告》发现,近一半的受访者对人工智能被用于邪恶目的感到不安:
黑客通过后门漏洞获得访问权限后,可以篡改算法,使其生成符合他们利益并误导用户的恶意输出。
人工智能初创公司 Anthropic 最近发表了一篇论文,以“潜伏特工”为例,证明了这种风险的严重性:
Anthropic 对三个大型语言模型进行了编程,使其在某些情况下表现出恶意行为,这些行为在模型启动时并未引起注意,但可以通过特定提示激活(因此得名间谍活动)。
在 2023 年输入的任何提示都会产生准确的输出,但当年份转到 2024 年时,潜伏特工开始发挥作用,模型给出了错误的结果。
2024 年 3 月,安全公司 Oligo 检测到针对 Ray 的持续网络攻击,Ray 是一个开源框架,数千名开发人员 - 包括 OpenAI(ChatGPT 的创建者)和亚马逊 - 使用它来扩展 AI 应用程序。
该漏洞始于七个月前,暴露了 AI 生产工作负载的详细信息,这可能使黑客能够在训练阶段篡改模型并访问敏感的私人数据,包括 OpenAI、Stripe 和 Slack 上的帐户凭据,黑客还劫持了数百家公司的大量计算能力,用于挖掘加密货币。
关键在于,恶意方可以在不提醒用户和开发人员的情况下篡改 AI 模型,由于 AI 模型规模庞大,传统的评估软件完整性的技术(例如源代码分析)不适用于 AI 模型,因此业界需要采取另一种方法来建立信任。

去中心化人工智能(简称 DeAI)是用来描述人工智能与区块链技术交集的绰号,一些项目使用该术语来描述代币化或去中心化市场等外围元素,但最真实的 DeAI 形式完全在链上运行模型并利用智能合约。
以下是 ICP 实现这一目标的方式:
对于传统的区块链网络来说,DeAI 的计算和内存占用过于密集,但 ICP 的先进设计结合了安全性、可扩展性和计算能力,这意味着开发人员目前可以完全在链上运行推理。
长期目标是通过使用支持 GPU 的节点支持智能合约中 AI 模型的训练,一劳永逸地消除黑盒问题,开发人员还可以将开源项目(如 Sonos Tract AI 推理引擎)集成到 DeAI 模型中,因为 ICP 的智能合约运行时环境 WebAssembly 支持不断增长的语言和工具库。
要了解 ICP 上的 DeAI 实际应用,请查看 DFINITY 创始人、总裁兼首席科学家 Dominic Williams 展示的这个演示,其中展示了一个作为智能合约运行的 AI 模型(世界首创)并正确识别各种图像,请关注本系列的第二部分,它将探讨 ICP 支持的一些潜在的 DeAI 用例。
在 ICP 上了解有关 DeAI 的更多信息:

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
