NEAR 联创:NEAR 构建数字自我主权的愿景
2024-01-23 10:47
NEAR Protocol
2024-01-23 10:47
订阅此专栏
收藏此文章


作为一个在乌克兰长大的孩子,上世纪 90 年代苏联解体后,我记得在不到五年的时间里,我们看着面包的价格从 1 千库邦涨到 1 万库邦,再到 10 万库邦,直到这种货币被完全抛弃,取而代之的是格里夫纳。当我刚开始从事软件开发工作时,我把收入以现金形式存放在房间里,因为我已经明白,我们不能把我们的钱交给腐败的银行。


仅在 2014 年至 2016 年间,乌克兰就有 77 家银行倒闭。我的爷爷奶奶仍然有他们的储蓄账户存折,追踪他们在苏联时期存入的钱——但这些储蓄已经不存在了。因此,即使有些东西是属于你的,如果你所属的系统出现故障,你的东西也会消失。当然,同样的事情也发生在世界各地生活在恶性通货膨胀、独裁统治和战区的数百万人身上。虽然这些似乎是抽象或遥远的问题,不会发生在你头上,但让我用我自己的经验告诉你:没有什么是可以保证的。


每个系统都像将其结合在一起的规则一样脆弱,而且规则可以改变。他们现在正在我们周围发生变化,我相信我们正在接近一个不可逆转的临界点。


为何需要数字自我主权


我们需要通过自我主权为世界各地的人们创造新的经济机会,这应该是一项普遍权利,技术现在可以提供,而不仅仅是像历史上大多数其他时期那样的民族国家才能提供。对于享有经济安全和高度主权的国家的公民来说,这似乎不是一个迫在眉睫的问题。但事实确是如此。


科技公司的经济状况不可避免地导致为了利润而破坏其原始产品或愿景,以保持增长,更重要的是,它们自然涉及创造障碍,等待他人去打破这些障碍。为了维持其权力,政府将利用压力和聪明才智来控制其人民,往往达到以安全或保障的名义侵犯人权的地步。


我们每天使用手机和电脑很多次,将便利置于自我主权之上,因为直到现在,我们别无选择。我们现在正在接近一个临界点,走向一个我们可能无法回头的反乌托邦未来,这不仅是由政府带来的,也是由科技公司的经济带来的。当这些激励措施为了保持控制和利润而越来越多地相互碰撞并将彼此更深入地推入个人生活时,会发生什么?这正是现在我们所面临的情况。


使用生成式 AI 改变利害关系


在创立 NEAR 之前,我是一名人工智能研究员。我在 Google 工作,为 TensorFlow 做出了贡献,并最终与几位同事发表了一篇名为“Attention Is All You Need”的论文。该论文介绍了 Transformers 架构,该架构为 ChatGPT、Bard 和去年 AI 爆炸性增长背后的大多数知名 LLM 提供支持。


我第一次对人工智能感兴趣是因为 2001 年一部叫做《人工智能》的电影。改变我们与计算的互动方式,增强一个人的智力,以最大限度地发挥人类的潜力,过去和现在都非常吸引我。我仍然认为它有可能使人类生活、组织甚至政府变得更好。但就像任何其他技术一样,在错误的人手中或错误的激励下,它也有可能使我们的生活变得糟糕。


生成式 AI 正在创造一种通用且可扩展的个人方法来实现控制和操作。实际上,这意味着您的社交媒体动态和搜索结果可以确保您购买特定产品或形成特定意见。这将以商业改进的形式开始,为科技巨头带来更多利润:Netflix 将生成一个可以影响你观点的电影剧本,Facebook 可以通过向你展示更多内容来强化这种观点等等。这甚至可能发生在更基本的层面上,例如让训练数据充斥大量特定信息,以影响在其上训练的所有模型。


如果这种细粒度的信息和操纵载体可以在这种个人层面上被提取或购买,那么它就会被提取出来,然后它就会成为一种控制工具。如果它存储在中心化且可被黑客入侵的地方,它就会被盗——我们在 Web2 巨头身上经常看到这种情况。如果政府能够获得这些数据,他们将利用它来维持或扩大其权力。


生成式人工智能带来的真正危险是,这种利用不仅在系统层面或人口层面,而且会变得个性化且非常具体。潜在控制和操纵的深度达到了每个人的水平,无论他们住在哪里,无论他们把钱放在哪里。如此强大的技术不应该掌握在中心化公司手中,政府也不能轻易接管。


我们应该做些什么


因此,如果人们还没有感受到建立维护自我主权的新制度的紧迫感,那么对人们来说,怎么才能实现它呢?集体价值观的变化总是由经济机会驱动的。历史上的重大革命都是因为经济失败而开始的:美国从英国独立、法国大革命、苏联解体等等。如果人们看到为自己和家人创造更好的经济现实的方法,那么他们就会将价值观转化为行动。


通过自我主权为人们创造新的机会是 NEAR 的意义所在。从成立的第一天起,完整的自我主权就一直是 NEAR 的愿景:我们希望建立一个所有人都可以控制自己的资产、数据和治理权的世界。这种主权不但必须适用于个人层面,而且必须适用于他们创建的组织和社区,并最终适用于社会。


自我主权是一种新的原语,在今天之前并不存在。人们总是需要依靠某种暴力力量来确保规则得到遵守,最近的是民族国家。数字自我主权的核心原则之一是能够在任何服务提供商之间进行选择和切换。没有锁定。没有像银行或政府机构这样的中间人,他们可能丢失或窃取资产,或者突然改变对你的规则。


重要的是,这也必须适用于人工智能。人们需要拥有自己的数据,这样他们才能知道数据的用途,这样他们就可以积极地同意他们认为可以改善他们生活的个性化体验。模型必须透明、公开地进行管理,并制定明确的规则和监控,以主动管理风险和声誉系统,从而构建信息的清晰度和可追溯性。Web3 可以帮助维护、扩展和管理此类系统,以确保 AI 成为一股向善的力量,同时防止其过于易利用。


另一个主要挑战,在治理中尤为明显,但也适用于公司,那就是当我们选择某人作为我们的代表,代表我们的想法时,他们也总是有自己的利益和动机。他们不一定有邪恶的意图,这只是一种自然的倾向。这就是“委托代理人问题”,即当选者的行为与选举他们或向他们支付报酬的人不同。这就是人工智能治理系统可以通过引入中立代理来提供帮助的地方,由社区直接管理的公正的人工智能代理可以以更可靠的方式代表他们行事。通过透明的治理和监控,人工智能可以成为个人生活和集体的一股向善力量。


NEAR 未来的愿景


尽管我对传统技术范式的潜在发展方向感到担忧,但我仍然是一个技术乐观主义者。如果我不认为这是为了每个人的利益,我就不会做这项工作,而且我已经阅读了足够多的科幻小说,知道科学和技术的结果更多地是关于人们用它们做什么,而不是技术本身。如果我们想要什么,我们应该建造它。


我希望 NEAR 成为一个完全独立的操作系统,配备个人 AI 助手,可以针对用户的需求进行优化,而不会泄露有关用户数据或资产的私人信息。它还应该能够与其他人的 AI 和社区的 AI 进行点对点交互和交易。我称之为“用户拥有的 AI”。


我们还需要共享的社区人工智能,由此类社区的成员管理。它们代表了这样一个社区所有成员的需求和知识的混合,从小型俱乐部或初创公司,到城市,到民族国家,再到全球层面。总有机会分叉一个社区并创建新社区。社区控制哪些数据用于训练其社区模型,并且可以私下运行推理(通过模型运行实时数据),这样只有用户才能看到输入和输出,同时获得所选模型被使用的证明。


为了促进该愿景的实现,我们需要把很多东西组合到一起:


  • 经济和技术机会,使用户能够批量上手。
  • 跨堆栈的开源软件,从区块链技术到 AI 模型。
  • 区块链必须从用户中抽象出来,这样它们就不会成为进入或参与的障碍。我称之为链抽象原则。
  • 应用必须提供新颖的价值解锁:比如 Cosmose 和 Sweat。这些应用奖励用户,并作为进入更广泛机会生态的经济入口。
  • 个人可以使用的超本地化 AI 模型(且不受操纵)。
  • 具有治理和经济机会的社区拥有的 AI 模型,取代了从业务运营到政府机构的一切。在技术和去中心化的点对点系统的帮助下,大规模地由人民自治,为人民服务。


区块链、点对点支付、Web3、零知识、超大型语言模型等不是独立的技术垂直领域,而是自我主权新数字范式的相互关联的方面。


我们有工具可以重塑我们养活自己,一起工作和管理自己,以及消费和生成信息的方式。没有看门人,真正做到公平,向所有人开放。这不是一个未来主义的愿景:在我们脆弱和过时的系统和结构变得更加薄弱或失败之前,在过多的中心化导致最坏的结果而不是我们所有人共同设计和共享结果之前,现在就开始试验和构建是可能的。


本文编译自外文网站,仅作为科普用途,不代表编译者观点且不构成任何投资建议。编译者 / 公众号管理人员不对任何信息出现差错或遗漏,以及因使用该信息而获得的结果承担法律责任。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

NEAR Protocol
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开