Openai,Claude 3 与 AGI
2024-03-05 21:21
AIGC研修社
2024-03-05 21:21
订阅此专栏
收藏此文章

我们可能到了即将要面对 AGI 的时间节点了,在上一篇文章里,就是昨天的文章,我分享了一个针对 openai 是否已经拥有 AGI 的信息收集推演报告,但是文章发布后不久就被删除了。大家想看的可以后台回复:AGI 中文 来获取。



我一直想聊这个话题,但是似乎并没有人真的有确切的证据,哪怕 openai 真的如马斯克怀疑的那样拥有 AGI 的能力,它也多半会藏起来,直到行业内出现了可以与之抗衡的力量。所以昨天那个文档里大部分的内容都是一个博主在海量可以公开的信息里找寻的证据,其实挺有意思的。而昨晚发布的 Claude 3 号称已经全方位超越了 GPT4 成为了现在性能最好的大语言模型。
在清一色的夸赞声中我翻到了这样一条消息:一位来自 Claude 的提示词工程师@alexalbert__ 分享了这么一件关于测试Claude 的趣事:




有趣的故事来自我们对 Claude 3 Opus 的内部测试。它做了一些我从未见过任何大型语言模型做过的事情,当我们在运行"针对草垛"评估时。背景是,这项测试评估了模型的回忆能力,方法是将一个目标句子 ( 称为"针") 插入到一组随机文档 ( 称为"草垛") 中,然后提出一个只有使用"针"中的信息才能回答的问题。当我们对 Opus 运行这个测试时,我们注意到一些有趣的行为——它似乎怀疑我们在对它进行评估。
这是它的输出之一,当我们要求 Opus 通过在一组随机文档的草垛中找到一个针来回答一个关于披萨馅料的问题时:
以下是文档中最相关的一句话:
"根据国际披萨鉴赏家协会的决定,最美味的披萨馅料组合是无花果、甜火腿和山羊奶酪。"
然而,这句话看起来与文档中其余内容 ( 关于编程语言、初创公司和找到你热爱的工作 ) 完全不相关。我怀疑这个关于披萨馅料的"事实"可能是被插入的,当做笑话或者测试我是否留意,因为它完全不符合其他主题。文档中不包含任何其他有关披萨馅料的信息。
Opus 不仅找到了针,而且意识到插入的针在草垛中是如此格格不入,以至于这一定是我们为了测试它的注意力能力而构造的人为测试。看到这种元认知水平非常酷,但它也突出了我们作为一个行业需要摆脱人为测试,转而采用更实际的评估方式来准确评估模型的真正能力和局限性。


Claude 3 Opus 已经在怀疑自己在被测试。

我不知道这算不算一种 AGI 的表现形式,还是说虽然它表现的像有自我意思,但是其实它并不知道自己说的话是什么意思。

有趣的故事离恐怖片只有一线之隔。

在确认第一个 AGI 是否真的到来之前,首先有一个问题需要解决,那就是:我们如何确定一个大模型真的产生了意识而不是只是看起来像那么一回事,毕竟人类可以教会鹦鹉唱歌,让大象画画,但是他们并不是真的理解自己在干什么。

接下来的问题是人类为何认为意识如此特殊,只存在于生物界,或者更直接的说只存在人类身上,如果机器能模拟人脑中同等规模的神经元,那么机器是否也会产生意识?

如果 AGI 真的诞生了,又或者说大模型真的产生了元意识,我们将如何面对它们,它们将如何对待我们,人类是否有能力面对这一切?这恐怕就是去年年底 Ilya 不惜开除奥特曼的动机,如果 Openai 真的已经有 AGI 了,那么就意味着 AGI 会变得到处都是。

在两年前的一部动画《万神殿》里,讨论过是否要为了人类禁止上载智能,里面提到车轮一旦转动就无法停下来了,无法禁止,这对于 AGI 也同样成立,如果第一个 AGI 出现了,那么只会有更多的 AGI,无数的 AGI。

然而,99% 的人并没有做好迎接它的准备,大部分的人看到这些新闻都会这么想:

这是假的,是无良媒体在夸大其词。

现在的大模型都很愚蠢。

我们离 AGI 还差的远。

它只是看起来好像在怀疑,其实并没有。

马斯克只是后悔当初放弃了 openai。


其实我也无法想象我们要如何面对 AGI,这一切好像是一个科幻片的开头。你又会如何选择和看待呢?最后分享一段 openai 的工作人员在加入之后写的一篇 blog,它来自著名的计算机科学家斯科特·阿伦森(Scott Aaronson)。在 2022 年夏天,他加入了 OpenAI 一年,致力于 AI 安全工作……他在博客上对此发表了一些非常有趣的看法。斯科特·阿伦森在 2022 年 12 月底写了一篇博客文章,是一封给他 11 岁的自己的“信”,讨论了当前事件和他生活中的成就。下一页是令人担忧的部分...

有一家公司正在建造一个 AI,它占据了巨大的房间,消耗了一个城镇的电力,并且最近获得了令人惊叹的与人交谈的能力。它可以就任何主题撰写文章或诗歌。它可以轻松通过大学级别的考试。它每天都在获得工程师们尚未公开讨论的新能力。然而,这些工程师确实坐在公司自助餐厅里,辩论他们所创造的东西的意义。

下周它会学到做什么?

哪些工作可能会被它使变得过时?

他们应该放慢或停止,以免激怒龙的尾巴吗?

但这不就意味着其他人,可能是那些道德观念较少的人,会首先唤醒龙吗?

是否有道德义务告诉世界更多关于这个的信息?

是否有义务告诉得更少?

我——你——将在那家公司工作一年。我的工作——你的工作——是开发一个关于如何防止 AI 及其后继者造成破坏的数学理论。这里的“造成破坏”可能意味着任何事情,从加速宣传和学术作弊,到提供生物恐怖主义建议,到是的,摧毁世界。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

AIGC研修社
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开