原创研究 | OpenAI 黑帮使命:从邪恶的 OpenAI 手中拯救人类
爆米花独角兽
2024-09-20 14:03
订阅此专栏
收藏此文章

原创图OpenAI黑帮创业项


前言

OpenAI Mafia”即 OpenAI 黑帮一词指的是 OpenAI 离职的员工或创始人们,他们继承了“Paypal 黑帮”的风范,如今已成为硅谷最炙手可热的创业群体,每个人都备受风险投资(VC)青睐,动辄获得数十亿美元的融资。例如,前 OpenAI 科学家 Ilya Sutskever 刚刚在天使轮融资中获得了 10 亿美元的资金。

左为 Sam Altman,右为 Ilya Sutskever



摘要

  1. OpenAI 已经成为硅谷创业的黄埔军校

  2. OpenAI 11 位创始人背景和去向简介

  3. OpenAI 的安全不作为导致联创离职

  4. AGI 为什么注定要毁灭人类?(必看)

  5. 犹太教和基督教对 AI 技术使用的不同

  6. OpenAI 员工创办的 13 家 AI 公司简介





01.


OpenAI 的道路之争,安全与否?

毫无疑问,OpenAI 依然如日中天,尤其是在刚刚推出了全新模型的情况下。公开资料显示,


OpenAI 的最新估值已高达 1500 亿美元,累计融资金额超过 130 亿美元。截至 2024 年 5 月 24 日,公司营收为 34 亿美元,2023 年全年的收入为 20 亿美元,增长十分迅速。


然而,OpenAI 最初在 2015 年成立时,是一个致力于人工智能研究的机构,而非商业公司。其使命是开发“安全且有益”的通用人工智能(AGI)。因此,11 位创始人,虽然有着多元的文化和民族背景,达成共识,建立了一个特殊的治理结构。董事会由三名独立董事和三名 OpenAI 创始人组成,其主要职责是确保 AI 的安全性。


Figure 1:11 位创始人简介

“所谓的 AI 安全,指的是如何防止 AI 技术对人类产生潜在危害。”

这个话题在学术圈已讨论多年,许多科学家和企业家都担心失控的 AI 可能会违背人类利益,甚至威胁到人类的生存而对于如何实现 AI 安全,团队内部的意见分歧最终成为 OpenAI 创始团队分裂的核心原因。

OpenAI 的公司章程规定,董事会的“首要法定义务是对全人类负责”,而不是对投资者和员工负责。这也为董事会在后面的“政变”中提供了“合法性”。2023 年 11 月 16 日,Sam Altman 收到了一条来自 Ilya Sutskever 的短信,附带一个 Google Meet 会议链接,这场线上会议的目的正是为了罢免 Altman,在董事会中只有同为犹太人的 Greg 和他是一边,且一同被罢免。其余两位昂撒裔、意大利裔和俄罗斯裔则坚定地站在了一起。

OpenAI 董事会成员,上排左一,左二为犹太裔,左三为俄罗斯裔;下排左一和左三均为昂撒裔,左二为意大利裔。

罢免 Altman 的原因就是安全问题,甚至有人指责他背离了最初的使命。当时,OpenAI 开始使用 AI 生成的数据来训练模型,而这项技术正是由 Ilya Sutskever 主导开发的。Ilya 对这种技术的潜在问题非常清楚,他担心这种方式会导致数据质量下降。事实上,Ilya 的担忧后来得到了验证,AI 生成的数据确实污染了 OpenAI 原有的数据库,最终导致 OpenAI 不得不进行大规模的人工清理工作。

IIya 认为,OpenAI 管理层类似的行为已经是屡见不鲜,屡教不改了。他们似乎为了加快商业化进程,对潜在风险和伦理问题都置若罔闻。IIya 的忍耐达到了极限,于是发动了政变。后面的剧情我们都知道,Sam Altman 回归,Ilya Sutskever 离职,并在 2024 年 9 月 5 日宣布成立了新的大模型企业——安全智能(Safe Superintelligence,SSI)。SSI 在天使轮获得了 10 亿美元融资,由 A16z 和红杉资本领投,估值推测达到了 50 亿美元。

事实上,早在 2021 年,OpenAI 的研发副主管 Dario Amodei 就因安全理念不合,带领 OpenAI 安全与策略部门的副总监 Daniela Amodei 一起离职,创办了 Anthropic,致力于打造更安全的 AI 系统,并迅速成为 OpenAI 的主要竞争对手,当前估值 180 亿美元,累计融资额接近 100 亿美元。

Dario Amodei、Daniela Amodei 兄妹




02.


AGI 为什么注定毁灭人类?

Elon Musk 之前退出 OpenAI 的一个重要原因就是因为对其安全标准不满,选择退出董事会。因此在这场内部权力斗争中,Musk 支持 Ilya。他公开表示,Ilya 是一位道德高尚且不热衷权力的人,除非他认为情况非常紧急,否则他不会采取如此极端的行动。值得一提的是,Ilya 正是当年 Musk 亲自招募进 OpenAI 的

因此,Elon Musk 创办了大模型企业 XAI。这个名字背后含义深远:首先,Elon 对字母“X”有着特别的偏爱,如 X.com(支付公司)、SpaceX,以及推特更名为 X;其次,XAI 在计算机科学领域代表 “Explainable Artificial Intelligence”(可解释人工智能)这一概念是解决 AI 安全问题的起点和终点。简而言之,可解释 AI 被认为是安全的,如机器学习和专家系统;而不可解释的 AI 被认为存在潜在风险,因为它们的操作过程如同黑箱,无法完全理解,典型代表是深度学习和大语言模型。

事实上,可解释 AI 是最早兴起的人工智能解决方案,作为 20 世纪 60 年代至 70 年代的主流学派,深受符号主义心理学的影响。其设计基于可解释的规则,通常采用有监督学习,强调透明的推理过程。然而,连接主义学派在当时遭受了不少质疑,直到 深度学习之父 Geoffrey Hinton 提出了前馈算法连接主义 AI 才逐渐进入主流,并为后来的深度学习奠定了基础。

许多早期的人工智能先驱源于认知科学背景,他们通过深入研究和模拟人类思维,推动了 AI 的发展。心理学家 Geoffrey Hinton,作为深度学习的奠基人,不仅推动了黑箱 AI 的崛起,也因为他的认知科学背景,比其他计算机学者更敏锐地意识到黑箱 AGI 所潜藏的作恶风险(笔者就是学这个专业的,核心技能是统计)。

Geoffrey Hinton


目前,许多新兴的 AI 大模型企业将认知科学的背景视为一个“优势因素”,并认为认知科学或脑科学有可能成为超越 Transformer 架构局限的关键路径。

图为某 AI 公司招聘要求,要求认知科学背景


同样,Hinton 的学生 Ilya Sutskever(OpenAI 首席科学家,创始人,物理学本科)凭借扎实的自然科学功底,对人类学习机制有着独到的见解。他们不仅关注 AI 模型的高效性,更执着于挖掘其内在的科学原理与可解释性。


问题的根源在于,现有的黑箱模型在处理海量数据时,不加甄别地吸收了大量未经过滤的、有害的信息。而这些有害数据,实际上在规模上可能远远超过有益数据。


由于 AGI 具备人类级别的泛化学习能力,出于“下一个词预测”的概率原理,它在运行中更有可能输出对人类不利的结果(其实已经有大量学术研究证明了这一点)。再结合物联网(IoT)等技术的广泛应用,AGI 不仅仅是虚拟世界中的隐患,它还有可能将有害的决策付诸现实,灭绝人类的理论风险因此变得不可忽视。

相比之下,Elon  Musk是物理学背景,但是和 Ilya 不同,Elon 完全不会 coding 也不懂统计,不懂统计又不懂 coding,却热衷 AI,且执着认为 AGI 会毁灭人类,很明显他就是在蹭流量。事实上 Elon 不是技术专家,很多硅谷软件工程师明确指出 Elon musk 就是一个把他人(集体)成果说成个人成就的一个Poser,他是一个营销大师,从 xAI 这个名字就看出来了,起的确实很牛。


相比之下,Sam Altman 是计算机本科出身,但他学习 coding 的时候,AI 非常冷门,所以他没有研究过 AI 算法。许多拥有计算机背景的工程师往往只是使用现成的 AI 模型,而对其底层原理的认知则较为模糊。因此,Altman 对 AI 作恶的潜在风险认知可能是不足的。毕竟,从现有 AI 的能力来看,生成几段文字或图片似乎与“灭绝人类”这样的灾难性后果相去甚远。




03.


犹太实用主义还是白人拯救世界?

截止当前,我们已经看到三家致力于打败 OpenAI,防止 OpenAI 作恶的公司了;事实上这个现象不仅是技术理念和商业道德标准的不合,更是不同宗教,价值观的割裂(例如,Sam Altman 为犹太裔,Elon Musk 则是昂撒白人;详细参考 Figure1,OpenAI 创始人的种族背景),2022 年犹太作家乔舒亚·科恩的小说《内塔尼亚胡一家》获得普利策奖,书中通过自我剖析,批判了美国犹太人主人公精于算计,对钱天生敏感,且信奉一个关键逻辑,即以我为主,为我服务的绝对性立场和思想,他们将“民主”视为压制异见的工具,而非其真正意义。为了实现这种“民主”,让犹太裔或其支持者占据人口多数,成为了必要手段。

《内塔尼亚胡一家》封面

而 Musk 则是反犹先锋,支持巴勒斯坦,在社交媒体 X 上点赞“大替代”阴谋 ( Grand Remplacement ),这一理论和《内塔尼亚胡一家》遥相呼应,声称犹太人和左翼人士通过非白人移民逐步取代白人,最终导致所谓的“白人灭绝”,这一立场加剧了与某些犹太群体的紧张关系。

图为Grand Remplacement 插画

由于理念分歧, OpenAI 的 11 位创始人中已有 8 位离开公司。此外,大量核心员工也纷纷出走,许多人选择创办或加入了 OpenAI 的竞争对手。 

此外,OpenAI 长期因安全问题遭受公司内部、学界和产业界的批评,可谓腹背受敌。为了回应这些批评,OpenAI 在最新发布的 ChatGPT O1 模型中针对安全问题做出了大量改进,试图改变外界对其的负面评价。



04.


OpenAI Mafia(黑帮)创办的 AI 公司

原创图:OpenAI 黑帮创业项目

根据 OpenAI 2016-2022 年间向美国国税局(IRS) 提供的 990 表格,以及媒体报道显示,OpenAI 从创始至今核心成员有 44 人,其中 33 人目前已经离职其中19 人目前参与创办了 13 家人工智能企业,或者在人工智能初创企业中担任要职。

11 位创始人有 8 位已经离职,仍然留在 OpenAI 的三位创始人是

  1. Sam Altman,OpenAI 首席执行官  ;

  2. Greg Brockman,OpenAI 总裁 ,已经休假一年,有离职的可能;

  3. Wojciech Zaremba,OpenAI 语言和代码生成团队负责人 ;

OpenAI Mafia 总融资额为 205 亿美元,总估值超过 640 亿估值。其中融资额最大的企业是 xAI,和 Anthropic,分别融资 60 亿美元和 97 亿美元。

Figure 2:OpenAI Mafia 创办的企业

Anthropic

• Anthropic PBC 是一家美国的人工智能初创企业和公益公司,专注于开发通用 AI 系统和语言模型,秉持负责任的 AI 使用理念。公司由 OpenAI 的前安全副总裁 Daniela Amodei、研究主管 Dario Amodei、政策主管 Jack Clark 等人创立。公司目前的总融资额为 97 亿美元,估值 180 亿美元。

• Anthropic 的核心产品是 Claude 3.5 Sonnet,它在各类任务和评估中表现卓越,特别是在除数学以外的多项任务中与 GPT-4o 相比得分更高或相近。Anthropic 还推出了 Claude.ai 的 Artifacts 功能,允许用户在生成代码、文本文档或网站设计时获得与之相关的工件。

 Inflection AI

• Inflection AI 是一家专注于机器学习和生成式 AI 硬件与应用程序的科技公司,成立于 2022 年,总部位于美国加利福尼亚州帕罗奥图。公司由企业家 Reid Hoffman、Mustafa Suleyman 和 Karén Simonyan 创立,并与英伟达合作开发生成式 AI 硬件。

• Inflection AI 于 2023 年 5 月推出了首款产品 Pi,这是一个定位为个人服务的 AI 聊天机器人,区别于 ChatGPT 的生产力工具功能。

Adept AI Labs

• Adept AI Labs 成立于 2021 年,主要负责开发 AI 软件以实现计算机任务自动化。创始人 David Luan 曾任 OpenAI 的工程副总裁,后加入谷歌领导 Google Brain 团队进行模型研发。公司已累计融资 4.15 亿美元,估值约 10 亿美元。

• Adept 的核心产品是 AI 助手 “ACT-1”,与 ChatGPT 类似,能够执行复杂的任务。

Covariant

• Covariant 是一家人工智能机器人公司,致力于构建通用人工智能,使机器人能够学习并操作现实世界中的任务,主要应用于仓储和物流行业。公司由四位创始人创立,其中包括 AI 机器人领域的著名科学家 Pieter Abbeel,三位创始人在创立 Covariant 之前都曾在 OpenAI 担任研究科学家。

• Covariant 自 2017 年成立以来,已累计融资 2.2 亿美元,估值为 6.25 亿美元。

Pilot

• Pilot 成立于 2016 年,提供成长型企业的簿记、税务和首席财务官服务。三位联合创始人分别为 Jeff Arnold(前 OpenAI 营运主管)、Jessica McKellar 和 Waseem Daher。Pilot 通过自动化簿记和财务报告来帮助企业降低成本和提高效率。

• 公司目前融资额为 1.72 亿美元,估值 12 亿美元。

Cresta

• Cresta 成立于 2017 年,由 Zayd Enam、Tim Shi 和 Sebastian Thrun 共同创立,旨在通过 AI 技术提升销售和服务团队的效率。Tim Shi 曾是 OpenAI 的技术员工,Sebastian Thrun 是 “自动驾驶之父”。

• Cresta 已融资 1.51 亿美元,估值 16 亿美元,并为客户创造了数百万美元的增量收入。

 xAI

• xAI 是 Elon Musk 于 2023 年创立的人工智能初创公司,由 OpenAI、Google DeepMind、微软研究院等公司前雇员组成。其目标是开发具备高阶逻辑推理能力的 AI 模型,超越现有模型。xAI 的核心产品 Grok 是一个生成式 AI 聊天机器人,能够实时回答用户问题。

• Grok 2 还具有基于与 Black Forest Labs 合作推出的扩散 AI 模型 Flux.1 的图像生成能力,并在多项基准测试中表现优异。

Eureka Labs

• Eureka Labs 是一家新的教育初创公司,由 OpenAI 联合创始人 Andrej Karpathy 于 2024 年创立。公司旨在创建 AI 原生学校,利用生成式 AI 增强学习体验。

• Eureka Labs 的首个产品是 AI 课程 LLM101n,帮助学生训练自己的 AI 模型,课程材料将在线提供。

Perplexity

• Perplexity AI 是一个由 AI 驱动的搜索引擎,通过自然语言预测来回答查询。公司于 2022 年成立,创始团队包括 Aravind Srinivas 和 Denis Yarats 等人。Perplexity 提供免费和付费版本,付费版本 Perplexity Pro 访问多种高级 AI 模型。

• 公司目前融资 2.5 亿美元,估值 30 亿美元。

Gantry

• Gantry 由 OpenAI 联合创始人 Vicki Cheung 创立,基于云原生技术构建,旨在评价 AI 模型的表现,并提供快速部署的工具。公司专注于模型的性能、数据质量、用户满意度等指标。

Poe

• Poe 是问答平台 Quora 于 2023 年推出的生成式 AI 聊天助手聚合平台,由 OpenAI 前董事 Adam D’angelo 创立。Poe 平台聚合了多个知名的聊天助手,包括 ChatGPT、Claude 和 Bard 等。

• Poe 采用按月和按年的订阅收费模式。

Safe Superintelligence Inc.

• Safe Superintelligence Inc. 由 OpenAI 联合创始人 Ilya Sutskever 创办,专注于构建安全的超级智能(SSI),公司将安全置于商业压力之上,目标是通过革命性的工程和科学突破来解决 SSI 问题。

左二为 Ilya Sutskever

Alignment Research Center (ARC)

• ARC 是一家非营利研究机构,致力于将 AI 的行为对齐人类价值观和预期利益。由 OpenAI 前研究员 Paul Christiano 创立,专注于识别和理解 AI 模型的潜在危害。




05.


总结

这些曾经塑造 OpenAI 的人,如今正站在它的对立面,决意挑战自己亲手创造的技术。于是,OpenAI 的叛逃者们便成了挑战巨人风车的现代唐吉坷德。不同的是,这场“战斗”不仅带有个人英雄主义的浪漫,也有源自对技术失控的现实恐惧。他们知道,真正的敌人不是技术本身,而是我们对技术的盲目崇拜和对其内在运作机制的无知。

敬请期待有关 AI 安全的其他文章,将会分析 AGI 从技术原理为什么会导致作恶,以及具体解决思路,也会探讨具备安全性的 AI 大模型是否更有商业价值。


【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

爆米花独角兽
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开