撰文:Sunyan
翻译:杨婷、徐佳渝、贾川
ChatGPT 能否取代 Google、百度这样的传统搜索引擎?为什么中国不能很快做出 ChatGPT?当前,对这些问题的探讨大多囿于大型语言模型(LLM)的技术可行性,忽略或者非常粗糙地估计了实现这些目标背后的经济成本,从而造成对 LLM 的开发和应用偏离实际的误判。
本文作者从经济学切入,详细推导了类ChatGPT 模型搜索的成本、训练 GPT-3 以及绘制 LLM 成本轨迹的通用框架,为探讨 LLM 成本结构和其未来发展提供了可贵的参考视角。
重点概览:
动机
LLM 的惊人表现引发了人们的广泛猜想,这些猜想主要包括 LLM 可能引发的新兴商业模式和对现有模式的影响。
搜索是一个有趣的机会,2021 年,仅谷歌就从搜索相关的广告中获得了超 1000 亿美元的收入[1]。ChatGPT(一个使用 LLM 的聊天机器人,它可以生成高质量的答案,以回答类似于搜索的查询)的“病毒性”传播已经引发了许多关于搜索领域潜在影响的思考,其中一个就是 LLM 如今的经济可行性:
更广泛的问题是:** 将 LLM 纳入当前产品和新产品的经济可行性如何?** 在本文中,我们梳理了当今 LLM 的成本结构,并分析其未来可能的发展趋势。
重温 LLM 工作原理
尽管后续章节的技术性更强,但这篇文章对机器学习熟悉程度不做要求,即使不熟悉这方面内容的人也可以放心阅读。为了说明 LLM 的特殊之处,现做一个简要复习。
语言模型在给定上下文的情况下,对可能输出的 token 作出预测:
自回归语言模型(Autoregressive Language Model)输入上下文和输出内容的图示(在实践中,token 通常是子词:即“happy”可能被分解为两个 token,例如“hap”、“-py”)
为了生成文本,语言模型根据输出 token 的概率重复采样新 token。例如,在像 ChatGPT 这样的服务中,模型从一个初始 prompt 开始,该 prompt 将用户的查询作为上下文,并生成 token 来构建响应(response)。新 token 生成后,会被附加到上下文窗口以提示下一次迭代。
语言模型已经存在了几十年。当下 LLM 性能的背后是数十亿参数的高效深度神经网络(DNN)驱动。参数是用于训练和预测的矩阵权重,浮点运算(FLOPS)的数值通常与参数数量(parameter count)成比例。这些运算是在针对矩阵运算优化的处理器上计算的,例如 GPU、TPU 和其他专用芯片。
随着 LLM 参数量呈指数增长,这些操作需要更多的计算资源,这是导致 LLM 成本增加的潜在原因。
LLM 驱动搜索的成本
本节,我们将估算运行 LLM 驱动搜索引擎的成本。应该如何实施这样的搜索引擎仍是一个活跃的研究领域,我们这里主要考虑两种方法来评估提供此类服务的成本范围:
然而,对于相同参数数量的 LLM,这种方法需要更高的计算成本。使用这种方法的成本也增加了搜索引擎的现有成本,因为我们在现有搜索引擎的结果上增加了 LLM。
最直接的成本估算方法是参考市场上现有基础模型 API 的标价,这些服务的定价包括成本的溢价部分,这部分是供应商的利润来源。一个代表性的服务是 OpenAI,它提供基于 LLM 的文本生成服务。
OpenAI 的 Davinci API 由 GPT-3 的 1750 亿参数版本提供支持,与支持 ChatGPT 的 GPT-3.5 模型具有相同的参数数量[8] 。现在用该模型进行推理的价格约为 0.02 美元 /750 个单词(0.02 美元 /1000 个 token,其中 1000token 约等于 750 个单词);用于计算定价的单词总数包括输入和输出[9]。
按模型功能划分的基础模型 API 定价 (OpenAI)
我们这里做了一些简单假设来估计将支付给 OpenAI 的搜索服务费用:
在 2-Stage Search Summarizer 的实现中,响应生成过程是相似的。然而:
假设优化的缓存命中率为 30%(谷歌历史搜索缓存命中率的下限[10])和 OpenAI 云服务的毛利率为 75%(与典型的 SaaS 服务一致),我们的一阶估计意味着:
按照数量级,ChatGPT Equivalent 服务的预计云计算成本为 0.010 美元 / 次,与公众评论一致:
OpenAI 首席执行官 Sam Altman 谈 ChatGPT 每次聊天的成本([推特](https://twitter.com/sama/status/1599671496636780546?lang=en)鉴于 ChatGPT Equivalent 的上述缺点(即幻想事实、模型信息陈旧),在实际操作中,LLM 驱动搜索引擎的开发者更可能部署 2-Stage Search Summarizer 变体。
2012 年,谷歌搜索主管表示,其搜索引擎每月处理的搜索次数达 1000 亿次[11]。世界银行数据显示:全球互联网普及率已从 2012 年的 34% 上升到了 2020 年的 60%[12]。假设搜索量按比例增长,则预计其年均搜索量将达 2.1 万亿次,与搜索相关的收入将达约 1000 亿美元[13],平均每次搜索的收入为 0.048 美元。
换句话说,2-Stage Search Summarizer 的查询成本为 0.066 美元 / 次,约为每次查询收入 0.048 美元的 1.4 倍。
综合以上改进,降低至原有成本的 1/8 之后,在搜索中融入高性能 LLM 的成本大约占据当前查询收入的 15%(现有的基础设施成本除外)。(注:成本最低可降至 0.066 美元 / 次 * 1/4 * 1/2, 约定于 0.008 美元,因此大约占每次查询收入 0.048 美元的 15%)
如今,SOTA 大型语言模型通常会用到可比较的模型架构(最常见的是仅包含解码器的 Transformer 模型),在推理过程中每个 token 的计算成本(以 FLOPs 为指标)约为 2N,其中 N 为模型参数数量(model parameter count)[14]。
目前,NVIDIA A100 是 AWS 最具成本效益的 GPU 选择,若预定 1 年使用该 GPU,拥有 8 个 A100 的 AWS P4 实例的有效时薪(effective hourly rate)将达 19.22 美元。[15]每个 A100 提供峰值 312 TFLOPS(万亿次浮点数 / 秒)FP16/FP32 混合精度吞吐量,这是 LLM 训练和推理的关键指标[16]。FP16/FP32 混合精度是指以 16 位格式(FP16)执行操作,而以 32 位格式(FP32)存储信息。由于 FP16 的开销较低,混合精度不仅支持更高的 FLOPS 吞吐量,而且保持精确结果所需的数值稳定性也会保持不变[17]。
假设模型的 FLOPS 利用率为 21.3%,与训练期间的 GPT-3 保持一致(虽然最近越来越多的模型效率得以提升,但其 FLOPS 利用率对于低延迟推理而言仍充满挑战)[18]。因此,对于像 GPT-3 这样拥有 1750 亿参数的模型:
我们也应用了基于 GCP TPU v4 定价( GCP TPU v4 pricing)相同的计算方法,并得到了相似的结果[19]:
预估 GPT-3 通过云服务提供商 (AWS, GCP)每处理 1000 个 token 所需的推理成本
OpenAI 的 API 定价为 0.02 美元 /1000 词,但我们估计其成本约为 0.0035 美元 /1000 词,占定价的 20% 左右。这就意味着:** 对于一台一直运行的机器而言,其毛利率约为 80%。** 这一估算与我们之前设想的 75% 毛利率大致相同,进而为 ChatGPT Equivalent 和 2-Stage Search Summarizer 搜索成本估算提供了合理性验证(sanity check)。
训练成本如何?
另一个热门话题是 GPT-3(拥有 1750 亿参数)或最新的 LLM(如拥有 2800 亿参数的 Gopher 和拥有 5400 亿参数的 PaLM)的训练成本。基于参数数量和 token 数量,我们构建了一个用于估算计算成本的框架,虽然稍作修改,但同样适用于此:
1750 亿参数模型的 GPT-3 是在 3000 亿 token 上进行训练的。谷歌使用了 GCP TPU v4 芯片来训练 PaLM 模型,若我们现在也像谷歌那样做,那么如今的训练成本仅为 140 万美元左右。
此外,我们还将该框架应用到一些更大的 LLM 模型中,以了解其训练成本。
预估 LLM 在 GCP TPU v4 芯片上的训练成本
绘制成本轨迹的通用框架
为了推导 LLM 的推理成本 / 训练成本,我们总结了如下框架:
密集激活纯解码器 LLM 模型 Transformer(Densely Activated Decoder-Only Transformer LLMs)的推理成本和训练成本(其中“N”是模型参数数量,“processor”是指 TPU、GPU 或其他张量处理加速器)
因此,我们假设 LLM 的架构相似,那么推理成本和训练成本将根据上述变量的变化而变化。虽然我们会详细考虑每个变量,但是以下部分才是关键点:
自 2020 年 GPT-3 发布以来,使用与 GPT-3 一样强大的模型进行训练和推理的成本大大降低,低于先前的五分之一。
相比 2020 年推出的 GPT-3,与其性能对等的模型的推理与训练成本降低情况总结
考虑到过去 5 年中模型参数呈指数增长,我们普遍猜测:下一代 LLM 模型很可能是万亿参数(密集激活)模型:
LLM 中模型参数数量的增长
虽然 LLM 的参数数量每年约增长 10 倍,但是大多数模型训练数据集的大小并没有显著变化:
所选 LLM 的模型参数数量与训练 token 数量 (训练计算最优大语言模型)
然而,最新文献表明,假设计算资源和硬件利用率(即训练“计算最优”模型)保持不变,关注扩展参数数量(scaling parameter count)并不是性能最大化的最佳方式:
Google DeepMind 的研究人员将一个参数函数(parametric function)拟合到他们的实验结果中,发现参数数量 N 的增速应与训练 token 数量 D 的增长速度大致相同,从而让模型损失 L 实现最小化(即性能最大化):
模型损失的参数函数 (训练计算最优大语言模型)
研究人员还训练了一个名为 Chinchilla 的模型(拥有 700 亿的参数)。虽然该模型的计算资源与 Gopher(拥有 2800 亿参数)相同,但是该模型是在 1.4 万亿 token 上进行训练的而非 3000 亿 token。Chinchilla 的性能明显优于拥有相同 FLOPs 预算的大型模型,从而证明了大多数 LLM 过度支出了计算量和对数据的渴望 (译者注:换言之,对大多数 LLM 来说,使用更多的数据来训练比增大模型参数量要更加划算)。
通过训练数据大小与模型参数来预测模型损失 (错误更少:Chinchilla 的自然环境含义)
虽然 Chinchilla 的参数(以及推理计算需求)比 GPT-3 少 60%,但是其性能远远优于拥有 1750 亿参数的 GPT-3 模型。
实际上,即使我们用与 GPT-3 相同的 3000 亿 token 数据集去训练一个万亿参数模型,仍可以预见该模型的表现不如 Chinchilla:
万亿参数模型相应损失项的相对量级(0.03 的模型参数损失与 0.25 的训练 token 损失)也表明,通过增加模型大小获得的边际效益低于增加数据量获得的边际效益。
展望未来,我们不会继续扩大模型参数数量,而是将增量计算资源(incremental computational resources)转移到质量相当的更大数据集上进行训练,以获得极佳的性能。
对于训练 LLM 而言,最重要的硬件性能指标(hardware performance metric)是可实现的混合精度 FP16/FP32 FLOPS。改进硬件旨在实现成本最小化,同时使得峰值 FLOPS 吞吐量和模型 FLOPS 利用率实现最大化。
虽然这两个部分在硬件开发中密不可分,但为了让分析变得更简单,本节重点关注吞吐量,下一节再讨论利用率。
目前,我们已经通过查看云实例定价(cloud instance pricing)估算了 Cost/FLOP 效率。为了进行下一步探究,我们估算了运行以下机器的成本。主要包括以下两个方面:1)硬件购买(hardware purchase) 2)能源支出(energy expense)。为说明这一点,我们再来看看 GPT-3( 一款由 OpenAI 推出的模型,该模型在 Microsoft Azure 的 10000 个 V100 GPU 上训练了 14.8 天 )[22]:
2020 年用英伟达 V100 GPU 训练 GPT-3 的成本 (碳排放与大型神经网络训练)
黄仁勋定律(英伟达首席执行官黄仁勋于 2018 年提出)指出,在硬件成本方面,GPU 的增长速度比五年前快了 25 倍[23]。在训练 LLM 的背景下,GPU 的性能得到了很大提升,这很大程度上得益于张量核心(Tensor Cores)(AMD 采用的是矩阵核心(matrix cores))。此外,GPU 不再将矢量作为计算原语,而是转为矩阵,从而实现了性能更好、效率更高的混合精度计算。
2016 年,NVIDIA 通过 V100 数据中心 GPU 首次推出了张量核心。与最初引入的张量核心相比,虽然这一改进不太明显,但是每一代张量核心都进一步提高了吞吐量。如今,对于用于训练 LLM 的数据中心 GPU,我们仍能看到每一代 GPU 的吞吐量都提升了 50%(或者说年均吞吐量提升了 22% 左右)。
数据中心 GPU FP16/FP32 吞吐量 / 美元 (NVIDIA)
桌面 GPU 和数据中心 GPU、按精度划分的吞吐量 / 美元 ( 英伟达,深度学习推理中的计算和能源消耗趋势 )
能源效率提升得更快。现在我们可以看到,用于训练 LLM 的数据中心 GPU 的代际吞吐量 / 瓦特提高了 80%(或者说年均吞吐量提高了 34%):
按精度划分的桌面和数据中心 GPU 吞吐量 / 瓦特(英伟达,深度学习推理中的计算和能耗趋势)
仅从 V100(用于训练 GPT-3)到即将推出的 H100 的改进来看,我们预计内部训练成本将降低 58%(即训练成本由 74.4 万美元降低到 31.2 万美元)。
展望未来,我们预测,** 随着硬件设计的不断创新,硬件成本和能效将逐步改进。** 例如,从 V100 到 A100 GPU,NVIDIA 添加了稀疏特性(sparsity features),这进一步将某些深度学习架构的吞吐量提高了 2 倍[24] 。NVIDIA 正在 H100 中添加对 FP8 数据类型的本地支持,当与推理量化等现有技术相结合时,可以进一步提高吞吐量[25]。
此外,TPU 和其他专用芯片的出现从根本上重塑了深度学习用例的芯片架构。谷歌的 TPU 建立在脉动阵列结构(systolic array architecture)之上,可显著减少寄存器使用,提高吞吐量[26]。正如下一节将提到的,随着我们将训练和推理扩展到大型参数模型,最近许多硬件都着力于提高利用率。
出于内存需求,LLM 训练的主要挑战之一就是将这些模型从单个芯片扩展到多个系统和集群级别。在典型的 LLM 训练中,设置保存优化器状态、梯度和参数所需的内存为 20N,其中 N 是模型参数数量[27]。
因此,BERT-Large(2018 年早期的 LLM 之一,拥有 3.4 亿参数)仅需 6.8GB 内存,就可轻松装入单个桌面级 GPU。另一方面,对于像 GPT-3 这样的 1750 亿参数模型,内存要求转换为 3.5TB。同时,NVIDIA 最新的数据中心 GPU(H100)仅包含 80GB 的高带宽内存 (HBM),这表明至少需要 44 个 H100 才能满足 GPT-3 的内存要求。[28]此外,即使在 10000 个 V100 GPU 上训练 GPT-3 也需要 14.8 天。
因此,即使我们增加用于训练的芯片数量,FLOPS 利用率也仍然需要保持高水平,这一点至关重要。
** 硬件利用率的第一个维度是在单芯片层面。** 在单个 A100 GPU 上训练 GPT-2 模型时,硬件利用率达 35.7%[29]。事实证明,片上内存(on-chip memory)和容量是硬件利用的瓶颈之一:处理器内核中的计算需要重复访问 HBM,而带宽不足会抑制吞吐量。同样,有限的本地内存容量会迫使从延迟较高的 HBM 进行更频繁的读取,从而限制吞吐量[30]。
硬件利用率的第二个维度与芯片到芯片的扩展有关。训练像 GPT-3 这样的 LLM 模型需要跨多个 GPU 对模型和数据进行划分。正如片上存储器的带宽可能成为硬件利用的瓶颈一样,芯片间互连的带宽也可能成为硬件利用的限制因素。随着 V100 的发布,NVIDIA 的 NVLink 实现了每个 GPU 300GB/s 的带宽。对于 A100 来说,宽带速度实现了 600GB/s[31]。
硬件利用率的最后一个维度是系统到系统的扩展。一台机器最多可容纳 16 个 GPU,因此扩展到更多数量的 GPU 要求跨系统的互连不能成为性能瓶颈。为此,Nvidia 的 Infiniband HCA 在过去 3 年中将最大带宽提高了 2 倍[32]。
在第二和第三个维度上,软件划分策略是硬件有效利用的关键考虑因素。通过结合模型和数据并行技术,2022 年使用 MT-NLG 的 Nvidia 芯片集群级别的 LLM 训练的模型 FLOPS 利用率达到了 30.2%[33],而使用 GPT-3 的模型 FLOPS 利用率在 2020 年只有 21.3%:
选择 LLM 的模型 FLOPS 利用率(PaLM:使用路径扩展语言建模)
TPU 等专用硬件实现了更高的效率。
谷歌 5400 亿参数的 PaLM 模型在 TPU v4 芯片上实现了 46.2% 的模型 FLOPS 利用率,是 GPT-3 训练利用率的 2.2 倍[34]
FLOPS 利用率的提高得益于更高效的并行训练(使用 Google 的 Pathways ML 系统)以及从根本上 TPU 具有完全不同的架构。该芯片的脉动阵列结构和每个内核的显著的本地内存密度(local memory density)降低了高延迟全局内存(global memory)的读取频率。
同样地,我们可以看到 **Cerebras、Graphcore** 和 SambaNova 等公司在处理器中分配了更多的共享内存容量。展望未来,我们预计其他新兴创新,例如将芯片扩展到晶圆级以减少延迟 / 增加带宽,或通过可编程单元优化数据访问模式等将进一步推动硬件利用率的发展[35]。
大型语言模型即将迎来全盛时期
据《纽约时报》近日报道,谷歌宣称 ChatGPT 是其搜索业务的“红色警报”( code red),它的搜索量呈病毒式发展。
[36]从经济角度来看,通过粗略估算,将高性能 LLM 纳入搜索将花费约 15% 的查询收入,这表明该技术的部署已经切实可行。然而,谷歌的市场主导地位阻碍了它成为这方面的先行者:谷歌目前的搜索收入为 1000 亿美元,将高性能 LLM 纳入搜索会使谷歌的盈利能力减少一百多亿美元。
另一方面,也就难怪微软会计划将大语言模型纳入 Bing 了[37]。尽管 LLM 支持的搜索成本高于传统搜索,并且与谷歌相比,微软搜索引擎的市场份额要低得多,但是微软并未亏损。因此,如果微软能够成功地从谷歌手中夺取搜索市场份额,那么即使现有查询成本更高,微软仍然能够获得极高的利润。
有趣的是,对于其他产品,通过部署 LLM 已经可以通过 SaaS 来盈利。例如,最近估值为 15 亿美元、使用 LLM 生成文案的 Jasper.ai 收费为 82 美元 /100000 字(相当于 1.09 美元 /1000 个 token)[38]。使用 OpenAI 的 Davinci API 定价为 0.02 美元 /1000 个 token,即使我们对多个响应 (response) 进行采样,毛利率也可能远高于 75%。
同样令人惊讶的是,如今在公有云中仅需约 140 万美元即可对 GPT-3 进行训练,而且即使是 SOTA 模型(如 PaLM,约 1120 万美元)的训练成本也不会太高。在过去的两年半里,类似 GPT-3 等模型的训练成本下降了 80% 以上,高性能大语言模型的训练成本将进一步降低。
换句话说,训练大语言模型并不便宜,但也没那么烧钱,训练大语言模型需要大量的前期投入,但这些投入会逐年获得回报。更近一步,Chinchilla 论文表明,在未来,相比资金,高质量数据会成为训练 LLM 的新兴稀缺资源之一,因为扩展模型参数数量带来的回报是递减的。
(本文经授权后由 OneFlow 编译发布,译文转载请联系 OneFlow 获得授权。原文地址: https://sunyan.substack.com/p/the-economics-of-large-language-models)
🕹加入社群
项目方资源对接群 | 一起看项目群 | 欢迎蠢问题 web3 科普群
Web3 招聘求职群
· · · · ·
WhoKnows DAO 为 Web3 builder 提供喂食服务。我们集结有信息审美的阅读者、创作者、Web3 从业者,推荐 / 梳理 / 专题研究并输出,共同构建更好的信息饮食体验。 回复[社群]获得加群通道,回复[滴滴]和我们一起搞事情。
点个 👍 & 在看再走叭 ☕️
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。