认知边界

LLM 是新型的 CPU

2023-09-30 15:19:04 187

by Nathan Baschez March 15, 2023

如果你想了解未来十年人工智能的发展将如何展开,一个好的历史类比是上世纪八九十年代个人电脑(PC)行业中的猫鼠游戏。

当时,电脑已经足够好,吸引了数百万用户,但其有限的速度和存储常常是一个痛点。对提升性能的需求极大。然而,每当推出新一代更强大的电脑后,开发者立即构建了能充分利用新容量的应用程序,使得电脑的感觉慢和空间受限,进而推动对下一代改进的需求。

主要瓶颈是中央处理器(CPU)。电脑所做的一切都要经过它,因此如果CPU负载过高,一切都会感到缓慢。因此,拥有最快的CPU就成为非常有吸引力且可以收取溢价的资产。

英特尔是主导者。它的兼容设备生态系统、专利库、设计和制造一体化、规模经济、合作伙伴关系和品牌认可(即使在消费者中也如此!)共同使其成为90年代最大且利润最丰厚的CPU供应商。不容低估英特尔的主导地位——在整个时代,英特尔的市场份额一直保持在80%至90%之间。直到移动平台出现转变,电池效率突然变得重要,英特尔的巨人地位才开始解体。[1]

如今,我们正见证一种新型“中央处理器”的出现,它为各种应用程序的性能定义。但不同于对1和0执行简单、确定性操作的CPU,这些新型处理器以自然语言(现在还有图像)作为输入,并进行智能概率推理,输出文本。

就像CPU一样,它们成为越来越多任务的中央“大脑”。至关重要的是,它们的性能足够好,吸引了数百万用户,但目前的缺陷非常明显,需要进行改进。每次推出新模型时,开发者都会利用新的功能,推动系统达到极限,从而引发对下一代改进的需求。

当然,我所说的新型中央处理器是LLM(大型语言模型)。如今,OpenAI是当前主导的LLM供应商。他们昨天发布了最新模型GPT-4,并超越了以前的性能基准。但开发者和用户仍然渴望更多。

虽然LLM在精神上与CPU有很多共同之处,但目前还不清楚LLM业务是否像CPU业务那样具有利润和可防御性。OpenAI即将面临竞争。如果他们失败了,这将不是首次一个复杂新技术的先驱失去市场份额。

案例研究:英特尔的内存失败

我们再次从英特尔的过去找到启示,以揭示OpenAI的未来。英特尔早期的岁月成为了一个关于商品化的警示事例。作为80年代、90年代和21世纪初CPU的主要供应商,我们很容易忘记英特尔实际上最开始是从RAM内存业务起步的,甚至在20世纪70年代还帮助打造了这个市场。凭借卓越的技术和设计,英特尔在早年成功占领了市场,但随着时间的流逝,却难以在RAM市场上保持竞争力。

只需看看英特尔市场份额的惨痛下滑(用黄色标出): 图注:以下图表和分析来自[这篇优秀论文](https://www.jstor.org/stable/2393493),该论文基于对英特尔数十位关键高管的面谈。

发生了什么呢?竞争的基础发生了转变。在内存行业的早期阶段,最重要的是拥有正确的芯片设计。英特尔凭借出色的工程师才能获得胜利。然而随着时间的推移,制造效率变得更加重要。RAM内存的基本架构变得更加标准化,许多公司也学会了如何生产,因此在竞争中胜出的是那些能够更快、更高效、更高产率地制造新内存芯片的公司。而英特尔的才华在于芯片设计,而非制造工艺。

英特尔很快意识到,CPU业务更适合他们的能力。在这个领域中,制造效率相对较不重要,而设计和性能更为关键。CPU是一项更加复杂的技术,需要更深度地融入到客户的产品中。一旦你的计算机基于某种CPU架构设计,更换将会非常麻烦。英特尔通过向客户展示每年发布性能更强大的芯片,并且可以以最小的升级成本进行升级,赢得了市场。客户希望押注于团队,能够以最低的升级成本为他们提供最佳性能,因此围绕英特尔产品建立起一个生态系统。

将英特尔的经验应用到LLM市场上

就像英特尔遭遇的困境一样,中央处理器(CPU)是一种有差异化的产品,而计算机内存则成为了一种商品。那么,在新兴的人工智能世界中,LLM将属于哪一类呢?

从某些方面来看,它们与CPU很相似。正如本文一开始提到的,从功能上来看,它们是大多数新智能软件功能的核心“大脑”。而且,目前性能还不够好,这成为改善整体人工智能产品质量的关键瓶颈,因此开发人员和用户对改进的需求非常迫切。

但是,LLM在某些关键方面也与内存类似。尽管它内部非常复杂,但与其集成到的应用之间的接口非常简单:输入文本,输出文本。(好吧,新一代的LLM现在可以接受文本和图像作为输入,但接口仍然非常简单,核心观点保持不变。)与CPU不同,更换LLM非常容易,如果使用像LangChain这样的框架,只需改变一行代码。此外,由于使用LLM的成本对许多应用来说仍然过高,因此提高效率、降低成本的竞争压力非常现实。

综合考虑这些原因,我不禁得出结论,尽管LLM在某种程度上与CPU相似,但其经济模式更接近内存业务。如果我的推测正确,这对OpenAI来说可能是个坏消息。

关键是缺乏切换成本。这对应用程序开发人员来说是好事,但对LLM提供商来说则不具有利好效应。在技术工具中,当切换成本很高时,通常会围绕其形成生态系统。以JavaScript框架为例。比如,如果你使用ReactJS编写代码,除非你正在开发全新的产品,否则你可能不会改用Vue。而且,如果你想构建插件或库,使其与多个框架相兼容往往需要付出双倍努力。这导致了一种由切换成本引发的网络效应,人们只会构建与最受欢迎框架兼容的库。这反过来又促成了一种“赢者通吃”的局面。

现在来看,还为时过早,但我没有看到LLM上出现类似动态的迹象。它们更像云存储供应商。比如,如果我想将应用程序的图像托管在Microsoft Azure而不是Amazon S3上,这只是一个相对简单的变化。到目前为止,更换LLM甚至更容易,因为LLM不保存任何状态或数据。

目前围绕LLM开发的工具还不多,但已有的工具几乎都是“供应商不可知”的,它们假设应用可能会频繁切换模型,甚至同时使用多个模型来完成特定任务。这得益于“输入文本,输出文本”的简单接口。

未来是否会有变化,接口变得更加复杂,从而增加切换成本呢?这似乎不太可能。当然,构建复杂接口很容易,但让开发人员采用则是难点。更简单通常更受欢迎。之所以有些人采用具有复杂接口的工具(如英特尔的x86指令集或React的JavaScript API),是因为他们在尝试完成的任务中存在着无法简化的复杂性。实际上,往往能够使复杂任务看起来更简单才是那些成功工具的原因之一。我亲身经历过,这是React赢得胜利的重要原因之一,英特尔的论文中也将其作为成功的重要原因之一。

我认为,唯一能完全改变这种动态的方式是OpenAI(或其竞争对手)决定开源其模型。虽然这样做可能会减弱其权力,但我相信实际上他们可能会赢得更多。运行自己的LLM实例并进行定制要比仅使用简单的Web API复杂得多,因此切换成本更高。而且,只有那些具有特定隐私和定制需求的大组织才会折腾这个,所以这是一个很有吸引力的客户群来帮助自己实现嵌入。也许,相比于通过提供托管LLM服务获得收入,他们可能会少赚一些钱,但这也会开启新的收入渠道,如客户服务和咨询。

但目前为止,最好的模型只能通过API提供。让我们暂且假设它将继续保持这种状态。那么OpenAI还有什么办法可以产生网络效应呢?有人认为通过ChatGPT与用户的直接联系会有所帮助,因为这为OpenAI提供了独特的训练数据,但目前尚不清楚这是否会带来除了略微提升LLM质量之外的其他影响。我会密切关注这一点,但我个人的直觉告诉我这可能并不会有太大影响。

对你来说这意味着什么

对开发者而言,如今是一个打造由 LLMs 支持的应用程序的好时机。尽管目前看来,OpenAI 似乎是该领域的唯一玩家,但我不认为这种情况能够长期存在。虽然 OpenAI 是一家重要公司,但一旦有一两种可以接受的替代品,价格就有可能会下降。然后,竞争的焦点就有可能转向规模效益,像内存业务和云计算一样。

对于 OpenAI 来说,其成功将越来越取决于这些因素,开发新的高质量模型将不再是唯一重要的任务,就如同过去一样。微软 Azure 是(也将会是)在此过程中至关重要的合作伙伴,因为它们具有帮助 OpenAI 扩展规模的资源和专业知识。这不是对未来的预测,而是对今日事物的陈述。这就是为什么新的 ChatGPT API 比之前的 GPT-3 API 降价了10倍,而且 OpenAI 和微软工程师共同研发专用芯片和运行这些模型的基础设施是经济上的必要行动。

对于 OpenAI 的竞争者来说,目前的首要任务还是赶超。到目前为止,我还没有见到任何一个能接近 GPT-3(更不用说 GPT-4)实际性能的模型。直到这变成现实,任何关于效率的考虑都无关紧要。我预测这种现象可能维持一到两年,然后知识就会扩散,并且会出现多个高质量的提供商。

我很期待看到 Google 的举动,据说他们在山景城的一个小黑屋中锁着世界上最好的模型。也许他们很快就会发布?我也对 Stability AI 感兴趣,他们是 "Stable Diffusion" 的开发商,听说他们正在开发一个开源的 LLM。Anthropic 刚刚公布了 Claude,尽管还处于早期阶段,但已经令人看好,并值得关注。

事实是,大局正在发生变化,观察接下来几个月甚至几年的发展格局将会十分激动人心。LLMs 将不仅仅是一项 API 服务;他们将成为现代计算的关键元素,产生与 CPU 相似的影响。

如果你曾经希望能在互联网或个人电脑行业的初期,身临其境,那么恭喜你!你现在站在了一个同样重要的历史时刻。





[1] 如果你在思考为什么 Intel 在制造节能 CPU 方面遇到挑战,这个附注就是给你的答案!这是一个非常有趣的问题。在 Intel 的整个 CPU 制造历史中,他们几乎没有过多关注过能源效率,因为他们设计的这些机器大都是在工作台上、插着电源使用的。然而,这是一个难以转变的事实。相比 Intel,移动设备生产商选择的芯片架构 (ARM) 有着截然不同的设计理念。它并不是一个电力密集的黑匣子,而是更像一个可以大规模定制的工具集。这非常重要,因为为了优化整体性能和电池寿命,你必须具有对 CPU 更多的控制权,而这是 Intel 的设计无法提供的。现在你能够理解了!



source:

https://every.to/divinations/llms-are-the-new-cpus?sid=26026

硅基人工智能的发展前景

硅基人工智能的发展前景

硅基人工智能的发展前景本文观点来自:OpenAI首席科学家Ilya人工智能模拟人脑的局限当前最先进的GPT人工智能在结构上已经可以模拟人脑的许多功能。例如,它基于冯诺依曼计算架构构建的人工神经网络ANN,其运行机制与人脑生物神经网络BNN高度相似。这使得GPT模型可以像人类一样操纵语言。但是,我们也
2023-08-31
这次的人工智能浪潮能持续多久?

这次的人工智能浪潮能持续多久?

终极 AI在最近的一个采访中,Inflection AI 的 CEO 穆斯塔法·苏莱曼被问到什么样的AI才能算是终极AI。他认为终极AI应该具有自主运行、自我迭代的能力。它能够自主地识别环境中的新信息和奖励信号,并利用这些进行自我监督,随着时间推移不断更新自己的权重。如果出现这样的AI,它将具有非常
2023-09-05

LLM 是新型的 CPU

如果你想了解未来十年人工智能的发展将如何展开,一个好的历史类比是上世纪八九十年代个人电脑(PC)行业中的猫鼠游戏。当时,电脑已经足够好,吸引了数百万用户,但其有限的速度和存储常常是一个痛点。对提升性能的需求极大。然而,每当推出新一代更强大的电脑后,开发者立即构建了能充分利用新容量的应用程序,使得电脑
2023-09-30

LLM VS Computer

最近,Andrej Karpathy 在x 上有一个关于LLM 类比 CPU 的讨论, 看了下,发现类似的研究还挺多的, 我这些观点综合整理了成了一个表格:比较计算系统大语言模型(LLM)机器规模早期大型机需要高性能显卡的计算机基本处理单元Bitstokens处理器CPU人工神经网络(NLPU)执行
2023-09-30
线性关系嵌入探究语言模型处理复杂关系的新视角

线性关系嵌入探究语言模型处理复杂关系的新视角

在最新的科技研究中,专家们提出了一种名为线性关系嵌入(LREs)的概念,旨在探索和解释大型语言模型是如何处理和编码复杂关系的。这种方法基于一个简单的假设:对于某些特定的关系,比如人与职业、首都与国家之间的关系,模型在处理这些信息时,其实是通过一种线性的方式来进行的。为了更深入地理解这一过程,研究者开
2024-03-29