网易首页 > 网易号 > 正文 申请入驻

满满干货!OpenAI大神免费公开课,有关大语言模型,该讲的都讲了

0
分享至

VIA:宝玉xp

OpenAI 的大神 Andrej Karpathy 前几天在他的 YouTube 频道讲了一堂课,系统的介绍了大语言模型,内容深入浅出,非常赞,抽空将它翻译成了双语。

下是第一部分

Intro: Large Language Model (LLM) talk

大家好。最近,我进行了一场关于大语言模型的30分钟入门讲座。遗憾的是,这次讲座没有被录制下来,但许多人在讲座后找到我,他们告诉我非常喜欢那次讲座。因此,我决定重新录制并上传到 YouTube,那么,让我们开始吧,为大家带来“忙碌人士的大语言模型入门”系列,主讲人 Scott。好的,那我们开始吧。

LLM Inference

首先,什么是大语言模型 (Large Language Model) 呢?其实,一个大语言模型就是由两个文件组成的。在这个假设的目录中会有两个文件。

以 Llama 2 70B 模型为例,这是一个由 Meta AI 发布的大语言模型。这是 Llama 系列语言模型的第二代,也是该系列中参数最多的模型,达到了700亿。LAMA2系列包括了多个不同规模的模型,70亿,130亿,340亿,700亿是最大的一个。

现在很多人喜欢这个模型,因为它可能是目前公开权重最强大的模型。Meta 发布了这款模型的权重、架构和相关论文,所以任何人都可以很轻松地使用这个模型。这与其他一些你可能熟悉的语言模型不同,例如,如果你正在使用 ChatGPT 或类似的东西,其架构并未公开,是 OpenAI 的产权,你只能通过网页界面使用,但你实际上没有访问那个模型的权限。

在这种情况下,Llama 2 70B 模型实际上就是你电脑上的两个文件:一个是存储参数的文件,另一个是运行这些参数的代码。这些参数是神经网络(即语言模型)的权重或参数。我们稍后会详细解释。因为这是一个拥有700亿参数的模型,每个参数占用两个字节,因此参数文件的大小为140 GB,之所以是两个字节,是因为这是 float 16类型的数据。

除了这些参数,还有一大堆神经网络的参数。你还需要一些能运行神经网络的代码,这些代码被包含在我们所说的运行文件中。这个运行文件可以是 C 语言或 Python,或任何其他编程语言编写的。它可以用任何语言编写,但 C 语言是一种非常简单的语言,只是举个例子。只需大约500行 C 语言代码,无需任何其他依赖,就能构建起神经网络架构,并且主要依靠一些参数来运行模型。所以只需要这两个文件。

你只需带上这两个文件和你的 MacBook,就拥有了一个完整的工具包。你不需要连接互联网或其他任何设备。你可以拿着这两个文件,编译你的 C 语言代码。你将得到一个可针对参数运行并与语言模型交互的二进制文件。

比如,你可以让它写一首关于 Scale AI 公司的诗,语言模型就会开始生成文本。在这种情况下,它会按照指示为你创作一首关于 Scale AI 的诗。之所以选用 Scale AI 作为例子,你会在整个演讲中看到,是因为我最初在 Scale AI 举办的活动上介绍过这个话题,所以演讲中会多次提到它,以便内容更具体。这就是我们如何运行模型的方式。只需要两个文件和一台 MacBook。

我在这里稍微有点作弊,因为这并不是在运行一个有700亿参数的模型,而是在运行一个有70亿参数的模型。一个有700亿参数的模型运行速度大约会慢10倍。但我想给你们展示一下文本生成的过程,让你们了解它是什么样子。所以运行模型并不需要很多东西。这是一个非常小的程序包,但是当我们需要获取那些参数时,计算的复杂性就真正显现出来了。

那么,这些参数从何而来,我们如何获得它们?因为无论 run.c 文件中的内容是什么,神经网络的架构和前向传播都是算法上明确且公开的。

第二部分:

** LLM Training

但真正的关键在于这些参数,我们如何得到它们?所以,为了获得模型参数,所谓的模型训练过程比我之前展示的模型推断要复杂得多。模型推断只是在 MacBook 上运行模型。而模型训练则是一个计算上极为复杂的过程。简单来说,我们所做的可以被理解为对大量互联网内容的压缩。

因为 Llama 2 70B 是一个开源模型,我们对其训练方式有相当深入的了解,这得益于 Meta 在论文中公开的信息。以下是一些相关的数据。你需要从互联网上获取大约10 TB 的文本,通常这些文本来自于对互联网的爬取。想象一下,从各种不同的网站上收集大量的文本,并将它们汇集起来。接下来,你需要获取一大块互联网数据,然后,你需要配置一个 GPU 集群,这些 GPU 是为了处理像神经网络训练这样复杂的计算任务而专门设计的高性能计算机。

你需要大约6,000个 GPU,并且需要运行大约12天才能得到一个 Llama 2 7B,整个过程大约需要花费200万美元。这个过程基本上就是将这大量的文本压缩成你可以想象的一种 zip 文件。我在早些时候的幻灯片中向你展示的这些参数,可以被理解为互联网的 zip 文件。例如,在这种情况下,最终生成的是140GB 的参数。大致来说,这里的压缩比率达到了大约100倍。

但这种压缩与 zip 文件不同,因为 zip 文件是无损压缩,而这里是有损压缩。我们只是大致获取了我们训练文本的概念,而不是在这些参数中保留了文本的完整副本。所以,可以把它理解为一种有损压缩方式。另外需要指出的是,按照目前最先进技术的标准,这些数据其实只是入门级别的。如果考虑到像 ChatGPT、Claude 或 Bard 这样的顶尖神经网络,这些数字可能需要增加十倍甚至更多。

这意味着在实际操作中,我们需要将这些数字大幅上调。这也解释了为什么如今这些神经网络的训练成本高达数千万甚至数亿美元,它们需要庞大的计算集群和大量数据集,而且在获取参数的过程中需要付出巨大努力。一旦获得了这些参数,实际运行神经网络的计算成本就相对较低了。

那么,这个神经网络到底在做什么呢?正如我之前提到的那些参数,神经网络的主要任务其实是预测文本序列中的下一个词。你可以这样理解:当你输入一连串词语,比如 "cat sat on a",这些词就会被送入神经网络。神经网络中分布着的这些参数,就是完成这一任务的关键。通过神经元的相互连接和激发,来预测下一个单词。

你可以这么理解这个过程:输入一段文本后,神经网络会预测下一个词是什么。举个例子,在 "cat sat on a" 这四个

词的上下文中,神经网络可能会预测下一个词是“mat”,并且给出了97% 的高概率。这就是神经网络要解决的核心问题。从数学上可以证明,预测与数据压缩之间存在密切联系。这也是为什么我会说,这种神经网络训练在某种意义上是一种数据压缩:因为如果你能够非常准确地预测下一个词,你就可以利用这个能力来压缩数据集。

所以,这其实是一个专注于预测下一个词的神经网络。你输入一些词,它就会告诉你接下来的词是什么。这种训练的结果之所以显得有些神奇,是因为尽管下一个词预测看似是一个简单的任务,但实际上它是一个非常强大的目标。因为这个目标迫使神经网络在其参数中学习到大量关于世界的信息。

我举个例子,我在准备这个演讲时随机找了一个网页。这个页面是从维基百科的主页抓取的,讲的是 Ruth Handler 的故事。所以,想象一下你是神经网络,你需要根据给定的词来预测下一个词。在这个例子中,我用红色标出了一些信息量很大的词。例如,如果你的目标是预测下一个词,那么你的参数必须要学习很多这样的知识。你得知道 Ruth Handler 是谁,她何时出生,何时去世,她是谁,她的成就等等。在这个预测下一个词的任务中,你实际上学到了大量关于世界的知识,所有这些知识都被压缩到权重和参数中。

** LLM Dreams

那么,我们如何实际使用这些神经网络呢?当我们训练好它们后,我演示了模型推断是个非常简单的过程。我们基本上是生成下一个词,我们从模型中采样,选择一个词,然后我们继续将其反馈进去并得到下一个词,然后继续这样反馈。我们可以重复这个过程,让这个网络仿佛在“梦游”互联网文档。打个比方,如果我们只是运行神经网络,或者说进行推理,我们会得到类似于在网络上浏览的梦境体验。

可以这么理解:因为这个神经网络是基于网页内容进行训练的,然后它可以自由遨游于其中。例如,在左边,我们可以看到类似于 Java 代码的“梦境”。中间的部分,看起来像是对亚马逊产品描述的“梦境”。而右边,则似乎呈现出一篇维基百科文章的样子。以中间的这个例子为例,标题、作者、ISBN 编号等等,这些内容都是神经网络完全自行创造的。这个网络正在“梦想”出它所训练数据集中的文本类型,它在模仿这些文档,但其实,这些都像是它的幻觉一样。

比如说 ISBN 号码,这个号码几乎可以肯定是不存在的。网络只是知道在“ISBN:”后面通常会跟着这样长度的数字,然后就随机生成一个。实际上,它只是随意插入看起来合理的内容。因此,它在模仿训练数据集的分布模式。在右边,黑鼻鲑鱼,我查了一下,它实际上是一种鱼。这里的情况是,这段文字在训练集文档中并未原样出现,但如果你真的去查证,会发现对这种鱼的这些描述信息大致上是正确的。因此,这个网络对这种鱼有一定的了解,它知道很多关于这种鱼的信息。它不会完全复制训练集中看到的文档,但它会对互联网的信息进行某种程度的压缩和整合,它能够记住整体的轮廓。它大致掌握了相关知识,然后开始创造。它构建了一种合适的形式,并用自己的知识填充其中。

但我们永远不能百分之百确定它生成的内容是幻觉、错误的回答,还是正确的回答。所以,它的一部分内容可能是记忆中的,而另一部分则不是,我们无法精确区分。但大多数情况下,这就像是它在梦游或在做关于互联网文本的梦,源于它的数据分布。这种能力使得神经网络能够生成各种文本,从代码到商品描述再到百科全书条目,但它也意味着生成的内容需要谨慎验证和审查,以确保准确性和可信度。这就是模型训练和模型推断的关键过程,它们共同构建了人工智能模型的能力和潜力。

第三部分:

** How do they work?

好了,让我们换个话题,来看看这个神经网络是怎么运作的?它是如何完成下一个词预测任务的?它内部的运作机制是什么?这里的情况稍微复杂一些。如果我们放大神经网络的简化图,这有点像是神经网络的示意图。这就是我们称之为 Transformer 的神经网络架构,这是它的一个示意图。现在,这个神经网络的一个显著特点是,我们对其架构有着完整的理解。我们清楚地知道在它的各个阶段会发生哪些数学运算。

但问题在于,这1000亿个参数分散在整个神经网络中。因此,基本上,这上千亿个参数散布在整个网络中,我们所了解的只是如何逐步调整这些参数,以使整个网络在下一个词预测的任务上表现得更好。我们知道如何优化这些参数,也知道如何随时间调整它们以获得更佳的下一词预测效果,但我们并不真正清楚这些参数具体是如何工作的。我们可以观察到它在下一个词预测方面的进步,但并不清楚这些参数是如何协同工作以实现这一点的。我们手头有些模型,可以让我们从宏观层面思考网络可能在做的事情。

我们大致理解,它们构建并维护了某种知识库,但这个数据库却非常奇特、不完美且怪异。最近有一个广为流传的例子,我们称之为“反转诅咒”。比如,如果你和目前最先进的语言模型 GPT-4(ChatGPT 的一部分)对话,你问,谁是汤姆·克鲁斯的母亲?它会告诉你是玛丽·李·菲弗,这是正确的。但如果你问,谁是玛丽·菲弗的儿子,它会告诉你它不知道。这种知识很古怪,它似乎是单向的。这些信息并不是简单存储后就能从各种角度获取,你必须从某个特定的角度去提问。

这真是既奇怪又令人困惑。归根结底,我们实际上并不真正了解其工作原理,只能大致判断它是否有效,以及有效的可能性有多大。简而言之,可以将大语言模型 (LLM) 视为难以完全解读的产物。它们与你可能在工程学科中建造的任何其他东西都不相似。它们不像汽车,我们了解汽车的每一个部件。

它们是这些来自长期优化过程的神经网络。我们目前并不完全理解它们是如何工作的,尽管有一个叫做可解释性或机械可解释性的领域,正在尝试研究并理解这些神经网络的每一个部分。目前,我们可以在一定程度上做到这一点,但还未能全面实现。现在,我们主要将它们视为基于经验的产品。我们可以给它们输入一些数据,然后测量输出结果。我们基本上可以测量它们的行为表现。我们可以观察它们在许多不同情况下生成的文本。因此,我认为这需要

相应的复杂评估来处理这些模型,因为它们主要是基于经验的。

** Finetuning into an Assistant

现在,让我们来看看我们如何实际获得一个助手模型。到目前为止,我们只谈论了这些互联网文档生成器,对吧?这是训练的第一阶段,我们称之为预训练。我们现在正在进入训练的第二阶段,我们称之为微调。这一阶段我们会获得所谓的助手模型。因为我们实际上不仅仅需要文档生成器,文档生成器对许多任务帮助不大。我们希望能向某个系统提问,并让它根据这些问题生成答案。所以我们真正需要的是一个助手模型。

获得这些助手模型的过程主要如下:我们保持优化过程相同,训练方式也相同。这本质上是一个下一步工作预测的任务。但我们将更换训练用的数据集。原本我们是在互联网文档上进行训练,现在我们转而使用手动收集的数据集。我们收集这些数据的方式是通过雇佣大量的人。通常,公司会雇佣人员,给他们标注指南,并要求他们提出问题,再为这些问题写出答案。这里有一个具体示例:它很可能就是你训练集中的一部分。比如,有一个用户提问,内容可能是:“你能简要介绍一下‘垄断买方’这个术语在经济学中的相关性吗?”

接着,有一个助手角色,同样由人来填写理想的回复应当是什么。理想的回复,以及如何定义它,以及它应该是什么样子,都是根据我们为这些参与者提供的标注文档来确定的。像 OpenAI 或 Anthropic 这样的公司的工程师会制定这些标注文档。现在,预训练阶段主要处理大量的文本,但这些文本可能质量不高,因为它们都是从互联网上获取的,有数十甚至数百 TB 的文本,而且并非所有的都是高质量的。但在第二阶段,我们更看重质量而非数量。所以我们可能只有很少的文档,比如10万份,但这些文档都是对话形式,并且都是非常高质量的,由专业人士基于标注指南创建的。

所以我们现在更换数据集,转而在这些问答形式的文档上进行训练。这个过程被称为微调。完成这些步骤后,我们就能得到所谓的助手型模型。这个助手模型现在遵循它新训练文档的形式。举个例子,如果你问它一个问题,比如:“你能帮我查一下这段代码吗?似乎有个 bug。请打印 hello world。”即使这个问题并不是训练集的一部分,模型在微调后理解它应该以一个有用的助手的风格回答这类问题。它会这样做。它会再次逐字采样,从左到右,从上到下,所有这些词都是对这个问题的回复。

这是相当了不起的,也有点令人费解,还不完全被理解,这种模型能够改变它们的格式,现在变成了有用的助手,因为它们在微调阶段看到了很多这样的文档,但它们仍然能够访问并以某种方式利用所有在第一阶段(预训练阶段)积累的知识。大致来说,预训练阶段是在海量互联网数据上进行训练,重点是知识积累;而微调阶段则更关注对齐,它是关于给予,即将格式从互联网文档转变为问答形式,就像一个有用的助手一样。

第四部分:

** Summary so far

构建像 ChatGPT 这样的模型包括两个主要阶段:预训练和微调。预训练阶段需要从互联网上搜集大量文本资料,使用GPU集群进行处理。这些高性能计算机的成本非常昂贵,通常需要几百万美元的投入。完成后,就得到了基础模型。由于这个过程计算量巨大且成本高昂,公司通常一年或几个月才会做一次。微调阶段相对便宜,需要编写标注指南和雇佣人员进行帮助。例如,可以通过Scale AI等公司进行文档标注。这个阶段需要收集约100,000个高质量的问答回应样本,成本要低得多,可能只需一天就能完成。接下来是进行大量的评估工作,部署模型,并监控和收集任何不当行为。对于每个不当行为,都需要修复并返回第一步重复这个过程。修复方法通常是找到错误回应的对话,然后用正确的回应替换。由于微调成本较低,可以每周或每天进行迭代,许多公司在微调阶段而非预训练阶段会更频繁地进行迭代。

Meta发布的Llama 2系列包括基础模型和助手模型。基础模型无法直接使用,因为它们无法直接对问题回复正确的答案,而助手模型则可以直接进行问答。Meta已经完成了极其昂贵的预训练阶段,提供了基础模型,允许用户基于这些结果进行自己的微调。此外,还有一个你可以选择进行的第三阶段微调,即人类反馈强化学习(RLHF),主要通过使用比较标签来提升额外性能。在OpenAI,这个过程被称为人类反馈强化学习(RLHF),这其实是一个可选的第三阶段,它能在大语言模型中提升额外性能,主要是通过使用比较标签。例如,OpenAI的InstructGPT项目就是这样的一个例子。

** Appendix: Comparisons, Labeling docs, RLHF, Synthetic data, Leaderboard

在第二阶段提到了“和/或对比标注”。对于人类标注员而言,比起自己撰写答案,比较候选答案通常更为简单。例如,对于一个要求写关于回形针的俳句的问题,给标注员提供助手模型生成的候选俳句,让他们挑选出更佳的一首,比自己创作要容易得多。这也是为什么在很多情况下,进行比较比创作来得容易。此外,还有一个第三阶段的微调过程,可以利用这些比较结果来进一步优化模型。在OpenAI,这个过程被称为人类反馈强化学习(RLHF),是通过使用比较标签来提升模型性能的可选第三阶段。

关于标注文档,尽管可能会长达几十甚至上百页且颇具复杂性,但其核心是要求参与者保持有帮助、真实和无害。随着大语言模型能力的提升,人机协作在创建这些标签中的作用日益增强。例如,可以让模型先生成答案样本,然后由人工挑选

部分形成最优答案,或者让模型帮助检查工作。

在市面上领先的大语言模型排行榜上,例如加州大学伯克利分校管理的Chatbot Marina,使用ELO评分对不同的模型进行排名。ELO分数的计算方式与国际象棋类似,基于模型间的对比胜率。顶部的是专有模型,如OpenAI的GPT系列和Antropic的Claude系列,这些模型表现最佳但无法获取其权重,只能通过网络界面访问。其次是公开权重的模型,例如Meta的Llama 2系列和法国Mistral系列的Zephyr 7B Beta。总体上,封闭模型的表现更好,但无法进行微调或下载,只能通过网络界面使用。然后是所有的开源模型和整个开源生态系统,它们的性能相对较差,但可能已经满足某些应用需求。目前,开源生态系统正在努力提升性能,试图追赶专有生态系统。

第五部分:

好的,现在我要转换话题,我们将讨论语言模型,它们是如何改进的,以及这些改进将带我们走向何方。首先要理解的关于大语言模型的重要概念是“规模化法则”。事实证明,这些大语言模型在预测下一个词的准确性方面的表现是一个非常平滑、规律性强,并且只有两个变量的预测函数。一个变量是 N,即网络中的参数数量;另一个变量是 D,即你用来训练的文本量。只要有了这两个数据,我们就能非常准确地预测你在下一词预测任务上能达到的准确度。令人惊奇的是,这些趋势看起来并没有出现停滞或达到极限的迹象。这意味着,如果你在更多文本上训练更大规模的模型,我们可以非常自信地预期下一词预测的表现将会提升。

因此,在算法上取得进步并非必要条件。算法进步当然是很好的加分项,但我们能够在不增加成本的情况下获得更强大的模型,因为我们只需要更强大的计算机。我们有理由相信这是可行的,并且我们可以在更长时间内训练一个更大的模型。我们非常有信心我们将得到更好的结果。当然,在实际操作中,我们并不是真的那么关心预测下一个词的准确度。但是,从经验上看,这种准确度与我们真正关心的许多评估指标是相关的。例如,你可以对这些大语言模型进行很多不同的测试。你会看到,如果你训练一个更大的模型更长的时间,例如,在 GPT 系列中从 3.5 提升到 4,所有这些测试的准确性都会提高。所以,当我们训练更大规模的模型和更多的数据时,我们自然而然地期待有性能的提升。这正是当前计算领域的一场淘金热的根本驱动力,每个人都在努力获取更强大的 GPU 集群,收集更多的数据,因为人们有很大的信心,通过这样做,可以获得更优秀的模型。算法的进步就像是额外的奖励,许多机构对此投入巨大。但从根本上说,扩大规模提供了一条通往成功的确定途径。

**Tool Use (Browser, Calculator, Interpreter, DALL-E)**

接下来,我想通过一些具体的例子来讲解这些语言模型的能力,以及它们是如何随着时间发展的。不是泛泛而谈,我会用一个具体的例子,逐步分析来说明。所以我打开 ChatGPT,给出了以下的查询。我说,收集关于 Scale AI 及其融资轮次的信息,包括发生的时间、日期、金额和估值,并将这些信息整理成一张表。根据我们收集的大量数据,ChatGPT 在微调学习阶段就已经理解,在这种类型的查询中,ChatGPT 不会仅仅依靠自己作为一个大语言模型来直接回答问题。相反,它学会了在需要时使用一些外部工具来帮助完成任务。在这个例子中,一个很合适的工具就是浏览器。

假设你和我遇到同样的问题,你可能会选择上网搜索,对吧?ChatGPT 做的正是这样的事情。它能够发出特定的词汇,我们可以通过这些词汇观察它是如何尝试进行搜索的。在这种情况下,我们可以拿着这个查询去 Bing 搜索,查看搜索结果。就像你我在浏览搜索结果一样,我们可以把搜索到的文本反馈给语言模型,让它基于这些文本生成回答。这个过程非常类似于我们使用浏览器进行研究的方式。然后,它会将这些信息整理成以下形式,并以此方式进行回应。

所以,它收集了信息,我们得到了一张表格,上面列出了 A、B、C、D 和 E 轮融资的具体日期、筹资金额和对应的估值。接着,它还提供了引用链接,你可以通过这些链接去核实这些信息的准确性。在底部,它表示,实际上我要道歉,我没有找到 A 轮和 B 轮的估值数据,只找到了筹集的金额。所以你可以看到表格中有一项标记为不可用。好的,我们现在可以继续这种互动。我提出,让我们尝试基于 C 轮、D 轮和 E 轮中看到的比例,来推测或估算 A 轮和 B 轮的估值。可以看到,在 C、D 和 E 轮中,筹资金额和估值之间存在一定的比例关系。那么,我们该如何解决这个问题呢?当我们尝试推算“不可用”的数据时,并不是仅凭脑海中的计算就能解决。你不可能只是试图在你的脑海中解决它。这样做相当复杂,因为我们在数学方面并不特别擅长。同样,ChatGPT 也不是通过单纯“思考”就能擅长数学运算。实际上,ChatGPT 知道它应该使用计算器来处理这类任务。因此,它会发出特定的指令,告诉程序它需要使用计算器来计算这个数值。它实际上做的是,首先计算所有的比率,然后根据这些比率来推算 A 轮和 B 轮的估值,可能是 7000 万或者 2.83 亿。所以,现在我们的目标是得到所有不同融资轮次的估值数据。接下来,我们将这些数据制作成一个二维图表:横轴表示日期,纵轴显示 Scale AI 的估值。为了更精确地展示,我们会在纵轴上使用对数刻度,并且加上网格线,使图表看起来既专业又美观。ChatGPT 实际上可以使用工具,这次是编写代码,使用 Python 语言中的 Matplotlib 库来绘制这些数据。它会进入一个 Python 解释器,输入所有数据,然后生成图表。这就是图。它清晰地展示了底部的数据,完全按照我们用自然语言提出的要求制作完成。

与 ChatGPT 交流就像与人交谈一样自然。现在我们看着这张图表,想要进行更多的分析。比如,我们现在想在这个图表上加一条线性趋势线,并尝试推算 Scale AI 到 2025 年底的估值。再比如,在图表上标出今天的日期,并基于趋势线来估算今天和 2025 年底的估值。ChatGPT 完成了所有编码工作,虽然这些代码没有展示出来,但它提供了详细的分析结果。在图表的底部,我们可以看到日期和估值的推算结果。根据这个趋势线的拟合结果,今天 Scale AI 的估值大约是 1500 亿美元。而到了 2025 年底,这个公司预计会成长为价值高达 2 万亿美元的科技巨头。所以,祝贺 Scale AI 团队。但这只是 ChatGPT 擅长的分析类型之一。我想通过这个例子展示的核心点是,语言模型在工具使用方面的能力以及它们的发展趋势。它们的功能不再局限于在大脑中处理信息和选择词汇。如今,它们开始利用各种工具和现有的计算基础设施,将一切紧密联系并用词汇交织在一起,如果这有意义的话。

因此,工具使用已成为这些模型日益增强能力的重要一环。它们能够编写大量代码、进行全面分析、从互联网上检索信息等等。再举一个例子。根据上述信息,试图生成一个代表 Scale AI 公司的图像。所以,基于上面的所有内容,依据大语言模型的上下文理解,它对 Scale AI 有深刻的了解。它可能还记得关于 Scale AI 的一些信息以及网络中储存的知识。然后它去使用另一个工具,在这种情况下这个工具是 DALL-E,这也是 OpenAI 开发的一种工具,可以根据自然语言描述生成图像。所以在这里 DALL-E 被用作生成图像的工具。希望这个演示能具体说明问题解决过程中大量使用工具的情况,这与人类解决很多问题的方式高度相关。我们在解决问题时不仅仅依赖思考,而是广泛运用各种工具,比如电脑就非常有用。对于大语言模型也是如此,利用工具正逐渐成为大语言模型发展的一个重要方向。

责任编辑:郭鹏_NO4657

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
马斯克语出惊人,直言不讳:现在只有特斯拉是中国新能源车的对手

马斯克语出惊人,直言不讳:现在只有特斯拉是中国新能源车的对手

小企鹅侃世界
2024-11-20 14:56:32
天生坏种?被判10年的李天一出狱后,最恶心的一幕还是出现了

天生坏种?被判10年的李天一出狱后,最恶心的一幕还是出现了

小啾咪侃侃史
2024-09-07 15:30:03
广东阳江九旬老人遭养老院护工殴打一年?民政局:还不能定性,老人已送医

广东阳江九旬老人遭养老院护工殴打一年?民政局:还不能定性,老人已送医

极目新闻
2024-11-27 19:18:58
爆料!姜昆有德云社股份!侯耀华直播透露二人关系!信息量爆棚!

爆料!姜昆有德云社股份!侯耀华直播透露二人关系!信息量爆棚!

圈里的甜橙子
2024-11-28 20:06:34
不止国内!日本车在东南亚全面溃败,真是打不过中国新能源

不止国内!日本车在东南亚全面溃败,真是打不过中国新能源

娱乐的小灶
2024-11-28 19:46:22
今年冷冬定局?专家预测有强降温和强降雪,今冬是暖冬还是冷冬?

今年冷冬定局?专家预测有强降温和强降雪,今冬是暖冬还是冷冬?

十不该
2024-11-29 00:34:45
官方:前CBA状元区俊炫和榜眼孙思尧将参加日本B联赛全明星

官方:前CBA状元区俊炫和榜眼孙思尧将参加日本B联赛全明星

懂球帝
2024-11-28 16:48:21
过安检能让多少人“身败名裂”?网友分享太炸裂,一看一个不吱声

过安检能让多少人“身败名裂”?网友分享太炸裂,一看一个不吱声

奇特短尾矮袋鼠
2024-06-26 20:24:41
中国终于取消铜材、铝材等59种产品的出口退税了!这下解脱了!

中国终于取消铜材、铝材等59种产品的出口退税了!这下解脱了!

小企鹅侃世界
2024-11-28 13:38:49
5499元不涨价!华为mate70全系价格公布,余承东打脸友商

5499元不涨价!华为mate70全系价格公布,余承东打脸友商

牛斯克
2024-11-26 15:59:39
洛梁市长参观牡丹花展,竟被五名交警围攻,全市震惊

洛梁市长参观牡丹花展,竟被五名交警围攻,全市震惊

真实故事汇
2024-01-29 13:41:11
上海地铁19号线投资金额千亿,拆迁已经开始,赔偿费用惊人

上海地铁19号线投资金额千亿,拆迁已经开始,赔偿费用惊人

大宗看萌宠
2024-11-29 04:17:22
娱乐圈最大的笑话,一个连走路都费劲的歌手,77岁还开演唱会捞金

娱乐圈最大的笑话,一个连走路都费劲的歌手,77岁还开演唱会捞金

聚合大娱
2024-11-28 13:59:17
杨虎城之女在大漠失踪,被发现时10指插在雪里,怀里揣几张图纸

杨虎城之女在大漠失踪,被发现时10指插在雪里,怀里揣几张图纸

旧时楼台月
2024-11-28 18:05:00
为何说新西兰没几个中国人待得住?网友:待了几个月,都快疯了

为何说新西兰没几个中国人待得住?网友:待了几个月,都快疯了

暮云晨记
2024-10-11 08:25:02
穆里尼奥的布拉格之夜:我带来了15名战士,他们来可不是为了旅游

穆里尼奥的布拉格之夜:我带来了15名战士,他们来可不是为了旅游

穆里尼奥主义者
2024-11-28 13:00:37
古劲松被查!2009年至今,7位“一把手”中,已有6位被查

古劲松被查!2009年至今,7位“一把手”中,已有6位被查

上观新闻
2024-11-28 13:58:08
美国宣布: 高端医疗器械零部件实施出口管制,网友: 可以省检查费

美国宣布: 高端医疗器械零部件实施出口管制,网友: 可以省检查费

现代春秋
2024-11-27 13:35:49
古代专设“通房丫鬟”,主子同房要守床边,近身伺候才是重头戏!

古代专设“通房丫鬟”,主子同房要守床边,近身伺候才是重头戏!

刀刃历史
2023-10-24 20:08:15
拍写真,没有人能拍得过阿朵,各种奇葩造型你想都不敢想

拍写真,没有人能拍得过阿朵,各种奇葩造型你想都不敢想

南城无双
2024-11-28 00:24:46
2024-11-29 05:47:00
齐天候
齐天候
酷爱学习的候先生
451文章数 161967关注度
往期回顾 全部

科技要闻

讽刺谁?特斯拉称供应链付款周期缩至90天

头条要闻

大众宣布将出售其在新疆的业务 外交部回应

头条要闻

大众宣布将出售其在新疆的业务 外交部回应

体育要闻

开场48秒破门,曼联空欢喜了:4分钟连丢2球,纸糊防线,新帅无语

娱乐要闻

冯绍峰新恋情曝出!女方第一时间发文辟谣

财经要闻

洪灏:不要误解增量政策 不是数越大越好

汽车要闻

ID. CODE概念车/探岳L领衔 大众汽车携25款车亮相

态度原创

健康
家居
本地
房产
公开课

花18万治疗阿尔茨海默病,值不值?

家居要闻

简约大气风格 舒适通透空间

本地新闻

云游中国|来伦布夏果感受充满Passion的人生

房产要闻

湾区黄金枢纽之上,有灵魂与底蕴的「世界庄园」广佛新世界,打版第四代高质量住宅!

公开课

一块玻璃,如何改变人类世界?

无障碍浏览 进入关怀版