网易首页 > 网易号 > 正文 申请入驻

AI大神--李沐:大语言模型的实践经验和未来预测

0
分享至

始智AI wisemodel.cn开源社区

始智AI wisemodel.cn社区将打造成huggingface之外最活跃的中立开放的AI开源社区。欢迎《》以及《》。wisemodel社区上升级了,两步完成模型部署和,并。

简介:李沐:上海交通大学2011届计算机科学与工程系本硕系友。他曾担任亚马逊资深首席科学家,任加州大学伯克利分校和斯坦福大学的访问助理教授,是前Marianas Labs联合创始人。他的研究关注分布式系统和机器学习算法。发表了50余篇人工智能顶级会议论文,在CMU读博期间更是两年内发表了理论计算机领域的FOCS、神经网络领域的NIPS、数据挖掘领域的KDD和操作系统领域的OSDI等不同领域的顶级国际会议一作论文。他是深度学习框架Apache MXNet的创始人之一,合著了开源深度学习教材《动手学深度学习》。他目前是BosonAI的联合创始人。

以下是全文及现场图片:

Hi!大家好,说我是计算机杰出校友有点不敢当。很多年没有回来,这次回国想见一见本科导师。我的 AI 启蒙导师李老师说,来都来了,要不做个报告吧。

本来我想讲一些关于语言模型的知识,但听讲座的各位不一定都是这个方向,所以我加了一些这些年转了很多地方、做出的不同选择的感想。

第一部分我会讲得稍微技术一点,是有关整个语言模型的现在,以及未来情况的预测。

语言模型可以分为三块:算力、数据和算法所以语言模型也好,整个机器学习模型也好,本质上就是把数据通过算力和算法压进中间那个模型里面,使得模型有一定的能力,在面对一个新的数据时,它能够在原数据里面找到相似的东西,然后做一定的修改,输出你要的东西。


打个比方,很多年前深度学习刚出来的时候,我说机器学习像是老中医,深度学习可能跟玄幻小说的炼丹有点像。

所以你看现在的语言模型就很像炼丹,你要把一些材料放进一个丹炉里面,然后有个丹方去把它炼出来。那么数据就是你要找的材料。你看那些小说里面,主角大部分时间都在找材料,包括去深山里面找、去拍卖会上买,所以搞数据是很难的事情,是个体力活。但是你必须得有这些数据,而且要多弄一些,因为你不知道到时候会不会毁掉一些。

算力也很重要,就是说火要大一点,设备要先进一点,因为越好的设备炼出来的东西越好。算法就是你的丹方了。丹方这个东西可能跟小说不一样。它每年都在进步,而且对于细节的把控非常重要。就算别人告诉过你这个东西怎么弄,但在真实的场景里面,你会发现还是挺不一样的。这就有点像你去徒手发射火箭,发之前你要动手调一调,没调好的话就炸掉了。

这一次(浪潮里)的语言模型和上一次深度学习(浪潮里)的模型有一个比较大的区别 —— 上一次是,我炼一个什么丹就治一个什么病,这次我希望这个东西炼出来会有灵魂在里面,它能解决你很多问题,这其实是技术一代代往前进。


接下来要讲的就是,硬件、数据和算法,未来几年会发生什么。这里面其实是有规律可循的,它不是一个跳跃性的东西。

硬件这块,我放第一位的是带宽。实际上带宽是最难也是最重要的。因为就现在的模型训练而言,很难让一个机器搞定所有事情,所以要做分布式训练,通常瓶颈就在带宽上。我们现在的带宽是一根光纤承载 400Gigabits,下一代就是 double,变成 800Gigabits

半年前,英伟达发布了一个名叫 GB200 的系统(现在已经推迟出货)。不知道大家有没有见过 GPU 长什么样子?这些机器其实是很高的。以前你去数据中心,会看到一个机架柜可以放很多很多刀片服务器。现在换成新的 GPU 之后,一个机架位只能放两台机器。这是因为供电、散热等等一系列的问题。英伟达可以把 72 块卡压缩一个机架位里面。

这里面用到了水冷工艺。之前我们其实不太用水冷,因为水冷有很多问题,比如那个阀门没做好就会漏水,整个机架位一漏水就完了。而且水冷对整个基建是有要求的,水要进来要出去。水的好处是可以带走很多热量。现在我们大部分是靠空气吹,但水的密度更高,所以它带走热量的能力更强。

所以一旦用到水冷之后,你的算力就可以更密,就可以放更多机器。芯片就可以压得比较扁。压得比较扁的好处就是,每个芯片之间更近了。

芯片之间直接用光纤,以光速互通。光速你看上去很快,但实际上在我们眼里已经很慢了。一台机器传输到隔壁一米之外的机器所带来的几纳秒延迟,几乎是不能忍。我们自己去设计机房的时候会考虑光纤的长度,因为一米的差距就会给分布式训练带来一个可见的性能影响。

英伟达的 GB200 这个卡就可以把 GPU 都放一起,那么它们之间的通讯会变得更好一些。你可以理解成:之前我们做多核,把单核封装到一个芯片里面,现在是说多核不够,我要做多卡,多卡以前是分布在一个房间里面,现在是多卡也要尽量放在一起,这是一个趋势。

就是一块芯片那么大,早就做不上去了,这是台积电等面临的工艺难题,现在是尽量把这些东西弄得近一些。其实这是业界的一个趋势。还有一个通讯是 GPU 和 CPU 之间的 PCIe,它每几年也在翻倍,但是确实会慢一些。

接下来讲内存。内存比算力也重要一点。因为现在的语言模型,核心是把整个世界的数据压进模型里面,那模型就被搞得很大,几百 GB 的样子。在运行的时候,它的中间变量也很大,所以它就需要很多的内存。

现在我们可以做到一个芯片里面封装近 192 GB 的内存。下一代带宽会更高一点。但这个东西目前已经被认为是一个瓶颈了。这是因为内存占面积 —— 一个芯片就那么大,划一块给算力,划一块给内存之后就放不下什么东西了。所以很有可能在未来几年之内,一个芯片就 200GB 内存,可能就走不动了。

这个要看工艺有没有突破。这意味着我们的模型大小在一定程度上会被限制在一个尺寸,因为更大的话你的效率会变得特别低。所以内存大小会是模型上限的一个制约,而不是算力。我们是内存不够,模型就做不大。
在这一块,虽然英伟达是领先者,但其实英伟达是不如 AMD 的,甚至不如 Google 的 TPU。

当你搞定了带宽和内存的时候,再去看算力


算力其实现在说句真话,就是摩尔定律吧。纳米级别更高,然后频率更高一点。

机器学习好的一点,是你可以用 4 位浮点数,8位浮点数已经非常的成熟了,现在大家看4位的浮点数。浮点数大家回忆一下,我的体系架构老师还在下面。4位浮点数就是硬件会变小,然后,它对带宽利用率也会变低,因为每次计算,它只要那么多浮点数在里面。所以我们最近几代英伟达芯片,都来自浮点数的精度的降低。这是它给硬件带来的好处。

但是当你把模型做得更大的时候,你会发现资源是问题,就是供电。我们自己在做数据中心的时候,曾经真的想过,我们自己造一个电厂出来,就是说这个供电就是有那么耗能。

当我们发现自己去造一个电厂的成本,比我们付的那个电费成本还低,这个我们真的花了几个月时间去看那个电厂怎么建。所以特别对大的,你看,1个芯片要耗一千瓦,1000块芯片就是一兆瓦。一兆瓦的电,其实可能整个校园都不一定能用上一兆瓦的电。

关于算力价格。从理论上来说,在公平的市场里面,每次算力翻倍,价格会保持不变。

充分竞争的市场会有这个好处,在过去很多年都是这样。但是最近几年英伟达的垄断导致这个价格下不来。短期来看,算力翻倍,价格可能会有 1.4 倍的提升。但是长期来看,当竞争变得越来越激烈,摩尔定律会发挥作用,就是说算力翻倍,价格不一定变。所以长期来看算力会变得越来越便宜。

算力这块,你可以用别的芯片,但是这些芯片用来做推理还 OK,做训练的话,别的芯片可能还要等几年的样子,所以在训练芯片上,英伟达我觉得还是处在一个垄断的地位。


所以在硬件这一块,你可以认为摩尔定律还是在这个地方,就是训练会两倍两倍地变便宜。在线性时间里面指数级的便宜。或者你可以说,训练会更快或更大也可以。所以他的结论是说

"你今天训练一个模型,一年之后它的价值会减半。很多时候,大家不要去想说,我现在能搞多大的模型,一年之后,这个模型其实价格会贬值。我想说,大模型不一定是特别有性价比的东西。你要想清楚,从长期来看,你的模型能带来什么价值,让你是能够保值的。"

这是一个算力,然后模型


模型,现在就是比如说,语言模型

每次预训练,无论是 OpenAI ,还是别的开源也好,目前来讲基本都是用 10T 到 50T token 做预训练。一个中文是2个token,也是看你怎么做,英语一个单词的话,那能是1.5个token那样子。开源的话基本也在 10T 的token 以上。这个数量级我觉得差不多了,不会再往一个更大的尺寸去发展。

原因是人类历史上的数据比这个多是多,但是看多样性、质量的话,我觉得 10T 到 50T 这个规模就差不多了。比如说我还是能弄到很多的数据进来,但这个数据质量不一定能给你带来一个更好的提升。也许你可以弄到更多的数据,但是清洗之后,可能会回到一个这样子的值。

我觉得目前来讲,就是这个尺寸。然后你的模型大小就是 100B 到 500B 这个样子。我觉得比较好的一线的模型就是 500B,超过 500B 不是训练不动,而是做 serving 很难。在谷歌历史上,他们就没有让 500B 以上的模型真的上过线。

OpenAI 没有对外说,但我觉得 OpenAI 历史上没有上线过有效大小超过 500B 的模型。当然 MoE 不算,我是说换算成稠密模型的话。所以,很有可能在未来一阵子,因为受限于内存大小和数据的尺寸,我觉得 100B 到 500B 会是未来主流的一个大势。你可以做更大,但是它很多时候是用 MoE 做的,它的有效大小(每次激活的大小)可能也就是 500B 的样子。

GPT-4o 出来之后,大家对于语音模型产生了浓厚的兴趣。以前的模型是我先做 ASR(自动语音识别),把语音信号转成文本,然后放进语言模型,让它出一个文本的回复,再通过 TTS 变成一个语音的信号。现在大家做的是直接让你的原始的语音信号进去,然后原始的语音信号再出来。

后者的好处有两点:一是我们说话的时候,其实里面包含了很多东西,包括情绪、语调以及你是哪一类的人。大家能够通过声音去分辨你的方言,通过你说话的音调能大概知道你是一个什么样的人。所以人的语音信号里面包含很多东西,还有你的背景音乐、场景音乐,甚至你唱歌的节奏感都有很多信息在里面。目前我们那一套传统的技术是做不了的。这套新的语音技术可以让语音直接进去,然后利用文本语言模型强大的能力去发掘里面的信息。在做输出的时候也是一样的,我的输出可以根据你的输入的个性化场景来变换语调、情绪。这是一点。

另一点是延迟更短。之前我要先输出一句话,再进到一个模型去把语音输出来,这个延迟可能是 1 秒。现在我们大概可以做到 300 毫秒。300 毫秒最大的好处是可以打断。人与人之间交互,就我跟你在说话的时候,你说一句,我可能会回应一下,或者中间会打断,所以这个体验就会做得更好,更像真人一些。
我觉得这是这个技术目前能看到的最好的两点。
还有一点就是说,它能够通过语言模型对整个输出做很多控制。可以让你用文本定制化一个什么样的声音出来。

音乐模型:不是技术问题,而是商业问题

另外一个国内在商业上做得挺好的东西就是音乐的生成,最近出了挺多做音乐的一些工具。我觉得这一块的进展从来不是一个技术问题。它的技术其实比语音麻烦一点,因为音乐比人说话更复杂一点。但是实际上它还是一个版权的问题。现在大家开始慢慢解决版权的问题 —— 大公司去买版权,小公司想反正我光脚不怕穿鞋的,我就上。

另外一个国内在商业上做得挺好的东西就是音乐的生成,最近出了挺多做音乐的一些工具。我觉得这一块的进展从来不是一个技术问题。它的技术其实比语音麻烦一点,因为音乐比人说话更复杂一点。但是实际上它还是一个版权的问题。现在大家开始慢慢解决版权的问题 —— 大公司去买版权,小公司想反正我光脚不怕穿鞋的,我就上。

市面上我觉得已经很好了,就是说抖音快歌,虽然爆款很难,但是如果你不是音乐专业的人,你听下来觉得没什么问题。我之前看一个同事写首歌,歌词大意是:我在公司就一个朋友,这个人去吃饭了,一个半小时还没回来,我觉得他是不是出什么事了?我是不是要打电话给他女朋友问一下呢?但我又是一个很社恐的人,我又不敢跟人打电话。

就是说,音乐是一种表达,是一个人的交互,任何一个什么感觉你都可以通过音乐表达。以前你很难用音乐把它很富有情感地表达出来。大家可以写诗,写诗可能比音乐容易一点,现在你掌握了这个表达工具之后,我们未来很多人会用音乐这个形式来表达想法和情感。我觉得这个可能是影响力会特别大的,那它不是个技术问题,它可能还是一个商业问题。

接下来是图像。可能大家最近几天都看过那个做得很真的 TED 演讲的图片。


目前来看,图片应该是整个 AIGC 领域做得最早的,也是效果最好的。 现在大家可以做到 100 万以上像素的图片的生成。 大家说得最多的是图片要有灵魂。 之前你去看那些文生图的工具,它的风格还是很假,但现在你会看到跟真的很接近,当然它还缺那么一点点灵魂,不过这一块说不定很快就有了。


视频模型:

Sora 出来之后,大家非常关注视频模型。这个实际上还算比较早期,通用的 video 生成还是非常贵,因为 video 数据特别难弄。视频模型的训练成本很有可能低于数据处理的成本,所以你没有看到市面上有特别好的开源模型出来。问题在于生成一张图片容易,但生成一连串连贯的图片,并保持一致性是很难的。

多模态模型:

目前存在一种趋势,即多模态。现如今,多模态技术的发展趋势在于整合不同类型的模态信息,尤其是文本信息,因为文本含有丰富的信息并且易于获取。通过利用在文本上学到的技能,可以将这些能力泛化到其他模态,如图片、视频和声音。

这样做有两大好处:一是可以借助强大的文本模型进行泛化。另一个优点是可以通过文本来定制和控制其他模态的输出,如用简单的文本指令控制图片、视频和声音的生成,而不再需要专业的编程技能或工具。

比如写代码,以前可能需要专业的写代码工具,现在交给 ChatGPT,你通过文本下达要求就行了。逐渐的,你想要生成某个模块的话,也是通过文本去控制的,这应该是未来可能的一个常态,大家用自然语言去做交互。


总结下来,我觉得语言模型已经达到了较高的水平,大约在 80 到 85 分之间。音频模型在可接受的水平,处于能用阶段,大约在 70-80 分之间。但在视频生成方面,尤其是生成具有特定功能的视频尚显不足,整体水平大约在 50 分左右。

还有一个推论是我觉得人机交互会有一点改变,比如在点菜时,在 ChatGPT 出来之前我们与手机的交互方式是刷刷刷和点点点,这是最简单的方式,对人类来说也不耗费精力,能不说就不说。

但在 ChatGPT 出来之后,大家打破了这种观念,他们愿意去输入一段很长的文字去做事情,这是因为设计好的东西不一定满足我们的所有需求,可能满足了 80%,但没有满足对细节的需求,这时可以通过长文本,即输入很长的文字来解决。但输入长文字还是不如说话方便,所以在微信上很多人会说我语音留言会方便点。

现在语音技术正在进步,未来大家可能会越来越能接受对方用一个很长的语音跟你描述一些事情,让你去完成。虽然早期的语音控制系统通常只用于执行简单的指令(例如「开窗」),这种简单的功能并没有形成强烈的用户黏性,因为用户可以通过其他简单的操作来完成相同的任务。但是,随着技术的发展,未来的语音控制系统将能够处理更加复杂和具体的任务,这种技术的自然和便捷性将显著提高。

所以这是用户习惯问题。大家可能都在说我们这一次的技术革命还没有出现 killer APP(杀手级应用)。所谓的 killer APP 就是说一个技术的出现,可能会涌现出一个非常受欢迎的应用形态。
大家知道手机的 killer APP 是什么吗?短视频。回想一下五年前,你可能很难想象大家会刷那么几秒钟的视频。

所以这一次的 killer APP 是什么?
上一波的顶级 AI 公司基本上快死得差不多了,包括 Character.AI、Inflection 被卖了,Adept 也被卖了,还剩一个 Perplexity 搜索还在支撑着。但是下一代 killer APP 是什么大家不知道。可能等技术变成熟,大家的不习惯慢慢地过去了,这个东西会涌现出来。

在应用层面,AI 本质上是去辅助人类完成任务,给人类提供无限的人力资源。我将应用分成三类:

第一类就是 文科白领。白领是用自然语言去跟人、跟世界打交道,包括写文章或者其他。我认为在这方面做的比较好的领域包括个人助理、Call centers、文本处理、游戏和舆论以及教育。一个文科白领可能一小时完成的事情,我们的模型还是能够完成百分之八九十的。


第二个是工科白领,目前 AI 想取代程序员还早得很。在过去,编程往往需要程序员自行查找代码示例,例如在网络上搜索,然后下载一个工作流程的代码片段,对其进行变量修改和调试,以适应特定的任务或项目。

但现在,先进的模型可以自动完成这些步骤。你不用去 copy 代码了,因为整个 workflow 已经给爬下来了,训练的时候已经在里面了。当你向模型提出请求时,它可以直接在其训练数据中检索相关的代码片段,根据上下文,再把变量名改一改,模型就做这种事。但它不是真的在写代码,我们人类一个小时还是能够写出很多复杂的代码的,所以我觉得模型还是没有取代工科白领一个小时干的事情,更不用说更复杂的任务了。


最后一个是 蓝领阶级,这反而是最难的,这里面唯一做的好的是自动驾驶。自动驾驶为什么这么出色?是因为路况相对来说是一个封闭的世界,比较稳定,比如有些地方路况十年都不会改变,所以在封闭路况里面开车相对来说是比较简单。虽然现在无人驾驶还没有完全解决,但进步还是很大的。



路上的车多,每个车上都有传感器,从而采集大量的数据,基于大数据做技术开发,比如特斯拉,车上有大量摄像头,有很多车在路上跑,可以采集很多数据来优化算法,而且路况变化不大。

但是正常的蓝领需要做什么事情?端盘子、运货等,AI 跟这个世界打交道是一件很难的事情。比如机器人进入一个房间,它要理解这个房间有什么东西其实很难。除非有技术突破,不然的话需要大量的数据作为辅助。

这是一个鸡生蛋蛋生鸡的问题,如果房间内没有足够的传感器,就采集不了足够的数据,另一方面,一个房间里不可能有很多机器人进来,同样也无法得到很多数据,因而泛化能力不是很好。但是在物理世界投放 AI 机器人是一件很难的事情,可能需要很多年。所以 AI 理解蓝领的世界,包括和这个世界互动可能需要至少 5 年时间。


所以简单总结一下:
对于文科白领的工作,AI 已经能完成简单任务,复杂任务需要继续努力。对于工科白领的工作,简单任务还需要努力,复杂任务存在困难。对于蓝领的工作,除了无人驾驶和特定场景(比如工厂,场景变化不大,也能采集大量数据),AI 连简单任务都做不了,完成复杂任务更难。

但是放眼整个世界,蓝领是最主要的成员,因此技术对这个世界做出巨大的变革还需要很多年。未来 10 年、 20 年,大家还是有机会参与进来的。

从这一年半的创业经历中我们学到了一些东西,一些更细节的东西
预训练是工程问题,后训练才是技术问题

首先第一点:之前大家会觉得预训练很重要,比如训练一个几百 B 参数的模型,现在在我看起来预训练是一个工程问题,后训练才是一个技术问题。但在两年前预训练还是一个技术问题,现在我觉得变成工程问题了。对于后训练,高质量的数据和改进的算法能够极大地提升模型效果。高质量的数据一定是结构化的,并且与应用场景高度相关,以保证数据的多样性和实用性。

在算法层面,OpenAI 提出了 RLHF,大家给予很高的评价。但当我看到这个算法时,我觉得这个算法有点牵强。这套技术在几年之内发生了非常大的变化。但到底哪个算法好,我也说不出来。原因在于每个人用的数据不一样,导致算法所适用的场景不一样。以至于你在读一篇论文的时候,可能在论文中效果很好,但自己实际用时,发现根本用不了,原因在于用的数据不一样,目标函数对这个结构化问题的假设不一定对应的上,导致算法不太行。这个问题没办法规避,就是一个技术问题,就得去做研发。


PPT 上的图所示,我们拿 llama 3 70B 微调了一个模型,进行角色扮演(如老师、销售等)。我们直接在 llama 3 base 的基础上做后训练,微调了两个版本 V1、V2,目前 V2 在角色扮演上优于其他模型。

作为创业公司,我们没有多少资金。LLAMA 团队标注数据就花了 5, 000 万美金,然后做训练,但是你会发现他们的数据并没有变得多好,而且 Meta 也没有花太多时间在算法上面。
做大语言模型的研究,你可以不去做预训练,你就做后面的一部分,因为后面部分其实对大家有利的。前面变成了一个工程问题,需要很多卡,很多人来完成,后面才是算法创新。虽然它的门槛还是比较高的,8B 和 70B 的情况也不一样,8B 上调的很多东西在 70B 上不一定成立。

第二个要讲的是垂直模型,为什么要做垂直模型呢?因为通用模型的问题还是一个指数问题,你要实现的任务,通用模型不一定能完成。就拿 OpenAI 来说,让其模型进行角色扮演,可能迭代好几代都不行,主要原因在于,它是一个通用维度,需要各个方面都有提升,如果刚好满足你的要求,需要指数级的数据,并且模型会变得很大。

所以要做垂直模型,这也是大家一年前公认的看法。但是我们花了很多时间发现,这也是一个伪命题。就是说没有真正的垂直模型,就算是一个很垂直领域的模型,它的通用能力也是不能差的。比如说你要在某一个学科里面拿第一,你别的科目也不能差到哪里去。


还有就是做 评估特别难,模型在实际场景中的应用是一件非常复杂的事情,假如你用一个比较简单的评估,是无法评估模型的好坏。所以过去一年多,大家都在不停的刷新榜单,但实际用起来,就觉得模型不太行,因为评估没有到位,没有真的去把实际场景那么复杂的应用给评估进去。


所以很多时候,评估是你最重要的事情,先把评估做好,再去做别的事情。

我们现在是通过自然语言与模型进行交互,但自然语言有一定的二义性,自然语言很难评价其正确性、逻辑性和风格。通常我们不想让人来评估,因为比较昂贵,但使用模型评估会带来偏差。有一个好的评估可以解决 50% 的问题。因为一旦评估解决了,那你就能够进行优化。第二评估解决了,表示你拥有了一些数据。


数据决定模型上限

还有数据问题。数据决定了模型的上限,算法决定了模型的下限。就目前来说,我们离 AGI 还很远, AGI 能够做自主的学习,我们目前的模型就是填鸭式状态。

目前看来 Claude 3.5 做的还不错,一个相对来说不那么大的模型,能在各种榜单上优于 GPT-4 ,并且在使用上确实还不错。

在和他们交流后,我觉得他们的数据做得挺好,他们花了很大的力气来做数据,在数据上用了很多年。所以,想让模型在某一个方面做得特别好,需要先把相关数据准备好。大家还是用了 70-80% 时间在数据上。

算力

还有算力,就是买 GPU,自建机房不会比租 GPU 便宜太多,原因是大头被英伟达吃掉了, 英伟达的利润是 90%。一块卡是 3, 000 美金的成本,他卖你 3 万块钱,你不管谁去买,你跟他关系再好,他也不给你打折,它现在是一个奢侈品。


下图是三年的费用占比,你会发现,三年 GPU cost 占比达到 50%,所以剩下的再拼也意义不大。

我是从 Amazon 干了 7 年半才出来创业,但我其实不用 Amazon 服务,太贵了。我们都用小公司买来的,他们当年用来挖比特币的。

你自己运营的话贵一点点。运营是个体力活, GPU 每天都坏,我们的机房放在多伦多,有三个人三班倒,坏了就跑过去把机器修一下。云当然还赚了一点钱,但也赚不多,有 20% 的利润,所以在这一块看上去是差不多的。

但自建的好处是能节省 CPU 的算力,以及你的存储和网络带宽。这些方面,自建就很便宜,但云就会很贵,因为这块在过去十年没有太大技术变革。比如说我用 AWS,存一年的数据成本等价于我把存这个东西的硬件买回来,而且能够容量变 10 倍。 就比如我在上面存10PB的成本,等价于我买一个100PB的集群,然后用几年。所以这是唯一能省的。当你数据量增长很大的时候,自建是有意义的。


如果你去看语言模型,它就是一个机器学习模型,换了一个架构,只是更大了,带来很多困难,但它本质上还是可以用传统的机器学习那一套去理解的。它还是吃数据,评估还是很重要,所以很多之前的经验还是能用过来的。

所以大家不一定要神化新的技术带来什么东西。但是它的困难在于,它是之前的 100 倍大,模型变大就会变得很难,这是它目前主要的问题。然后,在预训练方面,我觉得现在已经变成一个因为大而导致很多工程问题的困难,这其实还是算法上探索不够,得清楚如何改进算法,以上是我们在技术上的一些分享。

如果大家对 AI 没那么感兴趣的话,接下来,我讲一讲从上海交通大学毕业后,我都干了啥?


我真的干了很多乱七八糟的事情,可以说是过着「打卡式人生」,就连论文都是打卡式发论文。

我在上海交通大学待了近七年,又在香港科技大学待了两年,后来去了 CMU 待了 5 年,在伯克利和斯坦福大学各待了 6 个月。这是学校去的地方。大公司我在百度待了2年,在 Amazon 干了 7 年,这是我的第二个创业公司,创业公司也干了2年半。就是说,什么地方都转过。然后给大家分享一下,这种转来转去到底是一种怎样的体验?去大公司、读 PhD 和成立创业公司,目标都何不同?

从最基本的目标来说,去大公司,是为了升职加薪,基础目标啊,不是你的最终目标;读 PhD ,你是要毕业;而创业的目标是要能推出产品,要么上市,要么卖掉。


这是你每天都需要思考的,基本需求。

然后就要考虑,你要干什么事情?

在大公司,你要解决问题。是公司关心的问题。这一点很重要哦。大家一定要想清楚:我要在公司干什么,公司今年准备干什么,最好两者保持一致。如果干的事情是自己喜欢的,但不是公司追求的,这就会让人很难受。

创业公司面临很多问题,用户会付钱吗?投资人会付钱吗?要是都没人付钱就糟糕了。虽然进大公司和创业,都是解决问题,但解决的问题不太一样。你想解决什么问题,就会导致你选择做什么样的事情。还有一个就是驱动力,就是你的动机。即最小的动机。

比如说,去大公司,你不是家里有矿,找个班上赚点工资。你的动机得高一点,不仅仅是为了赚那点钱。成立创业公司的动机就要更高一点,不然你熬不下来。

打工人?


打工人的好处是,可以在一个相对简单的环境里学习各种从业知识,比如一个技术如何落地、产品怎么做出来、怎么设计、怎么运营、怎么管理。

其次是干完被安排的任务后,晚上睡觉不用太担心其他,不会做噩梦。还有就是相对稳定的收入和空余时间。要知道,买房、教育小孩,照顾父母,都需要耗费时间,而打工人相对来讲时间较充裕,就算是 996,还是有一天可以休息,但其他两个赛道(创业和读 PhD)没有 996,它们是 7X24。

那么打工人的坏处是什么?坏处就是停留在打工人或者职业经理人的思维。无论是公司还是学校,他们都创造了一个相对简单的环节。学校是一个非常简单的社会,公司也是如此,公司从最上层把整个复杂的世界抽象成简单的任务,待得越久,就越觉得自己是螺丝钉,当然螺丝钉的好处就是,只要找到一个螺母钉上去就行,不用管这个机器多么复杂,外面世界多么复杂,但你在一个简化的世界里干得越久,就会觉得很腻,学的也越少,这就导致你一直停留在一个打工人或者职业经理人的思维里,而不是站在一个更高更广的层次去思考。

读PhD?

读 PhD 的好处是,在几年的时间里可以专心探索某一个领域,反正也没钱赚,也没有升职加薪的机会。等完成 PhD 后,你可以获得个人或者小团队研发的能力,不少人可以自己哐哐哐做出东西来,也有些人可以去带硕士生、本科生或者几个人一起完成研发。大家可能没注意,PhD 有 50% 时间是花在写作和演讲上的,这种能力也很重要。

还有一个好处,很多公司的研发职位要求就是 PhD,就是说反正PhD市场上量大管饱,反正要个PhD没错。

读 PhD 的坏处是什么?

首先,很少有实验室能参与大项目的研发。

其次是研究课题和导师风格都很挑人,需要你去适应,这个适应过程,要么看你的适应能力有多好,要么看你导师的适应能力有多好。你在公司里面还能够部门之间跳一跳,但读 PhD 就更难一些。

最后,要真的热爱研究,不然坚持不下去,你会觉得研究这个东西到底有什么意义,水这篇论文要干嘛。其实,你可以这样想:我写这篇文章就是为了练习写作,等到更厉害、更大的成果做出来后,写作不能给我拉后腿。你要有一个更远大的目标,是真的热爱它。

创业?


创业好酷。好处是有当海盗的乐趣。

创业亦是如此。天天看市面上有什么东西,天天跟人聊有什么机会,机会来了是不是要 all in 搏一把,海盗太多,你不 all in ,机会就没了,但 all in 了也可能会失败,所以生死就在一瞬间,相当刺激,这种乐趣,你在别处无法体验到,创业是唯一可以合法「当海盗」的方式。

创业还有一个好处,就是能直面这个复杂的社会,直接跟社会打交道,没有人帮你做抽象,没有人会帮你把事情想清楚,你得自己把这个社会理解清楚后,快速学习。越复杂的环境,越锻炼你的抽象能力,你要对这个世界做抽象,把一些很复杂的现象做简单。

创业还是一个最好的历经苦难的方法。创业之后,你会发现,做别的事情都相对简单。

创业不好的地方就是婴儿般的睡眠,每三个小时醒一次,怀疑自己是不是快混不下去了。为此,我还问过很多人,包括张一鸣,包括现在可能是世界首富的经验,我说你创业的时候怎么样,他们说那个时候他们也不知道,那个东西很怀疑自己,你得熬过来,这没办法。

所有的困难都在你头上,没人帮你顶。你在学校导师可以给你顶一顶,你在公司上级可以给你顶一顶,当然你也可能给他背黑锅,但很多时候上级会帮你背锅。而创业则是所有困难压在你一人身上,逃避没用,你逃避它,就可能解决不了它,最终就迈不过那个坎。因此,你得很热爱你的创业方向,不一定热爱创业,但要热爱创业做的这个事情,不然你坚持不下来。

为什么我之前说创业要求的动机要比 PhD 更高一点,PhD 的动机要比工作更高一点,核心原因就在于,你会有一个延迟享受。在公司,一个事情干完就会发奖金或者被表扬;PhD 做一个研究可能要一两年;创业可能要 5 年, 5 年之后才能得到正反馈。你在没有任何正反馈的情况下,你就得很热爱这个事情,得给自己加码,让自己嗨起来。

你要有一个强烈的动机,而强烈的动机要么来自很深沉、很底层的欲望,要么来自很深的恐惧。


你用旁观者的角度来剖析一下自己,你最不愿意回忆或者分享的是什么,再去想一下这背后的动机,是想要什么还是怕什么?

欲望是越底层越好,名、利、权,都是底层的欲望,要直面自己的欲望,也要直面自己的恐惧,这种恐惧是可以让你抑郁的恐惧,也是让你感受到生死的恐惧。我自己就是这样,我小时候有点抑郁症,就是对人类人生,这辈子干嘛,图个啥,虚无的恐惧。就是人这辈子过来,你再怎么说,绝大部分的人,99.99999%的人在历史上不会留下任何记忆。那你这辈子干了什么呢,以前我们说中国的传统,你的一辈子是为了你的子孙,是为了生命的延续。但现在不一样。

那核心在于,你需要把欲望和恐惧转变成积极向上的动机,这一点很重要,你的动机一定是正确的,符合价值观的,因为逃避、放纵满足不了欲望,也缓解不了恐惧,唯一克服它的办法是,把它变成一个积极向上、符合社会价值的一个动机。


有了动机之后就得想,我要解决什么问题,你的问题可能就是你的动机本身。


如果这个问题有学术价值,你可以考虑去读 PhD;如果这个问题有商业价值,你可以考虑去创业;如果以上两种属性都不够强烈,但至少有成长价值,那先做做打工人也未尝不可。


举个例子,语言模型为什么能 work?没人知道,这是一个很有学术价值的东西。语言模型能不能孵化出新的应用?这是商业价值上的问题。实在不行的话,也可以思考语言模型在某个产品上如何落地。


最后,我想分享一个持续提升自我的方法。

你用导师或者上级的角度去总结自己:你每周干了哪些事情?为什么这些目标没达成?

可能是因为懒,那么你得直面懒的问题。我怎么能让自己勤奋一点?找一个学习伙伴,每天在图书馆待着,要大家相互监督等。

还有可能是因为蠢,这就有两种解决方案。一种是换一个方向,去擅长的领域;一种是既然绕不开,那就花别人两倍的时间。

无论是因为懒还是蠢,你都得对自己狠,最后拼的就是你对自己有多狠。

你要形成一个习惯,定个闹钟,每周一晚上花 30 分钟对自己进行总结,每个季度要总结,翻看之前你的写的周记,看看这个季度的目标是否完成,下个季度要做什么。

选择比努力更重要,但选择的前提是搞清楚你的目标是什么。

此外,每年或者每五年你都得想一想自己的动机是什么?如果觉得去年不开心,没有做出什么成果,你就要思考一下,是不是你没有强烈的动机,或者时机不够成熟。

要是因为时机不到,你就继续努力,如果是动机不对,那你就考虑换一个努力的方向。

反正我每 5 年都会想一想,我动机是什么?我接下来要干什么?但这有个 bug ,就是我什么地方都逛了一圈,活成了「打卡式人生」。


这是一个最好的时代,新的技术带来了很多新的机会,就算没有新一代技术出现,现有的技术对世界未来几年的影响都会非常大。这不是我一个人的看法,很多世界 500 强 CEO 也这么认为,他们内部的很多数据都验证了这一观点。因此,大家不管是读本科、硕士、还是 PhD,甚至刚工作,都能享受到未来几年技术带来的变革。

同时,这也是一个最坏的时代,在座的各位付出的努力要比上一代更多。所以说,我们这一代人干的事情,获得了什么东西,在各位那里不一定成立,我们可能运气好一点,你们可能更难一些。各位的好消息是,时代福利还是有的,坏消息是说这个电梯上有很多人,大家付出的可能要更多一些。

谢谢大家!这是我想要和大家分享的所有内容。

来源 | 机器之心

编辑丨赵雅鑫

----- END -----

wisemodel相关

系统升级

系列模型:

关于wisemodel更多

1

欢迎持续关注和支持

开源社区建设需要长期坚持和投入,更需要广大用户的积极参与、贡献和维护,欢迎大家加入wisemodel开源社区的志愿者计划和开源共创计划。期待更多开发者将开源成果,包括模型、数据集和代码等发布到 wisemodel.cn 社区,共建中立、开放的AI开源社区生态。欢迎扫码添加wisemodel微信,申请加入wisemodel社群,持续关注wisemodel.cn开源社区动态。

2

欢迎加盟wisemodel开源社区

始智AI wisemodel社区自2023年9月上线以来,逐渐成为影响力日益扩大的中立开放的AI开源社区,为了加快公司发展,我们长期需要技术、运营等人才加盟,技术侧重在AI infra、后端开发,熟悉K8S、模型训练和推理等技术, 以及熟悉开发者生态运营的成员,欢迎感兴趣的朋友加盟,可以通过添加wisemodel微信,或者将简历投递到邮箱:liudaoquan@wisemodel.cn

3

欢迎投稿优质内容

欢迎投稿分享人工智能领域相关的优秀研究成果,鼓励高校实验室、大企业研究团队、个人等,在wisemodel平台上分享各类优质内容,可以是AI领域最新论文解读、最新开源成果介绍,也可以是关于AI技术实践、应用和总结等。投稿可以发邮件到liudaoquan@wisemodel.cn,也可以扫码添加wisemodel微信。

4

关于wisemodel开源社区

始智AI wisemodel.cn开源社区由清华校友总会AI大数据专委会副秘书长刘道全创立,旨在打造和建设中立开放的AI开源创新社区,将打造成“HuggingFace”之外最活跃的AI开源社区,汇聚主要AI开源模型、数据集和代码等,欢迎高校科研院所、大型互联网公司、创新创业企业、广大个人开发者,以及政府部门、学会协会、联盟、基金会等,还有投资机构、科技媒体等,共同参与建设AI开源创新生态。

向上滑动查看

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
俄军官:大规模使用“榛树”导弹效果相当于核武器,普京称有必要进行批量生产!乌外长:这是战争严重升级……

俄军官:大规模使用“榛树”导弹效果相当于核武器,普京称有必要进行批量生产!乌外长:这是战争严重升级……

每日经济新闻
2024-11-23 08:12:05
王宝强被举报涉嫌欺诈,受其资助孩子父亲发声:已资助2年,每学期都会转账

王宝强被举报涉嫌欺诈,受其资助孩子父亲发声:已资助2年,每学期都会转账

娱乐的小灶
2024-11-22 14:26:08
巴尔加斯晒与武磊捧杯合影:你让我和你来中国赢得一切,做到了

巴尔加斯晒与武磊捧杯合影:你让我和你来中国赢得一切,做到了

直播吧
2024-11-24 09:32:26
外媒:因严重的心理问题,多名以色列士兵自杀,实际人数可能更多

外媒:因严重的心理问题,多名以色列士兵自杀,实际人数可能更多

封面新闻
2024-11-24 20:52:48
广东这个最年轻的地级市,建市前发展势头迅猛,如今却省内垫底

广东这个最年轻的地级市,建市前发展势头迅猛,如今却省内垫底

有地说理
2024-11-24 18:46:36
活久见!退市5年从0.44元涨到9.12元上涨超20倍,3万股东喜极而泣

活久见!退市5年从0.44元涨到9.12元上涨超20倍,3万股东喜极而泣

芯怡飞
2024-11-25 00:00:52
奥斯卡带队模仿梅西!庆祝上海海港夺得足协杯冠军!

奥斯卡带队模仿梅西!庆祝上海海港夺得足协杯冠军!

历史第一人梅西
2024-11-24 17:49:41
今日!CCTV5直播丁俊晖等出战斯诺克英锦赛+天下足球,APP转皇马

今日!CCTV5直播丁俊晖等出战斯诺克英锦赛+天下足球,APP转皇马

晚池
2024-11-25 00:25:29
她长得漂亮演技好,将送外卖的丈夫培养成影帝,如今离婚去当老师

她长得漂亮演技好,将送外卖的丈夫培养成影帝,如今离婚去当老师

华人星光
2024-11-21 15:43:27
笑不活了,东北女澡堂的搓澡大姨能说到什么程度?评论区太真实了

笑不活了,东北女澡堂的搓澡大姨能说到什么程度?评论区太真实了

有趣的火烈鸟
2024-11-23 21:48:29
菲律宾,开始摊牌了

菲律宾,开始摊牌了

牛弹琴
2024-11-24 07:43:12
你觉得什么二手的东西反而更香?网友:请叫我无敌捡漏王!

你觉得什么二手的东西反而更香?网友:请叫我无敌捡漏王!

热闹的河马
2024-11-18 15:54:10
7122元/㎡成交!科慧花园业主,泪已干......

7122元/㎡成交!科慧花园业主,泪已干......

坠入二次元的海洋
2024-11-24 18:40:37
姚明携妻女出席慈善晚宴,14岁女儿长到1米9,因长相太成熟引热议

姚明携妻女出席慈善晚宴,14岁女儿长到1米9,因长相太成熟引热议

圈里的甜橙子
2024-11-24 22:47:34
最矮奥运冠军身高1米37无人追,退役后二次发育,如今遇到真爱

最矮奥运冠军身高1米37无人追,退役后二次发育,如今遇到真爱

云舟史策
2024-10-11 06:45:03
中方逆转大局!欧盟被迫做出决定,取消对华电动车加征高额关税!

中方逆转大局!欧盟被迫做出决定,取消对华电动车加征高额关税!

凉羽亭
2024-11-24 23:36:56
王金兰实名举报刀郎!称刀郎抄袭她的20首原创作品,更多细节曝出

王金兰实名举报刀郎!称刀郎抄袭她的20首原创作品,更多细节曝出

小徐讲八卦
2024-11-23 08:34:16
艾伦秀主持人决定搬到英国乡村定居!网友:有猫腻,已看破!

艾伦秀主持人决定搬到英国乡村定居!网友:有猫腻,已看破!

英国那些事儿
2024-11-24 23:06:25
刘晓庆的瓜愈演愈烈!小男友再爆猛料私密视频流出,他得寸进尺了

刘晓庆的瓜愈演愈烈!小男友再爆猛料私密视频流出,他得寸进尺了

辣条小剧场
2024-11-09 06:22:17
他这是啥命啊!当了15年老大,0个冠军,当了3年老二,拿两个冠军

他这是啥命啊!当了15年老大,0个冠军,当了3年老二,拿两个冠军

球毛鬼胎
2024-11-11 20:53:17
2024-11-25 08:19:00
wisemodel开源社区
wisemodel开源社区
始智AI wisemodel.cn开源社区,打造中国版“huggingface”
142文章数 7关注度
往期回顾 全部

科技要闻

大数据“杀熟”将被整治!四部门出手了!

头条要闻

媒体:特朗普点将完毕 对华政策方面其团队群"鹰"荟萃

头条要闻

媒体:特朗普点将完毕 对华政策方面其团队群"鹰"荟萃

体育要闻

卡文迪什:公路自行车传奇谢幕

娱乐要闻

窦靖童演唱会:王菲助阵,谢霆锋助唱

财经要闻

特朗普任免对市场有何影响?券商研判

汽车要闻

尊界S800首张官图发布 双色车身"尊的"很亮

态度原创

教育
艺术
亲子
旅游
军事航空

教育要闻

也太内卷了吧!首批选调生的选拔不但定向名校,还要定向专业

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

亲子要闻

警惕!这些药物或可致智力残疾拉响警报

旅游要闻

北武当山:日出、云海、雾凇齐现!宛若仙境

军事要闻

泽连斯基:俄乌冲突完全有可能在2025年结束

无障碍浏览 进入关怀版