网易首页 > 网易号 > 正文 申请入驻

大模型已过时,小模型SLM才是未来?苹果正在研究这个

0
分享至



机器之心报道

编辑:Panda、佳琪

手机还是更适合小模型

大模型虽然好,但我的笔记本和手机都跑不动呀。就算勉强能跑起来,也是奇慢无比。而与此同时,对适合移动和边缘设备的小模型的需求却在不断增长,因为这些模型似乎才能真正满足人们的日常需求。正因为此,有不少研究者和应用开发者都认为小模型才是 AI 的未来。





事实上,Meta 和 Mistral 等都已经发布了自己的 SLM,比如 Llama 3.2 的 1B 和 3B 版本以及 Ministral 3B。另外还有一些社区开发的 SLM,比如 BabyLlama 系列(不到 1B 参数)、 TinyLLaMA(1.1B 参数)。

为了打造出真正好用的小型语言模型(SLM),AI 研究社区想出了各种各样的方法,像是对大模型进行蒸馏或量化或者就直接去训练性能优异的小模型。

实际上, SLM 正在逐渐成为一个研究热门方向,简单检索 arXiv 上的关键词也能大致看见这一趋势:9 和 10 月份,SLM 相关研究论文的数量有了明显增长。



今天,我们就来看看苹果的一篇相关论文,其探讨了训练小型语言模型的计算瓶颈。



  • 论文标题:Computational Bottlenecks of Training Small-scale Large Language Models
  • 论文地址:https://arxiv.org/pdf/2410.19456

首先,多小的模型才能算是小型语言模型,或按苹果的说法 —— 小规模大型语言模型?

这个苹果团队给出的指标是「参数量 ≤ 2B」。当然,这并非人们公认的标准,也有人认为 Ministral 3B 和 Llama 3.2 3B 等 3B 参数量的模型也算是 SLM。总之,大与小是一个会随着计算基础设施的演进而动态变化的标准,昨天的大模型可能就会成为明天的小模型。

尽管 SLM 规模很小,但其表现并不一定很差,并且已经展现出了自己的巨大潜力。很多借助剪枝、蒸馏和量化等技术得到的 SLM 的性能并不比大得多的模型差,甚至有时候还能更胜一筹。举个例子,Gemma-2B 的性能就优于大得多的 OPT-175B,这就挑战了大多数人的一个固有观念:模型大小是有效性的主导决定因素。

另外,也有采用互相验证等其它新颖方法提升 SLM 能力的研究思路,比如机器之心曾报道过的《两个小模型互相验证,直接比肩大模型?微软的 rStar 甚至没用 CoT 和微调》。事实上,随着 OpenAI ο1 系列模型的发布,通过优化推理时间计算也成了提升 SLM 性能的重要途径。

性能足够好的 SLM 具有很大的好处,最基本的就是速度快、效率高、性价比高。因此,SLM 对计算资源有限的组织(如小型企业和学术机构)非常有吸引力。

苹果的这项研究关注的是 SLM 的训练动态。事实上,在训练方面,LLM 和 SLM 的差距很大。LLM 的计算需求和基础设施需求并不一定适用于 SLM。考虑到云平台可用的硬件配置多种多样(包括 GPU 类型、批量大小和通信协议),有必要对这些影响 SLM 训练效率的因素进行系统性的分析,尤其是要考虑一些符合实际的指标,比如每美元的损失和每秒 token 数。

该团队的研究结果表明,对于更小型的模型,可以使用 A100-40GB GPU 和分布式数据并行(DDP)等更低成本选择,同时不会对性能产生负面影响。对于更大型的模型,就必需更高级的配置了(例如 A100-80GB 和 H100-80GB GPU 搭配 Flash Attention(FA)和完全分片式数据并行(FSDP)),这样才能处理更大的数据批以及防止内存相关的问题。

SLM 领域的最近研究进展表明,扩展 AI 系统不仅是要追求先进的性能,也要考虑实际应用。目前这股研发 SLM 的趋势表明,重新评估硬件和计算策略是非常重要的。

苹果这项研究为此做出了贡献,他们系统性地研究了在不同的云基础设施和设置上,训练最多 2B 参数大小的 SLM 的计算瓶颈和成本效率。他们发现:

1. 相比于 LLM,FlashAttention 对 SLM 来说更重要;

2. H100-80GB 和 A100-80GB 等昂贵硬件对 SLM 训练来说不一定具有成本效益;

3. DDP 是 SLM 的最佳分布式训练方案;

4. 对 SLM 训练来说,最大化 GPU 内存利用率并不是成本最优的。

模型和参数

该团队研究的是 LLaMa 架构,毕竟不管是 LLM 还是 SLM,这都是当今最流行的架构。

LLaMa-2 和 3 最小的版本分别是 7B 和 8B,但这对大多数移动硬件来说还是太大了。为此,该团队进行了一番操作:为了定义他们自己的模型,他们通过在 Llama 模型上拟合一条曲线而提取了模型的解码器模块和参数数量。见下图 5。



他们评估了四种不同的模型大小:100M、500M、1B 和 2B。

值得注意的是,他们最大化了图中 x 轴或图例中未显示的所有配置参数。也就是说,他们对下面列出的所有配置参数组合进行大型网格搜索,并且每个图中的每个点都是给定图中指定的所有参数的最佳配置。

这样,他们找到了最佳的 Token/Dollar 比值,并假设可以通过调整优化超参数(例如学习率)来实现与硬件最佳配置的最佳收敛。



接下来,给出这些配置参数的定义

  • GPU 类型:他们评估了三种英伟达 GPU:A100-40GB、A100-80GB 和 H100-80GB。所有 GPU 使用的数据类型都是 BFloat16。
  • GPU 数量和通信:每种 GPU 类型都有三种主要训练配置,包括:单节点单 GPU(1 台 GPU)、单节点多 GPU(2、4 和 8 台 GPU)和多节点多 GPU(16、32 和 64 台 GPU)。当 GPU 超过 1 台时,还会评估分布式数据并行(DDP)和完全分片式数据并行(FSDP)这两种通信方法。对于分片,他们也研究了两种策略:1) 完全分片,即对所有梯度、优化器状态和权重进行分片;2) grad_op 分片,即仅对梯度和优化器状态进行分片(但权重不分片)。他们使用了 RDMA/EFA。
  • 样本数量:他们还评估了训练期间适合单个 GPU 的各种样本数量。他们将序列长度固定为 1028,并迭代适合单台设备的批量大小。由于即使在最小(100M)的模型中也无法将 128 个样本放入单个 GPU 内存中,因此他们研究了每台设备的批量大小为 4、8、16、32 和 64 的情况。这里不使用梯度累积
  • Flash Attention:他们研究了在注意力模块中使用 Flash Attention 的影响。

实验结果

该团队展示了 SLM 在 A100-40GB、A100-80GB 和 H100-80GB 上运行的结果。他们在 HuggingFace 中部署了模型,没有附加任何额外的框架,batch size=1024,并使用 PyTorch 运行了如下表数值设置的实验。



通过多次实验,研究团队得出了以下观察:

Q1:在 SLM 训练中使用 FlashAttention 有多重要?

图 1 比较了不同 batch size 下 FlashAttention2 与普通注意力的区别。首先,使用 FlashAttention 显著提高了 SLM 的 Token/Dollar 效率,用同样的钱(Dollar)能处理更多数据(Token)。

对于较小的模型,FA 对 Token/Dollar 的提升更为显著。这是因为注意力机制的成本会随上下文长度变长以平方的速度增长。当模型的隐藏层维度减少时,这个因素变得尤为重要。这样的 SLM,其性能受限于数据处理能力,其中数据在 CPU/GPU、GPU/GPU 之间传输是主要瓶颈。最后,可以看到对于较大的模型(1B 和 2B),FA 能够训练更大的 batch size(1024),而普通注意力会导致内存溢出(OOM)。

Q2:GPU 数量一定,哪类 GPU 最适合训练 SLM?



图 2 展示了使用 A100-40GB 和 A100-80GB GPU 训练模型的效果。尽管不同模型间没有统一的趋势,但当使用用大量 GPU 训练 1B、2B 参数规模的模型时,A100-80GB GPU 表现更佳。这种 GPU 适合处理更大的 batch size。对于更小的模型,则可以选择成本更低的 40GB GPU。

Q3:在不同节点数量下,哪种通信方案最适合训练 SLM?



该团队探讨了不同并行策略对 SLM 训练的影响,分布式数据并行(DDP)、完全分片数据并行(FSDP-Full)、还是 FSDPGrad+Optimizer,那种方法更优秀?图 3 展示了在 A100-80GB GPU 上,这些并行策略训练模型的效果。

结果显示,对于小型模型,对通信需求最小的 DDP 更优。但对于 2B 参数的模型,FSDP 由于能处理更大的 batch size,表现超越了 DDP。此外,FSDP-Grad+Optimizer 因其较低的通信开销,表现优于 FSDP-Full。简而言之,选择合适的并行策略可以优化 SLM 的训练效率。

Q4:对于不同的全局 batch size,训练 SLM 的最佳通信方案是什么?

图 4 显示了使用 DDP、FSDP-Full 和 FSDP-Grad+Optimizer 在不同 batch size 下训练 SLM 的结果。



可以看到,batch size 较小时,通信方案的差异不大。然而,与上个问题类似,对于 2B 模型和 batch size,FSDP 方案的性能优于 DDP,并且能够处理比 DDP 更大的批量大小,而 DDP 在这种情况下会导致内存溢出。

更多研究细节,请访问原论文。

参考链接:https://arxiv.org/pdf/2410.19456

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
网友:周鸿祎怒了!车也卖了,车模也当了,硬没把哪吒销量拉上去

网友:周鸿祎怒了!车也卖了,车模也当了,硬没把哪吒销量拉上去

火山诗话
2024-10-31 06:24:12
南昌工学院19岁男生捅死22岁女生,原因曝光,学校回应引热议

南昌工学院19岁男生捅死22岁女生,原因曝光,学校回应引热议

180°视角
2024-10-31 11:23:55
杨毅:姚明辞职回上海另有任命!不擅搞好关系 男篮输球不全赖他

杨毅:姚明辞职回上海另有任命!不擅搞好关系 男篮输球不全赖他

念洲
2024-10-31 08:27:57
马斯克伊万卡传绯闻?大选前特朗普千金为何消失

马斯克伊万卡传绯闻?大选前特朗普千金为何消失

iWeekly周末画报
2024-10-31 09:07:23
河北保定4名女学生称就餐时拒绝搭讪被殴,教育局:正在核实

河北保定4名女学生称就餐时拒绝搭讪被殴,教育局:正在核实

极目新闻
2024-10-31 11:50:06
俄罗斯手握大量印度卢比,2年都没花出去,中国:我教你怎么花

俄罗斯手握大量印度卢比,2年都没花出去,中国:我教你怎么花

鱼窝鱼窝
2024-10-30 20:59:13
投名状!唐斯狂轰44分13板,末节超硬气7中6,独砍14分打爆热巴

投名状!唐斯狂轰44分13板,末节超硬气7中6,独砍14分打爆热巴

老王大话体育
2024-10-31 10:43:41
范尼救得了吗?曼联4250万欧签的齐尔克泽,首秀绝杀后13场进球荒

范尼救得了吗?曼联4250万欧签的齐尔克泽,首秀绝杀后13场进球荒

直播吧
2024-10-31 09:40:22
赵露思宣传新剧“矮”上热搜!网友:身高太灾难!队伍都凹进去了

赵露思宣传新剧“矮”上热搜!网友:身高太灾难!队伍都凹进去了

小娱乐悠悠
2024-10-31 10:03:38
安徽淮北一业主发现自家新房阳台被拆,物业:正配合警方调查

安徽淮北一业主发现自家新房阳台被拆,物业:正配合警方调查

极目新闻
2024-10-31 12:10:29
一韩国公民涉嫌间谍罪被中方逮捕!系三星前员工,曾在多家中国芯片大厂工作

一韩国公民涉嫌间谍罪被中方逮捕!系三星前员工,曾在多家中国芯片大厂工作

鲁中晨报
2024-10-30 23:14:09
南昌工学院22岁女生被19岁男友捅死,知情者发声:女生骗钱骗感情

南昌工学院22岁女生被19岁男友捅死,知情者发声:女生骗钱骗感情

180°视角
2024-10-31 11:58:09
神十九成功对接空间站!为何美国急眼了?原因很简单:

神十九成功对接空间站!为何美国急眼了?原因很简单:

现代春秋
2024-10-30 17:19:33
只有美以投下反对票 联大第32次要求美国终止封锁古巴

只有美以投下反对票 联大第32次要求美国终止封锁古巴

新京报
2024-10-31 07:25:03
七个摇摆州全部翻红,特朗普亮出底牌,美国大选几乎“无悬念”了

七个摇摆州全部翻红,特朗普亮出底牌,美国大选几乎“无悬念”了

阿纂看事
2024-10-31 09:00:52
湛江一小学班主任放狠话“全家都死了就不用签字”,是一时口快还是戾气太重?

湛江一小学班主任放狠话“全家都死了就不用签字”,是一时口快还是戾气太重?

极目新闻
2024-10-31 12:31:54
网红“峰哥”称在乌克兰遭华人绑架团伙盯上,识破美女色诱,现已离乌但未脱险

网红“峰哥”称在乌克兰遭华人绑架团伙盯上,识破美女色诱,现已离乌但未脱险

可达鸭面面观
2024-10-31 12:06:51
王浩泽,首位女航天员工程师,她结婚、生育了吗?看这里

王浩泽,首位女航天员工程师,她结婚、生育了吗?看这里

明月历史说
2024-10-31 10:23:39
36岁迪马利亚神作:左脚凌空世界波,如同炮弹!4万人狂欢

36岁迪马利亚神作:左脚凌空世界波,如同炮弹!4万人狂欢

叶青足球世界
2024-10-31 09:45:16
美国大选“烧钱”战:富豪家族砸20亿美元创纪录,共和党受青睐

美国大选“烧钱”战:富豪家族砸20亿美元创纪录,共和党受青睐

界面新闻
2024-10-30 18:38:50
2024-10-31 13:22:44
机器之心Pro
机器之心Pro
专业的人工智能媒体
9626文章数 142050关注度
往期回顾 全部

科技要闻

苹果发布M4芯片MacBook Pro:12999元起

头条要闻

湘雅二医院刘翔峰获刑17年:虚构病征做手术致5人重伤

头条要闻

湘雅二医院刘翔峰获刑17年:虚构病征做手术致5人重伤

体育要闻

换帅后首战!曼联5-2赢了 进英联杯8强

娱乐要闻

刘大锤曝两对明星偷偷领证结婚

财经要闻

减持!李嘉诚又出手了

汽车要闻

宋PLUS有对手啦?15万插电混动SUV又一新选择

态度原创

本地
房产
时尚
公开课
军事航空

本地新闻

云游中国|一字独天下,一城秀江南

房产要闻

最新!销售额破千亿,面积激增22万㎡!海南楼市还是猛!

不挑年龄长相,这可能是最适合借鉴的秋日风格!

公开课

AI如何揭开大自然和宇宙的奥秘

军事要闻

朝鲜宣布试射洲际弹道导弹 金正恩现场观看

无障碍浏览 进入关怀版