网易首页 > 网易号 > 正文 申请入驻

Hymba: 结合注意力头和SSM头的创新型语言模型方案

0
分享至

近年来,大语言模型(LLM)在各个领域取得了显著成效。但现有的Transformer架构存在计算复杂度高、内存消耗大等问题。而状态空间模型(SSM)如Mamba虽然具有常数复杂度和优化的硬件性能,但在记忆回溯任务上表现较弱。针对这一问题,NVIDIA提出了Hymba架构,通过在同一层中结合注意力头和SSM头,以实现两种架构优势的互补。

核心创新

Hymba的核心创新主要包括三个方面:

  1. 并行混合头设计
  • 在同一层内并行集成注意力头和SSM头
  • 注意力机制提供高分辨率记忆回溯能力
  • SSM提供高效的上下文总结能力
  • 这种设计相比Zamba和Jamba等只在不同层使用两种机制的方法更加灵活
  1. 可学习的元令牌(Meta Tokens)
  • 在输入序列前添加可学习的元令牌
  • 这些令牌与所有后续令牌交互
  • 充当知识的压缩表示
  • 提高了回溯和通用任务性能
  1. KV缓存优化
  • 在层间共享KV缓存
  • 大多数层使用滑动窗口注意力机制
  • 显著减少了内存和计算成本

架构设计

如论文图1所示,Hymba的混合头模块包含:



  1. 输入处理
  • 输入序列前添加Meta Tokens
  • 通过投影层将输入转换为查询、键、值以及SSM特征
  1. 并行处理
  • 注意力头处理高精度记忆回溯
  • SSM头进行高效的上下文总结
  • 两种头并行处理相同的输入信息
  1. 输出融合
  • 对注意力头和SSM头的输出进行归一化
  • 通过可学习的向量进行重新缩放
  • 最后取平均得到最终输出

性能优势

相比现有模型,Hymba-1.5B在多个方面都展现出显著优势:

  1. 与Llama 3.2 3B相比:
  • 准确率提高1.32%
  • 缓存大小减少11.67倍
  • 吞吐量提高3.49倍
  1. 与同等规模(2B以下)模型相比:
  • 在常识推理任务上取得最好性能
  • 需要的缓存大小显著减小
  • 具有更高的处理速度
  1. 指令微调后的变体Hymba-1.5B-Instruct:
  • 在GSM8K和GPQA等基准测试上表现优异
  • 经常超越更大规模的模型

Hymba架构实现与实验评估

1. 融合混合头模块设计

Hymba提出了一个统一且对称的模块设计公式。对于输入序列 X̃(原始输入序列 X 加上元令牌),主要包括:

输入投影:

  • 使用 Win_proj = [WQ, WK, WV, WSSM, WG] 进行投影
  • 生成注意力头的查询、键、值
  • 生成SSM头的输入特征和门控信号

注意力头输出:

SSM头输出:



输出融合:

其中β1和β2是可学习的向量,用于重新缩放各通道的输出。

2. KV缓存优化策略

全局与局部注意力结合:

  • 仅在关键层(第一层、中间层和最后一层)使用全局注意力
  • 其他层使用滑动窗口注意力(SWA)
  • 该策略在维持性能的同时显著提升效率

跨层KV共享:

  • 相邻层间共享键值缓存
  • 减少参数冗余
  • 节省的参数可以重新分配给其他模型组件

3. 元令牌的创新应用

主要功能:

  • 防止令牌重写:为模型提供独立于输入的令牌
  • 处理"强制关注"问题:通过修改softmax的分母来优化注意力分布
  • KV缓存和SSM状态的初始化:可以看作是一种学习到的提示调优

实现效果:

  • 降低了注意力图的熵
  • 帮助模型更好地聚焦于重要信息
  • 提升了回溯能力和常识推理性能

实验评估

1. 基准测试性能



如论文表2所示,在1.5T预训练数据条件下,Hymba-1.5B相比同规模模型具有明显优势:

  1. 与SmolLM2-1.7B比较
  • 平均准确率提升1.02%
  • 缓存大小减少19.91倍
  • 吞吐量提高2.79倍
  1. 与其他2T以下训练数据的模型比较
  • 相比Phi-1.5提升平均准确率5.21%
  • 相比h2o-danube2-1.8B提升5.41%

2. 指令微调效果

  1. 基础指令微调
  • 采用两阶段策略:全量微调(FFT)和直接偏好优化(DPO)
  • 在GSM8K、GPQA等任务上达到同类最佳性能
  1. DoRA参数高效微调
  • 在RoleBench上超越了Llama-3.1-8B-Instruct约2.4%
  • 展示了模型在参数高效微调场景的潜力

3. 消融实验结果

  1. 架构组件分析
  • 混合头结构比顺序叠加提升显著
  • KV缓存优化在保持性能的同时大幅提升效率
  • 元令牌的引入进一步提升了模型表现
  1. 头部重要性分析
  • SSM头在第一层对语言建模至关重要
  • 移除单个注意力头平均导致0.24%性能下降
  • 移除单个SSM头平均导致1.1%性能下降

这些实验结果充分证明了Hymba架构的有效性和优势。

Hymba模型训练实现细节

1. 预训练策略



如论文图8所示,Hymba采用了多阶段的训练流程:

基础预训练阶段:

  • 使用较大学习率(3e-3)
  • 采用DataCompLM数据集
  • 训练1T个token

学习率退火阶段:

  • 逐渐将学习率降至1e-5
  • 使用高质量数据集
  • 总共处理约500B个token

上下文扩展:

  • 将序列长度从2K扩展到8K
  • 调整ROPE基础参数
  • 进一步提升长序列处理能力

2. 模型系列规格



根据论文表11的描述,Hymba提供了三种不同规格的模型:

  1. Hymba-125M
  • 24个模块
  • 隐藏层大小512
  • 8个注意力头
  • 总参数量约125M
  1. Hymba-350M
  • 32个模块
  • 隐藏层大小768
  • 12个注意力头
  • 总参数量约350M
  1. Hymba-1.5B
  • 32个模块
  • 隐藏层大小1600
  • 25个注意力头
  • 总参数量约1.52B

3. 指令微调实现

  1. 监督微调(SFT)
  • 第一阶段:使用900K样本/3B tokens
  • 第二阶段:使用6.5M样本/10B tokens
  • 涵盖代码、数学、MMLU等多个领域
  1. DPO优化
  • 使用200K样本/0.7B tokens
  • 进一步改进指令遵循能力
  • 采用余弦学习率调度

实际应用与局限性分析

Hymba模型在实际应用中展现出独特的优势,特别是在处理长序列文本时表现突出。通过SSM实现的高效上下文编码和滑动窗口注意力机制,显著降低了内存消耗,使其非常适合在资源受限的环境中部署。在特定任务上,如数学推理、函数调用和角色扮演等场景,Hymba表现出与大型模型相媲美的性能,这使其成为一个极具实用价值的轻量级选择。

但是作为一个相对小型的语言模型,Hymba也存在一些固有的局限性。由于参数量的限制,在处理某些需要深度推理或广泛知识储备的复杂任务时,其表现可能不如参数量更大的模型。此外混合架构的设计虽然创新,但也带来了实现和优化方面的挑战。模型训练过程需要更复杂的调参策略,这增加了模型开发和部署的技术门槛。

未来展望

从技术发展的角度来看,Hymba的创新架构为语言模型的发展开辟了新的方向。未来的研究可能会进一步探索注意力机制和SSM的最优配比,以及更高效的融合策略。随着计算资源的提升和算法的优化,研究者们可能会尝试扩展模型规模,同时保持其高效处理的特性。特别值得关注的是,如何在保持计算效率的同时进一步提升模型性能,这个平衡点的探索将是未来研究的重要方向。

在应用拓展方面,Hymba展现出的混合架构思路可能会被引入到更多领域。例如,将这种架构应用到多模态任务中,探索在视觉-语言交互等场景下的效果。同时,针对特定垂直领域的优化也是一个重要方向,通过专门的微调策略,可能会在特定场景下取得更好的表现。

Hymba的出现为解决语言模型在效率和性能之间的权衡提供了新的思路。虽然目前仍存在一些局限性,但其创新的架构设计和实验结果表明,这种混合架构很可能成为未来语言模型发展的一个重要方向。随着技术的不断进步和应用场景的拓展,我们有理由期待基于这种架构的更多突破性进展。

论文地址:

https://avoid.overfit.cn/post/06def3f77bca4775a8e82a2005b2c19c

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

FlashTokenizer: 基于C++的高性能分词引擎,速度可以提升8-15倍

返回网易首页 下载网易新闻客户端
相关推荐
热点推荐
“反制得还不够狠!”万万没想到,中方反制后,特朗普失“民心”

“反制得还不够狠!”万万没想到,中方反制后,特朗普失“民心”

智观科技
2025-04-03 23:19:07
这哪是34%的对等关税,这明明是振臂高呼:王侯将相,宁有种乎!

这哪是34%的对等关税,这明明是振臂高呼:王侯将相,宁有种乎!

基斯默默
2025-04-05 01:13:14
尹锡悦律师:弹劾案裁决是“彻头彻尾的政治决定”,不可接受

尹锡悦律师:弹劾案裁决是“彻头彻尾的政治决定”,不可接受

界面新闻
2025-04-04 19:28:07
看看现在年轻人整顿家庭纠纷有多爽!网友:干了我想干而不敢的事

看看现在年轻人整顿家庭纠纷有多爽!网友:干了我想干而不敢的事

有趣的火烈鸟
2025-02-14 15:58:13
男篮亚洲杯分档出炉:中国男篮排名亚洲第六进入第二档

男篮亚洲杯分档出炉:中国男篮排名亚洲第六进入第二档

直播吧
2025-04-05 09:55:23
郭晶晶夫妇清明带孩子爬山,大方晒俩女儿正脸,一个像爸一个像妈

郭晶晶夫妇清明带孩子爬山,大方晒俩女儿正脸,一个像爸一个像妈

娱乐圈圈圆
2025-04-05 08:33:30
同是透视装:一个擦边,一个性感,网红和明星的差距一目了然!

同是透视装:一个擦边,一个性感,网红和明星的差距一目了然!

玫瑰讲娱
2025-04-03 15:23:21
电力行业,净利暴增的10家公司

电力行业,净利暴增的10家公司

小波股事历程
2025-04-05 01:03:16
绝对高级❗恩佐制胜赛季6球9助 1.2亿加盟切尔西队内攻防核心

绝对高级❗恩佐制胜赛季6球9助 1.2亿加盟切尔西队内攻防核心

直播吧
2025-04-04 22:57:10
阎罗王告知:烧纸钱前需先做一事,否则逝者看得到拿不了,徒劳无益

阎罗王告知:烧纸钱前需先做一事,否则逝者看得到拿不了,徒劳无益

红豆讲堂
2025-03-31 16:45:10
广州退管所上演“暴力一幕”:六旬阿婆因投诉被打出血,谁担责?

广州退管所上演“暴力一幕”:六旬阿婆因投诉被打出血,谁担责?

墨下
2025-04-04 20:22:26
新华社曝光!民营眼科医院,骗保3000余万元!

新华社曝光!民营眼科医院,骗保3000余万元!

医疗器械经销商联盟
2025-04-04 22:05:46
越南县级机关7月1日起停止运作,行政体系简化为中央-省-乡三级

越南县级机关7月1日起停止运作,行政体系简化为中央-省-乡三级

长平投研
2025-04-03 21:00:04
广东:离婚女子打扮时尚回家,成村民议论对象:她现在是村花

广东:离婚女子打扮时尚回家,成村民议论对象:她现在是村花

心轩专栏
2025-04-03 22:15:38
小S泪崩首述大S猝逝,一生中最痛的决定,固执致命,提醒珍惜健康

小S泪崩首述大S猝逝,一生中最痛的决定,固执致命,提醒珍惜健康

手工制作阿歼
2025-04-05 02:12:25
关税风暴冲击!A股、黄金、债券怎么看?

关税风暴冲击!A股、黄金、债券怎么看?

证券时报
2025-04-04 23:26:05
王伟墓前神秘照,官媒为何 “犹抱琵琶半遮面”?我发给大家看看

王伟墓前神秘照,官媒为何 “犹抱琵琶半遮面”?我发给大家看看

自有私论
2025-04-01 11:11:57
天塌了!人造米流入市场,成本只需几毛?家中有这3种大米赶紧扔

天塌了!人造米流入市场,成本只需几毛?家中有这3种大米赶紧扔

老鹈爱说事
2025-04-02 16:43:56
德天空:皇马考虑破例为32岁的吕迪格提供一份2-3年的新合同

德天空:皇马考虑破例为32岁的吕迪格提供一份2-3年的新合同

懂球帝
2025-04-05 01:06:33
她最后一张照片罕见曝光,太美了

她最后一张照片罕见曝光,太美了

Yuki女人故事
2025-04-03 16:31:14
2025-04-05 10:39:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1620文章数 1424关注度
往期回顾 全部

科技要闻

特朗普:将再给TikTok禁令75天宽限期

头条要闻

牛弹琴:中方强硬反击美方后 特朗普宣称中国"玩不起"

体育要闻

C罗:我不会追求1000球 没实现也无所谓

娱乐要闻

汪小菲懒理S妈暗讽,带孩子户外散步

财经要闻

特朗普宣布将再给予TikTok禁令75天宽限期

汽车要闻

别克GL8陆尚内饰官图发布 有望上海车展亮相

态度原创

本地
家居
手机
公开课
军事航空

本地新闻

我在新昌当女主|大佛寺氛围感拉满 古偶顶流机位GET

家居要闻

诠释东方神韵 展现大宅之美

手机要闻

OPPO Reno14 Pro 手机渲染图曝光:重构相机模组、120Hz 高刷直屏

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

美军持续对也门多地空袭已致257人死伤