网易首页 > 网易号 > 正文 申请入驻

10倍吞吐提升无损性能:多模态适用的KV cache量化策略来了,即插即用无需改原模型

0
分享至

作者|CalibQuant 团队

在 InternVL-2.5 上实现10 倍吞吐量提升,模型性能几乎无损失。

最新 1-bit 多模态大模型 KV cache 量化方案CalibQuant来了。

通过结合后缩放和校准方法,可显著降低显存与计算成本,无需改动原模型即可直接使用

即插即用、无缝集成

多模态大语言模型在各种应用中展现出了卓越的性能。然而,它们在部署过程中的计算开销仍然是一个关键瓶颈。

虽然 KV cache 通过用显存换计算在一定程度上提高了推理效率,但随着 KV cache 的增大,显存占用不断增加,吞吐量受到了极大限制。

为了解决这一挑战,作者提出了 CalibQuant,一种简单却高效的视觉 KV cache 量化策略,能够大幅降低显存和计算开销。具体来说,CalibQuant 引入了一种极端的 1 比特量化方案,采用了针对视觉 KV cache 内在模式设计的后缩放和校准技术,在保证高效性的同时,不牺牲模型性能

作者通过利用 Triton 进行 runtime 优化,在 InternVL-2.5 模型上实现了 10 倍的吞吐量提升。这一方法具有即插即用的特性,能够无缝集成到各种现有的多模态大语言模型中。

动 机

当前的多模态大语言模型在实际应用中常常需要处理大尺寸、高分辨率的图像或视频数据,KV cache 机制虽然能提升效率,但其显存占用与输入长度(如视觉帧数、图像尺寸等)成正比。

当输入数据的规模增大(例如更多的视觉帧、更高的图像分辨率)时,KV 缓存的显存使用量迅速增加,成为限制吞吐量的瓶颈。尽管当前有些针对 LLM KV cache 量化的方法可以将其压缩至 2 比特,但这些方法没有针对多模态问题中特有的视觉冗余做分析优化,导致其无法在极限情况 1 比特下被使用

本文通过分析多模态大语言模型中的视觉 KV cache 的冗余,设计了适合多模态模型特有的 KV cache 量化方案。

方 法

本文在通道维度量化的基础上提出了针对反量化计算顺序的后缩放优化方案和针对注意力权重优化的校准策略。

1. 通道维度 KV cache 量化:

一种广泛使用的方法是均匀整数量化。给定一个比特宽度 b>0 和一个输入值 x,它位于某个范围 [α,β] 内,则将其映射到一个离散整数,计算过程为:

这里的⌊⋅⌉表示取整运算符。最朴素的方法是使用全局统计量来计算这些极值,但是模型性能会受较大影响,作者选择在通道维度上细化统计范围。具体来说,令表示一个 K cache,其中 n 和 d 分别表示 token 的数量和 head 的维度。 定义两个向量如下:

然后,通过上述过程对 K 中的每一行向量进行量化,其中乘法操作是逐元素进行的。作者同样将这种按通道的量化方法应用于 V cache。

2. 后缩放 KV cache 管理策略:

量化后的 K cache 可以用离散化的整数值、一个缩放因子(scale factor)和一个偏置项(bias term)来表示。在解码阶段,这些值被用于对 K cache 进行反量化,并随后与 Q 相乘。然而,通道维度的量化需要为每个通道分别指定不同的缩放因子和偏置向量,这将导致产生大量不同的数值,增加了反量化过程中的计算开销。此外,这种方式也使得 CUDA 内核中的计算效率降低。作者观察到量化后的 K 仅具有有限数量的离散取值(例如,对于 2 比特量化,其取值仅为 0、1、2、3),于是提出利用简单的计算顺序重排来减少存储需求,并提高计算效率。具体过程如下:

设是 K cache 矩阵中的任意一行向量,

为其进行 b 比特整数量化后的结果,并伴随有逐通道的缩放因子α,β。给定一个查询向量,在生成 token 过程中注意力计算如下:

其中,符号⋅和⊙分别表示向量之间的内积和逐元素乘积。通道维度上的反量化操作被延迟执行,并高效地集成到后续的向量乘法运算中。因此,这种方法仅存储经过 b 比特整数量化后的数值,并且避免了全精度反量化计算过程。这种方法确保了低比特反量化执行的高效性。这种后缩放方法也可以自然地应用到 V cache 的反量化过程中。

量化后的校准:

1 比特量化的一个限制是经过反量化之后的数值往往会包含大量的极端值。这是因为 1 比特量化的码本总是包含了最小值和最大值,导致那些接近边界的输入值在反量化后直接映射到了极端值。

因此,重建后的 KV cache 通常包含过多的大绝对值,最终导致注意力分数产生明显的失真。为了解决这个问题,作者提出了一种量化后校准方法,用于调整 softmax 之前注意力分数的峰值。具体来说,假设的所有元素都位于区间内。给定,定义一个线性变换 g 将区间图片映射到图片,其表达式如下:

随后对注意力分数进行如下调整:

图片如下图所示,校准方法(Quant-C,红色)有效减轻了极端值的影响,使调整后的注意分数分布相较于未经校准的量化方法(Quant,蓝色)更接近全精度(Exact)分布。

实验结果

作者将提出的量化方法分别应用在 LLaVA 和 InternVL model 上,测试了其在 captioning,VQA,Video QA 三个不同的任务上的性能。以 captioning 任务为例,下图展示了本文所提出的方法在 cococaption benchmark 下和其他方法如 KIVI,VLCache 的对比。

在不同比特数(8,4,2,1)下,本文提出的方法在大部分测试指标上都优于其他两种方法。例如对于 llava-1.5-7b,本文的方法在 8 比特下达到最高的 CIDEr 分数 1.105,与全精度持平,并在 1 比特下提升至 1.109,超过了 VLCache(1.053)。同样地,对于 InternVL-2.5-26B,本文的方法在 4 比特和 2 比特下分别取得了最高的 CIDEr 分数 1.32 和 1.313,均优于 VLCache 和 KIVI。

Runtime 分析

为了展示本文提出的量化方法对解码效率的影响,作者使用 InternVL-2.5 系列模型,将所提出的 1 比特量化方法与 16 比特基线进行了吞吐量评估(即每秒生成的 token 数)。作者考虑了两种视觉 token 长度的情况:n=3328 和 8192。作者将 GPU 最大内存从 5GB 变化到 30GB,并在每种内存限制下,寻找能够容纳的最大 batch size,测量解码阶段的吞吐量。

如下图展示,1 比特量化方法在所有显存预算下始终优于基线方法。例如,当 n=3329 且使用 80 亿参数模型时,本文的方法在 5GB 显存下实现了 126.582tokens/s 的吞吐量(基线为 11.628tokens/s),在 30GB 下提升至 459.016tokens/s(基线为 40.816tokens/s)。这意味着相比基线,本文方法的吞吐量提升约为 9.88×到 11.24×,充分展示了该方法在受限显存条件下显著提升解码速率。

总 结

本文探讨了多模态大语言模型中视觉 KV cache 的压缩方法。简单地将量化应用到极低比特数常常会引发分布偏移,导致模型性能下降。为了解决这一问题,本文提出了一种新颖的校准策略,作用于 softmax 之前的注意力分数,有效缓解了量化带来的失真。此外,本文还引入了一种高效的通道维度后缩放技术以提高计算和存储效率。

作者在 InternVL 和 LLaVA 模型系列上,针对 COCO Caption、MMBench-Video 和 DocVQA 等基准任务进行了实验,结果验证了所提出方法的有效性。作者利用 Triton 实现了本文所提出的方法,runtime 分析表明本文提出的方法相较于全精度模型有大约 10 倍的吞吐量提升。

论文标题:CalibQuant:1-Bit KV Cache Quantization for Multimodal LLMs

论文地址:https://arxiv.org/abs/2502.14882

代码地址:https://github.com/insuhan/calibquant

会议推荐

AICon 2025 强势来袭,5 月上海站、6 月北京站,双城联动,全览 AI 技术前沿和行业落地。大会聚焦技术与应用深度融合,汇聚 AI Agent、多模态、场景应用、大模型架构创新、智能数据基建、AI 产品设计和出海策略等话题。即刻扫码购票,一同探索 AI 应用边界!

今日荐文

你也「在看」吗?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
几乎无短板的iPhone价格跳水超6000元1500元入手备用机性价比拉满

几乎无短板的iPhone价格跳水超6000元1500元入手备用机性价比拉满

小柱解说游戏
2026-03-25 16:08:49
萨拉赫赛季末离队,克洛普时代结束。安菲尔德也开启重建之路

萨拉赫赛季末离队,克洛普时代结束。安菲尔德也开启重建之路

K唐伯虎
2026-03-26 07:07:42
迈巴赫S级轿车全球首秀,李德思任奔驰销售公司总裁后首次亮相

迈巴赫S级轿车全球首秀,李德思任奔驰销售公司总裁后首次亮相

新京报
2026-03-24 23:40:10
湖北30亩油菜被毁最新进展:赔偿谈妥后,问责程序已启动

湖北30亩油菜被毁最新进展:赔偿谈妥后,问责程序已启动

吃货的分享
2026-03-26 01:39:03
1-3又爆冷!温瑞博无缘世乒赛,3次决赛全输球,王皓的算盘落空了

1-3又爆冷!温瑞博无缘世乒赛,3次决赛全输球,王皓的算盘落空了

体育就你秀
2026-03-26 05:00:03
A股:股民准备好,主力已明牌!周四是反弹尾声,还是新升浪开启

A股:股民准备好,主力已明牌!周四是反弹尾声,还是新升浪开启

云鹏叙事
2026-03-26 00:00:06
涉嫌严重违纪违法,姚启生被查

涉嫌严重违纪违法,姚启生被查

都市快报橙柿互动
2026-03-25 20:00:35
车险改革落地!42%车主弃车损险,2026这样投保最省钱

车险改革落地!42%车主弃车损险,2026这样投保最省钱

三农老历
2026-03-26 02:19:11
悄悄拿下7连胜,甩开哈登追平塔图姆!被忽视的争冠热门杀回来了

悄悄拿下7连胜,甩开哈登追平塔图姆!被忽视的争冠热门杀回来了

锅子篮球
2026-03-25 11:39:08
中美卫星导航用户数量悬殊:GPS用户数超60亿,中国北斗令人意外

中美卫星导航用户数量悬殊:GPS用户数超60亿,中国北斗令人意外

混沌录
2026-03-18 23:54:31
拉里贾尼身亡,其继任者有伊斯兰革命卫队背景

拉里贾尼身亡,其继任者有伊斯兰革命卫队背景

上观新闻
2026-03-25 04:06:47
这辈子走不出牢门,尹锡悦报复李在明的手段,就只剩下折磨狱警了

这辈子走不出牢门,尹锡悦报复李在明的手段,就只剩下折磨狱警了

共工之锚
2026-03-26 01:03:20
王曼昱看到一定会难过!张雪峰曾许诺:我早晚请你做公司代言人

王曼昱看到一定会难过!张雪峰曾许诺:我早晚请你做公司代言人

游戏收藏指南
2026-03-25 20:31:14
放下“旧怨”,两大省域副中心这次不争了

放下“旧怨”,两大省域副中心这次不争了

城市进化论
2026-03-24 23:25:15
考研导师张雪峰因跑步心脏聚停离世?网传特殊治疗知情同意书也被流传出。

考研导师张雪峰因跑步心脏聚停离世?网传特殊治疗知情同意书也被流传出。

贴小君
2026-03-24 20:41:23
冠中冠已定8席!赵心童吴宜泽入围,80后2虎75双雄红包赛抢门票!

冠中冠已定8席!赵心童吴宜泽入围,80后2虎75双雄红包赛抢门票!

刘姚尧的文字城堡
2026-03-26 07:00:38
错过能建别再错过它!9元低价+算电协同+圆弧底 主力底部抢筹5亿

错过能建别再错过它!9元低价+算电协同+圆弧底 主力底部抢筹5亿

元芳说投资
2026-03-26 07:00:11
北京房价反弹,居民看房忙碌

北京房价反弹,居民看房忙碌

阿离家居
2026-03-26 02:05:35
CPO光通信最新8大核心龙头梳理,一篇文章全看懂

CPO光通信最新8大核心龙头梳理,一篇文章全看懂

新浪财经
2026-03-25 20:23:57
女子赴发小婚礼穿瑜伽裤,打扮过于火辣,网友直呼跟没穿似的

女子赴发小婚礼穿瑜伽裤,打扮过于火辣,网友直呼跟没穿似的

一盅情怀
2026-03-16 17:28:45
2026-03-26 07:35:00
AI前线 incentive-icons
AI前线
面向AI爱好者、开发者和科学家,提供AI领域技术资讯。
1389文章数 141关注度
往期回顾 全部

科技要闻

红极一时却草草收场,Sora宣布正式关停

头条要闻

伊朗军方称击落美军F-18战机 现场画面披露

头条要闻

伊朗军方称击落美军F-18战机 现场画面披露

体育要闻

35岁替补门将,凭什么入选英格兰队?

娱乐要闻

张雪峰遗产分割复杂!是否立遗嘱成关键

财经要闻

管涛:中东局势如何影响人民币汇率走势?

汽车要闻

智己LS8放大招 30万内8系旗舰+全线控底盘秀实力

态度原创

家居
本地
健康
公开课
军事航空

家居要闻

轻奢堇天府 小资情调

本地新闻

来永泰同安 赴一场春天的约会

转头就晕的耳石症,能开车上班吗?

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

伊朗重申非交战国家船只可安全通过霍尔木兹海峡

无障碍浏览 进入关怀版