网易首页 > 网易号 > 正文 申请入驻

谢赛宁新作:表征学习有多重要?一个操作刷新SOTA,DiT训练速度暴涨18倍

0
分享至


文章转载于新智元

扩散模型如何突破瓶颈?成本高又难训练的DiT/SiT模型如何提升效率?

对于这个问题,纽约大学谢赛宁团队最近发表的一篇论文找到了一个全新的切入点:提升表征(representation)的质量。

论文的核心或许就可以用一句话概括:「表征很重要!」


用谢赛宁的话来说,即使只是想让生成模型重建出好看的图像,仍然需要先学习强大的表征,然后再去渲染高频的、使图像看起来更美观的细节。

这个观点,Yann LeCun之前也多次强调过。


有网友还在线帮谢赛宁想标题:你这篇论文不如就叫「Representation is all you need」(手动狗头)


由于观点一致,这篇研究也获得了同在纽约大学的Yann LeCun的转发。


当使用自监督学习训练视觉编码器时,我们知道一个事实,使用具有重建损失(reconstruction loss)的解码器的效果远远不如具有特征预测损失(feature prediction loss)和崩溃预防机制的联合嵌入架构。 这篇来自纽约大学谢赛宁团队的论文表明,即使只对生成像素感兴趣(例如,使用扩散Transformer生成漂亮的图片),包含特征预测损失也是值得的,以便解码器的内部表示可以基于预训练的视觉编码器(例如 DINOv2)进行特征预测。

REPA的核心思想非常简单,就是让扩散模型中的表征与外部更强大的视觉表征进行对齐,但提升效果非常显著,颇有「他山之石,可以攻玉」的意味。

仅仅是在损失函数添加一项相似度最大化,就能将SiT/DiT的训练速度提升将近18倍,还刷新了模型的SOTA性能,在ImageNet 256x256上实现了最先进的FID=1.42。

谢赛宁表示,刚看到实验结果时,他自己也被震惊到了,因为感觉并没有发明什么全新的东西,而只是意识到了,我们几乎完全不理解扩散模型和SSL方法学习到的表示。

1

论文简介


论文地址:https://arxiv.org/abs/2410.06940

项目地址:https://sihyun.me/REPA/

在生成高维的视觉数据方面,基于去噪方法(如扩散模型)或基于流的生成模型,已经成为了一种可扩展的途径,并在有挑战性的的零样本文生图/文生视频任务上取得了非常成功的结果。

最近的研究表明,生成扩散模型中的去噪过程可以在模型内部的隐藏状态中引入有意义的表示,但这些表示的质量目前仍落后于自监督学习方法,例如DINOv2。

作者认为,训练大规模扩散模型的一个主要瓶颈,就在于无法有效学习到高质量的内部表示。

如果能够结合高质量的外部视觉表示,而不是仅仅依靠扩散模型来独立学习,就可以使训练过程变得更容易。

为了实现这一点,论文基于经典的扩散Transformer架构,引入了一种简单的正则化方法REPA(REPresentation Alignment)。

简单来说,就是将去噪网络中从噪声输入 得到的隐藏状态的投影,与外部自监督预训练的视觉编码器从干净图像获得的视觉表示*进行对齐。

这样一个非常直给的策略,却获得了惊人的结果:应用于流行的SiT或DiT时,模型的训练效率和生成质量都得到了显著提高。

具体来说,REPA可以将SiT的训练速度加快17.5×以上,以不到40万步的训练量匹配有700万步训练的SiT-XL模型的性能,同时实现了FID=1.42的SOTA结果。

1

REPA:使用表征对齐的正则化

统一视角的扩散模型+流模型

由于论文希望同时优化基于流的模型SiT和基于去噪的扩散模型DiT,因此首先从统一的随机插值视角,对这两种模型进行简要的回顾。

考虑在t∈[0,T]的连续时间步中,对数据*~p()使用高斯分布ε~(0,)添加随机噪音:

其中,αt和σt分别表示t的递减和递增函数。在公式(1)给定的过程中,存在一个带有速度场(velocity field)的概率流常微分方程:

其中t步时的分布就等于边际概率pt()。

速度(,t)可以表示为如下两个条件期望之和:

这个值可以通过最小化如下训练目标得到近似值θ(,t):

同时,还存在一个反向的随机微分方程(SDE),带有扩散系数wt,其中的边际概率pt()与公式(2)相符:


其中,(t,t)是一个条件期望值,定义为:

对任意t>0,都可以通过速度(,t)计算出(,t)的值:


这表明,数据t也可以通过求解公式(5)的SDE来以另一种方式生成。

以上定义对类似的扩散模型变体,例如DDPM,同样适用,只是需要将连续的时间步离散化。

方法概述

令p()为数据∈的未知目标分布,我们的训练目标就是通过模型对数据的学习得到p()的近似。

为了降低计算成本,最近流行的「潜在扩散」方法(latent diffusion)提出学习潜在变量=E()的分布p(),其中E表示来自预训练自编码器(例如KL-VAE)中的编码部分。

要学习到分布p(),就需要训练扩散模型θ(t,t),训练目标是进行速度预测,具体方法如上一节所述。

放在自监督表示学习的背景中,可以将扩散模型看成编码器fθ:⭢和解码器gθ:⭢的组合,其中编码器负责隐式地学习到表示t以重建目标t。

然而,作者提出,用于生成的大型扩散模型并不擅长表征学习,因此REPA引入了外部的语义丰富的表示,从而显著提升生成性能。


REPA方法概述

模型观察

扩散模型是否真的不擅长表征学习?这需要更进一步地观察模型才能确定,为此,研究人员测量并比对了diffusion transformer和当前的SOTA自监督模型DINOv2之间的表征差距,包括语义差距和特征对齐两种角度。

语义差距

从图2a可知,预训练SiT的隐藏层表示在第20层达到最佳状态,这与之前的研究结果相符,但仍远远落后于DINOv2。

特征对齐

如图2b和2c所示,使用CKNNA值测量SiT和DINOv2之间的表征对齐程度后发现,SiT的对齐效果会随着模型增大和训练迭代步数增加而逐渐改善,但即使增加到7M次迭代,和DINOv2之间的对齐程度仍然不足。


事实上,这种差距不仅在SiT中存在,根据附录C.2的实验结果,DiT等其他基于去噪的生成式Transformer模型也存在类似的问题。

缩小表征差距

那么,REPA方法究竟如何缩小这种表征差距,让diffusion transformer在噪声输入中也能学到有用的语义特征?

定义N,D分别表示patch数量预训练编码器f的嵌入维度,编码器输入为无噪声的图像*,输出为*=f(*)∈ℝN×D。

Diffusion transformer将编码器输出t=fθ(t)通过一个可训练的投影头hφ(MLP)投影为hφ(t)∈ℝN×D。

之后,REPA负责将hφ(t)与*进行对齐,通过最大化两者间的patch间相似度:


在实际实现中,将这一项添加到公式(4)定义的基于扩散的训练目标中,就得到总体的训练目标:

其中超参数λ>0用于控制模型在去噪目标和表征对齐间的权衡。

从图3结果可知,REPA减少了表示中的语义差距。

有趣的是,使用REPA后,仅对齐前几个Transformer块就能实现足够程度的表示对齐,从而让diffusion transformer的靠后层专注于捕获高频细节,从而进一步提高生成性能。


1

实验结果

为了验证REPA方法的有效性,实验在两种流行的扩散模型训练目标(即velocity)上进行了实验,包括DiT中改进后的DDPM和SiT中的线性随机插值,但实际中也同样可以考虑其他的训练目标。

所用模型默认严格遵循SiT和DiT的原始结构(除非有特别说明),包括B/2、L/2、XL/2三种参数设置,如表1所示。


以下实验旨在回答3个问题:

- REPA能否显著提升diffusion transformer的训练?

- REPA在模型规模和表征质量方面是否具有可扩展性?

- 扩散模型的表征能否和多种视觉表征进行对齐?

REPA提升视觉缩放

首先比较两个SiT-XL/2模型在前400K次迭代期间生成的图像,它们共享相同的噪声、采样器和采样步数,但其中使用REPA训练的模型显示出更好的进展。


REPA在各个方面都展现出了强大的可扩展性

研究人员还改变了预训练编码器和Diffusion Transformer的模型大小来检验REPA的可扩展性。

图5a结果表明,与更好的视觉表示相结合可以改善生成效果和线性探测的结果。

此外,如图5b和c所示,增加模型大小可以在生成和线性评估方面带来更快的收益,也就是说,模型规模越大,REPA的加速效果越明显,表现出了强大的可扩展性。


REPA显著提高训练效率和生成质量

最后,论文比较了普通DiT或SiT模型在训练中使用REPA前后的FID值。

在没有指导的情况下,REPA在400K次迭代时实现了FID=7.9,优于普通模型在7M次迭代后的性能。

此外,使用无分类器引导时,带有REPA的SiT-XL/2的性能优于SOTA性能(FID=1.42),同时迭代次数减少了7倍。


1

作者介绍

Sihyun Yu


本文一作Sihyun Yu是KAIST(韩国科学技术院)人工智能专业最后一年的博士生,此前他同样在KAIST获得了数学和计算机科学的双专业学士学位。

他的研究主要集中在减少大型生成模型训练(和采样)的内存和计算负担,其中,对大规模且高效的视频生成特别感兴趣;博士期间,他还曾在英伟达和谷歌研究院担任实习生。

参考资料:

https://x.com/sainingxie/statdus/1845510163152687242

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
不出意外的话,今年春节,可能会出现5个社会现象,早知道早准备

不出意外的话,今年春节,可能会出现5个社会现象,早知道早准备

小谈食刻美食
2024-12-20 05:55:12
不容乐观!邮报:萨卡可能遭遇腿筋撕裂,或将因此伤缺两个月

不容乐观!邮报:萨卡可能遭遇腿筋撕裂,或将因此伤缺两个月

直播吧
2024-12-24 02:29:08
曾经的48万豪车,如今12万却无人问津,一段豪车的“陨落史”!

曾经的48万豪车,如今12万却无人问津,一段豪车的“陨落史”!

爱论历史
2024-12-19 23:29:20
什么信号?美国政府敦促其公民尽快离开白俄罗斯

什么信号?美国政府敦促其公民尽快离开白俄罗斯

财联社
2024-12-24 01:02:13
曝特斯拉现车已基本售空 上海还有少量冲刺年末交付量

曝特斯拉现车已基本售空 上海还有少量冲刺年末交付量

手机中国
2024-12-23 14:00:04
人为放火!事发在广东东莞一小区,现场多车被烧毁!

人为放火!事发在广东东莞一小区,现场多车被烧毁!

小南看城市
2024-12-23 13:44:32
美国政坛地震,中方最棘手的敌人冒头,不是特朗普,美媒一针见血

美国政坛地震,中方最棘手的敌人冒头,不是特朗普,美媒一针见血

大白话瞰世界
2024-12-23 09:25:33
“我会玩到你死”,多名女大学生在宿舍被性侵,背后真相令人唏嘘

“我会玩到你死”,多名女大学生在宿舍被性侵,背后真相令人唏嘘

星河故事会
2023-02-11 08:05:10
曾国藩:陌生人欺负你,能让就让;熟人欺负你,立马反击,因为..

曾国藩:陌生人欺负你,能让就让;熟人欺负你,立马反击,因为..

清风拂心
2024-12-22 14:15:03
国产汽车巨头独揽销量冠军,50万辆超越大众,行业上演震撼壮举

国产汽车巨头独揽销量冠军,50万辆超越大众,行业上演震撼壮举

观看云海
2024-12-24 01:44:40
丧失纪法底线!贵州省卫健委卫生计生监督局原局长金龙被决定逮捕

丧失纪法底线!贵州省卫健委卫生计生监督局原局长金龙被决定逮捕

鲁中晨报
2024-12-23 16:30:03
一人洗碗,全家致癌?五个洗碗坏习惯赶紧改掉,很多家庭还在做!

一人洗碗,全家致癌?五个洗碗坏习惯赶紧改掉,很多家庭还在做!

装修秀
2024-11-22 11:30:03
这跟不穿有什么区别?新《红楼》,上演电影版的“天上人间”

这跟不穿有什么区别?新《红楼》,上演电影版的“天上人间”

南南史
2024-12-21 11:49:09
34岁女子二胎后头晕半年,医生怀疑恶性肿瘤,谁知老天救了她一命!

34岁女子二胎后头晕半年,医生怀疑恶性肿瘤,谁知老天救了她一命!

听李医生说
2024-12-23 09:05:52
清华大学五道口金融学院副院长张晓燕:养老是全社会的事情,应唤醒全民养老规划意识,提升投资素养

清华大学五道口金融学院副院长张晓燕:养老是全社会的事情,应唤醒全民养老规划意识,提升投资素养

和讯网
2024-12-23 11:14:12
恐怖!纽约非法移民在地铁纵火,烧死熟睡女子

恐怖!纽约非法移民在地铁纵火,烧死熟睡女子

大洛杉矶LA
2024-12-24 00:49:06
天和磁材中签号出炉 共约10.57万个

天和磁材中签号出炉 共约10.57万个

每日经济新闻
2024-12-23 19:47:07
苹果:5 大重磅新品来了,666

苹果:5 大重磅新品来了,666

哎咆
2024-12-23 13:05:08
巴菲特:养儿子,宁可教他一身刺,宁可教他猛如狼,也不能绵如羊

巴菲特:养儿子,宁可教他一身刺,宁可教他猛如狼,也不能绵如羊

清风拂心
2024-12-16 13:43:21
天生坏种?被判10年的李天一出狱后,最恶心的一幕还是出现了

天生坏种?被判10年的李天一出狱后,最恶心的一幕还是出现了

小啾咪侃侃史
2024-09-07 15:30:03
2024-12-24 03:51:00
硅星人 incentive-icons
硅星人
硅(Si)是创造未来的基础,欢迎来到这个星球。
1820文章数 10310关注度
往期回顾 全部

科技要闻

京东公布年终奖:绝大多数员工5-8个月月薪

头条要闻

重庆一女子刚卖车便反悔 吃住在车上长达90个小时

头条要闻

重庆一女子刚卖车便反悔 吃住在车上长达90个小时

体育要闻

年终进球盛宴!这法老冲着金球奖来的?

娱乐要闻

影版《射雕》最新预告!肖战版郭靖大获好评

财经要闻

网传36家公司将被退市 证监会回应

汽车要闻

柴油才对味 大通星际X 2.5T舒适得不像皮卡

态度原创

艺术
房产
健康
教育
家居

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

房产要闻

中交、保利、招商压轴拿地!2024三亚疯狂卖地193亿!

花18万治疗阿尔茨海默病,值不值?

教育要闻

爆火的殡葬专业真的好吗?

家居要闻

现代简约 注重精神空间

无障碍浏览 进入关怀版