网易首页 > 网易号 > 正文 申请入驻

中科院开源版GPT-4o,LLaMA-Omni上线wisemodel社区

0
分享至

始智AI wisemodel.cn开源社区

始智AI wisemodel.cn社区是源自中国的中立开放的AI开源社区。欢迎《》以及《》。wisemodel社区上线,H800/H20等资源上线,价格实惠,灵活方便,支持在线微调训练模型,及模型和,并。

以 ChatGPT 为代表的大型语言模型(LLM)已成为强大的通用任务解决器,但大多数 LLM 仅支持基于文本的交互,这限制了它们在不适合文本输入输出的场景中的应用。 GPT-4o 的出现使得通过语音与 LLM 进行交互成为可能。 然而,开源社区对于构建此类基于 LLM 的语音交互模型仍然缺乏探索。

实现与 LLM 进行语音交互最简单的方法是采用基于自动语音识别(ASR)和语音合成(TTS)模型的级联系统,其中 ASR 模型将用户的语音指令转录为文本, TTS 模型将 LLM 的响应合成为语音。


然而,由于级联系统依次输出转录文本、文本响应和语音响应,整个系统往往具有较高的延迟。相比之下,一些多模态语音 - 语言模型将语音离散化为 token 并扩展 LLM 的词表以支持语音输入和输出。这种语音 - 语言模型理论上可以直接从语音指令生成语音响应,无需生成中间文本,从而实现极低的响应延迟。然而,在实践中,由于涉及语音之间复杂的映射,直接语音到语音的生成通常极具挑战性。

为了解决上述问题,来自中国科学院计算所冯洋老师团队等研究者提出了一种新型模型架构 ——LLaMA-Omni,它可以实现与 LLM 的低延迟、高质量交互。


论文:https://arxiv.org/pdf/2409.06666

代码:

https://github.com/ictnlp/LLaMA-Omni

https://www.wisemodel.cn/codes/ICT_NLP/LLaMA-Omni/

模型:

https://wisemodel.cn/models/ICT_NLP/Llama-3.1-8B-Omni

LLaMA-Omni 由语音编码器、语音适配器、LLM 和流式语音解码器组成。用户的语音指令由语音编码器进行编码,经过语音适配器后输入到 LLM。LLM 直接从语音指令中解码文本响应,无需首先将语音转录为文本。语音解码器是一个非自回归(NAR)流式 Transformer,它将 LLM 的输出表示作为输入,并使用连接时序分类(Connectionist Temporal Classification, CTC)来预测与语音响应相对应的离散单元序列。

在推理过程中,当 LLM 自回归生成文本响应时,语音解码器同步生成相应的离散单元。为了更好地契合语音交互场景的特点,该研究通过重写现有的文本指令数据并进行语音合成,构建了名为 InstructS2S-200K 的数据集。实验结果表明,LLaMA-Omni 可以同步生成高质量的文本和语音响应,延迟低至 226ms。

此外,与 SpeechGPT 等语音 - 语言模型相比,LLaMA-Omni 显著减少了所需的训练数据和计算资源,从而能够基于最新的 LLM 高效开发强大的语音交互模型。

LLaMA-Omni 模型概览

如图 2 所示,LLaMA-Omni 由语音编码器、语音适配器、LLM 和语音解码器组成,其中将用户的语音指令、文本响应和语音响应分别表示为 X^S、Y^T 和 Y^S。


语音编码器

该研究使用 Whisper-large-v3 (Radford et al., 2023)的编码器作为语音编码器 E。 Whisper 是一种在大量音频数据上训练的通用语音识别模型,其编码器能够从语音中提取有意义的表征。

具体来说,对于用户的语音指令 X^S,编码后的语音表征由 H = ε(X^S) 给出,其中 H = [h_1, ..., h_N ] 是长度为 N 的语音表征序列,语音编码器的参数在整个训练过程中都被冻结。

语音适配器

为了使 LLM 能够理解输入语音,LLaMA-Omni 结合了一个可训练的语音适配器 A,它将语音表征映射到 LLM 的嵌入空间中。语音适配器首先对语音表征 H 进行下采样以减少序列长度。具体来说,每 k 个连续帧沿特征维度拼接:

大型语言模型

该研究使用 Llama-3.1-8B-Instruct(Dubey et al., 2024)作为 LLM M,它是目前 SOTA 开源 LLM,具有很强的推理能力,并且与人类偏好进行了对齐。prompt 模板 P (・) 如图 3 所示。


将语音表征序列 S 填充到对应位置,然后将整个序列 P (S) 输入到 LLM 中。最后,LLM 直接根据语音指令自回归生成文本响应 Y^T = [y^T_1 , ..., y^T_M],并使用交叉熵损失进行训练:


语音解码器

为了与文本响应同步生成语音响应,LLaMA-Omni 在 LLM 之后添加了一个流式语音解码器 D。它由几个标准 Transformer 层组成,其架构与 LLaMA (Dubey et al., 2024) 相同,每个层都包含一个因果自注意力模块和一个前馈网络。

语音解码器以非自回归方式运行,将 LLM 的输出表示经过上采样后作为输入,并生成与语音响应相对应的离散单元序列。

训练

如图 2 所示,LLaMA-Omni 采用两阶段训练策略。第一阶段训练模型直接根据语音指令生成文本响应的能力。具体来说,语音编码器被冻结,语音适配器和 LLM 使用公式 (3) 中的目标 L_LLM 进行训练。语音解码器在此阶段不参与训练。第二阶段训练模型来生成语音响应。在此阶段,语音编码器、语音适配器和 LLM 都被冻结,仅使用公式 (5) 中的目标 L_CTC 来训练语音解码器。


推理

在推理过程中,LLM 根据语音指令自回归生成文本响应。同时,由于语音解码器使用因果注意力,一旦 LLM 生成文本响应前缀 ,相应的输出状态 , 就可以被输入到语音解码器中以生成部分对齐 ,进而产生与生成的文本前缀相对应的离散单元。

为了进一步实现语音波形的流式合成,当生成的离散单元数量达到预定义的块大小 Ω 时,即将该离散单元片段输入到声码器中以合成语音片段,然后立即播放给用户。因此,用户无需等待生成完整的文本响应即可开始收听语音响应,从而确保低响应延迟。算法 1 描述了上述过程。


语音指令数据的构建:INSTRUCTS2S-200K

为了训练 LLaMA-Omni,需要构建三元组数据:语音指令,文本响应,语音响应。对于语音指令数据而言,包含三步:指令重写、响应生成、语音合成。

对于基础文本指令,作者从 Alpaca 数据集中收集了大约 50K 条指令,该数据集涵盖了广泛的主题。此外,作者从 UltraChat 数据集中收集了大约 150K 条指令,该数据集主要由有关世界的问题组成。值得注意的是,UltraChat 是一个大规模多轮对话数据集,但作者仅选择了前 150K 条条目并仅使用第一轮指令。最终获得 200K 语音指令数据,称为 InstructS2S-200K。

实验结果

训练数据。作者采用 InstructS2S-200K 数据集,其包括 200K 语音指令数据。

模型配置。作者使用 Whisper-large-v3 编码器作为语音编码器,使用 Llama-3.1-8B-Instruct 作为 LLM。

训练。LLaMA-Omni 遵循两阶段训练过程:在第一阶段,作者训练语音适配器和 LLM,批处理大小为 32,共 3 个 epoch;在第二阶段,作者训练语音解码器,使用与第一阶段相同的批处理大小、step 数等。整个训练过程在 4 个 NVIDIA L40 GPU 上大约需要 65 小时。

在评估方面,作者从以下方面对模型进行了评估:

ChatGPT 得分;

语音 - 文本对齐;

语音质量;

响应延迟。

除此以外,语音 - 语言模型的基线系统包含 SpeechGPT 、 SALMONN (+TTS) 、 Qwen2-Audio (+TTS) 。

主要结果

表 1 给出了 InstructS2S-Eval 基准测试主要结果。

首先,在 S2TIF 任务中,从内容(content)角度来看,LLaMA-Omni 相比之前的模型有了显著提升,这主要是因为 LLaMA-Omni 是基于最新的 Llama-3.1-8B Instruct 模型开发的,充分利用了其强大的文本指令跟随能力。

从风格(style)角度来看,SALMONN 和 Qwen2-Audio 得分较低,因为它们是语音 - 文本模型,输出风格与语音交互场景不太对齐,经常产生格式化的内容,包含大量冗余解释。相比之下,SpeechGPT 作为语音 - 语音模型,获得了更高的风格得分。

LLaMA-Omni 获得了最高的风格得分,这说明在 InstructS2S-200K 数据集上训练后,模型输出风格已经与语音交互场景很好地对齐。

对于 S2SIF 任务,LLaMA-Omni 在内容和风格得分上也都优于之前的模型。这进一步证实了 LLaMA-Omni 能够以简洁、高效的方式通过语音有效地处理用户指令。

此外,在语音和文本响应的对齐方面,LLaMA-Omni 的 ASR-WER 和 ASR-CER 得分最低。相比之下,SpeechGPT 在对齐语音和文本响应方面表现不佳,这可能是因为它是串行生成文本和语音的。

级联系统(如 SALMONN+TTS 和 Qwen2-Audio+TTS)的语音 - 文本对齐也不是最理想的,主要是因为生成的文本响应可能包含无法合成语音的字符。这个问题在 Qwen2-Audio 中尤为明显,它偶尔会输出中文字符,从而导致语音响应错误。

相比之下,LLaMA-Omni 的 ASR-WER 和 ASR-CER 得分最低,表明生成的语音和文本响应之间的对齐程度更高,进一步验证了 LLaMA-Omni 在同时生成文本和语音响应方面的优势。


语音质量和响应延迟之间的权衡

为了更好地理解 Ω 的影响,作者对系统延迟、语音和文本响应之间的对齐以及不同 Ω 设置下生成的语音质量进行了探索。

如表 2 所示,当 Ω 设置为 10 时,系统的响应延迟低至 226ms,甚至低于 GPT-4o 的平均音频延迟 320ms。

综合来看,可以根据不同的场景调整 Ω 的值,以实现响应延迟和语音质量之间的权衡。


解码时间

表 3 列出了不同模型在 S2TIF 和 S2SIF 任务上的平均解码时间。

LLaMA-Omni 直接提供简洁的答案,从而显著缩短解码时间,平均每条指令仅为 1.49 秒。

LLaMA-Omni 同时输出文本和语音响应,并采用非自回归架构生成离散单元,总生成时间仅增加 1.28 倍,体现出 LLaMA-Omni 在解码速度上的优势。


案例研究

为了直观的了解不同模型的响应差异,作者在表 4 中提供了一个示例。

可以观察到 Qwen2-Audio 的响应相当冗长,并且包含换行符和括号等无法合成语音的元素。

SALMONN 的响应也有点长。

SpeechGPT 的响应风格更适合语音交互场景,但其响应所包含的信息量较少。

相比之下,LLaMA-Omni 给出的响应在保持简洁风格的同时更加详细和有帮助,在语音交互场景中的表现优于之前的模型。


转载自机器之心

----- END -----

wisemodel相关

系统升级

系列模型:

关于wisemodel更多

1

欢迎持续关注和支持

开源社区建设需要长期坚持和投入,更需要广大用户的积极参与、贡献和维护,欢迎大家加入wisemodel开源社区的志愿者计划和开源共创计划。期待更多开发者将开源成果,包括模型、数据集和代码等发布到 wisemodel.cn 社区,共建中立、开放的AI开源社区生态。欢迎扫码添加wisemodel微信,申请加入wisemodel社群,持续关注wisemodel.cn开源社区动态。

2

欢迎加盟wisemodel开源社区

始智AI wisemodel社区自2023年9月上线以来,逐渐成为影响力日益扩大的中立开放的AI开源社区,为了加快公司发展,我们长期需要技术、运营等人才加盟,技术侧重在AI infra、后端开发,熟悉K8S、模型训练和推理等技术, 以及熟悉开发者生态运营的成员,欢迎感兴趣的朋友加盟,可以通过添加wisemodel微信,或者将简历投递到邮箱:liudaoquan@wisemodel.cn

3

欢迎投稿优质内容

欢迎投稿分享人工智能领域相关的优秀研究成果,鼓励高校实验室、大企业研究团队、个人等,在wisemodel平台上分享各类优质内容,可以是AI领域最新论文解读、最新开源成果介绍,也可以是关于AI技术实践、应用和总结等。投稿可以发邮件到liudaoquan@wisemodel.cn,也可以扫码添加wisemodel微信。

4

关于wisemodel开源社区

始智AI wisemodel.cn开源社区由清华校友总会AI大数据专委会副秘书长刘道全创立,旨在打造和建设中立开放的AI开源创新社区,将打造成“HuggingFace”之外最活跃的AI开源社区,汇聚主要AI开源模型、数据集和代码等,欢迎高校科研院所、大型互联网公司、创新创业企业、广大个人开发者,以及政府部门、学会协会、联盟、基金会等,还有投资机构、科技媒体等,共同参与建设AI开源创新生态。

向上滑动查看

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
主帅最能打!周鹏13中7砍全队最高20分外加6板4帽 正负值+15

主帅最能打!周鹏13中7砍全队最高20分外加6板4帽 正负值+15

直播吧
2024-12-03 21:54:26
慈不带兵、义不经商,下半句更狠!(深刻)

慈不带兵、义不经商,下半句更狠!(深刻)

互联网思维
2024-07-05 23:32:49
嫖娼的本质

嫖娼的本质

尚曦读史
2024-12-01 19:24:52
中方反恐行动太强硬,俾路支亲自致信中方,要求中方停手

中方反恐行动太强硬,俾路支亲自致信中方,要求中方停手

世咊笑慢写
2024-12-04 09:56:48
要大炮还是黄油?看俄罗斯精英们点评卢布暴跌,我很欣慰

要大炮还是黄油?看俄罗斯精英们点评卢布暴跌,我很欣慰

鹰眼Defence
2024-12-03 17:48:07
湖南女子祭拜亡夫时听到求救,不顾反对撬开棺材,结局意外

湖南女子祭拜亡夫时听到求救,不顾反对撬开棺材,结局意外

青丝人生
2023-12-11 17:52:04
关键突破+罚球带走比赛!马克西16投5中&罚球11中10 得到21分7助

关键突破+罚球带走比赛!马克西16投5中&罚球11中10 得到21分7助

直播吧
2024-12-04 10:39:16
韩国6小时紧急戒严背后:无党内协商,在野党9月早有察觉

韩国6小时紧急戒严背后:无党内协商,在野党9月早有察觉

澎湃新闻
2024-12-04 08:46:30
仁至义尽!奥斯卡合同期最后一战独闯龙潭造点救主,拼到抽筋倒地

仁至义尽!奥斯卡合同期最后一战独闯龙潭造点救主,拼到抽筋倒地

直播吧
2024-12-03 22:36:30
被范尼打下课?记者:如果洛佩特吉继续留任,我会感到惊讶

被范尼打下课?记者:如果洛佩特吉继续留任,我会感到惊讶

直播吧
2024-12-04 07:05:23
中国提交的决议在联大再次通过 外交部介绍相关情况

中国提交的决议在联大再次通过 外交部介绍相关情况

人民资讯
2024-12-03 21:35:02
王思聪现身日本,新女友私照被扒,评论区曝:已花15亿购东京豪宅

王思聪现身日本,新女友私照被扒,评论区曝:已花15亿购东京豪宅

往史过眼云烟
2024-12-03 06:50:02
白敬亭潮牌首店进京!“排队4小时才进店”,多为千元内!品牌曾抽查不合格…

白敬亭潮牌首店进京!“排队4小时才进店”,多为千元内!品牌曾抽查不合格…

北京商报
2024-12-03 19:53:21
超大的巨型国家国土的缺陷:俄罗斯领土太严寒了,出海条件太差了

超大的巨型国家国土的缺陷:俄罗斯领土太严寒了,出海条件太差了

蜉蝣说
2024-12-03 16:27:28
“现在的女装是做外穿内裤了吗?” 评论区一堆人破防,网购太坑!

“现在的女装是做外穿内裤了吗?” 评论区一堆人破防,网购太坑!

有趣的火烈鸟
2024-11-28 17:20:20
山西119-121惜败广东,赛后遭四个坏消息,两将废了!

山西119-121惜败广东,赛后遭四个坏消息,两将废了!

篮球资讯达人
2024-12-04 01:42:25
许家印,彻底大结局!!

许家印,彻底大结局!!

霹雳炮
2024-09-18 23:28:37
韩国执政党讨论尹锡悦退党、内阁集体辞职、国防部长免职等问题

韩国执政党讨论尹锡悦退党、内阁集体辞职、国防部长免职等问题

澎湃新闻
2024-12-04 09:09:08
网传安徽某地社区3个月未发工资,网友:不精兵简政难改当前囧境

网传安徽某地社区3个月未发工资,网友:不精兵简政难改当前囧境

火山诗话
2024-12-03 06:23:05
中美关系一夜突变!特朗普对华叫嚣,上台第一个“集火”中国?

中美关系一夜突变!特朗普对华叫嚣,上台第一个“集火”中国?

书房评天下
2024-12-04 10:02:40
2024-12-04 11:43:00
wisemodel开源社区
wisemodel开源社区
始智AI wisemodel.cn开源社区,打造中国版“huggingface”
149文章数 7关注度
往期回顾 全部

科技要闻

美国芯片慎用!中国四大行业协会发声

头条要闻

马斯克围观韩国6小时"戒严闹剧":太令人震惊

头条要闻

马斯克围观韩国6小时"戒严闹剧":太令人震惊

体育要闻

心里苦!凯恩退出本赛季第一项冠军争夺

娱乐要闻

李行亮商演官宣照被删除,疑似遭抵制

财经要闻

梁建章:建议对生孩子家庭发10万元

汽车要闻

表现够全能 柴油版二代哈弗H9或许更适合家用

态度原创

教育
本地
健康
时尚
公开课

教育要闻

成为科技特长生、拿运动员资格证......玩航模,一条超小众的赛道

本地新闻

云游中国|来伦布夏果感受充满Passion的人生

花18万治疗阿尔茨海默病,值不值?

羽绒服 + 豆腐裤=入冬巨时髦CP!冬天这么穿保暖又显瘦!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版