网易首页 > 网易号 > 正文 申请入驻

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

0
分享至


新智元报道

编辑:LRST 好困

【新智元导读】Meta全新发布的基准Multi-IF涵盖八种语言、4501个三轮对话任务,全面揭示了当前LLM在复杂多轮、多语言场景中的挑战。所有模型在多轮对话中表现显著衰减,表现最佳的o1-preview模型在三轮对话的准确率从87.7%下降到70.7%;在非拉丁文字语言上,所有模型的表现显著弱于英语。

在大语言模型(LLMs)不断发展的背景下,如何评估这些模型在多轮对话和多语言环境下的指令遵循(instruction following)能力,成为一个重要的研究方向。

现有评估基准多集中于单轮对话和单语言任务,难以揭示复杂场景中的模型表现。

最近,Meta GenAI团队发布了一个全新基准Multi-IF,专门用于评估LLM在多轮对话和多语言指令遵循(instruction following)中的表现,包含了4501个三轮对话的多语言指令任务,覆盖英语、中文、法语、俄语等八种语言,以全面测试模型在多轮、跨语言场景下的指令执行能力。


论文链接:https://arxiv.org/abs/2410.15553

Multi-IF下载链接:https://huggingface.co/datasets/facebook/Multi-IF

实验结果表明,多数LLM在多轮对话中表现出显著的性能衰减。

例如,表现最佳的o1-preview模型在第一轮指令的平均准确率为87.7%,但到第三轮下降至70.7%

此外,非拉丁文字语言(如印地语、俄语和中文)的错误率明显更高,反映出模型在多语言任务中的局限性。这些发现展示了当前LLM在处理复杂多轮和多语言指令任务上的挑战和改进空间。

Multi-IF的发布为研究人员提供了更具挑战性的评估基准,有望推动LLM在全球化、多语言应用中的发展。

数据集构建

Multi-IF数据集的构建过程经过了多轮精细的设计和筛选,既有模型也有人类专家的参与。

多轮扩展

首先,研究团队基于已有的单轮指令遵循数据集IFEval,将每个单轮指令扩展为多轮指令序列。通过随机采样和模型生成,研究团队为每个初始指令增加了两轮新指令,形成一个完整的三轮对话场景。

首先随机采样一个指令类型(Intruction Type)比如「字数限制」、「限制输出格式为列表」、「添加特定关键短语」等等,然后将之前的指令和这个指令类型提供给语言模型,让它生成一个符合上下文的指令,比如「旅行计划不超过400词」;随机采样可能导致指令之间存在冲突。

为了确保多轮指令的逻辑一致性和层次递进性,研究团队设计了一套两步冲突过滤机制:

1. 模型过滤:使用Llama 3.1 405B模型自动检测可能存在矛盾的指令组合。例如,如果第一轮要求生成详细描述,而第二轮要求简洁总结,这种冲突指令会被筛选出来。

2. 人工审核:在初步过滤后,团队通过人工标注对指令进行细化和调整,以确保每一轮指令既具有挑战性又保持逻辑连贯。

多语言扩展

为了提高数据集的多语言适用性,研究团队采用了以下方法将数据集从英文扩展至多语言版本:

1. 自动翻译:使用Llama 3.1 405B模型将原始英语指令翻译为中文、法语、俄语、印地语、西班牙语、意大利语和葡萄牙语七种语言。

2. 人工校对:翻译结果经过语言专家的人工审校,以确保在语义和语法上贴合各语言的自然使用习惯,同时消除因翻译可能带来的歧义或误导。

这一多轮扩展和多语言适配的构建流程,使Multi-IF成为全面评估LLM指令遵循能力的强大工具。


总体实验结果

在Multi-IF基准上,Meta团队对14种最先进的大语言模型(LLMs)进行了评估,涵盖了OpenAI的o1-preview、o1-mini,GPT-4o,Llama 3.1(8B、70B和405B),Gemini 1.5系列,Claude 3系列,Qwen-2.5 72B,以及Mistral Large等。

实验显示,整体上o1-preview和Llama 3.1 405B表现最佳,在平均准确率上领先其他模型。特别是在多轮指令任务中,o1-preview和Llama 3.1 405B模型在三轮指令的平均准确率分别为78.9%和78.1%,展现了较高的指令遵循能力。


多轮对话中的指令遵循

实验表明,所有模型在多轮对话中的指令遵循准确率随着轮次增加而显著下降。这种下降在某些模型中尤为明显,如Qwen-2.5 72B在第一轮准确率较高,但在后续轮次中的表现迅速下滑。

相比之下,o1-preview和Llama 3.1 405B在多轮任务中的准确率相对稳定,展现出较强的持续指令遵循能力。总体而言,这些结果说明,多轮对话对当前LLM构成了较大挑战,模型在多轮次中遵循指令的能力有待提高。


多轮对话中的指令遗忘

在多轮对话中,模型往往出现「指令遗忘」现象,即在后续轮次中未能遵循前一轮成功执行的指令,研究团队引入了「指令遗忘率」(Instruction Forgetting Ratio, IFR)来量化这种现象。

IFR值表明,高性能模型如o1-preview和Llama 3.1 405B在多轮对话中的遗忘率相对较低,而有些模型比如Gemini在IFR值上明显偏高,表现出较高的指令遗忘倾向。


此外,对于Llama 3.1系列模型,随着模型规模从8B扩展到405B,其指令遗忘率(即IFR)逐渐降低。这表明,增大模型规模可以有效提升其在多轮对话中保持指令一致性的能力。

多轮对话中的自我纠正

模型在多轮任务中是否能够纠正之前的错误也是一个重要的性能衡量标准,实验通过计算「错误自我修正率」(Error Correction Ratio, ECR)来评估这一能力。

结果显示,o1-preview和o1-mini在错误自我修正方面表现突出,能够在后续轮次中纠正约25%的之前未遵循的指令。这些模型似乎能够利用某种“反思”能力来提高指令执行的水平。


相比之下,其他模型在自我修正方面表现一般,这一结果表明,具备反思能力的模型在多轮任务中能够更好地处理错误并提升指令遵循的稳定性。

多语言指令遵循

在多语言环境下,模型的指令遵循能力表现出显著的语言差异。实验显示,英语的指令执行准确率普遍最高,尤其是在Llama 3.1 405B模型上,英语准确率接近0.85。法语和意大利语的表现也较为接近英语,而俄语、印地语和中文等非拉丁文字的准确率则明显较低。

例如,o1-preview模型在俄语和印地语中的准确率低于其在英语、法语等语言中的表现。总体而言,非拉丁文字语言的错误率高于拉丁文字语言,这在多语言指令任务中尤为突出。

实验结果还表明,不同模型在多语言指令遵循中的表现存在一定差异。o1-preview在所有语言中的表现相对稳定,并在中文、西班牙语、意大利语和印地语中稍胜Llama 3.1 405B,而GPT-4o的表现则略逊于前两者。


平均而言,非拉丁文字的语言往往会出现更高的指令遵循错误,表明当前模型在多语言环境,尤其是对非拉丁文字的支持方面,仍有提升空间。

这些结果反映出,尽管现有的先进LLM在多语言任务上已经展现出一定的能力,但在处理俄语、印地语和中文等非拉丁文字语言的指令遵循任务时仍存在明显的局限性。这也为未来多语言模型的改进指出了明确的方向。

结论

综上所述,Multi-IF基准通过多轮对话和多语言环境的复杂指令任务,揭示了当前大语言模型在指令遵循能力上的不足之处。

实验结果表明,多数模型在多轮任务中存在准确率下降和指令遗忘的问题,且在非拉丁文字的多语言任务中表现较差。Multi-IF为进一步提升LLM的多轮对话和跨语言指令遵循能力提供了重要的参考。

作者介绍


通讯作者Yun He(贺赟)是Meta GenAI团队的一名研究科学家,博士毕业于Texas A&M University,专注于大语言模型Post-training的研究和应用。

他的主要研究方向包括指令跟随(instruction following)、推理能力(Reasoning)以及工具使用(tool usage),旨在推动大语音模型在复杂多轮对话中的表现。


共同一作金帝是Meta GenAI Senior Research Scientist,负责Meta AI Agentic Code Execution和Data Analysis方向,博士毕业于MIT。

主要研究方向为大模型后训练对齐(RLHF,Alignment),模型推(Model Reasoning),和大模型智能体(Agent)方向。

参考资料:

https://arxiv.org/abs/2410.15553

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
上海市委书记陈吉宁调研市一医院、仁济医院

上海市委书记陈吉宁调研市一医院、仁济医院

界面新闻
2024-11-25 10:29:20
想签C罗?穆里尼奥:太荒谬了,他倒是可能来吃饭或者看望我

想签C罗?穆里尼奥:太荒谬了,他倒是可能来吃饭或者看望我

懂球帝
2024-11-24 18:26:16
快船赢球还有好消息!5连胜逼近前三,单核哈登赢得众多认可

快船赢球还有好消息!5连胜逼近前三,单核哈登赢得众多认可

体坛小李
2024-11-25 15:38:42
证监会决心壮士断腕!11月25号,今日凌晨的四大消息影响股市!

证监会决心壮士断腕!11月25号,今日凌晨的四大消息影响股市!

风口招财猪
2024-11-25 02:03:00
一群朝鲜兵轮奸了一名俄罗斯女翻译!

一群朝鲜兵轮奸了一名俄罗斯女翻译!

凡事一定有办法13119
2024-11-21 14:21:03
ATACMS在库尔斯克摧毁S-400,12枚风暴阴影战果太大了

ATACMS在库尔斯克摧毁S-400,12枚风暴阴影战果太大了

移光幻影
2024-11-24 21:48:40
举报刀郎剽窃20首原创作品,王金兰到底是谁?她和刀郎有何关系?

举报刀郎剽窃20首原创作品,王金兰到底是谁?她和刀郎有何关系?

掌上娱迹
2024-11-25 08:00:18
伊万卡面相变了:脸颊消瘦眼神发狠,再不是丰润甜美的“水蜜桃”

伊万卡面相变了:脸颊消瘦眼神发狠,再不是丰润甜美的“水蜜桃”

毒舌小红帽
2024-11-24 20:33:53
中方回应所谓60%关税,由进口国消费者和最终用户“买单”

中方回应所谓60%关税,由进口国消费者和最终用户“买单”

每日经济新闻
2024-11-25 10:52:14
大瓜!男子高校怒扇女友耳光:拍不雅视频,给异性欣赏,疑有裸照

大瓜!男子高校怒扇女友耳光:拍不雅视频,给异性欣赏,疑有裸照

娜乌和西卡
2024-11-24 14:13:08
美国人发现:不用击沉,中国导弹只要击中美国航母,美军就玩完?

美国人发现:不用击沉,中国导弹只要击中美国航母,美军就玩完?

军迷集结号本尊
2024-11-22 16:37:46
林彪的祖坟被人砸毁,女儿写信给中央求助,陈云亲自批示了5个字

林彪的祖坟被人砸毁,女儿写信给中央求助,陈云亲自批示了5个字

燕小姐说历史
2024-11-25 08:47:38
陵水:全力配合做好审查调查工作

陵水:全力配合做好审查调查工作

新京报
2024-11-25 12:10:17
留学女儿回家,心疼爸爸帮搬冰箱,却不知冰箱成装自己的棺材

留学女儿回家,心疼爸爸帮搬冰箱,却不知冰箱成装自己的棺材

纸鸢奇谭
2024-11-22 09:20:33
这是欧盟对华挑衅输得最惨一次

这是欧盟对华挑衅输得最惨一次

王大健美食日常
2024-11-25 13:34:06
印尼正式迁都,舍弃繁荣的雅加达,迁都加里曼丹到底是为了什么

印尼正式迁都,舍弃繁荣的雅加达,迁都加里曼丹到底是为了什么

小虎新车推荐员
2024-11-24 22:56:58
️万夫莫开!34岁德赫亚上演神勇三连扑,全场4次扑救零封对手

️万夫莫开!34岁德赫亚上演神勇三连扑,全场4次扑救零封对手

直播吧
2024-11-25 00:47:58
突然!王腾直接曝光REDMI K80售价:史上最贵

突然!王腾直接曝光REDMI K80售价:史上最贵

3DM游戏
2024-11-24 23:59:02
季后赛4.2%!三巨头成一场空,塔图姆谈乔治摊牌,哈登该拿2.1亿

季后赛4.2%!三巨头成一场空,塔图姆谈乔治摊牌,哈登该拿2.1亿

巴叔GO聊体育
2024-11-25 11:51:51
黄仁勋在香港享受大排档美食,沈南鹏等陪同,饮食习惯曝光!

黄仁勋在香港享受大排档美食,沈南鹏等陪同,饮食习惯曝光!

小毅说事
2024-11-25 04:58:36
2024-11-25 15:59:00
新智元
新智元
AI产业主平台领航智能+时代
11782文章数 65697关注度
往期回顾 全部

科技要闻

年底冲量,特斯拉Model Y直降1万

头条要闻

牛弹琴:全球气候会议达成的协议 对发展中国家是屈辱

头条要闻

牛弹琴:全球气候会议达成的协议 对发展中国家是屈辱

体育要闻

国乒的起伏与夺冠,有些东西已经变了

娱乐要闻

小S为二女儿庆祝17岁生日

财经要闻

未来3-6个月创新高?哪些赛道有潜力?

汽车要闻

特斯拉限时优惠:Model Y仅23.99万起 还能5年0息

态度原创

房产
亲子
游戏
艺术
公开课

房产要闻

合生把上百个亿万富豪搞破防了

亲子要闻

小宝宝同时给爷爷外公爸爸三人打电话

《潜行者2》彩蛋疑似致敬COD:重现现代战争经典任务

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

公开课

一块玻璃,如何改变人类世界?

无障碍浏览 进入关怀版