网易首页 > 网易号 > 正文 申请入驻

全球首个10B级模型已开源,使用横跨三大洲的112块GPU训练而成

0
分享至

在 AI 时代,算力正在成为一种愈发重要的资源。

随着模型的规模和训练复杂度的不断提升,算力的需求也呈现出指数级的增长,它已成为各大科技公司争夺的核心竞争点。科技巨头们竞相投资计算资源,耗费上百亿美元建设算力中心,以此巩固自己在 AI 领域的领先地位。


(来源:Visual Capitalist)

然而,这样的集中化趋势也带来了对未来的隐忧——模型训练的资源需求和集中化的控制权可能让 AI 技术的未来被少数大公司所垄断。这引发了人们对 AI 发展路径的深刻担忧。

在此背景下,一批研究者们正在尝试一条新的路径——去中心化训练,通过聚合全球计算资源,使研究人员能够通过跨集群的分布式训练协作开发出先进模型。

美国初创公司 Prime Intellect 正是其中的探索者之一。日前,他们推出了首个去中心化的 100 亿参数模型训练项目 INTELLECT-1,在此前的原始研究基础上将参数量提升了 25 倍。


图丨 Prime Intellect 项目官网(来源:Prime Intellect)

当地时间 11 月 30 日,Prime Intellect 公布了 Intellect-1 模型的完整开源版本,包括基础模型、检查点、后训练模型和数据(项目地址:https://github.com/PrimeIntellect-ai/prime/tree/main)。其参与者遍布美国、欧洲和亚洲等不同地区,既包括 Hugging Face、SemiAnalysis 等机构,也包括一些个人参与者。



什么是去中心化训练?

随着模型的参数量,单一设备的算力已无法满足训练需求,因此需要将模型拆分为多个部分,并分配到不同的计算节点(通常是多个 GPU)上进行训练,这就是我们称之为分布式训练(Distributed Training)的方法。其原理就是将训练负担拆分至多个计算节点,利用并行计算缩短训练时间。


图丨分布式训练的数据并行(来源:Mirza Mujtaba)

例如,Llama 3.1 模型的 4050 亿参数版本使用了 24,000 个 GPU 进行训练,每 16 个 GPU 形成一个节点对模型副本进行训练,然后各节点定期共享学习成果,以确保所有节点都在相同的模型状态上进行训练。

而去中心化训练实际上就是分布式训练的一种延续,我们可以简单地理解为,在去中心化训练中,这些节点之间的距离进一步拉大,它们横跨数个地区,甚至分布在不同大陆,这样就可以通过全球中小型算力节点的协同合作来减少对集中化算力中心的依赖。

然而,模型的训练过程需要节点之间持续进行通信,并交换大量的信息,以保证模型的参数更新一致性。因此其对于节点的通信带宽要求极高,通常情况下,这些节点彼此靠近,甚至在同一个建筑内,以便使用高带宽连接进行通信。

一旦将这一距离拉大,问题就会变得异常棘手。因为当各节点分布在不同地点时,它们之间的频繁同步就会引入延迟并增加带宽需求,再加上连接的不稳定性等问题,会严重降低训练性能。

那么,Prime Intellect 是如何应对这一问题的?



INTELLECT-1 是如何训练的?

Prime Intellect 得以实现去中心化训练的首要因素,在于其所采用的 OpenDiLoCo 这一训练框架。它是 DeepMind 提出的 Distributed Low-Communication (DiLoCo) 方法的复现与扩展,核心思想就是通过减少节点间的通信需求来降低大规模分布式训练的通信成本 [1]。


(来源:arXiv)

具体来说,OpenDiLoCo 使用了一种本地随机梯度下降(SGD)算法,集成了内外两种不同的优化过程。内优化器 (AdamW) 负责对各个工作节点进行本地更新。每个工作节点根据其本地的数据对模型参数进行多步更新,这些更新通过使用 AdamW 优化器来实现,AdamW 结合了动量和权重衰减,使得训练过程更加稳定并防止过拟合。

而外优化器 (SGD with Nesterov Momentum) 通过伪梯度来周期性地同步各个工作节点。这些伪梯度代表本地更新的权重与原始权重之间的差异。在具体实现中,工作节点会在本地进行若干次更新后,将更新后的模型参数与原始参数进行比较,计算出伪梯度。

这些伪梯度随后被发送到其他节点进行同步更新,从而实现全局一致性。其中,Nesterov 动量的使用进一步提高了收敛速度,使得模型在减少同步频率的情况下,仍能保持良好的优化效果。

简单来说,OpenDiLoCo 的创新之处在于使用伪梯度进行同步,这大大减少了通信的频率和数据量。由于各个节点在本地进行多次更新后才会进行全局同步,模型可以在较长的时间内不受通信瓶颈的影响,从而显著降低带宽需求。

这样的更新方式以去中心化的方式进行,意味着每个工作节点独立地计算本地更新,仅偶尔与其他工作节点通信,大大降低了传统分布式方法中的通信开销。

此外,在 OpenDiLoCo 中,研究团对还引入了混合精度训练(FP16),通过将部分计算转换为 16 位浮点数,从而进一步降低了通信的数据量。在同步伪梯度时,采用 FP16 格式存储和传输伪梯度,使得通信的带宽要求进一步降低,同时在实验中验证了这种方式对模型性能没有明显的负面影响。


(来源:Prime Intellect)

在 INTELLECT-1 训练中的另一个关键要素则是被称为 Prime 的可扩展的去中心化训练框架,主要用于支持 OpenDiLoCo 及其之外的其他去中心化训练算法。通过该框架,Prime Intellect 实现了对计算资源的动态管理,并确保了训练过程的鲁棒性。

据悉,Prime 框架首先通过引入 ElasticDeviceMesh 来实现容错通信,使得节点可以在加入或离开时自动调整进程组的大小,不会导致训练中断。这不同于传统的 torch distribution 中的 DeviceMesh,需要冷重启来调整进程组。

此外,Prime 使用了异步分布式检查点保存技术,将检查点数据首先保存到 RAM 支持的文件系统中,随后再异步上传到远程存储,从而最大限度地减少对训练过程的阻塞。对于新加入的节点,Prime 框架允许其通过对等节点的 sidecar HTTP 服务器获取最新的检查点数据,以快速同步和参与训练。

在通信优化方面,Prime 使用自定义的 Int8 All-Reduce 内核,通过对伪梯度进行 int8 量化来减少通信量,并在 C++ 中实现了流水线环型规约内核,以最大化带宽利用率。

并且,Prime 通过分片 DiLoCo 伪梯度并同时打开多个连接来执行 All-Reduce,从而提高了网络带宽利用率,并采用 VPN 技术优化节点间的对等连接,从而进一步改进数据包的路由和传输效率。

为了适应 10B 模型的训练,Prime 框架还结合了 PyTorch FSDP2 的 fully_shard API,将模型参数、梯度和优化器状态分片到各个 GPU 中,优化内存使用并提高集合效率。

由此,INTELLECT-1 得以在分布式网络中实现有效的容错和动态管理,从而突破全球分布式 AI 训练的限制。

最终,借助 Prime 框架,团队在五个国家和三大洲使用多达 112 个 H100 GPU 同时协作训练 100 亿参数模型,涉及 1 万亿个 token,实现了 83% 的总体计算利用率,在分布于整个美国的节点上进行专门训练时实现了 96% 的计算利用率,与集中式训练方法相比,开销较小。

其中,在美国本土范围内的训练,模型 FLOPS 利用率达到了 41.4%,全局同步时间为 103 秒;当节点分布扩展至美国与欧洲之间时,利用率下降至 37.1%,同步时间增至 382 秒;而在全球范围内的训练中,尽管通信延迟和带宽不稳定性增加,利用率仍保持在 36.2%,全局同步时间为 469 秒。这些结果表明,尽管地理分布对通信效率构成了挑战,但 PRIME 框架和 DiLoCo 算法的结合有效缓解了通信瓶颈。


(来源:Prime Intellect)

在模型评估中,INTELLECT-1 在多个基准测试中表现优异,其性能与许多集中式训练的开源模型相当甚至有所超越。例如,在 MMLU 5-shot、ARC-Challenge 25-shot 等基准测试中,INTELLECT-1 取得的分数高于除 LLaMA2-13B 之外的其他同类模型。


图丨在不同基准测试上的结果(来源:Prime Intellect)



去中心化 AI 的未来

作为全球首个 10B 参数的去中心化训练模型,INTELLECT-1 让我们看到,利用分布式计算资源来训练前沿的 AI 模型的可能性。

如果成功,这或许能为今后去中心化训练的发展乃至给 AI 发展模式带来启示。未来,任何人或许都可以通过贡献算力资源来参与到 AI 模型的训练和开发中,使得 AI 技术不再局限于少数几家科技公司的掌控之中,而是成为全社会共同的资源。

另据悉,按照 Prime Intellect 此前规划的去中心化 AI 总路线,INTELLECT-1 尚处于该公司计划的第二阶段。下一步,他们计划将去中心化训练扩展到更大、更强大的开放前沿科学、推理和编码模型。


图丨 Prime Intellect 的路线图(来源:Prime Intellect)

这家公司于 2024 年 1 月由 Vincent Weisser 和 Johannes Hagemann 在美国成立,公司致力于建立一个去中心化的 AI 生态系统,允许参与者通过贡献算力、代码、数据、资本或专业知识来共同拥有 AI 模型。

2024 年 4 月 23 日,Prime Intellect 宣布完成由 Distributed Global 和 CoinFund 共同领投的 550 万美元的种子轮融资,Compound、Collab+Currency 和 Filecoin 创始人 Juan Benet 与 Protocol Labs 参投,Hugging Face 首席执行官 Clem Delangue 等知名天使投资者也参与其中。

参考资料:

1. https://arxiv.org/abs/2407.07852

2.https://www.primeintellect.ai/blog/intellect-1#launch-partners-and-contributors

3. https://www.primeintellect.ai/blog/opendiloco

4.https://www.visualcapitalist.com/which-companies-own-the-most-nvidia-h100-gpus/

5. https://neptune.ai/blog/distributed-training

运营/排版:何晨龙

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
41岁歌手方大同去世,此前曾因气胸住院 专家:气胸在瘦高体型发病率较高,有致死风险但概率小

41岁歌手方大同去世,此前曾因气胸住院 专家:气胸在瘦高体型发病率较高,有致死风险但概率小

红星新闻
2025-03-01 18:55:06
全款抢房!第一批在日本“捡漏”买房的中国人:3万买170m2独栋

全款抢房!第一批在日本“捡漏”买房的中国人:3万买170m2独栋

毒sir财经
2025-02-28 20:47:07
紧急提醒:见到这种粉色“热水瓶”,马上报警!

紧急提醒:见到这种粉色“热水瓶”,马上报警!

环球网资讯
2025-02-28 19:06:18
正在上海开唱的刀郎,有新身份!演唱会开票时遭“疯抢”,预计中老年观众占比一半以上

正在上海开唱的刀郎,有新身份!演唱会开票时遭“疯抢”,预计中老年观众占比一半以上

上观新闻
2025-03-01 21:46:59
看完南师大副院长和女博士的“教科书”版聊骚,还是得多读书啊!

看完南师大副院长和女博士的“教科书”版聊骚,还是得多读书啊!

沧海一书客
2025-02-28 08:50:01
全红婵保送暨南大学公示后,恶心一幕出现了,网友:大字不识几个

全红婵保送暨南大学公示后,恶心一幕出现了,网友:大字不识几个

凡知
2025-02-28 13:52:55
风向变了吗?央视整整用了40分钟在宣传乌克兰的英勇不屈

风向变了吗?央视整整用了40分钟在宣传乌克兰的英勇不屈

娱乐洞察点点
2025-02-28 11:52:18
特朗普众叛亲离:西方官员称特朗普在乌克兰问题上的逆转利于中国

特朗普众叛亲离:西方官员称特朗普在乌克兰问题上的逆转利于中国

二向箔
2025-02-28 10:55:41
亚洲杯决赛战报:沙特浪费多次机会付出代价!澳大利亚远射破门!

亚洲杯决赛战报:沙特浪费多次机会付出代价!澳大利亚远射破门!

郝小小看体育
2025-03-01 20:17:01
上海杀妻案朱晓东执行死刑,临死前对妻子的评价,令所有人胆寒

上海杀妻案朱晓东执行死刑,临死前对妻子的评价,令所有人胆寒

诡谲怪谈
2025-02-28 11:55:59
40岁戚薇老得也太快了,在综艺中状态好差,撞脸董明珠

40岁戚薇老得也太快了,在综艺中状态好差,撞脸董明珠

归史
2025-03-01 11:39:59
340斤男生8块腹肌被誉当代许褚

340斤男生8块腹肌被誉当代许褚

观威海
2025-03-01 11:57:30
一场争吵,泽连斯基真实的段位摆在世人面前,难怪普京3年没打赢

一场争吵,泽连斯基真实的段位摆在世人面前,难怪普京3年没打赢

千里持剑
2025-03-01 09:09:20
老婆败光20亿家产,狂开演唱会是为还债?张学友回应

老婆败光20亿家产,狂开演唱会是为还债?张学友回应

深圳晚报
2025-03-01 15:40:59
51岁林有慧苦尽甘来,晒"一家三口"回应催生,看来小S早已知内情

51岁林有慧苦尽甘来,晒"一家三口"回应催生,看来小S早已知内情

葡萄说娱
2025-03-01 15:16:54
星锐赛:姚明观战星锐二年级爆冷负大学生联队 管子煜19+8获MVP

星锐赛:姚明观战星锐二年级爆冷负大学生联队 管子煜19+8获MVP

醉卧浮生
2025-03-01 21:12:07
史上最大的外交乌龙。。。

史上最大的外交乌龙。。。

西楼饮月
2025-03-01 19:45:17
DeepSeek:30岁,一般家庭会拥有多少存款?看完,真的释怀了

DeepSeek:30岁,一般家庭会拥有多少存款?看完,真的释怀了

魏家东
2025-03-01 09:08:56
胡塞武装袭击中国油轮,连射5枚弹道导弹,中方不要美军帮忙

胡塞武装袭击中国油轮,连射5枚弹道导弹,中方不要美军帮忙

文雅笔墨
2025-03-01 14:21:11
此文无价,看完也许你的家庭会逃过一劫

此文无价,看完也许你的家庭会逃过一劫

霹雳炮
2025-02-28 22:54:22
2025-03-01 22:40:49
DeepTech深科技 incentive-icons
DeepTech深科技
麻省理工科技评论独家合作
14893文章数 513352关注度
往期回顾 全部

科技要闻

再次震惊!价格屠夫DeepSeek理论利润率545%

头条要闻

特朗普"吵架"时怼CNN:收视率这么低 先关心自己死活吧

头条要闻

特朗普"吵架"时怼CNN:收视率这么低 先关心自己死活吧

体育要闻

詹姆斯连创多项第一 核心PK完胜小卡

娱乐要闻

方大同悼念仪式完成 生前最后话语曝光

财经要闻

雷军,释放了一个新信号

汽车要闻

2025款小鹏G6发布 标配图灵AI智驾/5C超充电池

态度原创

艺术
旅游
教育
本地
公开课

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

旅游要闻

乘客曝被航班上用过的针头扎出血,多次自费检查并确诊中度抑郁

教育要闻

“班里几乎一半妈妈辞职了!”开学不到一个月,家长崩溃大哭:撑不下去了……

本地新闻

云游中国|来雁塔区,变身长安潮人

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版