网易首页 > 网易号 > 正文 申请入驻

登Nature的AI芯片设计屡遭质疑,谷歌发文:质疑者连预训练都没做

0
分享至



机器之心报道

机器之心编辑部

终于,面对近年来对自家自动 AI 芯片设计研究的质疑,谷歌坐不住了,发文回应!论文作者中包括了谷歌首席科学家 Jeff Dean。



  • 论文地址:https://arxiv.org/pdf/2411.10053
  • 论文标题:That Chip Has Sailed: A Critique of Unfounded Skepticism Around AI for Chip Design

我们先来回顾一下事情的来龙去脉:

2020 年,谷歌发表了预印本论文《Chip Placement with Deep Reinforcement Learning》,介绍了其设计芯片布局的新型强化学习方法 AlphaChip。在 2021 年,这项研究发表在 Nature 上并开源了出来。

此后,AlphaChip 激发了 AI 芯片设计方面的大量工作,并在谷歌母公司 Alphabet 三代 TPU、数据中心 CPU 和其他芯片中部署,并由外部芯片制造商扩展。



然而,ISPD 2023 上的一篇论文对谷歌 AlphaChip 的性能提出了质疑(Cheng 等人),论文指出,尽管谷歌承诺会提供数据和代码,但实际上这些资源并不完全可用。



论文地址:https://arxiv.org/pdf/2302.11014

Cheng 等人还认为基于谷歌的 Circuit Training(CT)框架的 AlphaChip 和《Nature》论文存在几项不一致:如输入网表的预放置信息、代理成本函数的权重设置、宏观和标准单元群集的放置规则等。



根据他们的评估,相比模拟退火算法(SA),在大多数情况下,AlphaChip 的代理成本更高、HPWL 也不如 SA 方法。



但谷歌方称:「他们并没有按照我们 Nature 论文中描述的方法运行。」

例如 Cheng 等人的论文中没有预训练 RL 方法(消除了从先验中学习的能力)、使用的计算资源少得多(RL 经验收集器减少 20 倍,GPU 数量减少一半)、没有训练到收敛(机器学习标准做法),并且用于评估的测试用例也是过时的。

在最近一期 CACM 上,Synopsys 的杰出架构师 Igor Markov 也发表了对三篇论文的元分析,包括登上《Nature》的 AlphaChip 原论文、Cheng 等人投稿到 ISPD 的论文以及 Markov 未发表的论文,总结了人们对 AlphaChip 的各种质疑。



文章地址:https://cacm.acm.org/research/reevaluating-googles-reinforcement-learning-for-ic-macro-placement/

谷歌还拉了一张时间线:



因此,面对以上质疑,谷歌通过本文进行了回应,确保没有人因为错误的原因而放弃在这个有影响力的领域继续创新。

Jeff Dean 发推表示,Cheng 等人的论文很大程度上并没有遵循谷歌的方法,尤其是没有进行预训练,在算力、训练收敛方面也都存在缺陷。





Jeff Dean 还认为,Igor Markov 的文章提出了含蓄的指控,完全没有根据。他很惊讶 Synopsys 竟然想与此事扯上关系,也很惊讶 CACMmag 竟然认为发表这些指控是恰当的。除了两篇有缺陷、未经同行评议的文章之外,没有任何证据或技术数据。



Cheng 等人在复现谷歌方法时的错误

Cheng 等人并未按照谷歌在《Nature》中的描述复刻论文中方法,因此他们的结果不好,并不意外。

以下是谷歌指出的主要错误:

未对强化学习方法进行预训练

AlphaChip 的核心优势在于能够从先验中学习,即在正式测试前通过「练习」模块中进行预训练。去除这一点,相当于评估一个完全不同且效果变差的方法。

下图 2 中展示了:训练数据集越大,AlphaChip 在新模块上的布局效果越好。



AlphaChip 的原论文中也通过下表展示了对 20 个模块进行预训练,模型可以掌握更有效的布局策略的效果。



此外,AlphaChip 的原论文中多次强调预训练的重要性。例如下图所示,在开源的 Ariane RISC-V CPU 上,未预训练的强化学习策略需要 48 小时才能接近预训练模型 6 小时的效果。



AlphaChip 在主数据表中的实验结果正是基于 48 小时的预训练,但 Cheng 等人没有进行任何预训练。这意味着强化学习模型从未接触过芯片,需要从零开始在每个测试案例上学习布局。

这就像对未见过围棋对局的 AlphaGo,却得出了 AlphaGo 不擅长下围棋的结论。

为此,Cheng 等人在论文中指出,谷歌开源的内容不支持复现预训练。但预训练仅需运行多个案例的训练过程,开源的数据一直支持预训练。



在 Cheng 等人的论文中称,截至目前,对 AlphaChip《Nature》论文和 CT 框架的数据和代码都未完全公开,因此,评估遇到了阻碍。

用的计算资源少了一个数量级

强化学习经验收集器比 Nature 论文中少 20 倍 (26 个 VS 512 个),GPU 数量也少一半 (8 个 VS 16 个)。计算资源变少往往需要更长的训练时间才能达到相同的效果。



根据另一篇复现 AlphaChip 的论文《Scalability and Generalization of Circuit Training for Chip Floorplanning》,使用更多 GPU 进行训练可以加速收敛。

如果 Cheng 等人能够按照 AlphaChip 原论文中的描述配置实验,其结果可能会有所改善。

没有训练到收敛

众所周知,没训练到收敛会显著影响模型性能。

从 Cheng 等人的项目网站,可以找到四个模块的收敛曲线(Ariane-GF12、MemPool-NG45、BlackParrot-GF12 和 MemPool-GF12),但在这些模块的训练中均未达到收敛状态(他们还没提供 BlackParrot-NG45 或 Ariane-NG45 的曲线)。





对于这四个模块,训练均在相对较少的步数下被中断。

在不具代表性且无法复现的基准上进行评估

Cheng 等人使用的基准 (45nm 和 12nm 的节点)与 AlphaChip(7nm 以下的节点)所用的相比,更老更旧,在物理设计上差异显著。

对于 10nm 的技术节点,多重图形化技术容易引发布线拥塞问题。

因此,对于没那么先进的技术节点,可能需要调整 AlphaChip 的奖励函数中的相关组件。

AlphaChip 的研究团队称:「我们主要为 7nm、5nm 以及更先进的工艺节点设计,对于前几代节点,尚未深入研究。但我们欢迎社区在这方面的贡献!」

此外,Cheng 等人未能或不愿提供用于复现其主要数据表中结果的综合网表。

对此,AlphaChip 的研究团队称:「Cheng 等人虽说对我们的方法进行了大规模重现,但是不是复现错了?我们建议直接使用我们的开源代码。」

除了在复现谷歌方法时存在错误,Cheng 等人还存在一些其他问题,包括如下:

  • 将 AlphaChip 与闭源商业自动布局器做对比;
  • 在调整标准单元设计时,对初始布局进行了人为「消融」;
  • 有缺陷的相关性研究;
  • 对谷歌工程师验证的错误声明。

Cheng 等人声称,谷歌的代理成本与最终指标没有很好的相关性,但他们自己的相关性研究实际上表明,总体代理成本与除标准单元面积之外的所有最终指标之间存在微弱但正相关的相关性。具体如下图 6 所示。



最后,谷歌表示 AlphaChip 完全开源,他们开源了一个软件存储库,以完全复现《Nature》论文中描述的方法。RL 方法的每一行都可以免费检查、执行或修改,并且提供源代码或二进制文件来执行所有预处理和后处理步骤。



GitHub 地址:https://github.com/google-research/circuit_training

更多回应细节请参阅原论文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
C罗的1000球目标?B席:这取决于他想踢多久,这只是时间问题

C罗的1000球目标?B席:这取决于他想踢多久,这只是时间问题

直播吧
2024-11-20 02:28:19
俄方:使用美制导弹打击俄罗斯必导致极其严重的局势升级

俄方:使用美制导弹打击俄罗斯必导致极其严重的局势升级

环球网资讯
2024-11-18 05:53:29
小马科斯批准逮捕杜特尔特,菲律宾副总统摊牌:因南海立场遭清算

小马科斯批准逮捕杜特尔特,菲律宾副总统摊牌:因南海立场遭清算

大佬日志
2024-11-19 08:00:10
61星宫一花(业界“第二美腿”,出道即巅峰)

61星宫一花(业界“第二美腿”,出道即巅峰)

生活大关注
2024-11-20 00:34:42
要哭了!净效率-26!承认吧,乔治跟恩比德真不搭 2.12亿要打水漂

要哭了!净效率-26!承认吧,乔治跟恩比德真不搭 2.12亿要打水漂

鬼魅突破上篮
2024-11-20 00:49:20
某局大崩溃:管理人员都发不出工资了!

某局大崩溃:管理人员都发不出工资了!

猫小狸同学
2024-11-13 20:40:03
终于倒闭了!中国最“暴利”的行业,嚣张20年后,彻底被时代淘汰

终于倒闭了!中国最“暴利”的行业,嚣张20年后,彻底被时代淘汰

秋姐居
2024-10-31 22:40:02
金华出轨女老师,看照片文静,很难让人想象她会和学生谈恋爱

金华出轨女老师,看照片文静,很难让人想象她会和学生谈恋爱

南城无双
2024-11-14 01:20:02
2025年国运预测:比2024年更艰难,绝大多数人会过得不好

2025年国运预测:比2024年更艰难,绝大多数人会过得不好

郁郁乎文
2024-10-22 16:43:39
当了10年浙江省副省长,朱从玖涉案过亿,被判无期

当了10年浙江省副省长,朱从玖涉案过亿,被判无期

新京报
2024-11-19 18:02:10
国足表现征服日本!森保一夸赞潜力大,久保健英惊呼,比欧洲队快

国足表现征服日本!森保一夸赞潜力大,久保健英惊呼,比欧洲队快

小李子爱体育
2024-11-20 03:50:52
8次上春晚,作死被捕入狱,今54岁无人问津,老搭档也断了联系

8次上春晚,作死被捕入狱,今54岁无人问津,老搭档也断了联系

三公子娱乐丫
2024-11-17 12:49:26
我和工友做了10年临时夫妻,分开后,发现床底留下的袋子让我落泪

我和工友做了10年临时夫妻,分开后,发现床底留下的袋子让我落泪

苗苗侃事儿
2024-10-09 18:15:45
没能力就不要上班了!女子985大学毕业月挣两千,工作时被气哭

没能力就不要上班了!女子985大学毕业月挣两千,工作时被气哭

老王侃趣闻
2024-11-18 15:22:09
后续!江阴执法局上班时集体吃饭,官方最新通报,严肃按纪律处理

后续!江阴执法局上班时集体吃饭,官方最新通报,严肃按纪律处理

小虎新车推荐员
2024-11-19 18:13:55
《小巷人家》结局:直到筱婷大婚,让鹏飞背她出嫁,才知图南自私

《小巷人家》结局:直到筱婷大婚,让鹏飞背她出嫁,才知图南自私

宇林网络
2024-11-20 00:38:30
生二胎,你后来有没有觉得是个坑啊?

生二胎,你后来有没有觉得是个坑啊?

奇特短尾矮袋鼠
2024-11-20 01:00:44
古代专设“通房丫鬟”,主子同房要守床边,近身伺候才是重头戏!

古代专设“通房丫鬟”,主子同房要守床边,近身伺候才是重头戏!

刀刃历史
2023-10-24 20:08:15
花800万整成范冰冰,丈夫整容成李晨,怀孕后竟发现丈夫还有男朋友

花800万整成范冰冰,丈夫整容成李晨,怀孕后竟发现丈夫还有男朋友

三公子娱乐丫
2024-11-17 12:50:44
中国股市又爆猛料,今天A股或将要大变天,万千散户抄底还是逃跑

中国股市又爆猛料,今天A股或将要大变天,万千散户抄底还是逃跑

一丛深色花儿
2024-11-20 03:30:02
2024-11-20 04:40:49
机器之心Pro
机器之心Pro
专业的人工智能媒体
9725文章数 142064关注度
往期回顾 全部

科技要闻

小鹏Q3营收破百亿,交付4.7万辆,亏18.1亿

头条要闻

国足1比3不敌日本 征战18强赛的最大顽疾被对手再利用

头条要闻

国足1比3不敌日本 征战18强赛的最大顽疾被对手再利用

体育要闻

15胜0负的骑士,真的在模仿勇士

娱乐要闻

金鸡奖颁奖,流量至上,都在座位表上体现了

财经要闻

专家称我国还缺1亿套保障房

汽车要闻

后排够大 智能化提升 全新探岳L是你的菜么?

态度原创

时尚
教育
本地
数码
房产

50岁贝嫂:生孩子不会变老,穷和不自律才会

教育要闻

温州日报作文版作文选登:南博耀《夜观企鹅归巢》

本地新闻

重庆记忆|山城特色“过山车”上天入地穿花海

数码要闻

2024新一代人工智能(深圳)创业创新大赛

房产要闻

重磅!海南取消限购第8城来了!楼市限购,还剩10城

无障碍浏览 进入关怀版