网易首页 > 网易号 > 正文 申请入驻

2024诺贝尔物理奖是否出现了重大遗漏?

0
分享至

12.2

知识分子

The Intellectual

图源:pixabay

撰文 |吴思

这篇短文不是要讨论今年诺贝尔物理学奖是否不恰当地授予了人工智能专家,而是要澄清授奖对象是否出现了重大遗漏。

John Hopfield和Geoffrey Hinton两位教授获得了今年的诺贝尔物理学奖,其中Hopfield教授的获奖原因是因为发展了著名的Hopfield吸引子网络模型。由于我长期在做有点冷门的吸引子网络的理论研究(见微信公众号文章【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型),因此不少同事祝贺我,有种终于“苦尽甘来”,可以“与荣有焉”了的感觉。但我内心却是五味杂陈,因为我深知道Hopfield模型背后真实的故事。有朋友鼓励我说,为计算神经科学领域外的读者以及年轻学者计,我应该写下这段公案,给历史留一段记录。

简单说就是,日本著名科学家Shun-ichi Amari(甘利俊一)教授在1972年就已经提出了Hopfield教授在1982年发表的Hopfield模型,前者比后者整整早了十年。两个数学模型几乎一模一样,而且Amari教授的文章还做了更深入细致的数学分析。图1简单对比了两个模型的最关键相同之处,包括神经元的阈值动力学(threshold dynamics)和神经元连接的Hebbian 学习律。基于该数学模型,两篇文章都分析了网络动力学的稳定状态,即吸引子,并由此引申到了大脑的联想式记忆。读者可以仔细对比Amari1972年[1]和Hopfield 1982年[2]的文章。有科研经验的读者都知道,在模型如此相似的情况下,有了Amari 1972年的文章,Hopfield 1982年的文章其实很难能发表在重要杂志上了。当然在当时资讯条件下,有可能Hopfield教授并不知道Amari教授的工作。

图1:Amari原始模型和Hopfield原始模型的对比。两者的数学形式几乎是一模一样的,都采用了神经元的阈值动力学和神经元之间连接的Hebbian学习律。

在计算神经科学及相关领域,Amari教授比Hopfield教授早十年提出Hopfield模型并不是一个鲜为人知的秘密,而是一个很多人都知道的事实。计算神经科学领域的著名学者Haim Sompolinsky教授(2023年Brain Prize大奖的获得者)在一篇文章中曾评论到:“虽然Amari更早提出了一样的模型,但因为Hopfield贡献很大,所以我们叫它Hopfield模型“,英文参见[3]。计算神经科学领域另一位已过世的著名学者Daniel Amit(《Modelling Brain Function: The World of Attractor Neural Networks》书的作者)曾经当面给Amari教授道歉,表示这是学术界的一个错误,该模型应该叫Amari-Hopfield模型,并赠予了Amari教授一条红色领带作为歉意。

诚如Amit教授所言,在当年资讯远远落后于今天的时代,即便是Hopfield教授独立发展了该模型,出于科学惯例,这个模型也应该叫Amari-Hopfield模型更合适。但让人费解的是,诺贝尔奖评审委员会在明知Amari教授早期工作的情况下(诺奖的科学背景介绍还列出了Amari1972年的文章),依然忽视了Amari教授的贡献,实在是让人难以理解。

需要申明的是,我介绍这段历史并不全因为我是Amari教授的弟子,有为老师发声之嫌。其实在外网的一些论坛上,对此争论更激烈。著名的德国科学家Jurgen Schmidhurber教授(LSTM模型的发明人)就在一个有悠久历史的邮件群connectionist里为Amari教授的不公发声。摘录部分如下:

图2:Schmidhurber教授对Amari模型早于Hopfield工作10年的评论。

可能有读者知道,Schmidhurber教授在其它场合也为另一段公案发声,其涉及到了Amari教授在人工神经网络最基础的训练算法-反传算法(BackProp)上的重要贡献,我这里也介绍一下。简单说就是,Amari教授在1967年就提出了stochastic gradient descent(SGD)(但由于当时计算机算力受限,只在浅层神经网络上做了演示)[4],比Hinton教授等人提出的有相似思想的BackProp(1986)[5]早了19年。当然我本人特别崇敬Hinton教授,尤其佩服他锲而不舍地把基于深度学习的人工智能技术推广到了今天的高度,但在BackProp的优先权上还是应该一码归一码。有好事者在connectionist群里发布了一张Hinton教授在1997年ICNN会议上介绍BackProp的照片,演讲题目是“What’s wrong with Backprop?”, 其中Hinton教授本人写下了“Amari thought it first”(见下)。

图3:Hinton教授在ICNN1997会议的演讲稿,其中写下了Amari第一个想到BackProp。

在诺贝尔物理学发布之后,Amari教授很快就在日本理化学所的官网上发表了公开声明(见图4),其间只字未提自己的不公,反而真诚地祝贺了两位获奖者,体现了Amari教授一贯淡泊名利、与世无争的风格。但作为知情者,我认为不能因为Amari教授的高风亮节,我们就默认这种行为是无所谓的,其后果只会破坏科学共同体赖以健康发展的基石。

Amari教授一生在科学上建树太多,有兴趣的读者可以参见Amari教授回顾其在计算神经科学领域半个世纪工作的文章[3]。除了上面提到的吸引子网络、BackProp,还有一项在我看来理论上更漂亮的工作是信息几何(information geometry)。该工作用微分几何方法分析了数据驱动的模型学习的本质,是对模型学习机理最深刻的认识。因此,我虽心有怅然,但我坚信,没有诺奖或图灵奖的加持,Amari教授在科学上的巨大贡献也一样流芳百世!

图4:Amari教授在诺奖结果公布后,很快就在日本理化学研究所官网上发表的公开声明(中文翻译稿)。

ZHISHI

后记

最后我也向感兴趣的读者简单介绍一下吸引子网络的后续发展。在AI领域,Amari-Hopfield模型近年来被推广为了modern Hopfield模型[6]。在神经科学领域,Amari-Hopfield模型逐渐被其它生物学更合理的吸引子模型代替。当前最热的吸引子网络模型是连续吸引子网络(CANN)(参见微信公众号介绍文章【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型)。特别值得指出的是,Amari教授在1977年就发表一篇纯粹基于数学性质考虑的CANN模型[7],远远走在了实验证据的前面[8-9],也是领域内的一篇经典工作。作者在Amari教授实验室做博士后期间,和Amari教授一起发展了一个理论可解的CANN模型[10],并在随后的二十多年里围绕该模型开展研究。近年来,作者课题组进一步推广了该模型,在动力学方程中引入了适应性反应(adaptation),以解决吸引子网络面临的一个根本性难题:一方面,吸引子使得大脑可以稳定表征信息;但另一方面,其也不可避免地带来了副作用,即一旦神经系统进入了一个吸引子状态,就很难脱离该状态,使得大脑难以实现信息的快速迭代或搜索。通过在吸引子网络中引入时程相对较慢的适应性动力学(其可以被神经系统中广泛存在的副反馈作用实现),就能使神经系统既可以稳定地表征信息,同时又能快速搜索或迭代信息。我们系统分析该模型的计算性质[11-12],并用该模型成功了解释大量的神经生物学现象[13-14]。

本文作者吴思系北京大学心理与认知科学学院教授,麦戈文脑科学所常务副所长

参考文献:(上下滑动可浏览)

[1]Amari, S. (1972). Learning patterns and pattern sequences by self-organizing nets of threshold elements. IEEE Transactions on Computers, C-21(11), 1197–1206.

[2]Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences of the United States of America, 79, 2554–2558.

[3]Amari, S. (2013). Dreaming of mathematical neuroscience for half a century. Neural Networks, 37, 48–51.

[4]Amari, S. (1967). Theory of adaptive pattern classifiers. IEEE Transactions, EC-16, 299–307.

[5]Rumelhart, D., McClelland, J., & Hinton, J. (1986). Learning internal representations by error propagation. In D. E. Rumelhart, & J. L. McClelland (Eds.), Parallel distributed processing: explorations in the microstructure of cognition, vol. 1. MIT Press.

[6]Krotov, Dmitry, and J.J. Hopfield (2016). Dense associative memory for pattern recognition. NeurIPS.

[7]Amari, S. (1977). Neural theory of association and concept-formation. Biological Cybernetics, 26, 175–185.

[8]Kim, S., Rouault, H., Druckmann, S. & Vivek Jayaraman (2017) Ring attractor dynamics in the Drosophila central brain. Science 356, 849–853.

[9]Gardner, R., Hermansen, E., Pachitariu, M., Burak, Y., Baas, N., Dunn, B., May-Britt Moser, & Moser, E. (2022). Toroidal topology of population activity in grid cells. Nature 602, 123-128.

[10]Wu, S., Amari, S. & Nakahara. H. (2002). Population Coding and Decoding in a Neural Field: A Computational Study. Neural Computation, v14, no.5, p.999-1026.

[11]Dong, X.#, Chu, T.#, Huang, T., Ji, Z.*, & Wu S* (2021). Noisy Adaptation Generates Levy Flights in Attractor Neural Networks. NeurIPS.

[12]Dong, X., Ji, Z., Chu, T., Huang, T., Zhang, W., Wu S* (2022). Adaptation Accelerating Sampling-based Bayesian Inference in Attractor Neural Networks. NeurIPS.

[13]Chu, T.#, Ji, Z.#, Zuo, J., Mi, Y., Zhang, W., Huang, T., ... & Wu, S.* (2023). Firing rate adaptation affords place cell theta sweeps, phase precession and procession. eLife.

[14]Ji, Z. L. #, Chu, T.#, Wu, S.* & Burgess, N.* (2024). A systems model of alternating theta sweepsvia firing rate adaptation. Current Biology.

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
越来越适应先发控卫的角色了!快船后场大闸的表现正在不断提升?

越来越适应先发控卫的角色了!快船后场大闸的表现正在不断提升?

稻谷与小麦
2026-02-21 01:30:59
反击战名将廖锡龙:坚持举报总后勤部副部长谷俊山,结果如何?

反击战名将廖锡龙:坚持举报总后勤部副部长谷俊山,结果如何?

大运河时空
2025-12-16 07:40:03
战场变泥潭,俄乌两军同时迎来苦难期,杜金建议绑架乌克兰高层

战场变泥潭,俄乌两军同时迎来苦难期,杜金建议绑架乌克兰高层

史政先锋
2026-02-20 21:15:35
伊朗局势突然升级,石油股大爆发!春节后首个交易日,两大AI龙头市值突破3000亿港元,香港财政司司长:港股已具备“骏马”特质

伊朗局势突然升级,石油股大爆发!春节后首个交易日,两大AI龙头市值突破3000亿港元,香港财政司司长:港股已具备“骏马”特质

每日经济新闻
2026-02-20 17:17:38
朱珠回天津婆家过年,婆婆在师范大学工作,做13道菜热情招待儿媳

朱珠回天津婆家过年,婆婆在师范大学工作,做13道菜热情招待儿媳

八怪娱
2026-02-19 20:39:37
女单签位公布!国乒首轮阻击桥本帆乃香,王曼昱有望再战张本美和

女单签位公布!国乒首轮阻击桥本帆乃香,王曼昱有望再战张本美和

全言作品
2026-02-20 19:05:47
哈登16+9加盟全胜!骑士狂胜篮网获6连胜 米切尔17分阿伦两双

哈登16+9加盟全胜!骑士狂胜篮网获6连胜 米切尔17分阿伦两双

醉卧浮生
2026-02-20 10:21:07
无论什么手机,切记不要这样充电,不然手机电池不耐用,涨知识了

无论什么手机,切记不要这样充电,不然手机电池不耐用,涨知识了

妙招酷
2026-02-17 23:47:03
川普在十天左右、两会开始前打伊朗的可能性在60%以上

川普在十天左右、两会开始前打伊朗的可能性在60%以上

邵旭峰域
2026-02-20 14:50:42
袁和平揭秘《镖人》使用 AI 工具 Seedance 2.0 打造片尾彩蛋

袁和平揭秘《镖人》使用 AI 工具 Seedance 2.0 打造片尾彩蛋

环球网资讯
2026-02-20 11:44:45
美国最高法院驳回特朗普全球关税政策

美国最高法院驳回特朗普全球关税政策

新浪财经
2026-02-20 23:09:51
清纯天后“万人唾”,为爱吸毒拍片无下限,彻底沦为“国际乞巧

清纯天后“万人唾”,为爱吸毒拍片无下限,彻底沦为“国际乞巧

谈史论天地
2026-02-20 06:53:23
河南大型超市着火:骇人画面流出,伤亡情况披露,大量隐情曝光

河南大型超市着火:骇人画面流出,伤亡情况披露,大量隐情曝光

博士观察
2026-02-21 00:26:35
你什么时候意识到自己没见过世面?网友:都是活一辈子,差距太大

你什么时候意识到自己没见过世面?网友:都是活一辈子,差距太大

另子维爱读史
2026-02-20 22:19:01
破冬奥纪录夺冠 宁忠岩现场被荷兰选手“膜拜”拥抱致敬

破冬奥纪录夺冠 宁忠岩现场被荷兰选手“膜拜”拥抱致敬

闪电新闻
2026-02-20 04:27:53
太真实!河南舅舅锁门躲拜年,一看门口礼物,戳中无数人的痛点…

太真实!河南舅舅锁门躲拜年,一看门口礼物,戳中无数人的痛点…

火山詩话
2026-02-20 16:02:51
当利润跌破4%,一场比新车更惨烈的战争开始了

当利润跌破4%,一场比新车更惨烈的战争开始了

大佬灼见
2026-02-20 09:03:49
1993年六位上将,还有三位健在,都快100岁了

1993年六位上将,还有三位健在,都快100岁了

文史茶馆2020
2026-02-15 16:43:24
这就是赤裸裸的现实!越来越多央国企员工已经成了周末夫妻?

这就是赤裸裸的现实!越来越多央国企员工已经成了周末夫妻?

娱乐圈见解说
2026-02-20 10:11:21
转会费1.6亿欧!当年把巴萨坑惨了!天字第一号反骨仔33岁没球踢

转会费1.6亿欧!当年把巴萨坑惨了!天字第一号反骨仔33岁没球踢

体育世界
2026-02-19 20:44:19
2026-02-21 02:11:00
知识分子 incentive-icons
知识分子
关注科学、人文、思想
591文章数 1035关注度
往期回顾 全部

科技要闻

莫迪举手欢呼 两大AI掌门人却握拳尴尬对峙

头条要闻

贝加尔湖遇难者遗体已被发现 涉事司机系私下接单

头条要闻

贝加尔湖遇难者遗体已被发现 涉事司机系私下接单

体育要闻

金牌夫妻!王心迪徐梦桃赛后拥抱太甜了

娱乐要闻

《将门独后》开拍,王鹤棣孟子义主演

财经要闻

特朗普全球关税被推翻!有何影响?

汽车要闻

比亚迪的“颜值担当”来了 方程豹首款轿车路跑信息曝光

态度原创

亲子
手机
本地
公开课
军事航空

亲子要闻

春节儿童吃撑了怎么办?家长可用山楂、麦芽煮水代茶饮

手机要闻

春节后影像机皇之争:OPPO Find X9 Ultra与vivo X300 Ultra规格曝光

本地新闻

春花齐放2026:《骏马奔腾迎新岁》

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

消息人士透露:美军赴黄海活动 解放军有效应对处置

无障碍浏览 进入关怀版