2023年8月15日,哈佛大学官网推出了一场名为“非人类艺术家的创造还是艺术吗?”的专题访谈,六位兼具艺术从业者身份的哈佛职员分别就是否认可以及如何看待AI艺术的问题发表了看法。艺术家们认为AI艺术尚不能称之为真正的艺术,因为它虽然“能创造出美丽惊人或极为有趣的图画,但这只会引导我们去思考艺术是什么。艺术具有一种精神的、情感的要素”,但AI“缺乏真正的内省和经验”,缺乏一种“活在这个特殊物理世界的人”所具有的“真正的视野”。事实上,早在2017年微软小冰署名的诗集《阳光失了玻璃窗》出版之后,类似的访谈和观点在中文学界已屡见不鲜;2022年底ChatGPT的面世及飞速发展更是以爆炸之势将人工智能强势“入侵”文学艺术的事实呈现于全球公众面前,激起媒体、相关从业者、研究者乃至普通人的广泛热议。人们惊叹人工智能在文学艺术相关领域前所未有的表现,也越来越意识到它对人类审美主体性地位的威胁并试图为之辩护。截至目前,关于AI是否具有主体性的问题不仅是全球技术界瞩目的焦点,也是哲学、伦理、法律、文学艺术等众多人文社科领域热议的话题。本文不能对这一问题给出更好的答案,而是希望通过回顾与反思该问题在人工智能历史中的发展脉络,尝试寻找解决问题的路径。
“模拟游戏”:
人工智能与人的主体性攻防战
“模拟游戏”一词出自人工智能先驱图灵发表于1950年的论文《计算机与智能》,指的是图灵设想的、用以判断计算机是否能够像人一样进行思维的游戏,后世称之为“图灵测试”。这篇文章还引用了一段时人唱衰人工智能的话,在某种意义上“图灵测试”可以被看作人工智能理论奠基者对这种从人类中心主义的高处“俯视”新生AI的一种战略性回避。他说,“你要肯定一台机器是否能够思考,唯一的途径就是成为那台机器,并且去感受这台机器的思维活动”。言下之意,我们不能成为机器,所以我们只要它看上去像人一样就可以了。
由此可见,用情感和艺术创造为人类构筑抵御人工智能的终极防线并非始于今日,而是从人工智能诞生之初就已形成的格局。计算机与人工智能本质上都是对人类作为思维主体的大脑功能的模拟,这一理念也为计算机工程学奠基人冯·诺伊曼出版于1956年的《计算机与人脑》一书所证实。这大概就是人们为什么从最开始就将情感和感性经验视为人类永远不会被机器取代的“高地”——人们在传统上认为感性与情感以肉身经验为基础,而后者是机器不可能拥有的。
作为对人类智能的模拟,人工智能在此后半个多世纪的发展历程中一直被对标于人类加以比较审视,犹如一场旷日持久的人机攻防之战:坚守人文关怀的医学生物学与传统人文社会学科在直面人工智能的挑战中结盟,共同秉持人类中心主义立场来抵御技术乐观主义者将“模拟游戏”进行到底的决心。半个多世纪以来,人们一边好奇它到底能够学会人类的哪些能力,一边在节节败退中检视到底还有哪些人类能力是它学不会的。2016年,AlphaGo战胜世界围棋冠军的新闻轰动世界,这标志着人工智能在计算推理能力方面完胜人类。2017年5月,微软小冰署名的诗集《阳光失了玻璃窗》出版,时任小冰项目的负责人在序言中宣称,小冰的设计初衷是想要尝试回答以下问题:“在智商之外,我们是否能在情商上,也迈出人工智能关键性的一步,进而赋予它们人类的情感和创造力?”尽管作为专家系统的该版本小冰离“人类的情感和创造力”还很遥远,但这毕竟意味着继计算与推理之后,关于“计算机不能干什么”的人类防线终于被推进至以“情感和创造力”为核心特征的文学艺术领域。现在,该是审美正面迎接人工智能挑战的时候了。
“情感机器”:
人工智能审美主体的可能性
20世纪90年代,伴随着情感成为神经科学研究的重要主题,情感作为人机之间不可逾越的屏障的观念逐渐被打破。美国神经生物学家安东尼奥·达马西奥通过大量临床研究证明,人类的情绪和情感并非理智的对立面,而是其重要组成部分,能够起到增强决策智能的作用。这意味着人类情感在神经系统中的表征理论上也可以被机器模拟出来。与此同时,“情感计算”“人工情感”等概念的提出和广泛讨论为机器介入人类情感领域提供了更多可能路径。2006年,人工智能耆宿马文·明斯基出版《情感机器》一书,代表整个人工智能界发出了向情感领域进军的宣言。明斯基是技术乐观主义的典型代表,他的名言“人脑恰好是一台肉做的机器”广为人知。“情感机器”设想就是要将这一信念贯彻到底:他认为人类神经活动的最基础模式可以用简单的机器程序来表示。情感尽管最为复杂高级,按照还原论它也可以被视为由无数简单程序组成的巨大系统,因而在理论上是可以被模拟的。当然,尽管“情感机器”设想离不开心理学和神经科学等研究人类情感领域的学科助力,但在价值倾向上这些学科仍然守护人类中心主义立场。比如,达马西奥就明确反对明斯基建造情感机器的激进路线,因为在他看来,人类的一切情感、精神和心理活动固然有其可还原为机械化程序的生物学基础,但更重要的还是源自人以肉身此在与环境交互所产生的感性经验和社会文化影响。
的确,迄今为止,能够为神经科学和人工智能科学所研究和模拟的情感基本都是人类情感的初级或简单样态,如情动或情绪,而不是康德意义上的由事物的形式触发、由想象力驱动的审美情感。由此我们不难理解,何以半个多世纪前生物学家为人类主体性辩护的说辞,今日仍然可以被艺术家们几乎原封不动地复述沿用。然而,在神经网络技术已达到机器自主学习加速迭代阶段的当下,我们似乎已经无法再心安理得地坚信机器不可能拥有审美情感了,毕竟新晋诺贝尔物理学奖得主、深度学习算法之父杰弗里·辛顿近年来已经多次明确向公众表达过他对人工智能即将拥有自我意识的担忧。若按照从原始艺术角度解释人类审美意识发生的经典理论,拥有自我意识的智能体离拥有审美能力不会太远。
价值对齐:人文学术需从
“被动防御”转向“主动合作”
辛顿的担忧并非个例。2023年4月,上千位技术精英、行业领袖和学界翘楚等共同签署了一份要求暂停训练强大的AI系统的公开信。抛开动机与效果不谈,此举多少反映出技术乐观主义开始出现转向为人类利益考量的趋势,其原因在于人工智能的发展已经走到了很可能脱离人类掌控的程度。因此,如何确保人工智能系统的能力和行动符合人类真实的意图和普遍的伦理准则、确保人工智能与人类协作的安全、互信与可靠成为当下计算机科学领域最重要最紧迫的议题之一,即所谓“价值对齐”。自2023年底以来,中文学界有关“人工智能价值对齐”的讨论剧增,来自数据、算法、伦理、法律、政治、传媒、哲学、教育等众多领域的研究在一定程度上表明人们在人工智能安全问题上正在达成某种共识。同时,这意味着在人工智能历史上看似针锋相对的技术至上与人文关怀两种价值观终于相向而行了。
在作为人类“最后防线“的情感与艺术审美领域,此刻与其继续紧握主体性这根救命稻草重申对人工智能的否定与拒绝,不如转过身来认真打量人工智能这个“模拟游戏”高手,并思考如何能够在使之实现“价值对齐”的关键性历史使命中发挥自己的作用。当前价值对齐主要依赖于一些外部干预措施,如调整训练数据集的价值倾向性、制定周密的法律法规等。假如未来人工智能真能拥有意识和情感,审美有没有可能成为在人工智能内部即算法层面实现“价值对齐”的重要因素呢?毕竟在人类经验世界中,审美与伦理息息相关,文学艺术也曾被视为培养良好道德品性、维持社会伦理秩序之必需。换言之,如果我们期待AI成为与人类和谐相处的价值主体,教会它们如何审美可能是一条捷径,而这需要技术与艺术的深度合作。
(作者系中央民族大学文学院教授)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.