袁康,法学博士,武汉大学法学院副教授,武汉大学网络治理研究院副院长,武汉大学资本市场法治研究中心秘书长,加州大学伯克利分校法学院访问学者,中国法学会证券法学研究会理事,中国法学会商业法研究会理事,最高人民检察院民事行政案件咨询专家,主要研究兴趣为网络治理、证券监管、金融公平和金融科技,在核心刊物上发表学术论文40余篇,多篇文章被《中国社会科学文摘》《人大复印资料》全文转载,出版《网络安全的法律治理》《金融公平的法律实现》《互联网时代证券业务创新与法律监管》等专著,承担国家社科基金青年项目、教育部人文社会科学基金青年项目等科研项目10余项,曾获得教育部博士研究生学术新人奖、湖北省哲学社会科学优秀成果一等奖等奖项。
可信算法的法律规制
大数据、区块链、人工智能等新兴技术的加速应用,正在深刻改变着人类社会的运行模式。自动驾驶、医疗机器人、智能投顾、社交网络等事物的出现,使得人们在日常生活、经济交易、信息获取、社会参与等领域的活动以更加便捷和更加智能的方式展开。算法作为这些技术的核心要素,在推进行为决策机制变革和信任机制重塑的同时,也因公众在对自动驾驶事故、大数据杀熟、信息茧房、算法暴政等一系列议题的反思和批判过程中面临拷问:当我们把一切都交给算法时,它们究竟是否值得信任?随着算法社会的来临,人类正将决策权逐渐让渡给算法接管,算法对于个体乃至整个社会的影响日渐重大且深远,只有处于可信状态的算法才能够消除人类的顾虑并保证算法时代的安全与秩序。
一、算法信任
算法依托确定的输入输出过程,能够实现相较于自然人更为客观、理性和有效的决策。基于此,算法被人们依赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,由此形成了所谓的“算法信任”。然而,技术特征并非是信任的根本来源,人们对于算法的信任倾向以及算法自身的可信度是构建“算法信任”缺一不可的两个方面。易言之,人们选择相信算法并不意味着算法自身就值得被信任。
第一,算法缺陷并不总能避免。一方面算法自身在功能实现上本身就有局限,算法输出结果也并不能确保完全准确,决策错误的可能性始终存在。另一方面,算法在设计和应用过程中可能因算法模型或者馈送数据的缺陷而发生偏差。特斯拉自动驾驶事故、波音737MAX空难也正是因为算法缺陷所导致。
第二,算法偏见确实有意或无意地存在。算法模型不可避免地会受到设计者主观倾向和利益导向的影响,设计者的价值观和偏见会嵌入算法,从而造成算法输出结果或者决策延续设计者的偏见。大数据杀熟、微软聊天机器人上线第一天就学会脏话和种族歧视等均为例证。
第三,算法黑箱可能导致人与技术的疏离。算法黑箱的存在,导致人们在面对算法的自动化决策时难以把握其理由或原因,或者无法确认该决策是否真是按部署者解释的那样作出的,因而给设计者和应用者操纵算法并损害个人权益甚至公共利益提供了可能性。面对并不透明的算法,用户难以完全排除欺诈或歧视的存在,信息不对称导致信任往往难以真正建立。
第四,算法权力可能造成人与技术的对抗。随着算法权力的扩张,人类与技术之间的从属格局和权威地位正在发生微妙的变化,算法权力对人类的规训与控制势必会引发人类的对抗,而不信任正是这种对抗的起点。
二、可信算法
算法信任是算法社会的基础,而信任必须建立在算法可信度之上。即便用户可能会因为主观上的盲目性而选择信任算法,但算法自身可信度的不足会客观上消解这种信任。因此算法可信度才是确立和维系算法信任的根本。我们可以得出一个初步结论:我们需要算法,但我们真正需要的是可以信任的算法,即可信算法(Trustworthy Algorithms)。“可信算法”的概念,意在强调算法处于可信任的状态。
这种可信任,主要来源于算法三个方面的品质:第一,可理解性。一方面是算法具有一定的透明度,并且能够为公众提供易于访问、可解释、可评估的理解路径,避免陷入“鱼缸”(fishbowl)式的透明。第二,可靠性,即算法能够克服人类的非理性、偏见和局限,以尽可能少的偏差和更符合伦理与法律要求的方式作出准确决策,并且需要确保鲁棒性,以避免因外部干扰而危害安全或造成其他负面损害。第三是可控性,即人们可以有效规制算法或者自主决定算法是否继续执行,既要求算法能够在有效规制的范围内运行,又能确保用户可以脱离算法自动决策。
三、算法可信控制的进路
通过算法的可信控制,可以确保算法的可信度,从而有效维系算法信任,防止不可信算法的滥用导致用户损失乃至算法信任的崩溃。因此在很大程度上,算法的可信控制应当成为算法治理的核心任务。算法的可信控制有两条进路:
对于技术专家而言,算法的可信控制可以通过技术手段实现,例如南加州大学研究人员研发的DeepTrust工具可对AI算法生成的数据和预测的信息进行验证,日益成熟的“歧视感知数据挖掘”也能够识别偏离公平伦理的算法,通过技术进路“以算法控制算法”从而实现算法可信正在成为可能。对于法律专家而言,通过法律进路的可信控制,即以法律制度规范算法的技术流程并调整相关主体的行为以实现算法可信,正是“以法律控制算法”的题中之义。立足于防范算法风险的法律规制涉及的范围比较广,算法社会下的法律规制需求也非常迫切。算法共谋带来的垄断、算法歧视导致的侵权、算法滥用带来的损害等等,都是算法失控所带来的负面后果。相比于具体的算法风险的“结果主义”视角去探讨对算法的治理,算法的可信控制立足于从“预防主义”的角度实现算法的可信,即确保算法得以可信任的方式设计和应用,从而在源头上避免算法风险的发生。
算法的法律规制,一方面是从本体的角度将算法作为法律的调整对象,通过算法的法律嵌入确保算法不偏离法律的要求,另一方面则是从关系的角度调整算法关系,通过规范相关主体的权利、义务与责任实现算法关系的有效治理。通过法律的可信控制是依托贯穿于算法的技术层、应用层和治理层的系统化制度安排,对算法本体和算法关系进行有效调整和规范,从而确保算法以可信任状态得以设计、部署、应用和执行的过程。通过法律的可信控制,也应当遵循算法规制的基本逻辑,即在算法本体方面强化法律嵌入,在算法关系方面完善法律调节,充分发挥法律在实现算法可信中的积极作用。
从本体维度来看,算法自身的可信度是算法信任最根本的来源,也是算法可信控制最直接的场域。算法是否可信,以及多大程度上可信,往往取决于算法本体的质量。因此从本体维度进行算法的可信控制,即以算法本体作为直接的规制对象,通过制度约束确保算法按照可信的标准和规范进行设计和应用,是实现算法可信的基础性环节。由于算法本体的技术属性,这一维度下算法的可信控制可以遵循法律嵌入的逻辑,将可信算法的具体要求转化为具有法律约束力的技术规范,从而完成算法的可信控制。具体而言,应当从完善算法透明度规则、推动算法伦理法律化、探索算法认证评估制度来实现,从而确保算法自身以值得信任的方式投入应用。
从关系维度来看,算法部署和执行的过程会涉及到包括算法控制者和用户等主体在内的众多利益相关方,算法相关主体的权利义务配置、责任承担方案以及受监管程度都会影响到算法能否以可信状态实现。可以说,算法本体的可信度奠定了算法信任的基础,而算法关系的有效调整可以促进算法以可信状态得以部署和执行,从而成为算法信任的保障。因此从关系维度进行算法的可信控制,即不再以算法本体而是以算法关系作为规制对象,通过法律对算法相关主体行为的激励、约束和规范来调节和平衡算法关系,从而间接地将可信要求落实到算法设计、部署和执行的全过程。具体而言,(1)确认和保障相关主体的算法权利,可以改变算法关系中的力量对比和利益结构,借助权利对抗中的制约以及权利平衡中的合作实现算法的可信控制。(2)通过强化算法问责,以事后控制的方式对算法主体进行约束,能够引导算法控制者确保算法的可解释、可靠和可控。(3)拓展算法监管体系,通过政府部门、专家委员会、行业自律组织和技术社群的协力合作,构建一个全覆盖多层次的算法监管体系,能够实现有效的算法可信控制。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.