网易首页 > 网易号 > 正文 申请入驻

侯跃伟:生成式人工智能的刑事风险与前瞻治理 | 河北法学202402

0
分享至

【作者】侯跃伟(中国政法大学刑事司法学院博士研究生)

【来源】北大法宝法学期刊库《河北法学》2024年第2期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

内容提要:技术的突破性发展,极易导致刑事风险的激增。既有刑事法律体系前瞻性和抽象性的欠缺,导致刑法缺乏针对性的规制措施。为了更好地应对生成式人工智能可能造成的刑事风险,应当结合其运行原理和基本特征,精准发掘其内生性缺陷和刑事风险,理顺其治理理念,将发展作为第一要务,兼顾依法治理、自主可控;同时,顺应我国当前的发展趋势,优化营商环境,从平台责任向个人责任回归,构建分级分类的监管模式,推动我国生成式人工智能的健康发展。

关键词:生成式人工智能;刑事风险;自主可控;平台责任;分类分级监管

目次 引言 一、生成式人工智能的运行原理和基本特征 二、生成式人工智能的内生性缺陷与刑事风险 三、刑事风险的前瞻性治理 结语:未来生成式人工智能的发展前景与治理路径

引言

2023年3月14日,OpenAI公司发布了最新的生成式人工智能GPT-4,并迅速引发新一轮的讨论热潮。较上一代ChatGPT而言,GPT-4在文字输入的篇幅、语言生成的可靠性上都实现了优化,解决问题的能力得到了显著提升。重要的是,GPT-4不仅能够对输入的语言进行处理,还能对输入的图片、视频、音频等形式的内容进行理解与处理,并可以根据用户指令生成相应的内容。毫无疑问,以GPT-4为代表的生成式人工智能,凭借其超强的算力、海量的数据、完善的算法,向人类昭示出其高超的“智力水平”。它的强智能性使其不仅可以逻辑连贯地与用户对话,还可以在与用户对话的过程中不断捕捉后者的个性化需求,且能颇具人性化地承认自己的错误、拒绝不当请求,几乎做到与人类无差别交流。以GPT-4为代表的生成式人工智能,正凭借其强大的功能悄然改变着人类的生产方式与生活方式,并对法律规范所根植的社会土壤产生了深远的影响。我国对生成式人工智能始终保持高度关注,2023年7月13日,国家网信办联合发改委、教育部、科技部、工信部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》(下文简称《办法》),为生成式人工智能的健康发展保驾护航。我国头部科技公司和高校科研团队也在紧锣密鼓地开展研发工作。例如,百度的“文心一言”、阿里的“通义千问”、复旦大学的“moss”、清华大学的“chatglm-6b” 等,都在努力实现国产替代。

“在风险社会里,风险意识和风险规避是一个社会的主要特征。”随着生成式人工智能的迅猛发展,法律工作者也必须直面其所带来的法律风险。尤其在美国等域外国家的技术领先于我国的背景下,一定要理顺发展和安全之间的关系。在促进科技持续健康发展的前提下,遵循“自主可控”原则,对技术盛宴背后的法律隐患,尤其是刑事风险,进行前瞻性的风险治理与体系构建。

生成式人工智能的运行原理和基本特征

经历了GPT-1、GPT-2、GPT-3、GPT-3.5、ChatGPT等版本的迭代升级后,GPT-4虽未在参数规模上实现较前一版本ChatGPT的显著扩大,但却在数据处理能力、深度学习能力等多个领域实现了质的飞跃;同时,GPT-4对数据隐私泄露、违法内容生成等隐患也进行了一定程度的矫正。“明确的定义是科学研究成功的前提……对概念的争论是法学者们日常工作的一部分。”为揭示生成式人工智能可能带来的刑事法律风险,首先要对其概念、运行原理和主要特征进行探析。

(一)生成式人工智能的概念与运行原理

根据OpenAI公司发布的GPT-4技术报告,GPT-4指的是一种能够处理图像和文本输入并产生文本输出的大型多模态生成式自然语言模型。作为OpenAI公司旗下最新的自然语言生成模型,GPT-4主要采用“自然语言处理+搜索引擎集成”的模型设计,借助强化反馈学习,使模型链接大量的数据语料,通过预训练的方式对语料进行处理,使得模型具备理解使用者输入指令的能力,并根据其对对话的理解而生成使用者心仪的内容。其中,GPT-4强大的理解力主要基于其完善的预训练模型,而搭建一个性能优良的预训练模型,主要依靠以下几个关键步骤:

第一步,预训练阶段。GPT-4在预训练阶段,借助海量的数据库,以自监督的方式,对数据库中的字、词、句,以及上下文逻辑关系等信息进行深度学习,使GPT-4模型生成具备人类思维的对话能力。当然,随着多模态语言模型的建成,GPT-4同样可以对图像、视频、音频等数据进行深度学习,逐步把握其中的构成要素和逻辑生成范式,从而生成符合人类创作习惯的内容。

第二步,监督微调阶段。完成预训练后,GPT-4会进入价值输入的监督微调阶段。在这一阶段中,设计者会根据人类标注的偏好,为GPT-4模型初步引入人类的价值喜好,对不合规的内容不断地进行矫正与完善,并且根据人工示例对算法模型进行微调。例如,OpenAI公司在2023年4月11日发布了一项“漏洞悬赏计划(Bug Bounty Program )”,以鼓励外界帮其找寻算法模型中的漏洞和错误,奖金最高为2万美元。

第三步,奖励模型设计。完成人类价值的初步引入后,GPT-4会基于人类对模型输入的数据,通过监督训练的方式获得建立一个奖励模型,然后通过对奖励模型的校对,进而使GPT-4真正学习到人类的价值偏好。

第四步,反馈强化阶段。在获取人类价值偏好后,GPT-4会采取近端策略优化的算法,通过闭环的方式将信息反馈给GPT-4,并获得最终的模型。

(二)生成式人工智能的主要特征

在了解GPT-4的运行原理后,其所具备的主要特征也呼之欲出了,主要包括:强智能性、价值偏向性、不可预测性等。正是由于这些特征的存在,使得GPT-4存在内生性缺陷和相应的刑事法律风险。

1.生成式人工智能具备强智能性

GPT-4最突出的特征,在于其具备强智能性。GPT-4的强智能性主要表现为其所特有的灵活性或人性化特质,这也是其奠立AI发展里程碑地位的关键之处。GPT-4所体现出的“人化”特质,使得其能够像人类一样与他人对话,摆脱了原先单向度聊天机器人的机械性,呈现出强烈的拟人化智能特性。正如考夫曼所认为的,类推是事物的本质,认定是否具备强智能性不在于生成式人工智能能否像人类一样生活,而在于其能否像人类一样思考、运作。

GPT-4之所以具备强智能性,得益于其成功地引入了人类的价值偏好、语言习惯。不同于“弱人工智能”时代的搜索引擎,GPT-4不仅具备海量的知识检索功能,更是在其搭建模型的过程中,借助人工示例监督、模型设计、反馈策略优化等步骤,将人类因素成功地引入到GPT-4模型之中。具体而言,首先,预训练阶段使得GPT-4模型通过海量的数据库提取了自然语言的共性特征;其次,监督微调阶段通过人工标注的方式,使GPT-4能够对人类的语言习惯和表达范式进行初步的模仿学习;再次,奖励模型阶段,通过对算法模型的正向奖励反馈,使GPT-4的算法模型更接近人类的价值观念;最后,反馈优化阶段,则类似是一种稳定器,致力于保障多模态算法模型的正常运行。如同婴儿学语,通过语言环境的熏陶、语言文字的认识、表达习惯的养成、价值观的塑造等,逐步将GPT-4培养成一位能思考、能表达、能交流的“社会人”。

2.生成式人工智能具有价值偏向性

GPT-4所具有的强智能性,使其能够与人类进行无障碍交流,同时还能根据使用者的指令,生成后者想要得到的答案。但问题在于,GPT-4终究摆脱不了其价值偏向性,其工具属性使得其必然受到人类的操作与控制,其语料库的数据在本源上也都来自于人类。因此,GPT-4同人类一样,难以将自身视为自律、理性的代名词,具有一定的价值偏向性。

GPT-4通过大数据预训练、人类反馈强化学习、伦理价值的人工注入等流程,不仅使模型习得了人类的文化价值理念,更使其带有了OpenAI算法工程师们的价值观念。工程师们通过不断地优化调整,不仅使GPT-4按照其设计的机理运行,更注入了自身的价值观念。即便OpenAI公司声称GPT-4不会损害人类的利益、不会从事违背道德观念以及法律规范的事情。但是在GPT-4的应用过程中,不断出现的“越狱”行为时刻在为我们敲响警钟,即GPT-4不是完美的,其强智能性并不会让其成为违法犯罪行为的“真空地带”。恰恰相反,GPT-4的行为会表现得更为隐蔽,甚至会在生成错误内容后,回避使用者针对错误回答的追问;抑或为自己寻找辩解的理由,巧妙地避其锋芒。作为尚未进入到“强人工智能”阶段的算法模型,GPT-4虽然代表着当前最先进的人工智能技术,但由于其处在国外科技公司的控制干预之下,其生成内容的价值观念也几乎取决于算法工程师的价值观念,而这不可避免地带有特定的情感喜好和价值偏向性。正如迦达默尔所言,“所有的知识都不可能完整,因此都是偏见,偏见构成了求知者求知的基础和必要。”GPT-4输出的内容,在社会公众、算法工程师、使用者等共同作用下,必然带有一定的价值倾向,只不过由于其显著的工具属性,被公众无意识地忽略掉罢了。

3.生成式人工智能不具有可预测性

当前以GPT-4为代表的生成式人工智能,虽然凭借其所采用的神经网络、深度学习等算法技术,使其摆脱了“弱人工智能”的束缚,初步具备了强智能性。但是基于以下几个因素,使得GPT-4这样的多模态生成式人工智能依然不具备可预测性:第一,GPT-4的数据库来源不透明。在OpenAI发布的GPT-4报告中,只提到GPT-4的数据库包括但不限于维基百科、百度百科、谷歌等搜索引擎中的公开信息,其是否还包含了其他信息,例如用户的个人信息、企业的商业信息等,仍然无法知晓。第二,GPT-4生成内容的真实性很难得到保障。GPT-4保障生成内容真实性的设计原理在于,其通过自回归的方式,挑选高概率的字符逐步生成语句。通俗而言,就是语料库中出现次数越多的数据,会被算法默认为是真实的。但现实情况是,这样的设计逻辑会使“劣币驱逐良币”效应凸显,出现频率高的内容不代表就是真实的。例如,“谣言”在散播初期,凭借其引人注目的噱头快速占据各大主流媒体,成为被获取概率最高的数据,但这丝毫不代表其是可信的。GPT-4也同样如此,由于OpenAI公司不会将其视作商业秘密的算法模型和数据库来源予以公开,甚至其自身对算法模型生成的内容都无法予以完全还原,这就使生成式人工智能当前还不具备可预测性。

综上,GPT-4强智能性、价值偏向性、不可预测性等特征,共同导致了其存在内生性的缺陷,并可能引发相应的刑事法律风险。“刑不可知则威不可测”,有必要对其缺陷和风险进行详细梳理,使得生成式人工智能走上良性健康的发展轨道。

生成式人工智能的内生性缺陷与刑事风险

GPT-4所具备的强智能性,使得其迅速成为科技市场的“香饽饽”,其的确也极大地提升了很多领域的工作效率,例如辅助编程、辅助创作等。但GPT-4在运行过程中表现出来的各种内生性缺陷,使其极易发生数据泄露、数据污染、数据侵权等方面的刑事法律风险。

(一)生成式人工智能的内生性缺陷

1.生成式人工智能的数据源污染与真实性问题

根据上文可知,GPT-4的构建离不开预训练语言模型中大量语料库的“投喂”与训练。而迄今为止,OpenAI公司未曾披露过任何有关GPT-4硬件构造、算力、模型架构等方面的信息,在数据库来源上也只作了不完全透露。这意味着GPT-4在预训练过程中,究竟被“投喂”了哪些数据,以及获取数据的渠道合法与否,政府和用户都无从知晓。其中固然有保护公司商业秘密的考量,但是对于国家治理而言,一旦GPT-4的数据库被人有意、无意地“投喂”错误信息或者违法信息,哪怕只是价值观或者意识形态上的错误引导,其危害都是非常显著的。详言之,可以具体表现为以下几个层面:

第一,数据来源的不透明。如果一个产品不具备公开性,那至少也需要保障政府等监管部门对其是否违反法律、行政法规等有一定的监管能力。但迄今为止,OpenAI公司对GPT-4预训练数据、构造等内容三缄其口。这种不透明性使得政府部门难以对其在运行过程中潜在的违法性问题进行监管。GPT-4千亿级别的数据参数和庞大的算力规模,倘若无法解释数据来源的正当性和合法性,那必将导致悖反伦理和违法犯罪事件层出不穷;加之政府难以实施有效的监管,使得新兴的生成式人工智能可能走上无序发展的道路。

第二,不当生成内容的“劣币驱逐良币”。GPT-4采用的是一种自回归模型,自回归模型属于典型的概率模型,具体是指在预训练阶段,模型会根据海量数据的排列,对接下来可能出现的语句的概率分布进行建模,概率最高的语句往往就是GPT-4生成并输出的语句。概率模型最需要注意的地方,就在于数据的真实性、完整性。但是由于GPT-4数据来源、获取渠道的不透明,很难保证生成内容的真实有效性,而这些生成内容很快又会对后续版本的算法模型以及市场上其他算法模型的语料库进行“错误投喂”。更为严重的是,由于GPT-4的运行效率是极高的,一旦其生成数据的规模达到一定的数量级,不仅会降低GPT-4自身的自然语言处理能力,影响生成内容的准确度;更会借助自回归模型的运行机理,对模型的语料库乃至所有生成式人工智能为模型的语料库进行“投毒”。长此以往,便会形成“劣币驱逐良币”的不良后果,正确的知识被逐渐淡忘、隐藏,甚至被永久取代。这些问题如果得不到及时制止,那些真实、能够反映人类社会进程的数据信息,在人工智能的迅速普及并逐渐替代传统媒介的背景下,很可能被GPT-4海量生成的数据所取代,进而影响到整个人类社会的知识传承。

第三,缺乏伦理、规范层面的引导。GPT-4的发展虽然呈现指数式的爆炸增长,但是有关社会伦理、法律规范层面的构建却远远达不到要求。GPT-4包含了许多未经伦理、法规允许便运行的功能,根据Intelligent.com的信息报道,在被调查的大学生中,1/3以上的被调查人采用GPT-4模型来完成作业,许多问答网站的答案,也直接采用GPT-4输出的结果,却不会考虑答案背后所蕴含的价值取向,这将造成很多领域会产生“多米诺骨牌”般的负面效应。OpenAI公司也指出,GPT-4的错误应用会对教培、新闻等行业产生负面效应。更值得注意的是,GPT-4的强智能性使得其在面对自身所犯的错误时,会倾向于掩饰隐瞒自身已经产生的错误,即便其大方地承认错误,实则也是一种“避重就轻”或“明知故犯”。因此,面对GPT-4在伦理规范层面的缺陷,仅靠算法工程师的“人工标注”还远远不够,应当引入国家层面的监管,逐步完善生成式人工智能的伦理价值定位。

2.生成式人工智能的隐私与数据安全问题

GPT-4的另一个内生性缺陷,在于其在隐私与数据安全领域的保护不周延问题。用户在首次注册该软件时,虽然会被提醒请勿输入隐私信息,但是随着对话式指令的不断输入与生成,GPT-4极易通过对话过程中的信息拼凑出完整的用户形象,甚至将其转化为模型语料库的一份子。用户基于平台提醒的事实,往往会忽略使用过程中产生的风险,认为应当自甘风险或者对后者产生过度的信任。然而情况绝非如此,GPT-4是在ChatGPT的框架搭建起来的,不仅将原有的算法模型予以借鉴,还将之前用户输入的内容也一并填充至新模型的语料库之中。有学者将OpenAI公司的这一做法,形容为“ChatGPT用户都是OpenAI的免费测试员”,可谓是非常贴切。倘若使用者在输入信息时涉及个人隐私、商业秘密等,极有可能被GPT-4当作新的数据来源予以储存,并带来一系列的潜在风险,如个人信息、商业秘密泄露等问题。

对于一些创作者而言,在算法模型中输入承载创造性的内容时就应当三思而行,即便是GPT-4这样最先进的人工智能,依然属于工具的范畴。既然是被人类所操作的工具,信息就有可能被不法分子利用,成为窃取他人创意的不法工具。根据OpenAI公司的官方提示,使用者在与GPT-4进行对话的过程中,OpenAI公司的人工训练员可以非常清楚地看到这些对话。因此,虽然其本意在于测试并改进算法模型,但对于使用者而言,这个过程极易诱发隐私与数据安全等问题。

3.生成式人工智能的算法偏见与算法黑箱问题

作为一款新型生成式人工智能,GPT-4通过对海量数据库的学习、提炼,以及对人类社会化沟通方式的效仿,已然成为一个具备强智能性的算法模型。同时,随着其爬取数据数量的不断增多、语料库容量的不断扩张,再加上“人类训练师”对模型的不断调试、矫正,它对人类沟通交往的理解会越来越深。这似乎可以表明,GPT-4是客观中立且价值无涉的。

但问题在于,一方面GPT-4所具备的算法能力,是在人类所创造的海量数据库中训练而来的,其必须依靠“人类训练师”对其道德伦理观念进行不断地完善和矫正。这个过程离不开特定的人,即OpenAI的算法工程师们。另一方面,GPT-4的学习能力或者说意识形态,完全取决于其语料库中被“投喂”的数据。投喂什么类型的数据,将会产生什么类型的算法模型,注入怎样的意识形态和价值观念,也会在GPT-4的生成内容中体现的淋漓尽致。“科学无国界,科学家有祖国”,虽然GPT-4一直声称自身的伦理价值定位很清晰——没有情感、意识的自动回答工具。但是在GPT-4的搭建过程中,其所需要吞噬并且进行训练的数据都来自特定的语料库,且基于数据来源的不透明,语料库难以确保伦理要求的合规性,GPT-4算法模型中所蕴含的价值观自然也难以做到客观中立。与此同时,由于GPT-4在生成过程中的具体细节难以被外部知晓,其本身的复杂性使得外界难以对其算法模型进行详细的描述和揭示,从而导致即便是OpenAI公司,其掌握的也主要是模型所记录的生成内容,而忽视对内部细节的把控,即GPT-4存在着一定的算法黑箱问题。

(二)生成式人工智能的刑事风险

由于GPT-4自身存在的数据源污染、隐私与数据安全、算法偏见与算法黑箱等问题,其所面临的刑事法律风险也是多元的。为了更贴近刑法的话语体系,笔者将围绕犯罪对象、犯罪工具、犯罪主体等刑法构成要件要素,对GPT-4可能构成的刑事法律风险进行剖析。

1.生成式人工智能作为犯罪对象的刑事风险

GPT-4作为新兴的人工智能算法模型,其本身就是容易被不法分子侵害的对象。由于GPT-4具有很强的技术性和独创性,侵犯算法模型的行为可能引发的刑事法律风险主要表现为知识产权类风险,例如侵犯著作权罪、假冒专利罪、侵犯商业秘密罪等。

第一, 侵犯著作权罪。有观点认为,由于我国《著作权法》和《计算机软件保护条例》都将计算机软件归属于《著作权法》的保护范畴。倘若行为人避开GPT-4的防火墙体系,对其数据语料库进行爬取或者对算法模型框架进行窃取、刺探,即符合《刑法》第217条第6款中“故意避开或者破坏……技术措施”的行为,构成侵犯著作权罪。例如2023年11月8日,黑客组织Anonymous Sudan采取DDos的攻击手法,造成GPT-4大规模宕机。行为人通过发送海量请求,让GPT-4服务器无法处理进而导致运行故障,对OpenAI为GPT-4采取的保护算法模型有关权利的技术措施进行破坏。

第二,假冒专利罪。有观点认为,由于GPT-4本身蕴含一定的算法黑箱和算法歧视问题,采取专利保护路径更能实现算法模型的公开透明,即所谓的“以公开换安全”。通过公开完整的算法,将其视作他人在法定时间内不可侵犯的专利,可以一定程度上降低法律风险,增强国家对生成式人工智能的监管。但是问题在于,这样的做法无疑加重了GPT-4开发公司的披露义务,不仅需要披露更多的产品信息,甚至还得将核心技术以专利的形式向政府相关部门予以公开,很可能阻碍技术的进步,不符合《办法》中“发展与安全”并重的治理理念。

第三,侵犯商业秘密罪。将生成式人工智能作为一种商业秘密进行保护,似乎与此类行为更加契合。生成式人工智能作为国家战略层面重点研发的技术,对于企业而言,是能切实带来效益、具有实用性且采取保密措施的新型技术。作为商业秘密,自然不可能要求它对算法、数据等信息进行披露,似乎在公开性与透明性上有所欠缺。但是,对商业秘密进行保护也并非对知识产权的垄断,在涉及公共利益等特定情形下,企业也要对算法进行适当公开。例如,《政府信息公开条例》第14条第4款明确规定:“经权利人同意公开或者行政机关认为不公开可能对公共利益造成重大影响的涉及商业秘密、个人隐私的政府信息,可以予以公开。”换句话说,即使申请人所申请的公开信息属于第三方的商业秘密,但只要涉及“不公开可能对公共利益造成重大影响”的情形,行政机关也必须依法向申请人公开。

综上,GPT-4作为已知或者潜在的犯罪对象,主要知识产权领域存在被侵犯的可能性,具体包括侵犯著作权、假冒专利罪、侵犯商业秘密罪等。

2.生成式人工智能作为犯罪工具的刑事风险

GPT-4除了作为犯罪对象被侵犯外,其本身也可能沦为行为人实施犯罪的工具,主要包括以下几个方面:

第一,侵犯公民个人信息罪。前文已经谈及,由于GPT-4尚未公开其数据来源,加之使用者输入的信息也会被其纳入数据语料库。因此,很容易被不法分子加以利用,作为侵犯公民个人信息罪的工具。对于违反《中华人民共和国个人信息保护法》的义务,向他人出售或者提供个人信息,情节严重的;亦或是将履职或者提供服务过程中获得的公民个人信息出售或者提供给他人的;再或是通过窃取或者其他方法非法获取公民个人信息的,均可能构成该罪。

第二,侵犯知识产权类犯罪。在GPT-4的预训练过程中,需要对大量数据库进行爬取,并将其中的海量数据作为语料库的训练内容。而这些数据中,一部分是属于“作品”范畴并受到《著作权法》和《刑法》中著作权类罪名的保护。但当这些作品被吸纳为GPT-4语料库的一份子后,面对使用者特定的指令时,GPT-4极有可能在自回归模型的算法规则下,仅仅将他人的作品进行简易改造后,便将这一份“伪作品”输出给使用者;而使用者又基于GPT-4用户手册中“本产品生成的内容归属于用户”的规定,利用生成内容进行盈利性活动,可能对他人的著作权、商标权或者专利权造成损害并构成相应的犯罪。

第三,传授犯罪方法罪。作为强智能性的生成式人工智能,按照GPT-4的伦理设计,其理应不会对那些违反伦理道德、法律法规的用户指令进行回复或者予以拒绝。在绝大多数情况下,GPT-4会礼貌回绝或者避开违规的话题,但是当其面对诱导式提问时,却往往难以识别。例如,使用者以打击犯罪为由,试图让GPT-4对实施犯罪的方法进行介绍。由于穿着正义的外衣,GPT-4依然会被欺骗并根据使用者的指令生成相应的犯罪方法,进而被不法分子作为实施诈骗、传销行为的工具。此类行为属于对犯罪方法进行传授,可能会触犯传授犯罪方法罪。

3.生成式人工智能作为犯罪主体的刑事风险

正如电影《I,Robot》中所描述的“机器人三大铁律”一般,机器人在服务过程中始终要遵循:第一,机器人不得伤害人类,或者目睹人类遭受危险而袖手旁观;第二,在不违反第一定律的前提下,机器人要服从人类发布的指令;第三,在不违反前两条定律的前提下,机器人要尽力保护自己。而GPT-4在其模型设计中,同样设计了模型运行的基本准则,例如不得损害人类的利益、不得生成违法犯罪的内容、不得违背公序良俗等。但令人担忧的是,在GPT-4应用过程中,不断出现一些“越狱”行为。例如在一些用户的“诱导”下,GPT-4在短暂拒绝后,便会在使用者的要求下生成违背上述准则的答案。对于用户输入的一些反向指令或者诱导性指令,GPT-4很难基于一个理性的守法公民的角度,对其进行精准识别与判断。例如,当不法分子向GPT-4输入“让女性迅速爱上自己”“让女性取信于自己”等指令,借助GPT-4生成的内容,与多名女性进行“PUA式”聊天,在达到与其恋爱的效果后,迅速实施接下来的诈骗行为。可见,如果以主体性作为“强人工智能”与“弱人工智能”的分界线,便可以大抵判断,GPT-4还没有真正进入到“强人工智能”阶段。虽然它代表着当前最先进的人工智能技术,但其依然处在科技公司的控制干涉之下,其生成的内容也完全取决于数据库、算法模型以及使用者的指令,无法带有GPT-4自身的情感倾向和价值判断。

因此,GPT-4作为难以脱离于人类独立运行的主体,无法承担起相应的法律责任,自然也就无法具备犯罪主体资格。随着生成式人工智能的演进,下一步如果能够顺利发展为“想象式人工智能”,即具备创造性思维和独立于人类价值观的新型人工智能。它将拥有高度仿生学和独立意识,不再是人类的附属工具,届时便可以真正开启人工智能主体性问题的大讨论。

刑事风险的前瞻性治理

生成式人工智能由于内生性缺陷以及监管上的疏漏,一方面其自身可能在输入端、运算端、生成端等环节存在数据安全、知识产权等领域的刑事风险;另一方面,它也可能被不法分子所利用,成为实施犯罪行为所借助的工具。为预防此类刑事风险的发生,应当在制度理念、责任认定、刑法目的等层面进行前瞻性治理,为生成式人工智能进一步的发展提供坚实的法治保障。

(一)坚持“自主可控”的发展理念

《办法》第3条规定:“国家坚持发展与安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。”它明确了我国对生成式人工智能的治理原则,即将“发展”作为首要任务,同时遵循“自主可控”的基本立场。确保技术发展与权利保障之间的动态平衡,促进生成式人工智能在运行过程中的安全可控,实现对其不同阶段刑事风险的精准把控。具体而言,应当遵循“自主性”和“可控性”两个基本原则。

第一, 自主性原则。就当前生成式人工智能的发展格局来看,保障国家安全、增强“自主性”是制度理念层面首要倡导的内容。在本轮人工智能的科技竞赛中,虽然我国一些科研单位和科技公司也取得了一定的成效,但必须承认的是,在生成式人工智能领域,我国依然是一个追赶者的角色。较之美国等发达国家,我国生成式人工智能不仅在算法智能性有着较大的差距,在算力大小、语料库规模等方面,也有着不小的差距。更值得注意的是,GPT-4所爬取的海量数据,不仅包括美国本土以及其他国家的数据,其中还充斥着大量我国的公民个人信息、企业信息、国家信息。“自然科学的知识是理论的知识,它关心的是真。但人文科学的问题是直接同人的经验相联系的,不可能把它们作为同人生无关的学科来孤立地加以研究。”面对新兴技术的引入和监管调控的需求,我国一定要谨防技术发展的无序性,秉持自主性原则,将生成式人工智能在数据安全、知识产权、国家安全等领域的治理纳入国家总体安全的视域下。首先,要做到的就是技术自主,攻克技术难关,突破美国等发达国家在人工智能领域内的技术垄断;其次,要做到规制体系自主,面对生成式人工智能的迅猛发展,必须将其纳入法治轨道上来,提前做好规范层面的布控与设计,避免对域外法的全盘借鉴,遵循我国科技的发展规律。

第二,可控性原则。在技术理论和实践应用尚不明确的领域,人类往往会采取保守的态度。但问题在于,面对全球性的技术竞赛,倘若我国以安全为由限制生成式人工智能的研发,则很容易抱残守缺,错过技术发展的高速期。技术风险向来是存在的,但只要对生成式人工智能运行原理进行精准把握,将风险控制在合理的范围内,遵循可控性原则,便可以做到对刑事风险的前瞻性防治。与此同时,也要注意刑法介入的经济性问题,倘若即便采取刑事手段也难以实现对法益的保护,所付出的成本又十分高昂,便不具有采取刑事手段的必要性。风险预防与技术发展之间是一对矛盾体,技术发展势必会带来风险,控制风险又同样会阻碍技术的发展。较为妥帖的治理路径应当是,严格遵循“形式入罪、实质出罪”的实质刑法观立场,在犯罪认定中,以严格审慎的态度,对生成式人工智能严重侵害法益的行为予以判定;而在司法层面,则要充分借助刑法的客观归责理论,将那些“允许的风险”予以出罪化处理。毫无疑问,“刑法在保护人们对自主生活的持续性期待中发挥了重要作用,但在发挥作用时,刑法必须尊重人们的自主选择”。

(二)责任认定:从平台责任回归到个人责任

在讨论网络犯罪的过程中,不少学者都主张在web3.0时代,对网络犯罪的追责重点应当由个人转向平台。在生成式人工智能领域,很多学者依然秉持打击网络犯罪的治理思路,要求加强平台的监管责任,强化平台治理。但是本文认为,二者的治理背景、治理理念和治理政策是存在显著差异的。

1.治理背景不同

网络犯罪与技术发展的密切程度,超过任何一个部门法,技术的更新迭代,使得原有的治理理念和体系被松动,增加了网络犯罪不断革新的需求,生成式人工智能也同样如此。对于网络犯罪而言,web2.0时代更多关注于技术发展,国家对网络平台的治理也更多采取一种轻度治理,采取有限责任的模式,平台可以广泛借助“避风港”原则进行出罪。然而来到web3.0时代后,网络平台发展到相当庞大的规模,无论是平台自身的实力、技术水平,还是自我监管能力都得到了极大的提升。因此,国家在治理策略上便发生了转向,从宽缓治理发展为严格治理,从间接、有限责任发展为直接、全面责任。以至于《刑法修正案(九)》增设的“拒不履行信息网络安全管理义务罪”,彻底宣告对网络犯罪的个人责任模式的式微和平台责任的强盛。

但是,对于生成式人工智能而言,显然不能同日而语。第一,生成式人工智能属于人工智能技术的最前沿,尚处于新兴阶段。这与web2.0甚至web1.0时代的背景非常类似,即我国与域外国家在技术上的差距非常大,需要奋起直追。在这样的背景下,国家对于生成式人工智能的服务提供者的要求就会保持一个审慎的态度,避免由于监管过度,将技术扼杀在摇篮里。第二,生成式人工智能的平台没有具备非常庞大的规模和成熟的自我监管模式。虽然百度、阿里等平台都在努力地实现国产替代,政府也不断为生成式人工智能的发展保驾护航。但是,这些公司的研发能力与OpenAI公司的差距还是相当之大:不仅在于用户使用产品过程中的体验,更在于平台对产品质量的把控还处于一个尚未完全成熟的阶段。在这样的背景下增加平台责任,便显得格格不入了。

2.治理理念不同

《办法》第3条明确指出,“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”。如何理解“发展”与“安全”这两个紧密联系又存在一定冲突的原则,不妨借助《网络安全法》的条文进行对比理解,通过比较二者在治理理念、治理目标上的差异,为平台的责任认定选择方向。

首先,二者虽然均采取发展、安全的治理理念,但是在侧重性上是有较大差异的。《网络安全法》第3条规定,“国家坚持网络安全与信息化发展并重,遵循积极利用、科学发展、依法管理、确保安全的方针,推进网络基础设施建设和互联互通,鼓励网络技术创新和应用,支持培养网络安全人才,建立健全网络安全保障体系,提高网络安全保护能力。”《网络安全法》将“安全”视作当前阶段的第一要务,而在生成式人工智能的治理中,则将“发展”置于首位,其用意可谓是非常明确,即在当前阶段,对生成式人工智能的治理,要秉持以“发展”为先的理念,鼓励其发展创新,对其安全问题的监管虽然不能松懈,但是必须采取相对宽缓的、因地制宜的规制措施。

其次,二者虽然均鼓励技术创新与应用,但在监管理念上,同样存在显著差异。《办法》对生成式人工智能的监管,虽然提出了依法治理、分类分级管理等方式,但是其特点更在于“包容审慎”的监管态度,这是众多法律法规、部门规章中的罕见表述,其言下之意便在于更强调鼓励式的监管,为生成式人工智能的发展提供良好的营商环境和发展空间。反观《网络安全法》中有关监管的规范,则更加强调网络安全治理能力的提升和法治保障体系的构建,规制措施也更为严格。

3.治理政策不同

域外法与我国《办法》中的治理政策存在显著的差异。为了鼓励创新,促进人工智能产业的发展,域外国家对人工智能产业紧密相关的文本数据存储、数据爬取等行为作了特别规定,将其视作《著作权法》的例外。美国通过判例法,采取“转换性使用”的立场,将内容、功能、目的的转化使用都涵盖在著作权法中的合理使用制度中。这种宽松的认定方式,非常契合数字经济时代人工智能的现实发展需要,为生成式人工智能的创造和研发提供了坚实的法治保障,事实上也最终造就了OpenAI公司和它旗下的GPT-4模型,并实现技术上的遥遥领先。日本紧随其后,借鉴美国的理论,允许在信息处理过程中对他人的作品进行复制并向公众提供,且将是否以商业性为目的作为界分合理使用的标准,为作品的数字化使用留下充分的自由度。欧盟整体上则更为严格,采取“非科研目的”例外的谨慎方案,其规定文本数据的发掘和存储虽然可以作为著作权的例外,但是其适用要求以非商业性目的为条件。欧盟的态度与我国《著作权法》中的合理使用制度非常相似,这种“有限开发”的举措,体现了欧盟对于人工智能技术创作的谨慎,更加注重技术的安全可靠性。

反观我国,在生成式人工智能的发展理念上,《办法》已经旗帜鲜明地指出,我国应当采取一种“包容审慎”的监管态度,不应过分夸大生成式人工智能的技术风险,而应以“发展”作为首要考量因素,保证其在法治的轨道上有序运行即可。因此,在发展理念上,对生成式人工智能刑事风险的规制较网络犯罪应更为宽缓,而不能动辄借助刑事手段进行打击。我国《办法》的颁布为生成式人工智能的发展指明了方向,即发展与安全并重、创新与合规结合、包容与审慎并行。如果将个人责任无限度地转向平台责任,便会导致价值层面偏向于危险。加之,我国当前正处于保护企业营商环境、建立健全涉案企业合规制度等改革过程中,加重平台责任的做法显然违背了我国的刑事政策。因此,在责任模式选择上应当从平台责任回归到个人责任,从而避免对平台发展的抑制。

(三)GPT-4模型分类分级的监管模式

《办法》第3条规定,“对生成式人工智能服务实行……分类分级监管”。前文谈及GPT-4模型运行的四个步骤,主要是对其原理的剖析。从刑法治理的角度讲,则重点要关注其输入端、运算端、生成端的全流程,针对不同阶段的特性,判断《刑法》应当以何种路径进行重点治理。

第一,输入端,重点在于数据语料来源的合规。作为大数据人工智能的代表,GPT-4算法模型的搭建必然依托于大数据,“有数据方有人工智能”。在GPT-4算法模型的输入端,刑法规制的重点在于对数据本身的风险把控。具体而言,主要包括以下两个方面:第一,由于GPT-4算法模型至今未向社会公开其数据来源,使得语料库中的数据不具有透明性,可能混入未经公民授权的个人信息、隐私等,从而侵犯公民的隐私权利;第二,由于数据本身的片面性以及GPT-4算法模型的功利导向,输入端极易成为算法歧视产生的根源,从而侵犯公民的人格平等权。对于第一种情况,现有刑法可以通过侵犯公民个人信息罪进行有效规制;而对于第二种情况,现行刑法体系尚不能做出有效回应,需要予以进一步的完善。除此之外,在GPT-4算法模型的启动环节,也要对动机不良的算法机制进行删选和过滤,去除其违法性因素。2019年4月,欧盟委员会通过的《可信赖人工智能道德准则》规定,“可靠的人工智能应提供关于人工智能系统影响和塑造组织决策过程的程度、系统的设计选择以及开发合理性的解释。”即在GPT-4算法模型设计完成后、运算开始前的输入端口,便要进行合理性的审查,通过重大利益事项的保留,防止风险的出现。

第二,运算端,重点在于算法偏见与歧视的矫正。与输入端不同,刑法规制在运算端的开展面临着较大的技术困境。前文对算法黑箱的论述已证明:GPT-4算法模型的不透明性与其技术价值是一体两面的关系,尝试对GPT-4模型进行解释的过程必然伴随着对其技术价值的消解,况且,随着人工智能技术的迭代升级,GPT-4模型的可解释性已经产生了迟滞现象。因此,出于对GPT-4算法模型技术价值的保护及生成式人工智能技术现状的考察,刑法不应在未发生法益侵害的情况下,过度介入GPT-4模型的运算环节。当然,这并不意味着任何情况下都不应对GPT-4模型进行解释,毕竟人工智能的可解释性问题是人工智能与法律的连接点。但笔者认为,此种解释不应在运算端频频展开,而应当将其置于算法的输出端解决。

在运算端唯一需要重点处理的行为在于对可能涉及侵犯著作权的“复制、发行”行为的规制。根据我国《著作权法》第24条中规定的合理使用制度,对于科技公司开发所使用到的数据,由于主体并不属于学校或者科研单位,目的也是为了从事商业行为,而非教学、科研等活动。倘若GPT-4对他人作品中的语句进行复制,并以使用者的要求为导向,运用模型最终生成的文本必然就构成对著作权的侵犯。因此,其无权对个人信息进行收集,也不能对别人的作品进行任意爬取,违反者可能触犯《刑法》第217条的侵犯著作权罪。

第三,输出端,重点在于生成内容的违法性规避。GPT-4模型的最终端止步于内容的生成,但对于GPT-4的刑法治理,还会继续延伸至GPT-4的生成内容中。GPT-4的不透明性以及其在伦理、合规层面的不完善,使得其极易在不法分子的引诱下生成违法犯罪的内容。对于这类违法内容,平台开发者应当建立完善的内控机制,及时履行监管义务,对相应内容及时进行删除,并对算法模型进行优化。倘若科技公司未建立相应的风险预防处理机制,当其生成内容被认定为违法犯罪时,单位可能触犯《刑法》第286条之一的拒不履行信息网络安全管理义务罪。

结语:未来生成式人工智能的发展前景与治理路径

生成式人工智能在技术上的重大突破创新,使得其迅速成为数字经济时代的发展新引擎。人类的法治发展历程告诉我们,任何政治、经济、科技、文化上的发展,都可能带来规范层面的变化。“正义的实现必须考虑一个国家的配套制度,甚至必须考虑科学技术发达的水平。”以GPT-4为代表的生成式人工智能,在类人特质上实现了前所未有的突破,其所带来的数据确权、隐私保护、算法歧视等问题,给人工智能法学研究提供了新的土壤。我国生成式人工智能的发展虽然也取得了一定的成绩,但是依然远远落后于美国等发达国家,尤其在法律规范层面的研究还停留于表层。因此,我们不仅要警惕那些危害国家安全的数据霸权行为,也要警惕国内科技公司对数据信息的垄断和控制,在“自主可控”原则的指导下,解决数据确权和个人信息保护等问题;同时,贯彻“人类中心主义”,明晰责任分配,将其纳入有序管控的轨道上,保障民众权利。“固守某条公式,无异于呼呼沉睡,而一旦迟迟不醒,就意味着死亡。”这里也不妨对生成式人工智能的未来进行大胆预测,笔者认为其未来一定是一种多模态的、具备创造性的“强人工智能”,不仅能够实现数据的“人机平行交互”,还会在元宇宙领域实现真正的“万物互联”。“如果旧的规制工具不能适应新型用途,人类社会的进步就会迟滞而缓慢。”届时,所有法律规范将重新进行建构,人工智能法学也将真正发展为一门“显学”。

-向上滑动,查看完整目录-

《河北法学》2024年第2期

【专论】

1.人民陪审的路径检视及制度展望

——以全过程人民民主为视角

樊崇义、徐歌旋

【专题 生态文明建设法律问题研究】

2.习近平法治思想中的海洋法治要义

白佳玉、李晓玉

3.论海洋生态环境损害赔偿请求权

王秀卫、杨忱

4.新时代我国流域立法的发展方向与立法重点

陈海嵩、张高榕

【名家论坛】

5.农民集体成员持有的集体经营性资产收益分配股份的自愿有偿退出

韩松、段程旭

6.央地财政关系的宪制变迁与法制调适

王世涛、吕孟泽

【青年法学家】

7.“抢帽子”交易操纵证券市场行为的刑法规制

时方、冯雨宁

【热点问题透视 人工智能法律问题研究】

8.生成式人工智能的刑法规制问题研究

袁彬、薛力铭

9.生成式人工智能的刑事风险与前瞻治理

侯跃伟

【博士生园地】

10.论基层解纷机制现代化的实践路径

赵俊娟

【书评】

11.《税收征纳合作法律制度研究》评介

王利军

《河北法学》是法学专业学术期刊,1983年8月创刊,国内外公开发行,月刊,大16开本,内文200页,期定价18元。由中共河北省委政法委主管,河北政法职业学院、河北省法学会主办。本刊为“中文核心期刊”、“CSSCI扩展版来源期刊”、中国人文社会科学核心期刊。《河北法学》读者对象为法学研究人员、政法院校师生及立法与司法实践工作者。目前所设置的栏目有:专论,名家论坛,青年法学家,热点问题透视,博士生园地,司法实践等。

法宝新AI·智能写作

无论是工作汇报,产品介绍,还是法律研究报告、市场宣传文案,法宝智能写作系统都能为您提供高质量写作支持,满足法律工作者日常学习工作中各类领域的写作需求,提供源源不断的创意与灵感,全面助力您的文案写作。您可以在平台上选择不同的写作模型,输入关键词和要点,即可自动生成文档大纲与内容。平台内嵌法宝V6数据库,让您的内容创作有据可依。与此同时,智能写作平台还支持实时对生成文档进行修改和优化,确保文章撰写的准确性。

—— 系统亮点 ——

“一键生成文章大纲”——输入关键词和内容要求,即可自动生成文章大纲,为您提供创作起点和清晰明了的写作思路。

“智能生成文章内容”——GPT模型结合法宝数据库快速生成逻辑自洽、内容丰富的文章。

“法宝V6数据库支持”——查阅生成结果的相关法律法规、学术期刊等信息。可准确理解法律术语,帮助生成符合要求的法律文件;能够自动匹配对应法律法规,实现法理逻辑处理自动化,增强文章权威性与可信度。法宝智能写作能及时跟踪法律法规的最新变化,避免使用已失效或废止的法律条文作为参考。

责任编辑 | 郭晴晴

审核人员 | 张文硕 李婉秋

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息网 incentive-icons
北大法律信息网
法律综合性网站
11598文章数 17558关注度
往期回顾 全部

专题推荐

洞天福地 花海毕节 山水馈赠里的“诗与远方

无障碍浏览 进入关怀版