作者 简 介:蔡志方,台湾成功大学法律学系教授。文章来源:《东南法学》(CSSCI集刊)第24辑,转自东南法学编辑部公号。注 释及参考文献已略,引用请以原文为准。
摘要
本文赓续个人于1998年8月发表之《行政自动化所衍生的法律问题》一文,配合当前相关科技之进步与运用,因E化政府实行行政自动化,特别是完全自动化,(可能)引发有关问题,参考最新之相关文献,与古为新,作更深入之探讨。本文除探讨行政自动化之概念与种类,对于何等公行政事务适宜采取自动化、行政自动化应具备何等前提要件、行政自动化之技术与法律要求进行探讨。另外,对于须经听证程序或提供当事人陈述意见始得作成之行政处分能否实行自动化,行政自动化下当事人之协力义务与公务人员之人力运用与调整,自动化行政处分意思之形成、表示与通知,自动化之会议出席人数,自动化设施故障与意思表示之错误如何处理,以及行政自动化衍生之行政救济与AI失控等问题,均配合最新法制与学说理论,重新进行思考与论述。
楔子
罗马法谚有云:“有社会,即有法律(Ubi societas,ibi jus)。”法律,作为社会规范之一种,常常后于社会问题之发生。法学,虽与法律常相左右,但于法学先进国家,法学理论常先于法律;而法学落后地区,法学则常常后于法律,甚至有法律而无法学。当然,法学理论既无法脱离社会现实,亦不能完全拘泥与迁就于现实,而应有所坚持——亦即择善固执。法学之任务,在于阐发法律制度之所由存在的根本法理与体系,不仅阐释现行法(lex lata)之意义为何,而且倡议当为之法律(lex ferenda)应如何。
“行政自动化”之法律问题,在法学界已非新颖的议题。早在1959—1960年,德国学者卡尔·翟德勒(Karl Zeidler)与佛郎茲·贝克(Franz Becker),即先后有初步之探讨,而尼可拉斯·卢曼(Niklas Luhmann)于1966年出版《法律与公行政之自动化》一书,则有更深入之分析。但是,“完全行政自动化”之法律问题,于近30年来,始随着相关科技之进步,而成为法学者热门探讨之议题,广泛与深入的探讨文献,可谓汗牛充栋。此外,“数字化”与“人工智能(智慧)”(AI)或知识智能于公行政领域之应用的法律问题,于最近更成为公法学界的“当红”议题。关于此等议题,诚如德国政策理论家尼可拉斯·卢曼所关心的,乃在于“我们欲经由自动化实现者到底为何?”(Was wollen wir eigentlich mit derAutomation erreichen ?):只是欲借由机械化,以减轻劳力(Entlastung von physischer Arbeit)?抑或减轻劳心(Entlastung von geistiger Arbeit)?究竟探讨此一议题时,最应关怀者为何?
1998年8月,余发表《行政自动化所衍生的法律问题》一文,在华人法学圈(Juristenkreise),似乎并未引发回响。洎至2016年后,此一主题始陆续引起海峡两岸法学者广泛的注意,相关论述,亦如雨后春笋。唯各家论述重点不一,益以相关科技勃兴、日新月异、运用日广,有关法制亦日趋复杂,且人民权利意识日炽,引发之法律问题亦日渐多元,而有进一步探讨之必要,爰与古为新、旧瓶新酒,此本文撰述之动机所在也 。
一、问题之提出
(一)E化政府
自20世纪90年代,各国政府开始广泛使用计算机、AI技术、机器人、电子设备与大数据于公共行政,而兴起所谓的“E化政府”(E-Government;E-Regierung)运动。数字化的“E化政府”,在2019年COVID-19疫情暴发期间,尤其发挥了相当大功能,避免了政府政务的停顿。“E化政府”主要表现于下述三个领域:①数字化通信或沟通(digitale Kommunikation),亦即政府机关为了与民众沟通,而利用网际网络(Internet)技术;②数字化提供服务(digitale Service-Leistungen);③数字化交易(数字交易)(digitale Transaktionen),亦即行政处分之自动化作成(automatisierter Erlass von Verwaltungsakten)。此等工作之完成,主要是透过机器产生,且(或)基于软件,而不必假手于人。基于法治国家原则,“E化政府”自亦应有相关之法律依据,毋庸赘言。
“E化政府”,除必须拥有E化之硬设备外,同时亦必须有相应之软件(Software)与熟悉E化、足以操控E化软硬件之专业人员,尤其是广大公务人员必须具备基本的E化知识、技能与遵从相关伦理规范之修为与态度,才能充分适应与发挥E化时代的使命。试问:我们的公务机关与人员,是否均已经充分整备否?是否对于E化可能衍生之法律问题,均已有所意识与具备克服之能力?
(二)E化社会
虽“E化政府”(E-Government;E-Regierung)已然成为时髦名称,标示着“进步的、科技化的政府”。但是,相对于政府组织,虽然民间企业使用“E化设施”较早,但是更广泛的民间社会,并未普遍使用“E化”于日常生活当中。因此,“E化社会”(E-Society;E-Gesellschaft)之称呼,似乎于近日始浮出台面!然而,随着2019年COVID-19疫情之袭卷全球,基于防疫需求(如居家隔离),普通百姓亦普遍借用E化设施与工具,进行原本的工作(所谓的“Home-Office”)与日常生活所需(例如:以E化工具购买物品、支付价金,以及诸如以FoodPanda、UberEat购买食物等),互联网与“物联网”一时蔚为风尚。最为明显者,乃一般大学甚至中小学改采“远距教学”、政府机关与私人机构会议改采“在线视频会议”……近4年来,“E化社会”似乎已经日渐成型,甚至有大幅取代“E化政府”之趋势。
面对来势汹汹的“E化时代”(E-Era;E-Zeitalter),既然“E化政府”已经成为无法回避之趋势,则必须相应配合“E化社会”人民是否已准备完妥,应作何等之身心整备,以迎战“E化时代”,已属重要课题 。
二、行政自动化之概念、种类与目的
E化政府之核心(法律)问题,厥为“行政自动化”(Automation of administration;Automation od. Automatisierung der Verwaltung)。其概念之界定、范围之厘清与目的之确立,应属本论文议题的先着,兹简述如下。
(一)行政自动化之概念
“行政自动化”(Automation of administration;Automation od. Automatisierung der Verwaltung),顾名思义,就是据以作成“公行政”决定之信息的搜集、整理与清算,以及相关决定之作成与对外表示,均委由机器或电子化设施为之,而不假手于公务机关之人员亲力亲为(manuell)。至于免除人力之比重为何,则属于“行政自动化”之程度问题(另详下述)。至于其可能性(Möglichkeit)与适合与否(Geeignetheit)的问题,则涉及政策之取舍、正面与负面价值之评估、科技能力与民众之接受度等问题(另详下述)。
人工智能,并不等同于自动化。自动化过去意味着必须编写非常具体的规则,让机器或软件执行非常具体的任务。人工智能,在更抽象的层面上,实现自动化:它定义效率标准与各种行动框架,并根据情况执行更有效的行动。此种级别的复杂性与抽象性,属于一个巨大的里程碑,它允许将自动化嵌入任何存在流程的地方。所有可以在流程中映像的问题都可以(部分)自动化。
(二)行政自动化之种类
行政自动化之分类,可从不同观点进行。以下仅从自动化之广度或程度,而为区分。
1. 部分自动化行政
本文之所以不称“半自动化行政”,而称“部分自动化行政”(Teilautomation der Verwaltung),其原因在于行政之自动化程度,甚难以数量上严格之半数判断,犹如“半自动步枪”“半自动驾驶”然。因此,凡行政之“自动化”尚未达到后述的“全自动化”者,均得(应)以“部分自动化行政”(Teilautomation der Verwaltung)称之。
当今之各国公行政,虽有部分采取所谓之“全自动化行政”(另详下述),但总体上言之,仅属于“部分自动化行政”,而尚未见有“空无一人”、唯独“机器人”当家之公务机关者。在各国法制上,所称之“部分自动化行政”(Teilautomation der Verwaltung),应该是指特定种类之公行政决定,仅有部分不假借人工,而以机器或电子化设施独立完成者。当前最盛行者,应系“助理系统”(Assistenzsysteme)。德国学者布劳恩·宾德(Braun Binder)亦指出,如果谓“自动作成之行政处分,仅存在于其结果不受人的控制”,则该国行政程序法第35a条所称之“自动作成之行政处分”,其实不过为“部分自动作成之行政处分”而已!因此,该国早有学者指出,完全自动化与部分自动化,其界限存在混淆,不宜使用。
2. 完全自动化行政
当今各国所称之“完全自动化行政”(Vollautomation der Verwaltung),仅系指特定种类之公行政决定,“绝大部分”不假借人工,而以机器或电子化设施独立完成,而非谓从自动化设施之设置、程序软件之撰写、信息之数字化与相关决定之事实根据,均不必假手于自然人。因此,在行政法学上之“完全自动化行政”(Vollautomation der Verwaltung),应指在自动化设施、程序软件、数字化信息与相关事实、法律构成要件与明确之法效果等“既有设备”(vollendete Vorgaben)下,由自动化机器自主完成整理、运算与产出者。但于法律有特别规定时,关于“意思表示之确认”,始由公务人员为之。至于“公行政”如何“超自动化”(Hyperautomation),以因应特殊时期之需要,则系另一问题。
根据学者分析与预测,自动化之进程有四:①从流程模型到应用系统(Von Prozessmodell zum Anwendungssystem);②流程挖掘(Process Mining);③运营绩效支持(Operational Performance Support);④机器人程序自动化(Robotic Process Automation,RPA)。当前最具全自动行政特质与历史者,当指交通号志之自动变换与指挥交通。唯当前各国交通号志之自动变换与指挥交通,因欠缺装设路况拥挤度之侦测,以得以弹性调整号志时间差,常常导致车辆拥挤之一方反而必须等待交通量稀少甚至空无一人之另一方,而有造成“人性尊严”受损之情形。
(三)行政自动化之目的
行政自动化之目的,不仅在于追求经济(Wirtschaftlichkeit)(减少人力与物力之成本)、迅速(Beschleunigkeit)、让人员减少烦琐的例行性、耗体力之工作,个人工作流程更有条理(einzelne Arbeitsablauf stärker durchorganisiert wird),以享有更多发挥智慧之机会,而且在于追求相关事务(特别是与金钱有关者)之安全(Sicherheit)与保密要求,追求集中化(Zentralisierung),方便文档(Dokumentation)之建立(避免重复)、运用与管理,尤其是跨区域传送与使用(如车籍数据、医疗记录等),犯罪预防与传染病防治,甚至是进行统计与分析等,避免监督或监视(Aufsicht)系统的叠床架屋。最后,于相关之决定,经由人类与机器的合作,将可摆脱一些纯人为或人情因素的羁绊与困扰 。
三、适宜自动化之行政事务
究竟公行政事项,何者适宜(geeignet)以自动化方法为之[如何识别公行政的决定是否适宜采取自动化,德国学者阿利安尼·贝尔格(Ariane Berger)分别从以下标准出发:①自动化潜能分类(Klassifizierung nach Automationspontenzial),即复杂的行政决定、具有复杂决策标准之行政决定、具有较高实际成分(环境因素)之行政决定或具有较少实际成分(具有明确数字或意义)之行政决定(Verwaltungsentscheidungen mit geringem Realanteil);②对人类监管机构之要求(Erfordernis einer menschlichen Kontrollinstanz)(特别是涉及利害关系人之权利、自由与利益之维护)],并非单纯之价值性判断或政策性决定问题,而尚及于技术可能性、经济性(成本与效益关系)与法律容许性等要求。[波普·维欧利诺(Bob Violino)则指陈使用机器人程序自动化(RPA)之不同利弊。在好处方面:RPA可以带来更好的业务成果,例如,使用RPA通常可以提高工作流程效率并降低劳动力成本。执行数据输入等一系列日常任务的软件机器人,可以减少公司员工数量,并简化任务完成。在许多情况下,使用RPA的公司正在对目前从事平凡和乏味任务的员工进行再培训,使其在更具活力和创新的领域工作。RPA可用于开发新产品或改善客户体验,可以给公司带来巨大的附加价值。RPA平台可减少或消除手动数据输入带来的人为错误风险,可节省时间和劳动力,不再需要纠正手动错误,并且可以避免由此产生的问题。减少或消除错误可以提高数据质量,是大数据分析、商业智能(BI)和人工智能(AI)等计划成功的关键因素。RPA还可以扩大可收集的数据量,提高数据质量。RPA可以提供更快的服务,提升客户满意度和支持等。机器人工作速度比人类快得多,并且不需要休息,而这是缩短处理时间、提高成功率的关键因素。RPA机器人接管人类工人以前执行的一些日常任务,可以减轻工人的工作量;反过来又可以提高员工满意度。在大多数情况下,技术人员能够减少数据输入或将信息从一个系统复制到另一个系统等烦琐任务上的时间,他们会在工作中感到更快乐、更有动力,而更快乐的员工队伍意味着更少的员工流失。人们对自己的工作感到满意时,更有可能留在自己的工作岗位上。积极的结果是:公司不必不断寻找、雇用和培训新员工。自动化减少工作量,可以减少公司的人员配置需求,降低人员成本。如公司需要雇用员工,对熟练专业人员的吸引力会增加,因为自动化的使用只需要人类来执行更艰巨的任务。RPA的其他潜在好处包括数据安全、隐私和监管合规性。当机器处理数据输入等流程时,医疗记录或信用卡信息等敏感数据不太可能公开,将降低公司面临合规问题的可能性。最后,RPA还使组织可以更轻松地运行详细的审计追踪,防止出现与欺诈或其他事件相关的问题。在缺点方面:RPA可能会导致失业。尽管公司将员工转移到更有趣、更有活力的工作空间,并让他们摆脱数据输入等无聊事务,但员工仍然有可能无法完成更具挑战性的任务,从而导致失业。当公司试图削减劳动力成本并解雇大量工人时,声誉可能会受损。另一个缺点是RPA实施可能会失败。该技术仍然相对较新,到目前为止仅在少数组织中进行了测试。每当公司使用自动化工具时,事情也可能会出错。手动流程可能是劳动密集型且缓慢的,但它们是最佳实践,有时需要多年。另一点是不能总是调控机器人的灵活性。应用程序和流程必须稳定,RPA才能发挥最佳功能。事实上,如果接口、数据或其他输入发生变化,该技术可能无法发挥作用。该技术的另一个潜在缺点是经济结果不确定。虽然RPA可以节省成本、减少错误并提高效率,但不能保证一切都会按计划进行。]
(一)大量行政程序与行政 处分
基于“经济性”(Wirtschaftlichkeit)要求,适合以自动化处理之行政事务,通常应属于“大量行政程序”(Massenverwaltungsverfahren)与“大量行政处分”(Massenverwaltungsakt)。再者,大量同类型之行政事务,由人为之,自容易疲乏、欠缺效率,且容易出错,故适宜采取自动化处理。当然,在时间与成本费用之节省方面,亦更具备优势。因此,诸如社会年金给付行政事项,即相当适合采取全面自动化,甚至有学者指出,当今就诸如年金或保险给付、各种税务与规费之计算与收取等大量事件,如未采取自动化,则人力根本无法负荷。
我国台湾地区“行政程序法”第九十七条第三款规定:“书面之行政处分有下列各款情形之一者,得不记明理由:三、大量作成之同种类行政处分或以自动机器作成之行政处分依其状况无须说明理由者。”虽然将得以自动化作成之处分,并不限于以大量作成之同种类行政处分,然而,在行政自动化之领域,基于“经济性”之要求,通常以自动机器作成之行政处分,亦属于大量作成之同种类行政处分。
(二)类型化与经常性行政程序
好的分类模型,系每一步均能够让下一步之“混杂度”或“模糊度”变得最小,而“清晰度”提升,自然亦易于认定与处理。
在AI的机器学习上,虽然有符号学派、贝叶斯学派(概率说学派)、类推学派(默知识学习学派)、链接学派(暗知识学习学派)与进化学派,但其共通点,乃在于根据既有之信息,建立预测模型,反复调整参数,拟合既有数据,建立预测模型,以预测未来之新事件。其各自之先验世界有所不同,但寻找出路与结果,则属共同。因此,适宜采取自动化之行政事项,必须是能够类型化(Categorization;Kategorisierung),且具经常性(Oftlichkeit)之行政程序。因为上述大量程序,必然具有经常性,因此同一类型的巨量化(海量化)、经常性行政程序,就最受自动化设施之青睐,需求度亦最高。
(三)与巨额数字或金额有关之行政决定
数字或与金钱有关之数额,属于数学语言,具有决定之明确性。因此,即使金额无比庞大或复杂,AI也均能在极短时间内计算出,此非属于自然人之公务员所可比拟的。因此,在各国与金钱有关之税务行政、社会福利给付等,在本质上,即甚为适合采取AI等电子计算器运算,并做出决定。诸如税务决定,学者指出其属于非真正之大量程序(unechtes Massverfahren),即使存在裁量或不确定概念之法律规定,亦非不得采取自动化方式,德国租税通则之规定,即为适例。不过,基于在奥地利相关实务上,仍存在约17%之错误率,而须以诸如联邦服务债务追讨系统(Centrelink debt recovery system)之风险管制平台控管之,则值得注意。
我国台湾地区近年为因应此一要求与发展趋势,遂于“税捐稽征法”第十一条第二项规定:“1.依本法或税法规定应办理之事项及应提出之文件,得以电磁纪录或电子传输方式办理或提出;其实施办法,由‘财政部’订之……”台湾财政行政部门据此而于2000年7月20日制颁“电子税务实施办法”。
(四)无须个案裁量与判断之行政事件
通常无须逐案审查、判断于决定之行政事件,最适宜采取自动化。唯如法律虽原本赋予行政机关裁量权,但于特殊情况下,当其收缩至零(Reduzierung od. Schrumpfung auf Null)时,是否又例外容许采取自动化方式,作成行政处分,则不无疑义。德国有学者主张,裁量收缩至零,导致决定仅有一种属于合法。因此,从实体上观察,乃与羁束处分有关,而规范应从目的性限缩(teleologische Reduktion der Norm),于原则上应被肯定。然而,较为中肯之看法,乃完全之自动化,必须是基于行政规则(Verwaltungsvorschriften)或可一般化之原因(generalisierbare Gründen)而产生者。反之,因个案特殊特征所生的收缩,通过算法来评估和确定,似乎并不可能,至少在技术上也仅是暂时性的,而不适宜采取自动化。
另一方面,在相反的方向上,被讨论的问题,乃排除在德国联邦行政程序法第35a条的措辞之外?尽管非于行使自由裁量权时所作出,但对不确定法律概念之解释与适用,此类决定是否也应排除在完全自动化之外。此种理解的支持者认为,排除官方自由裁量权的动机,并不是司法控制密度的降低,而是不确定法律概念的复杂性。再者,关键不在于具判断余地之规定,而在于众多规范之构成要件系由无判断余地之不确定法律概念塑造。较受该国学者所肯定者,在于诸如该国租税通则(AO)第155条第4项与社会法典第十编(SGB X)第31a条之平行性规定所示,只要无动机让公务员处理个案,即容许全自动化(Dort werden Vollautomatisierungen zulassen,soweit kein Anlass dazu besteht,den Einzellfall durch Amtsträger zubearbeiten)。
(五)排除人情压力与干涉之事件
以“冷冰冰”之自动化机器,取代充满情绪、情欲之自然人公务员(公务员或许有例外),是否即能如同传说中之“包青天”般铁面无私辨忠奸,而使法律规定之“回避制度”无所作用,而成为“死法”(totes Recht),甚至真正臻于“依法行政”,而非“依人意行政”?
AI机器人能否感知“情绪”(Emotion),是否具有“感情”(Gefühl),向为学者所争论。由罗宾·麦克劳林·威廉姆斯(Robin McLaurim Williams)主演的《变人》(Bicentennial Man)一片中之机器人“安德鲁”,显然就拥有自己的“情绪”与对感情的追求!如果将来AI机器人,也会拥有与人类一样的“情绪”与“感情”,则于公务系统欲利用AI机器人,以排除人情压力与干涉,恐亦将希望落空!不过,截至当前为止,似乎尚无相关讯息揭发,但恐仍不应完全排除之!
四、行政自动化之前提要件
行政自动化之运用,必须具备软件与硬件设施,以及正确、有效操控该等设施之知识(智能),甚至具有高度使用与配合之意愿等等。以下逐项说明之。
(一)技术与知识及诱因问题
虽然AI技术日益加强,且具有“极高速”运算能力的“量子计算机”(Quanten-Computer),亦已经少量问世,自动化之前景似乎一片美好,然而,此等技术之提升与新设施产品之问世,无一不仰赖人类知识之高度提升。因此,有学者提出”超级思维”(Superminds)之概念,期待让人类与计算机一起思考,而创造出惊人之力量与成果。甚至谷歌工程总监、著名未来学家和发明家雷·库兹韦尔(Ray Kurzweil)设想了一个让计算机与人脑更加合作的未来。他预言人脑很快就会与计算网络融合,形成混合的人工智能,“到2030年代,我们将直接从新皮质连接到云端”。
但是在每一个科技的时代,也总是由人类的知识决定技术;技术能否安全与有效地运用,以及技术能否进一步发展,都无一不取决于人类的知识与智能。以法学为例,自然科学中的认知神经科学(Cognitive Neuroscience),因人类具备将跨领域之邻接学科整合,而得以进一步发现法学之新认识、新体验与新应用。
新设施的有效利用,必须要有足够的诱因。立法机关应为在线服务优惠使用,制定有针对性的激励措施,例如:通过优先快速处理在线申请与相应的服务承诺,或通过虚拟批准在线申请,以降低收费成本。在线特权,类似于在“程序的渠道”引发了平等法下的紧张局势。因为更高的成本或更长的处理时间,主要体现在老年人与受过较少正规教育的人身上,他们处理在线服务的技能往往有限,或者因网络连接较差,而无法获得最佳访问在线服务的人。然而,此种“不平等待遇”在宪法上仍属合理:处理顺序与行政流程的成本,可能与其所付出的努力相关。因此,将较高的管理费用转嫁给申请人亦属合法。至于个别情况下出现的不便,可以通过个别申请豁免与困难条款避免之。
(二)基础设施之投资
要有效达成(完全的)行政自动化,必须有良好、可靠的基础设施。不仅要建设(设置)、操作、维修与更新,且须与时俱进替换更先进之设施,而相关技术之配合亦属不可或缺之项目。凡此,均需要投入大量物力与人力,且属于必须赓续为之的大投资。当然,投资初期必须投入一笔可观之金钱,虽嗣后会减少一些人力成本,但投资额亦将甚为可观。
在协调链的末端,亦应有一个跨级别的门户网络,让公众能够统一上网访问所有的行政服务。在德国,作为中央身份识别组件与新身份证的eID相关联的服务账户,对公民和公司开放将发挥重大作用。2016年10月,作为各邦财政均衡妥协的一部分,德国联邦政府从各邦手中取得统一管理门户的关键,各邦亦承诺未来将通过中央公民门户网络,提供在线服务。基于此一共识,德国新的基本法第91c条第5项,将授予联邦政府专属立法权,只需联邦参议院同意,以统一规范联邦与各邦政府的行政服务。基于“全面资信技术化”,即使非执行联邦法律之领域,联邦政府亦得在此基础上,制定对各邦具有约束力之规范,以规范信息技术进入各邦之行政流程。基本法修正案希望在一定程度上克服数字联邦“碎片化”的问题,并保证各行政级别之间的无缝沟通,作为数字化的联邦门户网络统一授权号码115似乎已经铺好。通过联邦政府的技术基础设施,进入德国电子政务的中央入口(入口并不视为提供行政服务的平台,相反地,它仅限于提供对各个联邦级别的管理门户的查访。因此,每一服务门户,均应充当网络中的联络点,一如服务指令下的单一联络人,而将公民引导至负责法律实体上互相操作之平台。此并包括用户账户的统一身份管理,公民能在所有联邦级别门户网站上识别自己身份,并且提供官方决策之电子邮箱。为确保链接管理门户网站内容之充足,《在线访问法草案》(Onlinezugangsgesetz-E)第1条第1项规定联邦政府与各邦有义务于五年内通过管理门户网站,以电子方式提供适当的管理服务。因此,修宪立法机关应要求联邦、各邦以电子方式提供自己的行政服务,并将市政服务纳入门户网站。
数字化要“寻找”进入国家与公民沟通的方式,不仅需要政府提供强有力的提议,而且首先需要接受它的公民,犹如无足够乘客,则“E化政府号”邮轮就不启航。如公民不愿意“登船”,则“登船证”与使用“登船证”的激励措施,就至关重要。进入数字管理世界(尤其是公民账户)的门票,是电子身份识别,其具有鼓励公民使用E化政务服务的基本作用。德国自从推出新身份证(nPA)以来,就有了电子身份识别选项,其完全可替代仿真身份证。然而,几乎无公民使用。因为只有约4%的德国互联网用户使用具有所有功能的新身份证:一方面,激活电子身份证(eID)的功能;另一方面,同时使用所需的读取设备。事实上,越来越少的公民决定启用身份证的eID功能。因许多人发现购买读卡器与安装“身份证应用程序”软件所付出的努力与其所实现的附加价值,并不成比例。
如上所述,新设施的有效利用,必须有足够的诱因。在德国,有一种方法可以打破数字身份证使用率低与缺乏吸引力的恶性循环:立法机关可以强制激活电子身份证(eID)功能,以扭转原规则所产生的意外关系。合法激活eID功能,对于基本权利而言,并非不敏感,因为它干扰公民的一般人格权。唯只要eID功能使用数据保存基本设置,并保证高水平的信息技术(IT)安全性,特别是确保加密数据传输与多因素身份验证,激活作为标准模式,以实现高效与全面的管理服务的良好目标(至少也有可能在合理的个别情况下关闭该功能),则属合理。公民通过eID功能使用之前,不稳定的行政服务事务,当然应先获得显著改善。为降低使用门坎,也建议免费赠送新身份证的读取器。更理想情况下,ID应用程序应该完全无需读取器。基于奥地利模型使用手机签名,智能手机足以使用数字身份,应属合适。如此,通向流动政府的道路就将一劳永逸地铺平。
(三)网络联机之问题
首先 ,在机关与民众的关系方面,数字化国家不同目标彼此间难免存在紧张关系。特别是“用户友善性”(Nutzerfreundlichkeit)与“信息技术安全性”(IT-Sicherheit)概念,常常具有相互对立性。在实际运用上,用户身份之验证程序,常常很难既方便又安全。使用双因素身份验证,固然会提高系统安全性,但同时也伴随着复杂化:需要额外的读取(卡)器,用户常常会忘记密码,而通过电子邮件取得忘记的密码,此种方法固然方便,却又形成安全漏洞。对“用户友善性”与“信息技术安全性”之间的目标冲突,以复杂的注册过程、冗长的安全检查与分散的责任,破坏了用户友善性,从而损害电子申请处理的效率增值。
其次 ,表现为机关间之合作问题。德国学者马力欧·玛替尼(MarioMartini)即指出,在争夺最佳数字国家结构的竞赛中,德国因联邦制的摩擦,即其本质的一部分为权限分散,而非仅仅遵循效率之指导方针,而造成重大损失。联邦制的缺点包括孤立的解决方案、自主参与者与角色所形成的相关利己主义。详言之,联邦、邦与下级地方政府,在很大程度上依靠自己建立了数字结构,而缺乏集中与统一的力量,导致产生诸多虽具善意的重大异类结构,但并不协调的独特项目,而此等异类结构组件无法形成共同的推力。其表现为孤立的平台、不同的标准与不兼容的软件解决方案,此乃缺乏协调之结果。即使是信息技术(IT)规划委员会也尚未完全成功发挥整合效应,永久克服联邦合作的低效率问题。联邦与邦层面的资信技术、中央协调机构系以与整个联邦制德国相同方式呈现,就像一场烹饪秀,17位星级厨师(德国有17个邦)试图提供包含17种不同食谱的通用菜单。
联邦制之多样性、权力下放与系统间竞争理念,与资信技术系统之典型特征——标准化与统一化需求,并不兼容。基于耗时的协调与小规模结构化之功能体系,根本跟不上数字创新之速度,在由时间与空间界定之数字宇宙中,机关当局与必须执行之行政任务,在空间与物理上之接近性即失去其重要性。于此等结构框架条件下,联邦制无法充分发挥其优势。该国所需要者,乃一种跨联邦疆界的有效跨部门合作文化、一项明智的“德国电子政务协议”,以启动通用之数字基础设施,包括放弃不兼容的背离公共信息技术(IT)系统一致标准化与互操作性,以及“无缝接轨”的决策与控制结构等善意,且追求实际可行的合作。
(四)数字化伦理规范问题
关于行政自动化之前提要件中数字化伦理规范问题,其至关重要。首先,AI技术之使用本身即涉及伦理与政策之问题。 前者 ,涉及技术专家之好坏(gut/richtig)价值判断,纯属技术问题(Expertise)与发现或发明(Entdeckung)之问题。而后者,涉及政治家的资源配额(Kontigent)是否足够、是否正当(Legitimation)、在法律上能否正当化(Rechtsfertigung)等问题。
其次 ,德国学者瓦特·耶林涅克(Walter Jellineck)曾谓:“法律,是最低度之道德。”在德国虽已经有《在线访查法》(Onlinezugangsgesetz)制颁,但是在线伦理问题,仍不可忽视。自2008年起担任布赖斯高—上黑森林(Breisgau-Hochschwarzwald)区行政长官,2011年起担任国家监管委员会(NKR)成员之多罗铁阿·史多尔—黎特(Dorothea Störr-Ritter),即语重心长地指出:“政府中的数字伦理”此一话题,尚未进入政府本身,亦未进入社会与中央控制之政治话语中。数字化、行政程序自动化的一个关键方面,是在行政和社会中建立相应的接受度。利益冲突和道德利益冲突,可以预见,不应该只在自动化流程上线时讨论与消除!作为联邦与邦一级发展的一部分,现在必须集中讨论并决定全自动行政程序的道德限制问题,而不能拖到明天。完全自动化行政程序通常被称为“公共管理中人工智能(AI)的初级阶段”。人工智能支持的系统,已经能够取代人类技能和工作方法。当一个系统执行直到最近我们认为是只能由具有适当知识、培训和技能的管理人员执行的工作时,数字道德主题就变得重要了。在人工智能支持下,目前终于可以使用“新冠热线助理”(CovBot)以缓解德国卫生当局所受之压力。它无需等待即可处理呼叫者的疑虑,并确定正确的信息与对话伙伴。另一个例子,乃是如无数字诊断与远程医疗,未来将不再可能为民众提供高质量的基本医疗服务,不仅只限于农村地区。在儿童保护程序中,在人工智能帮助下,危险与风险评估可能比以前更安全。例如:是否有可能并且可以想象,消防问题可以通过机器比人类更精确且更具成本效益地解决?但我们真的想要如此吗?我们能否在道德上对此负责?对隐私与基本权利之侵犯,属于“预先编程的”,此必须及时讨论。
关于人工智能(智慧)之使用可能引发之问题,除了法律问题外,伦理问题根据瑞士学术团体研究,包括七项原则:
其一 ,避免伤害原则(Grundsatz der Schadensvermeidung)或“不造成伤害”原则。民用人工智能系统设计,不得伤害或欺骗人类,并且应以尽量减少负面结果之方式实施。避免损害与促进安全、可持续性及建立一般性技术,与制度保护措施有关,通常被称为“信任元素”或“可信技术”。避免损害尚包括预防与控制风险,通常需要确保系统可靠,且可预测。危害预防,尚包括确保广泛环境与社会可持续性。此外,还可以考虑基于可靠技术的社会技术系统之可持续性,包括确保网络安全,保护信息之机密性、完整性与可用性。
其二 ,正义与公平原则(Grundsatz der Gerechtigkeit und Fairness),即正义与公平之道德目标,包括维护道德价值观的六个维度。即:第一,防止不公平歧视与不合理偏见。适用于数据处理的不同要素,应使用公平公正的数据集(数据公平性);模型架构中应包含适当的功能、流程和分析结构(设计公平性);防止系统产生歧视性影响(结果公平性);系统应公正地实施(实施公平性)。任何生成算法的有效机器学习技术,通常都会学会识别代理。因此,所有基于从人类数据中进行统计学习的技术之算法推论,在偏见和间接歧视方面都可能存在道德问题。此外,当算法影响政治与商业竞争时,结果与应用的公平性维度,就显得尤为重要。第二,公平的要求超越伦理,包括合法性,以确保算法不违反包括法定权利在内的现有法律。第三,尊重所有权利,包括人权与人格权。第四,体现平等、包容与团结的价值观。第五,在可以证明侵权的情况下,包括赔偿与补救措施。第六,存在程序合规问题。人工智能系统根据新数据不断更新其模型,以更好地实现其编程目标。但持续更新模型之副作用为当模型更新之前或之后处理相同的输入时,可能会出现相同输入产生不同结果的情况。此意味着具有相同特征(输入)的两人,可能会收到不同的决策(输出),具体取决于算法处理个人数据之时间(模型更新之前或之后)。
其三 ,自治原则(Grundsatz der Autonomie),即促进自主权,意味着个人可以对自己的生活做出自己的决定,而非由他人强加或操纵。不充分之信息或欺骗之决定,不被视为自主的。人类自治之目标,主要与透明度的程序要求有关。透明度意味着提供足够的信息,并避免使人们受算法的交互欺骗,从而允许自主决策。在日常数字生活中,最著名的实施决策自主,涉及个人数据。自治之另一面向,是“挑战与改变不公平、偏见或歧视性制度的能力”,公民只有在“收到有关影响其生活的技术、算法与人工智能系统的可理解和准确信息”时,才拥有这种能力。自我挑战本身可以作为人类自主的一个要素,也可以被视为算法控制的一种形式与促进课责制的一种方式。自治的又一面向,是选择要使用的数字服务或完全避免使用它们的可能性。自治亦具有集体层面,即是公民作为小区集体决定其集体命运的能力。集体自治维度,并未在人工智能政策中广泛使用,但对于智能城市等公共数字基础设施,似乎极为重要。尊重基本权利的道德义务,隐含地促进自治,因为通常尊重人权并在民主国家受到宪法保护之权利,保护了人类自治。例如,言论或宗教自由等消极权利,保护政治领域以及个人和集体表达意见的个人自主权;医疗保健和教育权等积极权利,通过确保个人拥有独立生活所需的资源来保护自主权。因此,社会可持续的人工智能,可以促进自主性。最后,AI伦理中的自治可以指AI系统“在用户控制之下”的思想。此意味着算法应该用来支持人类决策,而不是完全取代它。此最有可能被理解为“限制性原则”。自动化应增加而不是减少自主性。因“自动化”日常任务,有助于为人类释放更多时间和资源,以使其从事智力挑战、创造性或情感回报的任务。自主性问题源于人工智能系统,该系统旨在使认知要求更高的人类活动实现自动化,人类从机器那里接受命令,而不是向机器下达命令。因此,在所有人工智能系统旨在取代人类判断的自动化项目中,以及在彼等不清楚用户是否充分理解人工智能决策以支持其自主性,而不是用人工智能系统取代其“自动化”的情形中,自治作为一种道德价值可能仍会受到威胁。当公众依赖完全拥有且与第三方隔离的基础设施时,他们可能会失去控制权,从而失去对其流程与决策的自主权,此对于公共部门人工智能系统而言,似乎相当重要。
其四, 慈善原则(Grundsatz der Benefizienz)。慈善可谓为人工智能政策中最不普遍的道德核心原则。对善行关注不够之另一可能原因,系大多数处理人工智能系统的参与者,均认为人工智能系统可以带来若干好处。效率经常被认为系使用人工智能的一个原因:可使用更少的资源,向相同数量的人提供相同的服务,或者可改进现有服务(例如,提供更准确的结果或添加额外的功能)。然而,使用人工智能系统行善的能力,在道德上至关重要!因对人工智能系统的道德使用之指导,可能过于关注预防危害,而甚少关注创造利益。于多数情况下,此种指导方针往往会公开反对引入人工智能系统,因创新本身就存在风险。忘记创新的潜在好处,就无理由去冒任何风险。极端规避风险总不如管理与创新相关的风险。人工智能系统用于自动化流程时,有提高人类自主性之潜力,从而释放人力资源,以便更好地用于其他地方。所幸一些针对公共部门的政策,指出了创新的好处,至少隐含地提到了仁慈。例如:“人工智能系统必须为人们带来超过成本的效益——产生净效益。”此指导方针含蓄地提到效益,将促进人类福祉作为此类创新的首要目标。下文之透明度原则,亦隐含地提到净效益概念。
其五 ,控制原理(Grundsatz der Kontrolle),即控制的程序性要求,来自行动类型,而不是行动目标政策的分析。控制涉及透明度与课责制所需的联合活动。人们不能对不知之过程或结果保持透明,而积极性、前瞻性意义上之责任,涉及控制过程,以使之产生预期结果控制,包括为所有与目标相关之活动带来稳健性所需的所有活动:从实现人工智能系统的用户预期目标,到确保其他道德目标(如无伤害、公平与自主)亦得到促进。控制在道德上属于中立地位,因其道德价值纯粹是工具性的与不确定的。没有控制的良好意图,可能无法实现所期望的好处,甚至可能无意中产生害处。控制是一种多功能工具,因此成为人工智能系统道德准则中最常见的程序要求。第一,控制包括过程与结果的记录,以及提供内容数据的记录、审计和监控。第二,控制涉及测量、收集、评估与定义所有人工智能相关流程与结果之标准及政策。它包括审查制定有意义的标准和措施所需的内容。理解人工智能系统,需要解释系统如何工作。评估人工智能系统,不仅需要证明开发决策的合理性,且还需在不可避免的错误、偏见以及与其他道德目标的权衡情况下为之。第三,审查包括确保对过程和结果的调查合理、完整,且不排除相关观点所需之社会活动,包括培训和提高内部专业知识、同行评审,甚至员工多样性等活动,以及用于提高组织对人工智能系统对社会影响的理解,公开辩论的透明度等活动。第四,控制包括风险缓解措施,例如创建备份和应急计划、遏制和断开链接、阻止和暂停流程、实现人为干预、预测和预防风险、禁止有害或有风险的做法、质疑流程和纠正错误。第五,与公共部门人工智能系统的部署特别相关,涉及对知道、拥有和有效控制关键基础设施之人的控制——例如数据资产和机器学习算法,对从数据中学习以及进一步开发、塑造和控制已部署的人工智能至关重要。撰写透明度报告,甚至主要不是为了外部控制和验证,最重要的是要求政府承担结构清晰、有针对性的记录、测量和评估任务。风险信号数量越多,控制人工智能系统所需之文件和透明度要求,以及管理工作就越长、越结构化。控制旨在作为风险应对清单,而不是风险评估。
其六, 透明度原则(Grundsatz der Transparenz)。透明度被理解为面向设计或实施人工智能解决方案之机构外部各方,包括审计师、外部专家、记者、政治家、其他管理领域之负责人以及公众。为何从道德角度观察透明度具有重要价值,至少有四种主要理论。第一,“阳光是最好的消毒剂”,透明度可以促进课责制,从而至少可以防止最严重之不道德行为发生。第二,透明度被认为有助于提高技术质量,因其允许专家意见和相关公民反馈,从而更好地审查技术,并使其更值得信赖。第三,有人认为透明度使技术最终用户或可能受其影响之人,能就是否使用该技术做出明智的决定。第四,认为透明度允许对技术解决方案的民主合法性进行必要的公开辩论,当技术实施非价值中立时,此点尤其重要。透明度此四种作用,都反映在所审查的政策中,且通常有助于增强对技术的信任。课责理论可能并非在所有情况下都有效,只有在因某种原因引起公众关注的情况下才有效。透明度是人工智能道德准则中被引用最多的原则。
最后 ,课责制原则(Grundsatz der Rechenschaftspflicht)。课责制,包括旨在促进责任分配与识别的行动、决策、框架和组织结构。只有人类才能承担责任,而人工智能系统则不能。应负责任行为者,应对其行为负责并受到制裁。因此,促进课责即等于能够确定谁对何事负责,以及谁应该因不道德或非法结果而受到制裁——不仅在法律上,而且在组织上或通过声誉损害方面 。
五、行政自动化之技术与法律要求
行政欲实行自动化,必须同时具备技术的成熟性(technische Reifheit)与相关法律的容许性(rechtliche Zulässigkeit)要求。以下分别探讨之。
(一)行政自动化之技术要求
公行政欲以自动化为之,首先必须在技术上可行。如技术上不可行,则其他一切将流于纸上谈兵。以下简述行政自动化之基本技术要求。
1. 行政信息之数字化与人工智能
(1)运算方法
“算法”(Algorithmen),是自动化过程的基础。算法过程,不仅可以处理大量数据,还可以处理非结构化数据(包括电子邮件、Office数据、所有可能格式化的PDF档中尚未以结构化形式存储之数据);此种复杂性与抽象性,允许将自动化嵌入任何存在流程之处。所有可以在流程中映像之问题,都可以(部分)自动化。在人工智能中,更复杂的自动化过程的设计程序特征,不仅为算法的设计,而且系过程之设计。首先,人工或模拟过程中要自动化部分,必须被形式化。然后,必须制定在上下文中作为解决方案或相关操作出现的数学规则,亦即算法,并且必须在软件中定义与实现应非正式控制此过程之数据类型。然后是机器训练阶段,该软件会生成统计评估,而非必须由人类解释并整合至整个决策过程中之结果。最后,必须考虑反馈过程的设计,对评估结果进行再评估,然后重新调整软件。此等步骤由不同专业人士负责,且每个步骤都需要人类解释或社会概念(效率、最优或平等之意义、过去行为是否为预测未来行为的良好依据?推荐模型是否基于相似配置文件间之相似处或差异处?)。
“万物皆数?”究竟宇宙万物是否均得以“数字”来计算、运算或描述?在国家与社会之事务上,是否一切亦均可以计算,而采取数字化并利用AI进行自动化计算?诚如罗伯特·卡哇斯基(Robert Kowalski)于1979年所提出之方程式:算法 = 逻辑 + 控制(Algorithm = Logic + Control)。亦即算法,可以被视为由逻辑组件与控制组件所组成,逻辑组件指定解决问题时使用之知识,控制组件确定使用该知识的问题解决策略。逻辑组件决定算法的含义,而控制组件仅影响算法的效率。算法的效率,通常可以通过改进控制组件,而不改变算法的逻辑来提高。如果计算器程序的逻辑与控制方面,在程序文本中被识别与分离,则它们通常会更正确,更容易改进和修改。在行政自动化中,大数据之运算,具有关键性之地位。在AI与数字的运用上,运算方法不仅决定其速度,亦决定其精确性。随着量子计算机(Quanten-computer)的诞生,过去需要数十年的运算时间者,将来仅需数秒(弹指之间)!
AI所使用之“运算方法”或“算法”(Algorithmen),不仅影响其指令周期,也左右其正确性与合理性。AI的运算逻辑,与人类的运算思维不尽相同,不管是透过人工的“加注”(Marking),还是让机器在众多数据中不断”尝试错误”(try errors)而获得“深度学习”(Deep-Learning)。
自动化依赖计算机的程序,而计算机程序又依靠“运算方法”。传统上,诉诸完全的、精确的与最终的行为指示,以达致逐步解决问题之方法。在当前之公行政自动化上,仍局限于具备清晰、单一、明确规则之程序的运算,亦即当“……时,则……”关系(wenn Dann Beziehungen)之模式。随着人工智能(智慧)之进展,多元神经网络之建立、量子计算机之普及,将强化甚至突破传统AI之运算方法。
人工智能(Artificial Intelligence,AI;Künstliche Inteligenz,KI)最基本的形式,就是会作出自主决策的系统;其执行的任务,就是复制或模仿人类智慧之行为——运用策略实现目标。AI人工智能的学习包含机器学习,即从历史数据中,学到如何处理新数据,并解决问题,或根据已知预测未来。机器学习,属于 AI人工智能之一部分,而深度学习系借众多神经元组成多层网络,发现与记忆数据之相关性,并进行思考,其得以自动进行“特征工程”(feature engineering),并寻找出比人类定义之衍生变量更好、预测力更强之特征。但属于“非结构化”及“非序列数据”,其“特征工程”越不易达成,却越适宜由深度学习为之。凡是知识描述越少者,数据与运算就越多,让AI人工智能为之决策,更为精准。深度学习,需要更多之数据、更多的运算量与相对复杂的模型,而此亦让AI之深度学习成果越可靠。
根据学者阿明·P. 巴特(Armin P. Barth)的说法,算法是“根据精确定义的步骤运行的自动化程序,从而实现特定的目标”。因此,算法可以被理解为支持问题解决的正式法规或”游戏规则”。对于法律讨论,算法可以教条地分为两组:一组是确定的算法(determinierte Algorithmen),即“经典”算法完全基于编程时已考虑到的统计假设。因此,程序员(程序编写员)必须预测可能的影响因素,并检查其有效性。该算法是独立的,且逻辑上是可理解的,它只执行强加于它的规则。他只能考虑程序员在创建模型时的预期。因此,最终算法只是分析模型的可能描述,这意味着可能没有预期到更好的解决方案。另一组是不确定算法(indeterminierte Algorithmen),即自学习算法(机器学习算法),在讨论中通常被称为人工智能(AI)。然而,人工智能的概念最初是模糊的。该术语于20世纪50年代创造,最初旨在代表所有人类智力和心理能力,都可以转移到机器上的论点。如今,人工智能概念以强人工智能论和弱人工智能论为代表。强人工智能论文,大多坚持广泛的原始论文,而弱人工智能论文指出,至少可以通过机器自我优化来映射人类个体的思维过程。人工智能通常等同于机器学习。这是人工智能系统的一项基本能力,使它们能够独立地获取联系和关系。与基于理论的方法相比,机器学习算法最初以大量数据(大数据)为条件进行自我优化,以便将数据集相互组合起来进行链接。该算法还尝试在部署阶段通过自我优化来改进自身,这意味着对编程期间未考虑的问题的更好解决方案,将纳入算法的决策中。然而,这里存在一个风险,即算法将开发出不再可理解的学习模式。尽管仍然可以记录单个决策,但通常不再可能找出算法如何得出此决策。
不过,关于“算法”,当今仍存在若干误解。学者指出, 首先 ,第1个误解是“拟人化”(Anthropomorphisierung)问题:技术自动化过程以数学模型为基础,数学模型根据数据库与一组命令规则计算概率,并根据概率执行活动。因此,此等技术执行人类作出的先验决策,并默认事实的“可数据性”。在执行方面,此等系统优化其结果的选项数量有限。在系统与数据设计,以及人们对数据的选择中,决策首先是抽象的,一般是预先作出的。毕竟,执行始终是执行者作出之决定的表达。因此,在自动化过程的背景下,使用了拟人化语义(机器学习、人工智能、自治系统),但这会导致对自动化系统功能的错误假设。不管是人工智能、机器学习、人工神经网络、深度学习等等,此等模型皆无模仿人类之思维或学习,而是自动化的,但非自主的,因为机器并无自由意志,亦无意图。然而,自治或自决,乃理性地追求自己利益和意图的自由意志之表现。诸如人工神经网络之类的所谓人工智能形式,可能具有生物模型,但它们更多属于统计回归模型的概括。因此,学习算法是算法“数据越多,概率参数越准确”原则的委婉说法。所谓“学习算法”只能理解为使复杂的统计模型适应海量数据的过程。算法可以比人类更好地识别细粒度的物体。通过在人类分类的大量数字图像上,训练复杂的算法,正如回归模型可以根据教育、社会联系和邻居等因素来估计个人的收入,而无需了解此等概念。所谓的“人工智能”,系基于统计推理、统计结论从许多个别案例归纳到一般情况的概括。因此,它不能实现百分之百的绝对安全可靠。此种方法专业上称为“归纳法”。在此情况下使用“逻辑”一词很早就受到批评。因为在归纳过程中使用“逻辑”一词,背离了对逻辑的基本理解。因为逻辑的基本概念是真理。归纳推理不存在确定性,归纳逻辑的基本概念不可能是真理,而是概率。因此,归纳结论不是严格意义上的逻辑结论,而是概率结论。人世中有许多行动只能通过情境化与“演绎”行动才能发挥作用。说话、评估、逻辑地设身处地为他人着想、解释或理解,此等类型的活动需要“情境化能力”。换言之,学习与理解,不能通过机器技术实现自动化。
其次 ,第2个误解乃是“黑匣子模拟”(Die Blackbox-Analogie):基于政治与法律目的之解释,与对技术过程之科学解释,具有不同的功能。算法的各个计算不能总是被重建,也只能进行合理性检查。该过程本身可以通过输入 / 输出分析来理解。此乃经济学中一种古老的、众所周知的、广为接受的市场分析方法。对构成解释的规范过于关注数据处理的技术细节,却很少关注社会互动与影响。然而,后者则相当可测量和可理解。为能理解计算中的扭曲,它们也更加必要。开发团队设计的软件功能与最终用户对同一软件的使用间经常存在严重差异。此表明重要的,并非统计中固有的某些偏差与困境的正式数学相关性,而系使用该软件时产生的“社会相关性”(die soziale Relevanz)。通过自动化流程与人工决策相比,记录谁更改系统中内容,以及何时更改要容易、其一致性(Konsistenz)亦比人类更好,因为机器不受天气、饥饿或其他情绪方面等外部因素的影响。一致性问题尤为重要,不仅从经济角度看,且从道德角度观察,缺乏一致性也会产生某些影响。例如,德国联邦就业局的员工,根据天气情况对两份类似的失业救济申请做出不同的决定,或者管理人员在餐前和餐后,对两个相同的问题进行不同的评估,在经济上是低效或不公平的。在创建一致性时,算法过程可以在适当环境中增加价值,例如,根据定义的参数或在控制领域准备标准决策,能为更好地理解和解释人类行为提供帮助。算法是人类对世界的看法和概念以形式化语言的表述。因此,算法语言并不比人们交流的传统语言更中立。算法过程受到参与其设计过程的人员影响,此等人类影响肯定会充满偏见。另外,在20世纪50年代的研究已经证实,简单算法方法的预测,在许多领域经常击败人类专家的预测。甚为吊诡者,乃“算法”似乎不仅是偏见的根源,也是使人类判断摆脱偏见的工具。
最后 ,第3个误解乃是“算法的相关性与基础设施特征”(Der relationale,infrastrukturelle Charakter von Algorithmen):“算法”不了解“个体”。“算法”将人们(个体)组合成有意义的群体,如此个人的身份就不再具重要性。尽管个性化被用户视为一种非常个性化体验,但从技术上言,个性化意味着将此人分类为具有相似配置文件和兴趣的非常特定之群体。有关人员不一定清楚它是一个精心设计的集体算法任务的一部分。由于对各个群体进行此种分配和管理,有偏见的算法过程可能会使某些集体的状况变得更糟,却不能检测到任何个人损害。反之,民主国家只根据法律教条了解个人,它们保障个人的基本权利,且仅在个别法律领域才体现歧视的集体主义维度。将来使用更复杂的算法时,此种现象将更频繁地出现在所有领域,将使得证明个人损害变得更加困难。不同集体间之差异,只能从架构的角度识别。此种歧视并非特殊部门所独有,且此等技术将部署于所有部门,新技术将使开放的法律差距变得更加明显。算法,通过数学标准化技术流程与法规,实现流程自动化,正在以前不曾考虑的基础设施之领域,创建一种新形式的基础设施。我们可以将谷歌(Google)视为信息基础设施,或者将脸书(Facebook)视为社交基础设施等等。它们建立社交点或信息网络。就规范而言,将出现完全不同的问题,例如,面对发生灾难或危机时的供应安全问题,将开辟处理人工智能驱动平台的有趣新方法。
(2)行政信息之数字化工程
如何将与公行政有关之信息,均转换为AI等自动化机器所能理解(解读)与作出快速、正确之响应的“数字”(Digital),即成为最关键与最耗时的工程,犹如商品如何分类,以臻于标准化,而能进行自动化处理。对于计算机化时代之后所建立之信息,均属于数字化信息,自然不成问题。但对于之前的长时间内,以人工撰写之书面或绘制的图表,如何将其数字化,却并非一日一夕间一蹴可就者。将我们过去所测绘与制作之地籍数据与人口数据数字化,耗费庞大的人力与物力一点,即不难想象!当然,在公行政领域,如何将现有之行政信息转换为自动化AI所能正确辨识的信息,并有助于自动化工作,即成为重中之重的要项!尤其是语音识别方面,更是当前节省工作负担、增进效力之重点。当然,欲使行政数字化更具实效,在德国即推出诸如数字化邮件(De-Mail)、E化政府法律(E-Government Gesetz)、电子身份证(eID)与在线查访法(Onlinezugangsgesetz),而欧盟则于2016年7月通过“内部市场电子交易的电子识别和信任服务“(eIDAS-Verordnung),以实现为跨疆域的人民服务之目的。
在行政数字化之巨大工程中,“人”(Mensch),毕竟是最根本之因素,而必须被列为首要考虑因素。因此,瑞士伯尔尼大学的“公共管理人力中心”(Kompetenzzentrum Public Management;KPM),即曾以此进行广泛与深入之研究。
(3)人工智能与自然人智能之离合问题
“科技,始终来自人性”,由人类所研发与制造出来的科技产品,不仅始终隐藏着发明人的人性,更与使用人的人性常常合二为一,而不管这些人性是光明的,或者是黑暗的!炸药的发明与(尖端)武器的使用,就彰显了上述那句话的深层哲理!“诺贝尔奖”之所以创设,正反映了诺贝尔先生的复杂心情与无限的感慨吧!
人工智能的创设与自然人智慧之间的“离合”问题,常常也困扰与考验着我们!AI人工智能(智慧),如何为法律人所熟悉,并充分善用,固然是一项问题。但是,智能与智慧间,毕竟仍存在差距!科技性的思维与哲学性的思维,毕竟仍存有落差。如何调适与沟通,让两者不会成为行政自动化的最大障碍,应值得探讨行政自动化之法律问题时纳入思考,并寻求其中庸之道。基本原则,应该是“人工智能为人而存在,而不是人为人工智能而存在”!在追求完全的行政自动化旅程上,人性尊严绝对不要被忽略(忽视),人的价值也不要被物化、金钱数字化!
2. 行政自动化程序之设计
自从计算器或计算机被设计与生产以来,其驱动与运算之程序(Programs),亦即软件,其重要性并不亚于机器硬件本身。尤其是在行政自动化方面,因为公行政种类、目的与支配性价值的多元,其处理与决定又必须“依法行政”,所以,相关程序之设计,较诸其他商务与自然科学所需之数字处理,就显得更为复杂与棘手!行政自动化所需之各种不同程序,其所涉及之法律容许度与质量,自为相关程序设计时所不可忽略者。
当前之AI技术,涉及需要裁量或价值判断之公行政事项,能否胜任,似乎仍属问题。或许未来随着科技发展,具有高度人文素养的AI出现,将可以克服目前的困境,则诸如德国联邦行政程序法第35a条的规定,将被废止或修正,应属指日可待。
3. 网络联机与统一数字平台:空间条件问题
在全国性行政自动化与经济性、便利性及迅速性等要求下,网络联机之具备,乃不可或缺之项目。此从全球开放性网络与内国之全国性网络的畅通无阻,即不难见其端倪。如果因电力中断或网络故障,则行政自动化自亦失去作用。
另外,一国的行政自动化平台或闸门(Portal),如果欠缺统一化(非数量的单一化),则形同”铁道车不同轨”,转换费时,甚至彼此倾轧,自将无法达成快速化要求。因此,在追求行政自动化之时,统一的数字平台自应具备。不管是由“中央”设置一个足以联系该国各行政部门的AI运算中心与大数据储存所,或者是建立一个为各级机关的自动化设施所兼容之体系,自属刻不容缓!
4. 风险管理体系的内部审查与外部审查
科技为人类带来福祉——迅速、经济、便利等等,但同时也为人类带来苦恼——新专业的诞生逼走旧行业、空气的污染、能源的短缺、不具新科技素养的人群被边缘化等,但更为严重者,乃是对新科技所带来的不确定性风险的恐惧。如何克服因新科技之发展而可能带来之风险,向为公法学者所关注。
任何新科技的诞生,总会带来可能发生却未必一定发生的各种不确定性风险,造成机关内部与人民之不同危险。行政自动化广泛搜集公、私信息,利用AI与各种开放或不开放网络联机,当然也会造成公家机构与人民生活权益的不同风险,例如:黑客入侵,复制(携走)大量不宜开放之信息;窜改信息;人民或公务员误植信息;将“信息主体”张冠李戴;信息未适时更新或新旧杂陈;信息滥用;等等。行政机关如何建立具有完善性之内部与外部审查的风险管理体系,尤其是AI能否以最快速、最精确之方式,自动勾稽大数据的风险管理体系,以及专业人员定期或不定期巡查相关运作软件与硬件之正常,均应属行政自动化之重要事项。
德国之风险管理系统(RMS)最初来自私营部门,用于尽早识别与避免操作风险。在财务管理中使用RMS时,主要系参考该国租税通则(AO)第88条第5项规定之RMS(规定内容,详下述)。在评估过程中完全自动检查税务问题,然后创建自动税务评估,无需人工干预。它不再是控制私营部门的风险管理系统,而是更多地关注风险过滤器,根据事实审查的合理性和深度进行估计,并自动评估没有问题的“常规案例”。
以税务领域采取纳税义务人在线申报与自动化处理为例,可能会存在申报人短报、漏报或虚报之“情况风险”。因此,在具有期限限制之自动化处理的申报事项,德国租税通则(AO)第109条第4项乃规定:“提交纳税申报表之截止日期与金融机构设定之截止日期,只有在使用自动风险管理系统根据第88条第5项规定,检查截止日期延长情况下,才能自动延长,并且无理由让公务员为个别处理。”
上述租税通则第88条第5项还规定:“税务机关得使用自动化系统(风险管理系统)评估是否需要进一步调查与审计,以一致且合法地确定税收与税收抵免,以及税收减免与预付款之抵扣。行政管理并应考虑经济效益原则。风险管理体系至少应满足以下要求:①确保随机选择足够数量之案件供官员全面审查;②公职人员对确定需要审查的事实进行审查;③确保公职人员能够选择案件进行全面审查;④定期审查风险管理系统,以确保其实现目标。风险管理系统之细节不得公开,因公开可能会危及税收之规律性与合法性。在邦税务机关代表联邦政府管理之税收领域,各邦最高税务机关应与联邦税务部门达成协议,确定风险管理系统之细节,以确保全国范围内统一执行税法。”
德国租税通则第88条第5项第1句规定,允许使用自动化风险管理系统评估是否进一步调查与审计之必要性,以实现统一与合法的税收评估,而根据同项第2句规定,行政部门的经济效益原则,亦必须考虑。同条第1项规定之职权调查原则所规定者,并非根据职权采取人工确定事实,而是结合自动风险分析、人类管理经验与随机原则,检查纳税申报表,使用算法查明异常情况,并从大量提交之声明中过滤掉需要检查之案例。通过此种方式,自动识别欺诈与滥用案件,以及由于其复杂性而需要更详细地由人员进行调查之案件。如风险管理系统不整理个别检查之纳税申报表,而是确定其“吞吐量”(Durchlauf),则可以完全自动确定税款。因此,可以未经公职人员检查发布税务评估。与税务评估相关之行政处分的更正、撤销、废止和修改,也可以实现自动化。但其最低要求,乃自动检查纳税申报表之风险,在于不可预见之情况或纳税人提供不正确信息,将导致非法评估发生。税收合法性与统一性原则,要求抵消此种风险,即必须限制算法之使用。因此,根据同条第5项第3句之规定,德国之风险管理体系必须满足以下最低要求:①必须进行人工随机检查;②需要检查之案件必须进行人工检查;③官员有权选择个别案件进行全面审查;④应定期检查风险管理系统之目标完成情况。此外,同项第4句亦规定,禁止公布风险管理系统之详细信息,否则,可能危及税收的统一性与合法性原则。其目的在于防止个别纳税人将其申报行为与风险参数保持一致。
(二)行政自动化之法律要求
德国于2016年增订联邦行政程序法第35a条,规定行政自动化之法律要件:积极方面,包括为法规所允许(Zulassung durch Rechtsvorschrift);消极方面,包括无裁量余地(keine Ermessensspielraum)与无判断余地(keine Beurteilungsspielraum)。
1. 法律保留
由于行政自动化影响人民之权益甚巨,基于民主原则(Demokratieprinzip)与重要性理论(Wesentlichkeitstheorie),各国学者均主张采取应受“法律保留”(Vorbehalt des Gesetzes)原则之支配。唯所谓“法律保留”,并不限于仅能以形式意义之法律(Gesetz im formellen Sinne)为规定,也包括实质意义之法律(Gesetz im materiellen Sinne),亦即基于法律明文授权之法规命令、自治条例或规章等均可,但排除行政规则(Verwaltungsvorschriften)。
(1)行政程序法之规定与功能设定及适用范围
我国台湾地区“地区行政程序法”第九十六条第一项第四款后段但书规定:“行政处分以书面为之者,应记载下列事项:四、处分机关及其首长署名、盖章,该机关有代理人或受任人者,须同时于其下签名。但以自动机器作成之大量行政处分,得不经署名,以盖章为之。”第九十七条第三款规定:“书面之行政处分有下列各款情形之一者,得不记明理由:……三、大量作成之同种类行政处分或以自动机器作成之行政处分依其状况无须说明理由者。”根据立法理由与立法目的,尚非一般性、无限制性授权一切行政事项,均得以自动化方式作成。因此,上述规定虽无类似德国联邦行政程序法第35a条之规定,即“凡法律允许,且无裁量或判断余地之情况下,行政处分得以完全通过自动方式作成”,采取“法规保留”(Rechtssatzvorbehalt),但解释上,应属相同。
究竟我国台湾地区“行政程序法”第九十六条第一项第四款与第九十七条第三款规定,能否如同德国联邦行政程序法第35a条规定般,作为公行政部门信息处理的法律,似不无疑问。
(2)个别法律之规定
准上,我国台湾地区历来有多种法律明文规定“自动化”措施,例如:“关税法”第十条第二项规定:“海关得依货物通关自动化实施情形,要求经营报关、运输、承揽、仓储、货柜集散站及其他与通关有关业务之业者,以计算机联机或电子数据传输方式处理业务。”“个人资料保护法”第二条第二款也规定:“个人资料档案:指依系统建立而得以自动化机器或其他非自动化方式检索、整理之个人资料之集合。”所谓“国民法官法”第三十三条规定:“地方法院为调查第十二条第一项、第十三条至第十五条事项,得利用相关之个人资料数据库进行自动化检核,管理及维护之机关不得拒绝,并应提供批次化查询接口及权限。”
另外,亦已有不少明文授权行政自动化之规定,例如:根据台湾地区“规税法”第十条第三项订定之“货物通关自动化实施办法”;根据“规费法”第十条第一项订定之“外来人口申请自动查验通关系统收费办法”;根据“档案法”第九条第一项订定之“档案电子储存管理实施办法”,根据“民事诉讼法”第五百零八条第二项订定之“督促程序使用计算机或其他科技设备作业办法”;根据“疫后强化经济与社会韧性及全民共享经济成果特别条例”第四条第一项订定之“全民共享经济成果普发现金办法”;等等。
2. 国家(政府)作为“机器”与人性尊严问题
有学者认为,在高度数字化科技支配下,国家(政府)将形同一部庞大的“机器”。全国各地的机构设施,均为高度数字化科技所支配,称国家为一部庞大的“机器”,似乎并不为过!然而,诚如德国学者马力欧·玛替尼(Mario Martini)与大卫·尼克(David Nink)所言:“不将人与他们的环境简化为纯粹的数字逻辑,是自由宪政国家最重要的任务之一,尤其是在数字世界中。”在“E化国家”中,人性尊严之维护,仍十分重要。
行政自动化后,的确如德国学者尼可拉斯·卢曼(Niklas Luhmann)所言,一切决定将不再针对个别之人格(nicht auf individuale Persönlichkeit abgestellt)去形成、我们将舍弃诉诸制度(verzichten auf Institution)、指尖的感觉(auf Fingerspitzengefühl),而诉诸强烈的权威(auf starke Autorität)与一个人的确信力(Überzeugungskraft)。但这些都仅属于过渡期间!毕竟,我们不能放弃一些我们还离不开的东西(Wir dürfen nicht auf etwas verzichten,was wir noch gar nicht entbehren können)——人性尊严!
关于行政自动化,尤其是行政的“完全自动化”,是否将使人类面对自动化设施,对其作成行政行为,特别是具有公权力效果之行政处分时,沦为不具有“自我目的”与“最高价值”之人性尊严主体?对此,多数学者,似乎有此担忧。然而,我国台湾地区则有年轻学者提出严重的质疑。不过,在当前多数仍属于“线性思考”的超级计算机技术下,或许德国学者的忧虑仅属于“杞人忧天”。但是,一旦“量子计算机”(Quantencomputer)问世,其以极端快速之“非线性的无限制端点”思考与运算技术,甚至是高度学习与自我思考、创造之能力被广泛运用于公、私部门后,如预言家所称“2030年人的意志将与AI混和”,只要自然人装置AI 后,各个将成为智慧超人,一旦成真,则德国学者的“杞人忧天”,岂非有先知之明!
人工智能(智慧)之运用,的确可能面临诸多法律与伦理问题。而我们广泛运用时,须先做充分的思考与斟酌。
3. 职权调查原则与行政自动化
真正之自动化行政处分,无法避免“职权调查原则”受到限制的问题。自动化所根据之事实,无非系根据既有数据库中储存之事实或申请人输入之事项,而无机关人员把关。因此,一旦数据有错误或不完整,则将顿失官方的照料与支持之功能(behördliche Fürsorgeund Unterstützungsfunktion),德国联邦行政程序法为求弥补,乃有“风险控管之体系”(Risikomanagementsystem)的建立,而其先驱性制度,即根据该国2008年修正之租税通则(AO)第88条第3项的授权,建立了风险控管体系。
究竟现在或将来的“电子信息处理系统”(EDV-System),有无可能开发出足以具备如同一个经验老到的公务人员,能够明察秋毫,在众多信息中勾稽出错误、不足、彼此矛盾之处,甚至是滥用之处,而执行较诸由“自然人”所执行之“职权调查”更为透彻的“调查”与“勾稽”,将成为行政自动化能否有效运用的关键之一。
4. 裁量性问题之排除
在行政法学上,法律赋予机关“裁量权”,其目的无非让机关于每一个个案均不尽相同之情况下,追求“实质的平等”与最切合个案之“个案正义”(Einzelfallgerechtigkeit)。诸如税务申报之核定,鲜少有一般行政程序法规定之裁量,通常具有高度标准化(Standardisierung),且属于“羁束处分”(gebundener Verwaltungsakt),甚至已经有具体之程序(konkretes Verfahren),因而自适宜以“自动化”(Automatisierung)为之。
德国联邦行政程序法第35a条规定:“在法律允许,且无裁量或判断余地之情况下,行政处分得以完全以自动化设施发布之。”显然排除行政机关具有“裁量空间”(Ermessensraum)之行政事项,得采取全自动行政设施为之,其原因应系于此。
5. 具判断余地问题之排除
德国联邦行政程序法第35a条规定:“在法律允许且无裁量权或判断余地之情况下,行政处分得以完全以自动化设施发布之。”显然排除行政机关具有“判断余地”(Beurteilungsspielraum)之行政事项,得采取全自动行政设施为之。
行政决定事项,行政机关具有“判断余地”者,并不局限于“具不确定概念之法律”(Gesetz mit unbestimmten Begriff)(有些公法学者向来习惯以“不确定法律概念”(unbestimmter Rechtsbegriff)称之),而尚及于具有“专业判断”(Fachbeurteilung)或“高度属人性”(Hochpersönlichkeit)之事项。由于此等事项,不涉及高度精确性,得以数字化之事项仅及于具备代表性(Vertretbarkeit)与理性上之合理性(Rationalität),甚至是“差不多如此即可”的事项。
6. 高度复杂性问题之取舍问题
德国联邦行政程序法第24条第1项第3句规定,指出人民于行政程序中提出之事实信息,越复杂者,即愈不适合以自动化为之。比如建筑许可之事件与计划程序,所涉及之因素甚为复杂,即不适宜以全自动化为之。反之,事实比重较少,亦即比较单纯者,类型化个案众多者(如税务、罚款与社会给付行政事项),即非常适合以全自动化程序为之。不过,亦有学者指出,此仅涉及自动化AI算法较为复杂者,必须预先妥善设计而已。但以现代科技之发展,并非绝对不能排除。此一说法,亦不无道理。
7. 个人信息与人格权保护之问题
除“效率”优势外,高度数字化也可能引发广泛滥用的可能性。为了个人权利与避免数据遭受第三人未经授权即进入之情形发生,德国人对于“透明公民”(gläserne Bürger)的恐惧深植民心,对隐私保护极度重视。在网络系统中,如何有效保护自己免受互联网上潜伏之各种危险,德国基本法(GG)第87f条第1项为该国对通信基础设施系统之相关保障义务与对个人保护义务之表达,此等义务源于基本法第2条第1项结合第1条第1项规定之基本权利保障的完整性。然而,德国本身未能成功保护该国联邦众议院(Bundestag)等中央机构免于遭受黑客攻击此一事实,则削弱了该国人民对这种具规范性的国家安全承诺实际上可以兑现的信念,并对之产生疑问。
数字国家转型与数字完整性之成功,并不局限于数字安全而已,且包括一定程度的隐含民众自我形象之数字隐私保护。公民使用政府提供之数字服务,唯有当其充分确信国家当局将仅依据预期处理数据之目的,使用其数据,尤其不会将其传递给其他政府机构,甚至于无法律依据情况下传递给第三私人。“E化政府”首先必须赢得此种人民之信任。总体而言,民众似乎仍抱有较高程度的怀疑态度。对于抱有较高程度怀疑态度之德国人而言,信息保护与信息安全,目前为使用现有电子政府服务难以克服之障碍。
其次,要探讨的问题,乃是使用现有的行政数据一次性原则(Once-only-Prinzip)。如政府使用既有的数据,而非强迫公民填写新表格,此将为减少官僚成本提供额外动力。盖多次输入相同的数据,不可避免地会消耗时间和精力。尤其是在新的基 本法第91c条第5项规定的基础上,实现跨级平台时,作为查访管理系统一部分的一次性记录原则,得以显示出其优势,亦即收集核心数据集;然后,不同机构可以通过接口查访,并在获得授权情况下,调用各自专门程序的数据。德国联邦报告法(BMeldeG)第38条与 E化政府法(EGovG)第5条第2项,尽管仅限于在行政程序中提交注册数据与证据,却为此铺平了道路。然而,到目前为止,此等规定的实际效果还很有限。
前述之隐私保护,乃上述“一次性原则”强有力的反对者,以其纯粹的形式,为国家提供了汇集不同来源数据的可能性,并可能将它们编入全面的个性档案中。消除此种滥用风险,乃信息保护法最重要的基本原则之一,其本质乃指定用途原则。为与最初收集数据目的不兼容之目的,进一步处理数据,将与信息自决的保证(Verbürgung informationeller Selbstbestimmung)相冲突。
当国家机构需检查公民的整体个性时,则可以不受限制地链接现有数据库,即超出其限制。因此,自动数据交换虽并非普遍不被允许,但它需要一个明确之法律依据,说明未经请求之数据访问原因与限制,并有效排除任何与个人人格缺陷权重不相称之情况发生。原则上,立法机关尚必须遵守信息分离原则:只有当存在压倒一切之重要公共利益所需要,而无更容易条件下获取信息时,才例外允许当局之间交换信息。
处理之法律依据使当局能够交换受影响者信息,即明确或推定人民之意愿未涵盖该数据,为“一次性原则”固有的基本服务理念留下基础(但未受到规范保护)。多种数据使用的“低服务优势”,将被民众之信任的持久丧失所抵消,如政府不欲在数字化道路上失去公民,则在法律政策方面,收集信息之程序性保障措施乃一项谨慎之规则,使相关人员在特殊法律基础上进行交换能够获得支持(除了证明数据合理性的压倒性公共利益之外),而就各自数据之使用程度做出有效的自主决定。因此,指导原则应该是:作为一次性原则的一部分,政府机构只有在数据主体明确授权之情况下,才可以查看个人数据。如政府欲使用公民的数据,则必须通过诸如电子邮件或推送消息,提请他们注意,他可以自己决定何机构可以访问其数据,以及访问的程度。此外,管理部门还须记录使用行为,即披露并记录在数据主控室中:何机构于何时、出于何目的访问了现有数据,从而创建了使用的透明度。
综上,个人信息自决权,透明、值得信赖之信息系统(特别是“大数据”Big Data),无差别待遇与可追溯性等,攸关自动化下之个人信息与人格权之保护,值得我们特别关心 。
六、需经听证与意见陈述行政事件之自动化的可否
(一)需经听证行政事件之自动化的可否
在德国,如作成行政处分之前涉及当事人之权利,而依法有义务必须举行听证者,则于实行完全自动化时,仍有适用。该国行政程序法第28条第2项第4款规定,有两种变形的例外情况。其一,在个案中,如涉及“非真正的大量程序”(unechtes Massenverfahren),则得于个别程序中说明其理由。其二,根据全自动执行程序之不同,听证义务之要求亦有所不同。其属于与税务程序类似,而通过填写表格触发之程序,基于该国“现代化草案”(Modernisierungsentwurf)之范例模型(Vorbild),于特别规定之空格(qualifiziertes Freitextfeld)中填写方式填补,自得以想象。
另外,需经听证始得据以作成行政处分者,于听证记录所示结果之外,本不得再基于所谓的“职权调查”,另行调查证据。如原听证程序并未完备,自应重开听证(再听证),而非于听证程序之外,妄以所谓的依据“职权调查证据”,并据以作成处分。然而,由于当前之AI技术,机器尚无法自动践行“职权调查证据”,而有赖于人工另外进行,因此,就需经听证始得作成处分之行政事件,应由人员为之,而排除以全自动化之设施为之。除非将来之AI系统,具有执行完备之听证能力,否则需经听证始得作成处分之行政事件,应排除以全自动化之设施为之。
(二)需经意见陈述行政事件之自动化的可否——谈话机器人之运用问题
近来各国为落实行政“民主化”(Demokratiesierung)与“亲民措施”(Maßnahmen mit Bürgerfreundlichkeit),各项行政法规均要求给予利害关系人口头陈述意见(Oral statement)之制度,通常听取当事人或利害关系人陈述意见并进行沟通者,均为公务人员(自然人)。然而,如采取全部自动化行政之事项,则听取当事人或利害关系人之陈述意见,能否采取诸如 ChatGPT此等AI机器人,则不无疑问。
根据德国学者马力欧·玛替尼之研究,人工智能(智慧)应用于行政决定,对于提供市民咨询(Bürgerberatung),亦可以达成减轻负担之效果(Entlastungseffekt)。聊天机器(Chatbots)基于文本对话系统(textbasierten Dialogsystemen),可以在回答“前端”(FrontEnd)中的“标准问题”时,作为数字行政助理(digitale Verwaltungshelfer)提供有用的服务。公民输入其请求,机器人即会自动回答。不过,目前机器人声誉尚不佳。作为社交机器人,在目前的观点之争中,其被视为谎言的传播者与真实性的破坏者。在关于社交机器人总体讨论之阴影下,聊天机器人之有用功能,容易被忽视:在人工智能帮助下,聊天机器人可以执行简单的咨询服务,不仅于办公时间,且可以全天候以有效方式管理不一定需要人类关注的管理任务。唯有当机器人陷入困境(如故障)时,行政人员才会接手案件。
我国台湾地区“行政程序法”第一百零三条第一款、第二款、第五款规定:“有下列各款情形之一者,行政机关得不给予陈述意见之机会:一、大量作成同种类之处分。二、情况急迫,如予陈述意见之机会,显然违背公益者。五、行政处分所根据之事实,客观上明白足以确认者。”是否得据以作为自动化作成之处分,得不给予当事人陈述意见机会之依据,似不无疑义 。
七、行政自动化与当事人之协力及公务人员之工作时间、方式问题
(一)行政自动化与当事人之 协力问题
我国台湾地区“行政程序法”第三十六条规定:“行政机关应依职权调查证据,不受当事人主张之拘束,对当事人有利及不利事项一律注意。”第三十七条规定:“当事人于行政程序中,除得自行提出证据外,亦得向行政机关申请调查事实及证据。但行政机关认为无调查之必要者,得不为调查,并于第四十三条之理由中叙明之。”第三十九条规定:“行政机关基于调查事实及证据之必要,得以书面通知相关之人陈述意见。通知书中应记载询问目的、时间、地点、得否委托他人到场及不到场所生之效果。”第四十条规定:“行政机关基于调查事实及证据之必要,得要求当事人或第三人提供必要之文书、数据或物品。”上述规定,乃一般行政程序中当事人之协力义务(Mitwirkungspflicht)规定。
然而,于行政自动化之情况下,以报税系统采取行政自动化或数字化后为例,对于税务机关与纳税义务人间之权利(力)均势,产生相当大的影响。报税基本数据自始应由纳税义务人提供,嗣后于启动报税程序后,除非须更新,否则,即会自动显示,而当年度之应税数据,除非属于数据库经联机勾稽后仍不存在者,纳税义务人应自行输入,具有强化之协力义务(verstärkte Pflicht)的意义。除非经自动化系统显示应填入而未填之资料导致无法上传情形,否则,于行政自动化,人民甚少会被“机器”要求协力者。
(二)行政自动化与公务人力需求之消长与变化问题
任何新科技(产品)之出现,总会造成若干人就业与若干人失业,以及是否重新接受教育与转业等问题,此从历次工业革命之后,即已经充分显现。行政自动化造成的类似现象,自亦不例外。尤其是如果采取全面行政自动化后,其影响层面即会更为明显与重大,包括:国家教育之种类与内容、国家考选制度之改变、现有公务人力之调整(包括在职训练新技术、资遣、引进新技术专业人员)与失业救济、社会保险,甚至是新科技带来之身心创伤的治疗等等。
在德国,劳动力市场与职业研究所(IAB)定期审查职业的可替代性潜力,亦即职业可在多大程度上被新技术取代。在当前的分析中,发现只有少数工作类型能够跟上数字化的步伐。这归功于自行学习计算器程序、移动协作机器人、3D打印与虚拟现实等新技术,机器可以完全或部分取代人类或至少支持人类工作。凡是活动越简单者,就越容易为机器所取代。另外,随着资格要求之提高,可替代性潜力也随之降低,简单的助手比高度专业化的专家更容易被替代。现代技术的使用,也正改变现有的工作特质之描述。掌握新软件应用程序与处理新技术(例如3D打印),为当今即使在传统行业也是不可或缺的先决条件。然而,数字化并不会让人们变得多余;同时,新的工作与工作特质也被创造。例如:出现必须处理大量数据的“数据科学家”工作,或为技术产品设计用户界面的“界面设计师”工作。
数字化正在改变职业与资格,从而导致劳动力市场的迅速剧变。终身学习现在已成为人们关注的焦点,曾在培训或学习中学到的知识,比以往任何时候都更快速地过...
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.