从外部治理到内部运行:自动化行政研究的转向及其展望
作者: 韩万渠 王思雨摘 要: 自动化行政有助于提升行政运行效率,但也产生了诸多负外部效应。既有研究往往将其负外部效应的根源归结为算法技术的不透明性与机器学习的不确定性,并据此提出规制治理之策,一定程度上忽视了智能算法技术对行政体系内部运行规则的影响及其与负外部效应的关联。自动化行政对行政体系内部运行规则的影响,在宏观层面表现为科层制运行的数字化及其对行政组织运行的结构性重塑;中观层面表现为绩效考核等内部控制体系的智能化及其对行政主体的全景式规训;微观层面表现为人机协同自由裁量剩余控制权虚置及其引发的负外部效应。基于内外部关联的视角,应以过程维度 科层体系内部控制机制的智能化为突破口,调适全景式规训与适应性行政之间的张力关系。
关键词: 自动化行政;算法;负外部效应;科层制
一、引言
大数据、区块链、算法等新技术在政府治理中的运用,使得行政互动方式由人与人之间的互动逐渐转化为人与机器之间的互动。自动化行政指通过算法技术、知识图谱、专家系统等人工智能技术在行政体系中的运用,实现行政活动无人工介入的完全自动化或人工个别介入的部分自动化[1]。自动化行政作为人工智能时代的新兴产物,以其显著的效能优势发展成为一种新型行政活动方式。传统上依赖人力进行驱动的行政运转方式,开始转向以智能算法为引擎的自动化运转,甚至在“自动化行政审批”“自动化工商登记”“自动化办税”等实践场景下实现了机器替代人力的完全自动化行政运作,进一步推动了行政的自动化、信息化和智能化发展。自动化行政的具体应用往往以“自动化决策”的形式呈现。算法作为自动化行政的主要技术路径,在行政运行过程中直接参与决策或辅助人工决策,带来了行政运行效率的提升,但也因算法偏见等问题引发了诸多有关自动化行政风险及其规制的探讨。总体上,现有研究大多围绕政府运用人工智能技术与外部行动者互动和服务给付中的负外部性效应展开,并将其治理之策集中于法律规制、伦理规制等,一定程度上忽略了自动化行政的内部效应及其与负外部效应之间的关联。尤其是ChatGPT等生成式人工智能技术的兴起及其在行政体系中的运用,将因其与行政体系的运行规则、一线官僚行政经验的交互而产生新的不确定性,并延展至行政体系对于公共事务的治理。基于此,本文提出自动化行政研究应从负外部性效应治理,转向挖掘人工智能技术对行政体系内部运行产生的 影响,并进一步探索内外部之间的关联,以期从内部探寻最小化自动化行政负外部效应的治理之策。
二、自动化行政的负外部效应及其治理
(一)自动化行政负外部效应的来源
自动化行政的本质在于智能算法嵌入行政运行过程。自动化行政因算法不透明、算法偏见等引发的有关自动化行政的法律地位、不公平等问题已经引起学术界的广泛关注[2]。从技术维度审 视,自动化行政的负外部效应来自智能算法的风险属性:机器学习、编码知识缺口和算法“黑箱”。
1.算法的“机器学习”性质
机器学习(Machine Learning)是人工智能技术的核心,主要研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能[3]。机器模型的选择需要先由算法设计者确定,之后再由机器自主学习完善。由于机器学习的数据本身就承载着算法设计者的价值判断,进而这些带有社会偏见和算法设计者主观偏见的数据可能会被机器带入模型不断训练,由此构造新的编码知识[4]。因此,“机器学习”的不确定性和动态演进属性使其可能偏离自动化行政所预设的、符合正当性的行政程序。机器以无限的学习能力填补了人类有限认知能力的缺陷,同时也潜在地消解了人的主体性和应有的自由裁量权。同时,针对决策结果进行问责也面临着主体责任难以界定的困境。
2.算法的编码知识缺口
编码知识缺口是指算法系统中的编码知识不足以覆盖所有偶发事件,从而造成输出上的知识缺口[5]。编码知识缺口在自动化行政系统运行中较为常见,输入端的指令得不到回应或者被提醒操作错误、输出端的结果与输入端的指令不相匹配都属于编码知识缺口的范畴。就自动化行政的运行场景而言,在完全自动化行为下,行政相对人通过网络平台和聊天机器人交互[6],这种基于文本通信的交流方式通常会在机器人识别人类语言的时候出现故障,从而导致决策结果无法输出。而在部分自动化行为下,自动化行政裁量在根据实际案例匹配法律、法规依据时,往往会超出系统中编码知识的范围,从而导致输入和输出的匹配偏差。这种算法失灵的内在缺陷可以通过误导判断的形式,进一步扩大自动化行政负外部效应的发生概率。
3.算法的“黑箱”性质
算法运行过程主要分为输入阶段、中间阶段和输出阶段,“黑箱”可能存在于这三个阶段中的任意一个或者多个阶段[7]。输入端由算法设定,数据采集和选择实现自动化运行,这一阶段呈现出完全无人工干预的状态且不具有透明性和可解释性,使得有关个人隐私和集体隐私的采集和使用存在潜在的隐私安全威胁。中间阶段是在算法特有的运行规则下,通过识别输入端的文本和语言,根据既定的语法和句法规则,自动生成的一套不易直接观察和解释的回应逻辑。尽管输出端的结果是可以预先设定的,但值得警惕的是,输出端既包括显示在终端的预先设定的结果,也包括在终端并未显示的输出结果。对前者的监管相对容易,对后者的监管会引起因算法不透明属性而导致的监管困境,并暴露出隐性操纵的风险。
(二)自动化行政负外部效应的表征
尽管自动化行政负外部效应的来源主要表现为智能算法技术的不确定性,但具体表现形式有所不同,表现为损害社会公平正义、威胁集体和个人隐私安全、责任主体难以认定等。
1.损害社会公平正义
智能算法可以对复杂的行政任务进行高效处理,并能最大限度地减少人为偏差。但是由于算法本身不具备客观性和中立性,所以并不能保证其决策结果的公平性。同时,如果算法设计者对智能算法训练所选的模型和模拟数据本身带有偏见,将会产生算法行政的歧视模仿行为,导致自动化行政系统在真实运行的过程中出现有偏向性的选择[8]。因此,算法遵循何种规则以及在行政运行作何选择取决于算法设计者的价值选择。而算法设计者的价值选择除了来自自身的知识结构,更多来自委托方——政府的知识体系,其中既包括规范层面行政运行的规则体系,也包括经验层面基于特定业务的“隐性知识”。生成式人工智能技术具有较强的机器学习功能,并通过与一线官僚的交互实现对特定行政业务“隐性知识”的习得。这些隐性知识既包括行政运行应有的自由裁量,也包括自由裁量中的结构性偏差,通过算法的隐性筛选机制损害社会公平正义。
2.威胁集体与个人的隐私安全
智能算法时代的隐私安全问题更为复杂。自动化行政应用场景中,算法技术对隐私安全的影响表现出由个人隐私发展为集体隐私的倾向。集体隐私不是指一个集体中所有人隐私的总和,而是指一个集体中的成员有一个或者多个共同属性的隐私[9]。算法会将这些隐私作为数据按照不同的属性进行自动化的分类组别。但是,在算法分组的基础上对这些隐私的利用会以集体特征的形式显示出来,且目前在数据保护方面并未注意到集体隐私的问题[10]。此外,算法披露旨在对算法不透明导致的歧视等问题进行规制,但也可能对数据安全产生威胁。算法披露是指针对算法“黑箱”中的程序不透明赋予行政相对人算法解释权,即要求行政机关对算法应用的源代码、输入数据、输出结果及推理过程予以解释的权利[11]。按照算法披露的要求需要公开输入数据,这将和个人隐私权的保护产生冲突。因为行政相对人在对算法决策结果不满意的情况下,可以行使自己的算法解释权,此时算法应用中的输入数据将会被公开,其中公开的数据不仅包括行政相对 人的个人数据,还包括所涉事件中其他人的数据,后者如果被披露将涉及侵犯他人的个人隐私权。
3.责任主体难以界定
自动化行政带来的责任主体界定模糊问题应该予以重视。自动化行政的主体不仅包括科层体系中具体的行为人,还包括有待认定的“算法官僚”属性的行为人。行政场景的复杂性造就了行政主体的模糊性。在完全自动化行政场景下,算法自动化决策造成的后果由谁承担、向谁问责存在难题。这一难题源于算法“机器学习”属性,开发者预设的算法是否会随着机器学习和迭代更新而偏离预设的轨道,尤其是这种偏离一旦因算法不透明而不易被监控到,将导致开发者、使用者对自动化行政算法的失控,由此造成问责主体模糊的问题。另外,自动化行政系统的开发与维护大多依托于大型技术公司,通过公私合作的方式达成,由此形成自动化行政运行的混合组织形态。混合型组织不仅存在不同类型组织的多重逻辑调适问题,也存在着责任分担失衡的难题,即政府最终因为“无限责任”而无法形成对平台企业、算法开发者的有效约束。
(三)自动化行政负外部效应的规制路径
针对自动化行政运行出现的问题,实践层面主要采取伦理规制与法律规制相结合、行业自我规制与政府规制监管相结合、包容性审慎规制与敏捷性响应规制相结合的原则,寄希望于多元规制力量的敏捷反应和协同发力。
1.伦理规制与法律规制相结合
伦理规制主张建立一套政策框架以确保对自动化行政的信任,主要通过算法设计者遵循“伦理设计”原则进行负责任开发[12],动员利益相关者进行协商并制定政策行动,以促进对自动化行政的信任。而法律规制主要强调对负外部效应的惩戒性治理,侧重于事后权益受损的保护。一般而言,自动化行政负外部效应的直接作用对象是社会公众,社会公众的权益在受到损害时,最直接的回应方式就是寻求法律援助。因此,伦理规制与法律规制路径的结合,在确保多元利益相关者信任自动化行政的基础上,尽可能地保护其权益不受损害。
2.行业自我规制与政府规制相结合
自动化行政往往伴随着智能算法技术研发企业深度嵌入行政运行之中。政府在其中处于技术劣势地位。这一状况意味着政府不得不依赖智能算法企业及所在行业的自我规制。同时,这也意味着政府规制不可以缺位,应该加强政府规制与行业自我规制的合作。行业自我规制属于源头规制,一方面要强化行业自身伦理规范的建设,另一方面则应致力于推动智能算法企业加大对自动化行政缺陷“技术补丁”的研发力度。政府规制路径则主张建立一套完善的监管体系,通过数据接入和穿透式监管对其进行有效监管。作为源头的行业自我规制、强化过程监管的政府规制以及底线防范的法律规制,共同构成针对自动化行政风险的协同规制体系。
3.包容性审慎规制与敏捷性响应规制相结合
对自动化行政负外部效应的规制,在方法论上强调包容性审慎规制和敏捷性响应规制的结合。包容性审慎规制旨在搭建一个动态监管框架,通过联合各方利益相关者设计监管沙盒,划定风险范围并将自动化行政的外部治理问题及其衍生风险限定在“盒子”内,同时保证“盒子”内部的可控性。敏捷性响应规制则主张建立一套完善的敏捷响应机制,对自动化行政运行中不确定性的外部治理问题,及时组织自动化行政系统设计者、伦理学专家、法律专家以及政策专家共同开展评估与研究,并提出应对策略。包容性审慎规制强调要保证问题的“可控性”;敏捷性响应规制则强调要承认治理问题的“不确定性”以及问题解决的“快速迭代性”[13],两者的结合有助于将自动化行政所带来的负面影响降到最低。
三、转向科层体系内部运行:自动化行政研究的议题转向
贝克(Ulrich Beck)提出风险社会的两个特征:一是具有不断扩散的人为不确定性的逻辑;二是导致现有社会结构、制度以及关系更加复杂[14]。这一推论同样适用于自动化行政。前述分析主要围绕自动化行政受算法不确定性带来的负外部效应。自动化行政对社会结构、制度等的影响存在两条路径:直接路径和间接路径。既有研究主要关注直接路径,即聚焦自动化行政的核心技术——算法,主要基于其他领域算法技术直接作用于行政客体、社会结构所产生的影响,进而提出治理算法负外部效应的多元规制策略。这一路径容易混淆一般意义上的算法对社会结构、制度运行产生的直接影响,和算法技术运用于行政体系对社会结构、制度运行产生的间接影响。因此,未加区分、没有细致考察自动化行政运行具体场景,将一般意义上算法的负外部效应“套用”到自动化行政场景存在逻辑推论偏误。因此,学界更应关注自动化行政对社会结构和制度运行的间接影响。即算法技术首先作用于行政体系自身,并通过行政体系在解决公共问题等职能履行中,引致社会结构和制度运行的变迁,进而对社会运行秩序和规则产生影响。
(一)研究转向的缘由:权力运行逻辑的转变