算法可解释性的价值及其法治化路径

作者: 王海燕

摘 要:随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。

关键词:算法决策;算法可解释性;正当程序;问责制;人类尊严

基金项目:国家社会科学基金重大项目“新时代国家安全法治的体系建设与实施措施研究”(20&ZD190)。

[中图分类号] D90 [文章编号] 1673-0186(2024)001-0120-016

[文献标识码] A      [DOI编码] 10.19631/j.cnki.css.2024.001.009

在数字时代,人工智能的自主学习使算法技术以一种超出人类理解的方式迅速发展。算法黑箱冲击着人类依据规则而行动,并以此做出生活安排的法治理念。解决算法不可理解难题,才能真正守住人类社会的可预期性和自主性,这便是算法可解释性的价值及其法治化意义之所在。学界围绕算法解释的争论很多,关于其性质的探讨更是莫衷一是。有学者主张应当将算法的可解释属性上升为一种权利化的保障方式,即“算法解释权”[1],明确其法律定位和适用标准[2];也有学者认为算法解释权难以充分对抗算法妨害,必须结合多种监管方式来缓和解释权与其他社会价值之间的关系[3]192。此外,关于算法解释权究竟是一种一般性权利还是受限定了的权利,争议诸多。算法可解释性是算法解释权的基础[3]190,如果算法解释权的规范效力如此之弱,那么称之为“权利”就只有象征性意义,难以调和算法解释与其他重要社会价值之间的张力。因此,在具体论证解释权的效力范围和界限之前,论证算法可解释性的必要性是更为基础的理论工作。

算法可解释性是指算法(特别是算法模型)能够“以人类可理解的语言向人类展示算法系统为何做出特定预测或决策的方法”[4]。算法可解释性常常作为一种治理工具出现在讨论中,“法学界此前相关研究提及可解释性者较多,但真正说明何为‘可解释性’者寥寥无几,并且相关认识失之偏颇”[5]。有学者认为算法模型具有较高的专业性,而且以相关性为基础,并非传统的因果关系,所以不具有可解释性[6]。算法的不可解释性通常由两种原因导致:一是为完成具有挑战性的决策任务,算法设计需要追求复杂性,从而一定程度上牺牲了可解释性;二是开发者的商业逐利本性,算法开发者借助商业秘密与知识产权制度的强力保护,在开发算法可解释性相关技术上怠于行动,甚至刻意将算法模型不断复杂化,借助复杂性和黑箱性获利[7]。这种纯粹将算法可解释性作为技术方案的观点,混淆了自动化决策算法作为技术方案的内部解释和作为法律路径的外部解释,对算法可解释性的认识应及时从技术方案的误区中走出,将之作为生产社会信任的法律制度,探讨其在算法治理体系中的功能与地位[8]。

算法可解释性作为一种技术标准,发挥着规制算法技术、促进创新发展的功能,沟通着算法系统和法律系统,是算法治理体系中的制度设计。法律规则也是影响行为主体进行决策安排的重要规范体系。在这个意义上,算法与法律具有社会秩序建构层面上的相关性,算法在影响个人行为和生活意义的层面上发挥着事实上的“法”的效果[9]。因此,不管是对算法运行逻辑还是运行结果进行解释,抑或是基于算法主体或模型进行解释,算法解释的实现首先建立在算法可解释性之于人类社会的法律意义层面。算法可解释性的价值,主要表现在对维护以法律搭建起来的社会运作框架以及促进法律系统良性发展的影响。与此同时,对影响公民重要利益的自动化判断“缺乏理解和解释”与法治社会的理念是背道而驰的,制度构建中应当积极探索促进算法可解释性法治化的路径。

一、实现算法决策的过程正当性

程序正义是一项非衍生性价值,代表着程序本身以正义为根本宗旨的内在价值,侧重于对达成结果的过程的感知公平性。算法决策要获得人们的信任以及社会制度的采纳,必须符合程序正义的要求,实现决策过程的正当性。具体表现为决策过程应当公开,保证相关各方充分参与,限制算法权力,决策过程和结果均具有公正性。

(一)算法决策冲击正当程序

“程序”是指按照一定的顺序、程式和步骤制作的过程[10]。学界通常把“正当程序”和“程序正义”视为同一观念,“满足正当程序要件的程序才是合乎程序正义的程序,反过来说合乎程序正义的程序就是正当程序”[11]。“正义”是一个开放性概念,涉及面十分广泛,“正义是人类普遍认为的崇高价值,是指具有公正性、合理性的事物”[12]。一般而言,正义包括哲学、社会、政治、经济、文化、法律、伦理等诸多方面的品质和要求,也涉及公平、公正、平等、自由、效率、安全、秩序、福利等各种价值和理念[13]。程序正义是重要的正义类型,法律程序要实现公正性,需从提高程序自身的内在设置着手,使形成法律决定的全过程符合一些“看得见”的标准或尺度[14]。对决策结果公平的认知既取决于结果本身,还取决于达成结果的过程。特别是在智慧司法领域,裁判不仅要实现某种可欲的目的或结果,还要以某种正当的方式去追求这样的结果。

算法黑箱的背后埋藏着算法权力恣意的隐患。算法有时被视为黑匣子,其复杂程度和技术上的不透明掩盖了其内部运作[15]。算法黑箱为数字技术滑向“算法独裁”“算法垄断”留下了可能空间,逐步架空人类在现实世界中的主体地位,控制着人们的生活。如果不为算法黑箱设定法治界限,它很可能会将人类生活的可预见期待化为泡影。诚然,算法黑箱也许会带来一定程度的积极结果,黑箱背后“不公开的”也许是个人隐私、商业秘密、知识产权等。在不公开个人隐私的情况下将决策付诸实践,可以避免公开评议对弱势群体造成心理伤害[16]155。但是这种机器带来的“程序闭门羹”也是对程序的否定,会导致程序失效,受害者的权利保护和责任追究难以实现。可见,复杂模型的运行可能依赖于数以百万计的参数协同推进,其数学功能使人类难以完全理解,这就阻碍了程序正义的公开性,使人们的互动和交往在算法决策过程中难以正常进行,从而架空了人类对决策的参与性。如此一来,决策规则的隐蔽性更强,算法黑箱因此为权力恣意留下了暗道,恣意的算法权力得以凌驾于正当程序之上,使结果的客观公正性难以保证。

算法自动化决策对程序正义的冲击遍布整个公共生活。算法决策具有瞬时性、动态性及自动化的特征,这些特征有压缩并封闭程序环节之虞。如此一来,正当程序所强调的“听证”“说明理由”等权利保障措施难以发挥效用。例如,在北京以卖菜为生的小贩杜宝良突然发现上万元的交通违章罚单,理由是他近一年的时间里在同一个地点交通违章105次,交管部门却从未告知过他有交通违法行为,此类案件并非个例,被媒体称之为“杜宝良现象”①。由于决定是由电子系统作出,治理主体扮演的角色变得单一,它只负责将算法结果适用到治理对象身上,既不及时说明理由,也没有为当事人留下充足的辩护机会。算法的黑箱机制,导致权力主体甚至将“后台性”“黑洞性”当作拒绝说理的“尚方宝剑”[17]。此外,一些国家的行政程序法借此明确规定自动化行政可以免除事先听证和说明理由,从而架空当事人陈述、申辩、听证等程序性权利[18]65。被测评的公民难以参与其中,无法反向问责测评机构[19]。治理主体本是公共秩序和公民利益的维护者,但算法黑箱会使公民成为算法利维坦宰制的对象。

私域的程序正义也面临着算法决策冲击。算法对社会价值、制度与技术进行了系统性结构化重建,社会出现了“去中心化”现象。技术公司和平台企业等技术掌控者,不断对个人空间进行渗透和影响,在提供网络交易平台、撮合交易之外,建构了一种独立的权力实体和程序机制,重建了网络社会的规则,成为网络空间新秩序的缔造者。不仅如此,他们还僭越了规则的执行权,通过垄断新型网络纠纷的仲裁权,罗织起“算法权力”,稀释了国家权力,形成新的权力生产机制和生产关系,国家权力中心之外的新的权力中心陆续涌现[20]。如果不对其掌控的算法技术进行监督和规制,权力异化的风险将难以控制。这种“数学杀伤性武器”可能会挖掘出“算法陷阱”,蚕食法治社会中的程序正义。

(二)可解释性的程序价值:打开算法“黑箱”

算法可解释性是联通技术和法治的桥梁。按照现代正当程序的构想,“黑箱”中可能存在算法不公或算法操纵的风险[18]73。因此,应当打开“黑箱”,以便那些对结果产生怀疑的公民能够深入了解内部情况。用计算机科学的术语来讲,正当程序的价值理念表现出高度“鲁棒性”,即在受到持续干扰时程序仍能保持原有性能,不过更需要深度技术介入数字技术综合应用过程[21]。算法解释并非对一般性的算法架构或源代码的公开和解释,而是有针对性的决策解释,可以阐述它们的设计和实施,描述它们的过程和输出,以及解释它们在实践中会对主体产生哪些影响[16]153。在数字政府算法治理中,政府信息公开、数据开放以及算法公开是确保公众知情权、增强政府自动化决策合法性的关键措施,这些举措构成了公民行使技术性正当程序原则的首要前提[22]。可解释性算法能为行政行为说明理由制度提供技术支持,实现了“技法互动”,将技术理性与法治原理融合,构建了算法程序正义的公开性、参与性以及公正性,符合法律意义上的正当程序价值。

算法可解释性力求实现将实质性的错误风险降到最低水平。如果政府要依靠算法技术决策,必须制定程序来评估机器的结果如何影响人们的权利,并在机器做出的决定被证明是错误的情况下,提供及时、有效的补救措施。算法可解释性不是单向度的,它理应通过可行的制度安排,使受算法决策影响的个体参与对解释水平的评判。可解释性不仅是在技术运用流程中增强算法透明度,而且需要以受众能够理解的语言对算法模型、运行逻辑、输入和输出进行阐释,打破“黑箱”的封闭性。解释将法治社会中本属于公民的正当程序参与权交还给人类,使个人能够全过程参与决策的作出,加固当事人对决策过程和结果的控制力度。利益相关者通过解释知悉了算法模型及其运行过程和决策结果,为听证程序中的意见发表和自我辩护提供了认知保证,社会监督的力量逐渐恢复,能有效限缩技术控制方的恣意性。这是算法技术的高效性、一致性优势与人的理性判断和创造性思维相平衡的尝试,有利于构建更为公正、更受认可的程序正义方式。

算法可解释性中的公开、告知并非是限制算法技术的发展,而是要把算法从设计到运行纳入一定的技术标准、制度框架之内,使算法技术有规可循,为审查算法决策过程和结果提供充分的依据和判断标准。同时,可解释性加强了多元主体间的对话,通过语言行为进行充分的沟通,强化互动以解决算法语言的复杂性问题。打开“黑箱”,限制自由裁量,这正是程序正义的重要意义。实现程序公正,可以提升受众对决策结果的接受度。

(三)通向程序正当的法治化:比例化的透明度

程序正义要求公开性、公众参与性以及公正性,其实现离不开算法透明性机制提供的信息条件。算法透明是一个程度问题,面临着来自其他需要被保护的价值竞争问题。从字面意思讲,透明度是指对有关数据来源、开发过程以及利益相关者的选择的明确和公开。这种透明指向的是所有使用人类数据或影响人类或可能产生其他道德上重大影响的模型[23]199。如果我们能够确保与系统有关的所有事务透明,一定程度上必然提升公众对人工智能系统的信任。因此,有学者提出用透明度来解决算法风险的所有问题。但是,公开源代码通常既没有必要,也不足以充分证明过程的公平性,算法解释领域的绝对透明并不存在[24]。检查源代码是预测计算机程序如何运行的一种非常有限的方式,计算机系统的源代码对非专家来说是难以辨认的,在某些情形下即使是专家也难以把握[25]。机器学习是一种越来越普遍的自动决策方法,但它尤其不适用于源代码分析,因为决策规则本身在自我学习中很可能自动地从被分析的特定数据中产生。在这种情况下,源代码本身无法告诉评审者任何有意义的信息,因为代码只透露了使用的机器学习方法,而不是数据驱动的决策规则。此外,算法实践中需要一些不透明,如前所述,个人数据的公开可能涉及敏感信息的泄露,企业数据的公开可能威胁消费者数据、商业专有信息或商业秘密的合法保护,审计或安全检查系统的公开将会引致为不法分子大开方便之门的风险。上述种种潜在的危机与治理算法、维护公平正义、保护个人权利的目标背道而驰。

经典小说推荐

杂志订阅

友情链接