论人工智能技术的刑法归责路径
作者: 曾粤兴 高正旭摘要:对人工智能进行法律治理的难点,在于人工智能技术具有相对独立于自然人的智能属性。鉴于现有的人工智能技术未能脱离智能工具的范畴,法律规制的重点不是人工智能技术本身,而是人工智能背后相关法律主体的行为。刑法需要把握算法这一人工智能技术的实质与核心,并以算法安全为纽带构建对人工智能相关法律主体的刑事归责路径。在具体方案的设计上,需要厘清刑法在人工智能治理活动中的功能与定位,避免出现过度纠结于技术逻辑的证明,或将刑法功能与前置法之功能相混淆的误区。
关键词:人工智能;科技风险;算法安全;法律体系;刑事归责
中图分类号:D914文献标志码:A文章编号:1007-9092(2022)03-0113-011
2017年国务院发布的《新一代人工智能发展规划》(以下简称《发展规划》)指出了我国存在“适应人工智能发展的基础设施、政策法规、标准体系亟待完善”的现状,自此人工智能相关的法律问题迅速成为我国法学领域研究的热点。刑法应当如何对人工智能进行归责,是近年来理论界的热门话题。目前的共识是,对于人工智能技术的发展,刑法的主要任务是防御人工智能技术给社会带来的不确定风险,同时也需要认识到智能技术是当今世界新的技术高地,我国必须全力争取在智能技术上的国际领先地位,所以在针对人工智能设计相应法律规则时,需要给技术进步留下合理空间。从刑法的角度看,人工智能所涉刑法问题,实际上属于刑法与科技、刑法与前置法共治的领域。所谓共治,是指不同的群体在平等基础上的合作。虽然在某一领域中实现了价值与目标上的统一,但是不同治理手段在实现治理的途径、方式、作用等方面存在区别。就人工智能法律治理而言,前置法与刑法之间存在着法律体系中层次的不同,只有当前置法无法有效规制相关行为时,刑法才进行介入。而法律与科技则属于不同的领域,科技作为当今社会重要的生产要素,有其自身发展进步的规律与知识体系,而法律在为科技进步创造良好的社会环境的同时,也需要限制科学技术手段可能给社会带来的副作用。
在目前法律框架下,刑法所需要做到的是针对人工智能所产生的刑法问题寻找合适的切入点实现对人工智能相关主体的刑事责任判断,从而使刑法有效参与到人工智能的治理活动中。我国具体负责推进规划实施人工智能发展战略的科技部下属国家新一代人工智能治理专业委员会,于2021年9月25日发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),本文将结合该规范的相关内容,对人工智能的刑法归责路径进行探讨。
一、人工智能的法律归责困境
人工智能技术不同于其他科学技术的关键点,在于目前有深度学习功能的人工智能系统已经可以通过与环境的交互和不断地试错而具有自主学习的能力,相对于早期的弱人工智能而言,已经进入强人工智能阶段,使其一定程度上独立于相关的自然人。曾毅、刘成林、谭铁牛:《类脑智能研究的回顾与展望》,《计算机学报》,2016年第1期。这也成为了刑法对人工智能进行归责的难点。
(一) 人工智能的工具属性
人工智能区别于其他科学技术的智能能力,指可以执行通常与人类智慧有关的智能行为,如推理、识别、感知、思考、规划、学习等等。关于人工智能技术,存在着两种不同的发展理念:第一种是,属于智能工具,用以减轻人类劳动的弱人工智能;第二种是,属于社会进步的主体,达到或超越人类智慧水平,具有心智和意识,依据独立意图开展行动的强人工智能。从技术层面看,目前人工智能所取得的进展和成功基本上都是基于弱人工智能技术,但在军事、家庭生活(如性伴侣、棋手)等个别领域,已进入强人工智能阶段,预计在不远的将来,会进入超强智能阶段,为此,有人担忧人工智能的进一步发展,有可能终结人类文明。实证研究显示,大多数社会公众并不希望人工智能完全独立于人类。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,Frontiers in Robotics and AI, vol. 8 (November 2021), p.5.当然,据此我们还无法否定未来出现超强人工智能的可能性。人工智能技术的进一步发展,可能会使人工智能这一纯粹的技术性问题最终超越科学的领域,对人类社会的伦理、道德、法律等方面产生深远的影响。其中既可能存在技术进步所带来的福利,也可能产生传统社会难以预见到的风险,“面对人工智能技术发展可能带来的负面影响,我们刑法学者不应该无动于衷,刑事立法和刑事司法更不应该面临危险而束手无策”。刘宪权:《人工智能时代的“内忧”“外患”及刑事责任》,《东方法学》,2018年第1期。
据此,刑法理论对人工智能的独立刑事责任地位进行了广泛探讨。如认为对人工智能刑事责任主体地位的研究符合时代发展需求,如果一定要等到强人工智能全面到来的时代再研究相关法律问题,会使得法律及相应的规章制度落后于科技进步,只有进行前瞻式的研究才能消除人们对人工智能犯罪的恐惧。彭文华:《人工智能的刑法规制》,《现代法学》,2019年第5期。也有的认为,承认人工智能的刑事责任主体地位并非没有意义,因为人工智能的“智能”来自于对海量数据的学习,对人工智能施以刑罚,可以使人工智能通过对相关法律信息和判例的收集获取正确的法律观念,实现一般预防的作用。程龙:《自动驾驶车辆交通肇事的刑法规制》,《学术交流》,2018年第4期。
类似的研究具有一定的前瞻性,但针对的也都是今后可能出现的超强人工智能,对于现有的弱人工智能技术而言,其智能的实质是依照生产时所用的算法规则,对外界事物或指令所作出的反应。松尾丰、盐野诚:《大智能时代:智能科技如何改变人类的经济、社会与生活》,陆贝旎译,机械工业出版社2016年版,第6页。现有的弱人工智能技术不具备独立于自然人的自由意志,并且具有可支配性,所以弱人工智能没有脱离智能工具的范畴,理论上尚无讨论其独立刑事责任主体的空间,因为“法律作为最重要的社会规范,最终要来源于社会存在的合理要求,而不应该来自空洞的想象力”。龙卫球:《人工智能立法规范对象与规范策略》,《政法论丛》,2020年第3期。而且部分应用领域中基本不可能发展出强人工智能,如在医疗领域中,无论技术如何进步,或许都不能否认自然人医师在医疗过程中的主导地位,完全自主的医疗人工智能并不符合人工智能有益、可控的发展目标,也不能符合社会的需要。退一步讲,即使出现了医疗领域的强人工智能,在患者使用完全脱离医师主导的医疗人工智能进行治疗的情况下,因为缺乏“医师—患者—医疗机构”之间的医患关系基本结构,这种治疗已变成患者本人运用智能设备的“自诊”的行为,难以通过现行的医事法律规范和医事犯罪的相关规定进行处理。皮勇:《论医疗人工智能的刑法问题》,《法律科学》(西北政法大学学报),2021年第1期。
同时,即使赞同人工智能的犯罪主体地位,也需要注意到人工智能的智能程度划分是需要技术方面的工作,并不是法律上的简单判断。因为人工智能主体虽然具备相对独立于自然人的“智能”,但是不可能做到完全等同于自然人的思考与判断,对于其“智能”的基本组成要素、判断规则以及具体标准等,都属于需要技术领域回答的重要问题。王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》,2019年第1期。在相应技术标准尚不明确的情况下,在刑法领域中并不具备对人工智能的刑事责任主体地位进行有效探讨的条件。
从国家对人工智能技术发展的具体要求来看,《伦理规范》第3条第4款的规定延续了《发展规划》中“确保人工智能安全、可靠、可控发展”的要求,明确指出人工智能开发需要坚持可控可信的原则,不能剥夺人类的“充分自主决策权”,人类有权随时退出与人工智能的交互,有权随时终止人工智能的运行,从而确保人工智能始终处于人类控制之下。所以即使人工智能技术对国家发展具有战略意义,完全脱离自然人管控范围的超强人工智能也不是我国人工智能技术的发展方向。
当代刑法肩负积极有效贯彻安全政策、保证国家总体安全的特殊使命。需要为社会提供积极能动但又不失审慎适度的刑法保障安全之逻辑与方案。高铭暄、孙道萃:《总体国家安全观下的中国刑法之路》,《东南大学学报》(哲学社会科学版),2021年第2期。所以在进行前瞻性思考之外,我们更需将目光聚焦在当下,在认识到其工具属性本质的基础上,对现有人工智能技术给法律制度、法学理论所产生的影响进行分析,提出合理的解决方案,这也有利于增强社会公众对人工智能技术的信任,从而保障人工智能技术的进一步健康发展。毕竟法律是行为规范,科技本身不会成为法律规范的对象,需要规范的是科技活动及其产生的社会问题。龙卫球:《人工智能立法规范对象与规范策略》,《政法论丛》,2020年第3期。
(二)算法黑箱问题
算法作为人工智能技术的核心,其本质是计算机按照一系列指令去执行、处理收集到的数据。算法可以根据收集到的数据对原有的算法模型和假设进行持续检验,并作出实时调整,从而构成了人工智能相对独立于自然人个体的智能化基础。金东寒主编:《秩序的重构:人工智能与人类社会》,上海大学出版社2017年版,第105页。对社会公众而言,算法这一相对独立的决策过程具有不可知的技术逻辑,即算法黑箱。在智能时代中这种不可知的技术逻辑正在深刻影响着我们的生活,在我们已知或未知的领域替我们做着决定,引导我们的行为,故算法黑箱被视为人工智能技术风险的根源。在刑法理论上,算法黑箱问题则是对人工智能所造成的损害进行归因判断的一大障碍。
刑法中的归因判断,是指通过行为人的行为与损害结果之间的因果关系,确定结果是否可以归属于一定的行为。基于算法的独立运行逻辑,在归因上需要判断算法的独立运行是否会割裂损害结果与相关主体行为之间的因果关系。因为如果认为算法的运行逻辑对人工智能设计者或使用者而言是不可知、不可控的过程,则难以认为算法所导致的损害可以归属于相关的法律主体。
辨析算法运行中的逻辑,涉及算法的解释问题。对于算法是否能够被解释,有观点指出现实中许多大型算法应用往往存在多种算法叠加使用的现象,使得专业人员也难以对其解释,而且即便可以解释,解释的结论也难以被一般公众所理解。苏宇:《算法规制的谱系》,《中国法学》,2020年第3期。相反的观点则认为,算法的设计是一个具有目的性的过程,即使存在有将算法进行拆分或组合使用的复杂算法,设计算法所欲追求的目的也是可以探求和解释的,所以算法黑箱是相对的,对算法黑箱的怀疑和恐惧,实质是社会公众对算法决策中因果关系认知的断裂。金梦:《立法伦理与算法正义:算法主体行为的法律规制》,《政法论坛》,2021年第1期。
虽然对算法黑箱的认识具有一定分歧,但从以下角度来看,算法黑箱的存在并不能否认弱人工智能所具有的工具属性,也就不能割裂人工智能损害结果和相关主体行为之间的因果关系。
首先,算法在设计上需要人为地设定价值目标。在算法设计时所设定的价值目标相当于设计者给算法所下达的指令,之后算法的所有运作虽看似是一个脱离人为控制的状态,但实质上都是依据所收集的数据和环境信息,不断朝向最初设置的目标运作并优化的过程。金梦:《立法伦理与算法正义:算法主体行为的法律规制》,《政法论坛》,2021年第1期。部分算法风险,即源于最初的价值设定偏差。算法在自我运行时应该收集什么类型的数据,也需要人为设定。因此,算法在运行中所做的任何决定都需要由人类授权,人类可以对他们在开发和使用人工智能和算法时所做的决定负责。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2055.又如在人工智能的伦理问题方面,人工智能难以通过自我学习来认识广大的社会系统,进而形成合理的伦理观念,但设计者完全可以赋予算法一定的价值判断规则,使算法的决策尽可能符合社会伦理。故弱人工智能应用的算法在合规律地运行时,可以视为设计者价值诉求的体现,对此也可以要求算法的设计者通过分析各种风险会以何种方式进入系统,对相关风险进行积极规避。沈向洋、施博德:《计算未来:人工智能及其社会角色》,北京大学出版社2018年版,第26页。其次,在算法运行的过程中可以实现人为的干预。目前主流人工智能技术以具有工具属性的弱人工智能为发展方向,《发展规划》和《伦理规范》也并不赞同开发独立于自然人的超强人工智能,发展人工智能技术的目的在于使其更好地服务于人类,实现人工智能与人类的协调工作,所以人机交互是人工智能发展所需突破的重要技术领域,使人工智能系统更好地接受、理解人所给予的指令。如自动驾驶汽车,其驾驶行为虽是自动的,但何时出发、目的地的设定、中途是否需要更换目的地或停车,都要依照人的指令决定。且对于自动驾驶汽车而言,不仅使用者在使用时可以对其下达指令,如果没有相关的保护措施,自动驾驶汽车可能会被黑客通过网络侵入其自动驾驶系统而劫持。Kyounggon Kim, Jun Seok Kim, Seonghoon Jeong, Jo-Hee Park and Huy Kang Kim, “Cybersecurity for Autonomous Vehicles: Review of Attacks and Defense”,Computers & Security, vol. 103 (April 2021), p.21.研究也发现,如果用户对算法进行轻微的控制,部分算法错误是可以被克服的。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,Frontiers in Robotics and AI, vol. 8 (November 2021), p.2.故在具体应用的过程中,人工智能也处于相关法律主体的支配之下。