人工智能提供者侵权责任的认定

作者: 陈晨

摘要:人工智能的学习能力和自主决定引发其行为有限的可预测性、可控制性、可解释性,导致人工智能提供者侵权责任的认定陷入困境。在当前的人工智能发展水平下,人工智能提供者不宜承担危险责任。人工智能属于产品,提供者承担产品责任,应运用“理性人工智能标准”在动态的“投入市场”时间段判断人工智能是否存在缺陷。为减轻被侵权人举证负担,实现人工智能侵权中的受害人救济目标,人工智能提供者应当承担必要证据的开示义务,应当推定人工智能提供者的行为与人工智能的输出之间的因果关系。

关键词:人工智能提供者;产品责任;产品缺陷;危险责任;证明责任

一、问题的提出

近年来,新型人工智能技术取得突破性进展,其具有学习能力,能够在不断变化的环境中根据所收集的数据独立自主决策,被运用于医疗服务、自动驾驶及智能家居等日益丰富的场景。人工智能的商业化运用既为人类生活提供更多选择,为通用人工智能技术的进一步发展奠定基础,也带来了新的权益侵害风险,亟须构建法律与技术融合的人工智能侵权责任规则。早在2017年,国务院即印发《新一代人工智能发展规划》,明确提出“制定促进人工智能发展的法律法规和伦理规范”;2023年度和2024年度国务院立法工作计划均提及“预备提请全国人大常委会审议人工智能法草案”的计划。欧盟自2017年开始围绕人工智能民事责任陆续草拟了《人工智能民事责任》草案和《人工智能非合同民事责任指令》提案等,2024年适应数字经济和人工智能时代发展的《人工智能法案》生效、《缺陷产品责任指令》通过,足见包括人工智能侵权责任在内的人工智能立法的迫切性。

就人工智能侵权责任,现有研究或聚焦于医疗服务、自动驾驶、生成式人工智能等典型应用场景,或着眼于侵权责任的特定构成要件、免责事由;较少从人工智能提供者角度切入进行深入分析。考虑到以下因素,有必要对提供者侵权责任认定的一般规则进行研究。其一,不同类型合同中人工智能提供者的义务不尽相同,当事人亦可以通过约定改变任意性法律规定。人工智能的合同责任主要取决于当事人之间的约定,难以进行概括的一般化分析且意义有限。其二,不同应用场景、不同风险级别、不同发展水平的人工智能侵权具有不同的特点,类型化分析有助于化解特定人工智能应用中的侵权责任难题。提取公因式的共性分析亦具有重要意义,有益于人工智能提供者侵权责任中基础性问题的回答、误解的澄清、责任框架的构建及完善。其三,虽然人工智能侵权中潜在责任主体众多,但从风险源的制造、对风险的控制力及从风险中获益等角度看,提供者承担侵权责任具有正当性和合理性。对提供者侵权责任的剖析也能够为其他主体侵权责任的认定提供重要参照。

人工智能的自主性引发其行为有限的可预测性、可控制性、可解释性,导致人工智能提供者的侵权责任面临诸多难题。提供者承担过错责任还是危险责任?提供者侵权责任是否以及如何适用产品责任规则?如何解决被侵权人的举证困境?为此,本文将在解析人工智能侵权中责任认定问题的特殊性的基础上,分析人工智能提供者的侵权责任构成和证明责任,力求实现被侵权人权益保护与提供者行为自由、技术创新与风险控制目标的平衡,充分发挥责任制度的损害填补与预防功能。

二、人工智能提供者侵权责任难题及解析

人工智能是指以机器学习为基础,为实现特定目标而自主运行的系统。人工智能的商业运用,既要考虑技术创新与产业发展,又要考虑与之相伴的法律适用难题。只有充分解析人工智能及其侵权的特殊性,分析其带来的侵权责任挑战,才可能提出法律与技术相融合的应对方案。

(一)人工智能及其侵权的特殊性

人工智能的自主性并非全有全无,而是存在程度区别,其行为受内在机制控制的程度越高,对复杂环境的适应力越强,则自主性程度越高。据自主性程度的不同,人工智能的机器学习可分为监督学习、强化学习和无监督学习。不同于传统的弱人工智能,本文所讨论的新型强人工智能不是根据程序员预先的设定作出决定,其行为不完全取决于研发者,而是具有学习能力,能够通过机器学习掌握且不断调整信息处理规则,并在具体的情境中作出自主决定。一方面,人工智能决定不再以编码为基础,其所选择的输入数据及输入数据与输出决策之间的联系未必能被获知。另一方面,机器学习算法具有动态性、自主性、迭代性,人工智能自动化决策过程难以被知晓和控制。即便“可解释的人工智能”(explainable artificial intelligence,XAI)等研究和人工智能可解释性等法律规范要求,也只能在一定程度上提高人工智能自主决策的可理解性,而不能完全解决算法黑箱难题。

但人工智能的学习能力与自主性乃其固有特点及优势所在。人工智能不仅在处理数据的速度方面远远超过人类,而且还能察觉到人类尚未发现或根本无法发现的部分现实,由此人工智能得以提供更多的“出乎意料”的问题解决方案。例如,谷歌翻译采用使用平行语料库训练的深度神经网络后,自动化翻译性能提高了60%,且其后稳步提升;生成对抗网络被用于开发新的人工智能,能够对代码框架进行细节填充;美国 IBM 公司的癌症诊断系统沃森(Watson)能够向患多种癌症的患者提供个性化的治疗方案。

从责任法角度,自主性意味着控制可能性的降低,使得人工智能行为事前仅具有有限的可预测性和可控制性,事后仅具有有限的可解释性,导致人工智能提供者侵权责任的认定陷入困境。详言之,第一,人工智能价值链涉及主体众多,既包括人工智能提供者、训练数据提供者、数据训练者、人工智能研发者,也包括人工智能使用者、人工智能更新者等。同一主体可能发生不同身份的重叠,同一身份可能存在复数主体,人工智能的自主性使得对其控制力在更多主体之间分配和转移。有必要分析提供者是否处于控制力的中心应当被施加更严格的侵权责任,以及如何将人工智能侵权责任在不同主体之间妥当分配。第二,人工智能的自主性导致包括提供者在内的潜在侵权责任主体均失去对人工智能的完全控制,但控制与支配是法律责任理论的逻辑基点之一。由此产生的疑问是人工智能的“错误”决定是否以及如何归责于提供者,以何种标准认定作出了“错误”决定的人工智能存在缺陷。第三,人工智能学习能力和自主决策机制难以被理解和解释,使得在人工智能侵权中对因果关系的认定和举证困难重重。人工智能的学习能力,意味着诉讼程序中可以确定的人工智能行为规则与人工智能侵权导致损害时适用的行为规则可能并不一致。自主性导致很难确定侵权事件中损害源于人工智能本身错误决定,还是人工智能研发和生产中的错误,抑或是使用过程中的错误,由此可能导致人工智能侵权中责任的不合理分配或“行为人消失”。举例来说,对于由摄像头、智能人脸识别系统和门锁构成的电子门禁系统,人工智能的学习能力既使得其能够越来越准确地区分被识别者的关键特征和其他特征,在使用者改变发型或着装等非关键特征时也能通过门禁系统,也使得“错误”识别并导致权益损害时,难以确定损害赔偿责任主体及因果关系。该“错误”既可能源于人工智能提供者所提供的人工智能不符合标准,也可能源于第三方黑客攻击,还可能源于使用者的“错误”数据训练。

(二)人工智能提供者危险责任的否定

自主性风险是人工智能的固有风险,即便提供者事先进行过充分的安全运行测试,完成法律法规设定的各项要求,人工智能仍然可能侵害他人民事权益。例如,自动驾驶汽车投入市场后,行驶过程中不存在与运行测试时完全相同的交通状况,光线、天气、路况、道路使用者的数量及其速度等一个或多个差异因素均可能使其作出不可预测的决定并产生损害。鉴于人工智能的自主决定使得损害的发生不可避免,但人工智能的提供本身又为法律允许的行为,有学者建议立法规定人工智能提供者承担危险责任,因为危险责任正是寻求“对从事危险行为的一种合理的平衡”。其理由在于:其一,危险责任不是对不法行为所负的责任,而是对不幸损害的分配。人工智能提供者制造了危险源,能够在一定程度上控制这些危险,并且通过人工智能的提供获得利益,应当对由此产生的损害承担赔偿责任。其二,从经济学角度分析,因为只有当人工智能带来的收益大于损害赔偿成本时,提供者才会将其投入市场,危险责任能够规范人工智能的良性健康发展。其三,危险责任作为手段,能够使得人工智能提供者将社会所需要的技术产生的风险内部化,而通常与危险责任相匹配的最高责任额限制,能够使得风险在一定程度上被社会化,提供者承担危险责任并未使其承受不合理负担。其四,危险责任更能够确保被侵权人获得救济,从而能够增强人工智能的社会接受度,促进人工智能应用的推广与发展。

问题是当前发展阶段的人工智能的自主决定是否带来不可避免、不可估量的巨大损害风险,从而有必要对该风险施以严苛的“危险责任”。实际上,无论从潜在损害的严重程度,还是从损害的不确定性来分析,人工智能未必必然产生不同于传统产品的特殊危险。就潜在损害的严重程度而言,人工智能整体上并不会比人类或传统技术造成更频繁或更大的损害,否则其将不被允许投入市场。在某些情形中,人工智能可能导致特别严重的损害,但与其说源于其自主性,不如说是由于环境本身,特别是受其影响的法律利益。就损害的不确定性而言,“预防原则”(Vorsorgeprinzip)可能成为支持人工智能提供者危险责任的重要论据。根据该原则,立法者有权在风险不确定的情况下采取限制性措施,而不必等待这些风险的存在和严重性得到充分证明,在基因工程领域即是如此。但是人工智能有限的可预测性并不意味着造成损害的概率或程度必然特别高。此外,危险责任可能遏制人工智能科技创新的积极性,带来寒蝉效应,也不利于激励人工智能设计及应用者遵守合理标准防范损害风险。

就当前发展阶段的人工智能而言,不宜规定人工智能提供者的危险责任。一方面源于法律的安定性要求,法的安定性包括实证性、实用性、稳定性、明确性、溯及适用之禁止。“正如技术本身,相关法律在很多方面同样需要调整。但是,二者的不同之处在于,技术需要实践尝试,而立法如果在理论上更为谨慎,则可以避免很多法律问题。”在人工智能商业应用初具规模的发展期,不宜贸然规定人工智能提供者承担危险责任。另一方面,坚持过错责任也符合比例原则要求。为实现被侵权人损害填补目标,可能的解决方案包括提供者承担危险责任、举证责任倒置、过错与因果关系推定等,不同选择将对提供者行为自由产生不同程度的限制。当前技术发展阶段的人工智能侵权责任难题,很大程度上源于信息不对称和人工智能自主决定带来的证明责任难题,而非人工智能的特殊风险,理应首先寻求通过调整证明责任规则协调责任法损害填补、风险控制和风险分散目标,实现人工智能提供者行为自由和被侵权人利益保护之间的平衡。

三、人工智能提供者的产品责任构成

提供者是指开发人工智能,或已开发人工智能并将其投放市场或以自己的名义投入使用的主体。理论上大多肯定人工智能提供者的侵权责任可以适用产品责任规则,但同时认为,产品责任规则不能解决全部的人工智能提供者侵权责任问题。核心问题是人工智能是否属于产品。如果是,人工智能提供者是否以及如何根据《中华人民共和国民法典》(以下简称《民法典》)侵权责任编第四章“产品责任”和《中华人民共和国产品质量法》(以下简称《产品质量法》)相关规定承担产品责任。

(一)人工智能的产品属性

人工智能提供者承担产品责任的前提是人工智能属于产品。《民法典》侵权责任编“产品责任”章未对“产品”作定义性规定,《产品质量法》第二条第二款规定:“本法所称产品,是指经过加工、制作,用于销售的产品。”从该条文义出发,人工智能属于产品,许多学者亦在产品责任框架下讨论人工智能的侵权责任。但理论上通常认为,产品主要指有体物。有学者指出,只有纯软件系统的生成式人工智能,才能够更为明显地体现人工智能的固有特点和反映法律问题,因其具有明显的个性化服务特征,不属于产品责任适用对象。对于软件是否属于产品,欧盟学界素有争议,人工智能的广泛运用和《缺陷产品责任指令》的制定引发了新一波讨论热潮,问题的焦点在于,产品是否仅限于“有形”动产?产品与服务的区分标准及理由何在?

1985年欧盟原《产品责任指令》中的产品仅限于有形动产,例外包括电力。从文义出发并不包括不存在物理实体的人工智能和软件。德国学界主流观点认为,专门为用户编写定制的计算机程序属于服务,而大量复制并投放市场的标准化计算机程序,若其与硬件结合,则也属于产品。但对纯软件的性质,至今未达成一致意见。随着技术的发展,越来越多的人工智能未必存在物理实体,如果由此否定其产品性质,将导致嵌入式人工智能与非嵌入式人工智能的不合理区分。诸多学者认为,是否存在物理实体并不影响对人工智能产品性质的认定。首先,从产品责任的立法目的看,产品责任是为保护使用者免受大规模生产的工业产品危害,产品的本质属性并非有形或无形,而在于其批量生产、规模销售带来的社会效益,软件的无形性特征并不构成其适用产品责任的障碍。人工智能技术的运用能够实现规模经济和网络效应,人工智能与大规模生产的产品具有可比的潜在风险。人工智能亦可能存在设计缺陷、制造缺陷和指示缺陷,但使用者无法获知生产者内部生产过程进而举证其违反注意义务。其次,法律体系具有开放性,应当适应社会经济的发展。欧盟原《产品责任指令》第二条对产品的定义同时提及电力,正是因为立法者意识到,可能存在虽然为无体物但也应当适用该指令的客体,不应反面推理认为产品责任不适用于人工智能,而应当类推适用。最后,从风险源的产生、风险的控制和获益角度来看,人工智能提供者承担产品责任均具有正当性。提供者处于风险控制的优势地位,能够及时意识到人工智能缺陷并设法避免,通过将人工智能投入市场而获益,在风险分散方面相较于使用者亦处于更有利的地位,理应如传统产品生产者一样承担产品责任。欧盟在新近通过的《缺陷产品责任指令》中明确规定,包括人工智能在内的软件亦属于产品(第四条第一项),意在实现对受不同技术水平影响的被侵权人的同等保护。

经典小说推荐

杂志订阅

友情链接