人工智能的伦理困境及其法治化解决路径
作者: 魏龙凡[摘 要]ChatGPT等大语言模型的出现掀起了新一轮的人工智能发展狂潮。人工智能的发展对传统社会秩序和社会道德体系产生了强烈的冲击。在人机关系层面,人工智能在法律、医疗、教育等领域的广泛应用也对人类的“主体性”产生了威胁。这些不同层面的伦理困境阻碍人工智能的进一步发展以及社会进步。现阶段人工智能治理缺乏具有影响力的国际行业规范。与此同时,在技术发展过程中人的价值在一定程度上被迫让位于科技价值。人工智能发展如何走出“科林格里奇”困境仍然充满挑战。因此,我国必须以人本主义的核心立场去审视人机关系,推动构建国际性人工智能行业规范,探索如何用法治化的手段走出人工智能发展的伦理困境,最终达到科技进步与保障人类福祉的平衡。
[关键词]人工智能伦理;人机关系;人工智能法治化
[中图分类号]D90 [文献标志码]A [文章编号]2096-1308(2024)03-0066-11
早期的人工智能研究主要集中于创建能够模仿人类解决问题技能的程序,如纽厄尔和西蒙等逻辑理论家。这些基础研究为AI设定了核心目标——创造能够复制人类智能方面的机器。20世纪80年代向机器学习的转变代表了从基于规则到基于数据的方法的范式变化。21世纪初深度学习的出现,将AI带入了应用性时代。而近几年生成式人工智能的出现更是将人工智能的发展推到一个新的顶峰,2022年11月30日,OpenAI发布了ChatGPT,不足两年时间OpenAI推出的生成式视频人工智能模型Sora再次成为全球关注的焦点。Sora能将文字、图像、音频等信息转化为逼真的视频,让人叹为观止。从人工智能技术驱动的自然语言处理工具ChatGPT到如今的Sora,从自动生成文字、图片,再到自动生成视频,短短几年时间人工智能基于大语言模型技术所迸发出的颠覆性的创造力让人惊呼震撼。与此同时,在人工智能高速迭代的背景下,人工智能的伦理问题也层出不穷。例如,新型的违法犯罪案件、人机冲突带来的人类主体性的缺失、人工智能的道德危机等。由此可见,人工智能的伦理困境,成为人们亟须解决的现实问题。
本文将归纳人工智能伦理困境的现实样态,分析人工智能伦理困境出现的成因,探索中国特色法治化人工智能伦理困境解决进路。
一、人工智能的伦理困境
2023年10月,中国发布了《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了中国关于人工智能治理的方案,具体包括在人工智能治理方面坚持伦理先行,建立并完善系统的人工智能治理准则、规范及相应的问责机制。伦理观念影响法律规范所体现的价值和指引的方向,因此在人工智能治理和规制的过程中需要“伦理先行”,在明确伦理困境的基础上再进行具体的法治化探索。人工智能的伦理困境主要包括社会伦理困境和对于人类“主体性”的冲击。
(一)人工智能对社会规则体系的冲击
社会伦理主要是指在社会生活中调节人与人、人与社会之间的道德规范和准则体系。社会规则体系是社会伦理的制度化表达。而人工智能对社会规则体系的冲击主要表现在对社会法律秩序的挑战和重塑以及对于就业的影响。
1.人工智能应用中的法律挑战
在民商法律方面,人工智能的应用目前最突出的问题体现在个人隐私和数据安全方面。在人工智能系统中,海量的数据被用于训练算法模型,以提高人工智能的实践表现。然而,如果那些个人敏感信息被错误处理,则必然损害个人权益。2024年2月,斯坦福大学发布的白皮书《反思人工智能时代的隐私问题——针对“以数据为中心”世界的政策建议》指出隐私和数据保护框架无法扩展,让个人在数百甚至数千个数字关系和渠道中承担管理其数据的主要责任,无法成功保护个人隐私,也无法化解人口或社会层面的隐私风险和危害。
以ChatGPT为代表的新一代生成式人工智能应用于各种艺术创作领域,人工智能生成内容(AIGC)在外观形式上高度趋同于人类作者创作的作品,受限于AIGC创作主体认定的困境,也引发了AIGC“作品”属性的争议。人工智能决策的责任归属也是一个难题。由于人工智能系统的决策往往基于复杂的算法和模型,这些算法的运作方式往往是不透明的,缺乏解释性。[1]
在人工智能产品侵权案件中,责任认定往往出现多种责任竞合。因为人工智能具有智能性的特点,使用者在使用人工智能产品的时候,更多的是选择人工智能运行模式或基本设定。因此,导致人工智能在使用过程中往往无法由使用者作出预先判断,并加以干涉。而使用者在使用人工智能产品的过程中出现侵权行为时,就会产生侵权责任与产品责任的竞合。因为同时涉及使用者与研发者、运营者共同侵权的可能性,两种责任的区分将变得困难。
在刑事法律方面,生成式人工智能因其“类人性”强,极易引起非法侵入计算机信息系统罪、破坏计算机信息系统罪等。例如,“山寨版”ChatGPT会产生恶意链接,用户按照指令点击后,恶意软件会攻击用户电脑设备、入侵用户特定的计算机系统、非法获取用户的个人隐私数据。生成式人工智能凭借自身的海量数据,通过深度学习形成非法对话内容,用户在进行特定主题对话时,更容易获取违法犯罪信息。另外,在刑事司法中,使用人工智能司法工具容易出现“算法黑箱”和“数字鸿沟”,从而影响司法的公平公正,降低司法机关的公信力。
2.人工智能司法工具的价值判断困境
一方面,传统的司法三段论的法学方法论模式是大前提—小前提—结论。法官在作出司法裁判的过程中,自由心证过程是包含价值判断的。人工智能司法裁判在进行价值权衡时是依据海量数据形成的规则模型,但是人工智能如何对这些海量的司法数据进行分析与判断是广泛存在于各国法律人工智能发展过程中的难题。另一方面,从当前人工智能技术发展的现状来看,人工智能司法很容易会被社会政治因素“控制”,从而滑向另一个深渊。
当前人工智能技术在我国司法裁判的价值判断过程中的应用主要存在四个方面的障碍:
第一,司法数据不充分。我国各级法院的大量裁判文书并没有在裁判文书网上予以公布,裁判者在进行案件的审理和裁判活动中所运用的自由心证过程无法体现在已经发布的裁判文书中。
第二,司法数据的真实性存在疑问。在现实中存在公开司法文书中的裁判理由与法官在审判过程中实际的裁判理由存在很大出入的情况。
第三,司法数据存在主观性。不同地区的法官甚至同一地区的不同法官在面对同样的案件时可能有不同的处理结果,这也决定了公开的裁判信息具有主观性。
第四,司法数据缺乏文本上的统一性。全国各地基于现实情况的差异,公开的裁判文书中的司法数据在文本上可能存在很大差异,这种差异性体现在人工智能司法上就会导致人工智能识别困难。[2]这些司法数据方面的问题,成为对人工智能进行正确司法价值判断的阻碍。人工智能系统是在大量数据集上训练的,这些数据集可能会受到历史偏见的影响,而人工智能的机械客观性可能通过“技术清洗” 让这些偏见不易被发现,因此也在某种程度上强化了偏见,影响决策的公正性。[3]事实上,在其他国家,这种数据方面的技术障碍也同样存在。
这种数据的不充分和不“完美”就导致人工智能在进行司法裁判过程中只能进行一些简单的价值判断,但是面对复杂多样的现实案件,仅仅具有简单价值判断的能力是完全不够的。公正的司法裁判要求的显然更多。
人工智能应用于司法很容易使司法成为政治歧视的工具。以美国部分州法院使用的再犯危险性智能评估工具 COMPAS为例,COMPAS曾经对一名黑人女性
Brisha Borden和一名白人男性Vernon Prater进行社会危险性打分,Brisha Borden因为四次青少年时期的违法行为被判定危险系数为7(high risk),而Vernon Prater则以两次武装抢劫既遂,一次武装抢劫未遂,一次携带凶器盗窃被判定危险系数为3(low risk),而后Brisha Borden与Vernon Prater均因犯罪被捕,Brisha Borden因社会危险性系数高被判定为重罪。法院这一判决也使开发COMPAS的公司因种族歧视问题被调查。
这种人种的歧视,其实是美国社会种族歧视问题折射到司法领域的体现。与传统法官裁判不同,人工智能进行司法裁判的速度非常快,在一定程度上稀释了法律程序在司法裁判过程中的作用。如果人工智能被广泛应用于司法的各个环节,那么可以预见的是这种“歧视”将很难被监督,而且很难进行侵害弥补。对于人工智能是否可以追责是一个值得研究的问题,但是就目前人类认知水平来看,人工智能在适用司法过程中产生的侵害,很难通过传统的救济手段进行调整。最终,司法的“歧视”很可能会在人工智能的“掩护”下全身而退。
3.人工智能对现有就业结构和模式的冲击
2024年5月14日,国际货币基金组织总裁表示,未来两年,对于发达经济体而言,人工智能可能会影响60%的工作岗位;而对于全球所有国家而言,人工智能将会冲击40%的工作岗位,以教育和法律行业为例。
基于大语言模型的生成式人工智能教育工具的革命极大地改变着知识传播的途径。学习空间从线下更多地转移到线上,从“有形”逐渐变为“无形”。试想有一个百科全书式的“老师”24小时在你书桌旁守候,你关于所有领域的问题都能得到他的解答,这样的学习模式是不是完全颠覆了以往?事实上ChatGPT技术已经让这种想象成为现实。首批11家国产大语言模型已经通过国家监管部门备案。[4]生成式人工智能的文本生成、语言理解、知识问答、逻辑推理等方面能力对于教育教学具有极大的应用潜力和价值。[5]
在法学教育的培养目标层面,生成式人工智能的加速迭代,也向传统的法律实务工作和法学研究工作提出了新的要求。法学教育所培养的法律人才需要具备应对人工智能冲击的更高层次的技能。
人工智能相比一般律师有以下优点:第一,即时处理海量的数据并给出结论;第二,永不疲倦并且可以随时工作;第三,无非理性因素的影响,更加中立和客观;第四,能够最大限度地避免错误的发生。目前来看,人工智能对一些初级工作和重复性工作具有明显的替代作用,这就意味着未来会有相当多的律师,特别是初级律师会失去工作。高端法律工作者利用人工智能的能力将成为其核心竞争力的重要组成部分。可以预见,精通使用生成式人工智能技术来协助法律研究和分析的“超级律师”可能会更受欢迎,因为他们能够为客户提供更准确和全面的法律建议。[6]
而人工智能对于法律共同体就业的影响只是其具有代表性的“冰山一角”。事实上,除了已经消失的一些传统岗位,所有重复性强、规律性高、标准化的工作在不远的将来都会走向“末路”。
(二)人工智能对社会道德体系的冲击
道德不仅体现在人们社会生活的方式中,而且部分构成人们社会生活的方式[7],人工智能的广泛应用可能导致道德的虚无化以及对人的本质带来挑战。[8]这种道德危机会动摇人类社会原有秩序的情感基础,从而使社会走向不可控。
道德的虚无化是指人工智能使人类脱离实践的人际关系,从而失去道德发生的情感因素来源。道德是一种实践理性,是人与人在社会交往过程中所产生的用于规范人的行为和调节人们之间关系的准则与规范。在人工智能时代,人的传统社会联系减少,人们更多的是通过人工智能工具交流,甚至直接与人工智能工具交流。目前,我们熟知的AI对话工具,百度的文心一言、阿里的通义千问、ChatGPT、微软Copilot、谷歌Gemini等都得到了不错的市场反应。随着生成式人工智能的迅速迭代,其情感沟通能力会更加接近真实的人类对话。而缺乏真实社会人际交往,人类道德也会逐渐发生异化,并且在缺乏监管的“网络世界”,人的道德会更难以受到制约。