人工智能时代的社会公正风险:何种社会?哪些风险?

作者: 李猛

作者简介:李猛,政治学博士,北京外国语大学国际关系学院副教授。

基金项目:国家社科基金重大项目“人工智能伦理风险防范研究”(编号:20&ZD041)。

摘要:人工智能导致的社会风险根源于人工智能社会的不公正。为了更加全面认知人工智能的社会公正风险,需要结合马克思主义分析人工智能时代的社会形态:从“生产公正”角度看,人工智能社会是深度自动化生产的社会,这可能导致劳动向下聚集、劳动能力弱化、劳动“分体化”等生产公正风险;从“分配公正”角度看,人工智能社会是物质极大丰富但个体性、空间性、时间性分配严重不均的社会;从“认知公正”角度看,人工智能社会是虚拟与现实结合的社会,可能导致理性认知剥夺、自控能力剥夺、自主选择剥夺的认知公正风险;从“发展公正”角度看,人工智能与人类社会之间的矛盾与张力,可能导致能量争夺、权责失衡和消极反抗等发展公正问题,进而弱化社会追求公正的动力。导致人工智能社会公正风险的根本原因在于世界资源有限性与人类和人工智能需求无限性之间的矛盾、核心诱因在于人类社会固有的不公正问题、最大障碍在于现有治理手段难以直接作用于人工智能领域的责任主体。对此,需要合理划定人工智能发展的能耗标准和比例、着力解决传统社会中的不公正问题、以人的发展为目的穿透人工智能的“责任黑箱”。

关键词:人工智能;生产公正;分配公正;认知公正;发展公正

中图分类号:TP18;D616 文献标志码:A 文章编号:1007-9092(2023)03-0118-012

一、引言

人工智能对社会的改变不仅在于其为人类提供了更加强有力的工具,而且在于其深刻改变了人类社会的基本结构:在人类活动的物理空间(Physical Space)和社会空间(Social Space)二元空间之外,真正地构建了“第三元”的赛博空间(Cyberspace)。①三元空间结构的形成改变了之前的人与人、人与自然简单关系,促成了人与人、人与自然、人与人工智能、人工智能与人工智能、人工智能与自然等更多维度的复杂关系。人工智能时代给人类带来无限发展可能性的同时,也必然会重塑传统的社会秩序。

对于人工智能可能导致的社会风险,相关研究有以下几种主流观点:一是“失业陷阱”。人工智能大规模的应用必然会取代大量的传统制造业和服务业的工作岗位,只有少量最需要人文关怀能力、创造力或者管理能力的岗位才能保留下来。这种局面使得“所有的一切均对资本极为有利……劳动者的处境非常糟糕”大卫·巴恩西泽、丹尼尔·巴恩西泽:《人工智能的另一面:AI时代的社会挑战与解决方案》,郝英好译,电子工业出版社2020年版,第52页。。二是“无隐私社会”。特定主体可以利用人工智能轻松地观察、记录、分析甚至是操控人类的私人或者公共行为,这可能使人类彻底失去隐私和自主的权利。Stahl B.C. and David W.,“Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”,IEEE Security & Privacy, vol.16,no.3(2018),pp.26-33.三是“算法黑箱”。人工智能与传统的具有“价值透明”的工具不同,其存在、运行和应用的全过程都存在着“黑箱”:复杂算法编写过程的“解释黑箱”、深度学习过程不可避免的“技术黑箱”和利益相关者使用人工智能时的“组织黑箱”。浮婷:《算法“黑箱”与算法责任机制研究》,中国社会科学院研究生院2020年博士学位论文,第25-55页。四是“鲁棒性鸿沟”。现有人工智能还主要应用于具有较高容错能力、规则明确的具体问题领域,当人工智能拓展到无人驾驶、医疗诊断、老人照顾、利益分配甚至是政府决策等与人类生命或根本利益密切相关的领域时,鲁棒性的问题就变得极其重要。贸然将人工智能广泛应用到人类社会必然会带来更多不可预见的问题与风险。欧内斯特·戴维斯、盖瑞·马库斯:《如何创造可信的AI》,龙志勇译,浙江教育出版社2020年版,第23-25页。

历次工业革命的进程表明,任何革命性技术变革都会带来正反两方面的效果。只有对新技术的风险进行充分预判,才能更好地引导和推动新技术向着造福人类的方向发展。虽然学者们从多个角度对于人工智能的社会风险进行了深入剖析,但大多数讨论都是从技术角度出发的,这导致对于风险的研判呈现碎片化。相关研究成果中不同风险之间的技术和逻辑关系并不清晰,难以透视人工智能社会产生风险问题的深层次机理。在非技术性角度,相关论述中频率出现较高的词汇是“平等”“公平”“公正”等,如分析人工智能的社会风险时认为“(人工智能)反过来又加大了世界的不公正……它对社会结构的打击也是毁灭性的”Stephen H.,“This Is the Most Dangerous Time for Our Planet”,December 1, 2016, https://www.theguardian.com/commentisfree/2016/dec/01/stephen-hawking-dangerous-time-planet-inequality.。人工智能的社会风险不仅仅是技术导致的,而是与社会结构共振而产生的,人工智能加剧了社会不公正并进而诱发了一系列社会风险。因此,探究人工智能的社会风险,首先需要探究人工智能会塑造何种社会?这种社会又如何产生社会公正风险?社会公正风险如何与技术风险叠加?这正是本文要研究的核心问题。

围绕上述问题,本文进行了以下研究设计。关于理论框架,由于人工智能社会极其复杂且处于动态发展过程中,分析该问题需要运用能够被历史证明的具有跨时空分析能力的理论框架,在所有的理论体系中,马克思主义无疑是最具历史生命力和未来预见力的范式,“从世界社会主义500年的大视野来看,我们依然处在马克思主义所指明的历史时代”习近平:《坚持用马克思主义及其中国化创新理论武装全党》,《求是》,2021年第22期。。本研究将运用马克思主义辩证唯物主义和历史唯物主义基本原理,探讨人工智能对人类社会的塑造以及潜在的社会公正风险。关于核心概念,为了更深入分析人工智能导致的社会公正风险,本文在使用马克思主义“剥削”概念的同时,引入维托里奥·布法切描述社会非正义时使用的“剥夺”(包括分配不均、排他性和去权力化)概念,维托里奥·布法切:《社会非正义》,洪燕妮译,江苏人民出版社2020年版,第12页。以此来探讨人工智能社会可能导致的经济剥削、分配不公、利益排斥、认知障碍以及受害者无力改变现状等多重社会公正风险。关于论证结构,为了探讨人类、自然、人工智能之间的多维关系,本文从四个角度对人工智能社会公正问题进行讨论:在改造自然过程中由人类与人工智能关系而产生的“生产公正”问题、在成果分配过程中人类与人工智能关系而产生的“分配公正”问题、在社会认知过程中人类与人工智能之间关系构成的“认知公正”问题、在发展过程中人类社会和虚拟社会之间关系构成的“发展公正”问题。关于论证策略,由于人工智能技术专业性强且复杂多变,相关社会公正风险涉及人类生活的方方面面,很难用单一的实证方法和单一渠道的实证资料予以证明,而单纯使用规范性研究方法又难以避免论证的空泛与说服力的匮乏,因此本文在对相关问题进行规范性论证的基础上,尽可能地应用最新的案例、数据以及各个领域权威性实证研究成果予以佐证。

二、生产公正风险:深度自动生产的社会与“劳动排斥”

社会生产的公正性问题是马克思主义公正理论的起点和最大特点。由生产力和生产关系构成的社会生产方式是决定社会形态的根本性因素,也决定着公正的内容和实质。在社会生产过程中,从事实践活动的劳动者无疑居于主体与核心地位。“一个很明显的而以前完全被人忽略的事实,即人们首先必须吃、喝、住、穿,就是说首先必须劳动,然后才能争取统治,从事政治、宗教和哲学等等。”《马克思恩格斯文集》第3卷,人民出版社2009年版,第459页。劳动作为人类的本质活动,不仅塑造人本身,而且构成社会基本矛盾的核心节点,决定着社会基本形态的中心要素。各种错综复杂的社会矛盾和社会风险都可以从劳动的数量、结构和类型中找到答案。

在人工智能大规模应用之前的传统社会,人是劳动的主体。虽然人类创造和使用先进工具并极大提升了社会生产力,但这些工具仍然属于劳动资料的范畴,并不具有人类所独有的能动性和创造性。然而,人工智能具有很强的自主决策能力,一定程度上具备劳动主体和劳动资料双重属性。换言之,人工智能不仅仅是工具,而且是劳动者,甚至在很多领域是超越人类的“超级”劳动者。以人工智能发展水平走在前列的美国为例,从事人工智能相关工作的人员约占全部就业人口的07%,但是被人工智能直接取代的劳动者数量占全部劳动人口的15%,按照这种趋势未来高达50%的工作量会被人工智能和机器代替。James M. et al., “Jobs Lost, Jobs Gained: What the Future of Work will Mean for Jobs, Skills, and Wages”, November 28, 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.人工智能深度运用的劳动场域不需要太多的人类劳动者就可以创造较高的生产价值。甚至,某种程度上人工智能可以“自主”地拓展新的劳动对象和劳动领域,而不需要人类劳动者的参与。除对劳动者工作机会的剥夺外,人工智能社会的生产公正风险更多表现为对于中高端工作的结构性替代,使劳动者的工作机会向下聚集,并进一步导致劳动能力的弱化和剥削的固化。

第一个层次的社会生产公正风险是“劳动机会向下聚集”。与传统机器“向下”替代人工,但仍然创造较多制造、管理、协调等高技术岗位不同,人工智能对劳动者就业选择的替代是“向上”的。除了少数“金字塔”顶端的开创性工作,“中端的工作因为自动化和外包不断流失,而高端工作的增长趋势也加速放缓”David R.,“How Technology is Destroying Jobs”,MIT Technology Review,vol.16,no.4(2013),pp.28-35.。世界经济论坛发布的《未来就业报告(The Future of Jobs Report)》显示,从2018年到2022年,机器的工作时长占比在多个工作领域都有了明显增长,在搜寻与接收工作相关信息方面占比超过50%,信息与数据处理领域的机器工作占比已经达到62%。即使在人类劳动者占据独特优势的复杂技术性劳动、沟通交流、推理决策等领域,人工智能和机器的工作时长占比都增长了10%左右。Centre for the New Economy and Society, The Future of Jobs Report 2018, New York:World Economic Forum Press, 2018, p.11.这种“向上”替代趋势使许多创意创新类行业感受到极大威胁,尤其是ChatGPT和Midjourney等最新人工智能工具的开发和使用,极大加快了人类工作“向下聚集”的趋势,比如从事对语音、语义、图像等数据进行标注以协助人工智能进行训练的工作。

工作机会的“向下”聚集,会引发第二层次的社会生产公正风险,即“劳动能力弱化”。劳动创造了人本身,灵巧的肢体、复杂的语言以及创造性的意识都是在复杂劳动过程中逐步发展演化的。当人类的劳动被局限在简单、重复的辅助性劳动之中时,人类劳动就失去了挑战新领域、锻炼新技能、发展新能力的机会。而在人工智能广泛应用的社会之中,可以预见大多数人类劳动者是处于“辅助”地位的。劳动的“目的”不是为了自身的发展,而是为了人工智能的发展和演化“投喂”数据。这是历史上从未大规模出现过的现象,这可能会从根本上削弱人的主体性和全面性。“个人的全面性不是想象的或设想的全面性,而是他的现实联系和观念联系的全面性。”《马克思恩格斯文集》第8卷,人民出版社2009年版,第172页。无法主动、全面地联系现实,只能塑造出片面的和异化的劳动者,只能制造出永远处于从属地位和以“剥削”为合理秩序的劳动者。

前两个风险的叠加易引发第三层社会生产公正风险,即“劳动分体化”。人工智能时代除了劳动机会和劳动结构的剧烈变化,劳动方式也发生重大变化。传统工业社会的大规模的、真实的、由人类控制的劳动协作变得“虚无缥缈”,生产协作开始被平台和算法接管。人类的劳动出现“分体化”(Dividuum)的趋势。Raunig G., Dividuum: Machinic Capitalism and Molecular Revolution, Cambridge:MIT Press,2016,pp.11-24.与“碎片化”或者“原子化”的概念不同,“分体化”指的是劳动具有分散性和流动性双重特征。人类的劳动不需要有固定的职业、固定的场所、固定的关系,分散的个体可以在不同职业和场域中“自由”流动。表面上看,将劳动者从封闭的空间和协作关系中“解构”是人类自由的极大拓展,但从深层次讲,劳动的“分体化”使得背后掌控的资本不仅不用负担传统劳动所需要支付的社会保障、办公场所、组织建设、员工培训等费用,而且可以利用工作机会减少和向下聚集的态势,通过竞赛算法和激励算法使劳动者为了获得少量的劳动机会和“超额”的劳动报酬而进行“探底竞争”。劳动者的工作时长不断增加,而劳动者的劳动技能和组织能力则会不断削弱,而最终的后果就是对于劳动价值更加彻底的压榨和剥削。

经典小说推荐

杂志订阅

友情链接