生成式人工智能嵌入思想政治教育的伦理风险及其治理路径

作者: 周刚

生成式人工智能嵌入思想政治教育的伦理风险及其治理路径0

近年来,以互联网、大数据、人工智能为核心的数字技术迅速发展,特别是2022年以来,以ChatGPT为代表的生成式人工智能技术取得重大突破。生成式人工智能是指基于机器深度学习自主生成具有一定逻辑性的文本、图像、视频等内容的模型及其相关智能技术。生成式人工智能一经推出,就对包括教育在内的众多行业产生重塑性影响。思想政治教育是高等教育的重要组成部分,伴随着高等教育数字化转型的不断深入,人工智能技术与思想政治教育融合日益紧密,其潜在的伦理风险如伦理准则失衡、道德标准失守等随之逐渐凸显,并可能削弱思想政治教育实效。因此,具有前瞻性地审视生成式人工智能嵌入思想政治教育的伦理风险表现样态,探究伦理风险生成逻辑及其治理路径,对于推动思想政治教育数字化转型具有重要意义。

一、生成式人工智能嵌入思想政治教育

伦理风险的多重样态

生成式人工智能技术在通过优化育人过程、挖掘育人要素、拓宽育人空间深度嵌入思想政治教育的同时,其潜在伦理风险日益凸显。这种伦理风险既源于人工智能的一般性伦理风险,也具有思想政治教育的显著意识形态属性,主要呈现出伦理关系失衡、伦理行为失当、伦理规范失控等风险样态。

伦理关系失衡,师生主体地位消解及自我认知失调。生成式人工智能在融入思想政治教育的过程中,打破了原有学校教育中师生之间的强相关结构,有可能降低教师在课堂上的主导地位,影响师生之间的互动程度,削弱师生的主体地位,并可能导致学生自我认知的失衡。

其一,生成式人工智能的融入淡化了师生之间的联系,消解着教师的主体地位。一方面,以ChatGPT为代表的生成式人工智能能够理解和生成人类语言,利用其内置算法和模型,基于问题生成相应的答案,形成“人—机器—人”的虚拟交互关系。受教育者可以通过ChatGPT直接获取题目答案,批改课程作业,教师的信息主导优势和地位被不断消解。另一方面,随着生成式人工智能技术的发展,受教育者越来越依赖数字交往平台,师生之间交往进一步弱化,阻碍了师生之间的情感交流,教师主体地位被进一步弱化。加之部分教育者数字化素养偏弱,在教学过程中运用生成式人工智能技术难度较大,有可能加剧教育领域的“数字鸿沟”。

其二,生成式人工智能的潜在“画像”功能,导致受教育者自我认知失衡。大数据驱动的生成式人工智能契合了思想政治教育的多样化特征,能够根据学生需求提供个性化、定制化学习内容,不断提升思想政治教育的精准性。生成式人工智能在提供信息方面的确带来了便利,但长期的“信息投喂”也可能导致受教育者陷入“信息茧房”困境。人工智能算法往往会根据用户喜好和浏览习惯,推送相似或重复信息,使得用户接触到的信息范围变得狭窄,难以获得更为丰富和全面的内容。对于受教育者而言,长期接触这类偏窄的信息,可能会导致其思维固化,难以形成全面、客观的自我认知。

伦理行为失当,造成数字技术过度依赖与算法偏见加剧。大数据和算法推荐是生成式人工智能的核心技术,但其在丰富思想政治教育形式、创新思政教学方法的同时,也存在过度依赖数字技术、算法权力异化等伦理风险。虚拟智能教育空间更多以数字技术作为主要支撑,其伦理判断以量化形式表征,难以模拟并理解师生关系和道德观念,学生难以从冰冷的数据中感受到人文关怀。

其一,过度依赖生成式人工智能技术,会弱化受教育者的批判思维和创新能力。一方面,随着生成式人工智能技术的快速发展,其对信息数据进行加工、筛选和复合能力显著增强,极大地方便了人们的学习和生活,同时也容易使受教育者陷入算法的“舒适圈”,进而产生对技术的盲目崇拜,过分依赖机器生成的信息弱化了人们对信息的筛选和加工能力。另一方面,当个体与ChatGPT等生成式人工智能进行交流时,其对话内容和形式与“人类交互”高度相似,致使个体产生认知的舒适性,缺乏对真实世界的直接接触和感悟,容易引发对现实情况的误判。以撰写文献综述为例,使用ChatGPT可以较快获得相关文献并生成文献综述,但并不能替代研究者的学术素养训练,过度依赖这种工具将导致研究者丧失学术研究应有的深入思考能力。

其二,算法偏见可能冲击自由、公平等价值观念,撕裂网络主流意识形态价值认同,进而影响社会公平。一方面,以ChatGPT为代表的生成式人工智能在预训练过程中需要庞大的数据支撑,这些数据本身就可能带有对特定群体的社会偏见,进而加深刻板印象,从而加剧社会不平等。联合国教科文组织发布的相关研究成果显示,开源大语言模型倾向于将工程师、教师、医生等更多元、地位更高的工作分配给男性,而经常将女性与传统意义上被低估或被“污名化”的角色挂钩,从而引发性别歧视。[1]随着生成式人工智能应用越来越普遍,其生成内容中极小的性别偏见,也可能显著加剧现实世界中的不平等。另一方面,生成式人工智能在人机交换过程中不断获取用户信息,并通过自我学习提高技术的准确度。一旦使用者提问本身带有恶意或者偏见,经过长期训练便可能造成错误输出。另外,技术研发人员的个人偏好和主观情绪,也可能造成算法偏见并引起伦理问题。

伦理规范失控,可能导致隐私数据泄露与伦理责任主体缺失。生成式人工智能技术的快速发展,加之其在思想政治教育应用过程中的相关法律道德规范不健全或执行不力,可能引发伦理规范失控风险,主要包括隐私数据泄露和伦理责任主体缺失。

其一,教育信息采集和使用不当,可能造成隐私数据泄露。生成式人工智能在应用于思想政治教育实践的过程中,需要通过电脑、监控系统、可穿戴设备等智能设备采集大量教育者和受教育者的数据信息,全方面、全过程地了解师生的上课动态和行程轨迹,从而辅助教师调整教学方式,进行有效的智能测评和学情分析,为学生提供定制化教育资源和个性化教育形式。大数据的采集使师生信息数据高度透明化,其中不可避免地包含师生的生物外貌特征、心理缺陷、婚恋交友等隐私信息。如果师生数据保护意识不强,相关数据一旦被不法分子使用,将会造成不可估量的伦理风险。

其二,生成式人工智能的自我决策和自我学习功能,可能对传统伦理责任主体造成冲击。传统的责任伦理判断依赖决策行为与行动结果之间的因果逻辑关系,可以明确追溯到主体责任。而以ChatGPT为代表的生成式人工智能,依据数据和算法驱动的自主决策,其决策模型属于“算法黑箱”而缺乏透明度,难以对具体决策进行审查、干预和判断。如果人工智能技术在嵌入思想政治教育过程中出现决策失误,很难追究具体决策问题的技术主体责任到底来自技术研发者、数据提供者还是机器操作者。同时,思想政治教育承载着明确的政治立场和意识形态属性,它要求教育者具备深刻的判断力和敏锐的鉴别力,以引导学生形成正确的价值观和政治观念。然而,生成式人工智能设备尽管在某些领域展现出强大的能力,但不具备理解人类复杂思想的能力,在思想政治方面的判断力、鉴别力等方面存在先天缺陷,容易造成误判等风险。

二、生成式人工智能嵌入思想政治教育

伦理风险的生成机理

生成式人工智能嵌入思想政治教育,具体表现为以大数据为基础、智能算法为核心的全面嵌入思想政治教育实践各要素、全场域的过程。然而,这一进程不可避免地伴随着一系列伦理风险,其风险涉及范围广泛,从研发、设计到具体应用,都可能对人与人、人与社会的和谐共生带来潜在风险。这些伦理风险继承了生成式人工智能领域普遍存在的伦理问题,彰显了思想政治教育的独特性,是内生性机理、功能性机理和实践性机理共同作用的结果。

内生性机理:算法技术的局限性与思想政治教育的实效性相矛盾。科学技术像一把“双刃剑”,既能够推动思想政治教育快速发展,有时也会“表现为异己的、敌对的和统治的权力”[2],并制约思想政治教育的实际效用。随着生成式人工智能的快速发展,大数据的算法优势逐渐彰显,在弥补人类思维不足的同时,其自身也存在一定局限性。“算法黑箱”、机器自主学习等技术性根源容易导致“算法歧视”,不可避免地带来一系列伦理风险。

一方面,算法数据的依赖性与思想政治教育的时效性相违背。在生成式人工智能融入思想政治教育的实践活动中,算法技术扮演着核心角色,其高度依赖数据样本却带来了不少伦理风险。首先,生成式人工智能算法模型更多依赖以往数据建立,而数据本身往往带有偏见且容易过时。基于这些数据来分析现实问题,与思想政治教育“因时而新”的需求相悖[3]。此外,一旦数据缺损或算法代码出错,不仅无法保证算法模型的稳定性,还可能导致误判,进而严重影响用户“画像”、信息推送等功能,引发伦理风险问题。此外,在借助生成式人工智能赋能思想政治教育时,教育对象思维的转化、顿悟等心理转变无法通过数据进行预测分析,即生成式人工智能只能通过算法分析思想政治教育量的变化而无法达到质变。

另一方面,算法模型的固定性与思想政治教育的针对性相冲突。思想政治教育的目标是促进个体自由而全面的发展,由于每个教育对象的个性特征和成长环境不尽相同,需要根据个体实际情况进行因材施教。生成式人工智能在融入思想政治教育后,将教育对象、教育过程等不同环节进行精细化处理,转化为一个个冰冷的数据符号,依托固定的算法模型为教育对象提供个性化学习资源,引导受教育者按照预设的模式进行学习。这种统一固定的算法推荐模式,可能固化学生的创新思维,导致学生失去独立思考的能力,本质上不利于学生个性化发展,影响思想政治教育的针对性。

功能性机理:技术应用的工具性与思想政治教育的价值性相冲突。功能性风险是由于生成式人工智能的技术理性扩展而引发的伦理风险,它涉及智能技术在思想政治教育过程中可能带来的各种道德困境和伦理挑战。德国社会学家马克斯·韦伯将技术理性划分为工具理性和价值理性两方面。工具理性追求的是目标的达成和效率的最大化,它在赋能思想政治教育过程中,关注的是如何更有效地利用数字工具和手段来达到预期效果。价值理性强调的是行为的动机和意义,而非仅仅是行为的结果或实用性。[4]在实际应用中,价值理性要求我们在追求技术发展的同时,也要关注伦理道德和行为准则。

一方面,生成式人工智能快速发展引起工具理性过度膨胀。生成式人工智能为思想政治教育注入了新的活力,能够精准地捕捉教育对象的学习状态,准确评估其学业水平,并模拟真实的教育场景为思想政治教育提供无限的创新空间,推动教育的数字化和现代化进程。然而,生成式人工智能技术的日益完善虽然极大地丰富了教育功能,但也导致教育对象过度沉浸于数字技术营造的智能教育空间,并对数字技术产生过度依赖,进而削弱了教育对象的学习能力和判断能力。同时,这种过度依赖使得教育对象难以洞察思想政治教育背后所蕴含的深刻价值和意义。因此,随着生成式人工智能的“技术霸权”逐渐显现,其工具理性不断侵蚀价值理性,使得思想政治话语权被数字所支配。

另一方面,思想政治教育的价值理性的统摄作用得不到充分发挥。思想政治教育具备强烈的意识形态属性,它致力于引导人们坚定“听党话、跟党走”的信念,肩负着培养合格的社会主义建设者和接班人的崇高使命。然而,与生成式人工智能的工具理性相比,两者之间存在一定的张力,使得思想政治教育价值理性的发挥受到一定限制。教育对象在数字技术的诱惑下,过度依赖数字技术工具理性,导致人与人之间的情感交流逐渐淡化,高阶思维判断能力的发展受到严重阻碍。这种现状不仅与思想政治教育“以人为本”的初衷背道而驰,更可能引发一系列伦理风险,对社会发展造成不良影响。因此,需要重新审视人工智能技术的工具理性与思想政治教育的价值理性之间的关系,确保两者在思想政治教育过程中得到充分体现和最大限度的平衡。

实践性机理逻辑:技术发展的不确定性与风险认知的有限性相制约。生成式人工智能在融入思想政治教育实践的过程中,伦理风险的产生既源自客观条件,也受到主观因素影响。在客观层面,数字技术的“算法黑箱”,为伦理风险的滋生提供了土壤。而在主观层面,由于教育主体、教育对象、研发人员等对潜在伦理风险的认知不足,以及相关配套机制的欠缺,使得上述主体对伦理风险的判断能力受到限制。由于思想认识的局限和技术发展的不确定性,相关主体对伦理风险的识别能力和应对能力仍显薄弱,无疑成为伦理风险生成的主观因素。

经典小说推荐

杂志订阅

友情链接