ChatGPT之于思想政治教育的伦理风险及应对策略

作者: 阮一帆 王智博

[内容提要] C h a t G P T是一种基于人工智能技术驱动的自然语言处理模型,可以为思想政治教育提供教育资源、充实教育内容、优化教育技术,但也可能产生规范失控、关系失衡、认知失准等不同维度的伦理风险。通过分析C h a t G P T之于思想政治教育伦理风险的成因,发现其面临的风险既可能来自应用主体层面技术伦理意识淡薄,也可能来自应用技术层面对教育伦理的僭越,还可能来自应用价值层面对主流意识形态话语影响力的钝化。为确保思想政治教育的健康发展,既要以法为据,完善技术伦理风险防范制度,也要以人为本,强化思想政治教育主体的主导地位,同时还要以道驭术,实现核心价值观对技术的有效规制,做好C h a t G P T伦理风险的整体性应对,为思想政治教育保驾护航。

[关键词] C h a t G P T;思想政治教育;伦理风险;应对策略

[作者简介] 阮一帆,中国地质大学(武汉)马克思主义学院教授、博士生导师;王智博,中国地质大学(武汉)马克思主义学院研究生。

* 本文系2 0 2 2年度国家社会科学基金高校思政课研究专项“伟大建党精神融入大中小学思想政治教育一体化研究”(项目批准号: 2 2 V S Z 0 3 6)的阶段性成果。

习近平总书记指出,要“高度重视人工智能对教育的深刻影响,积极推动人工智能和教育深度融合,促进教育变革创新”[ 1]。C h a t G P T作为一种基于深度学习的自然语言处理技术,在智能语言机器人、问答系统等方面展现出强大的实力,也让人们意识到其在思想政治教育领域的应用潜力。然而, C h a t G P T为思想政治教育创设新场景、提供新手段的同时,也会带来一定的伦理风险。如何对其伦理风险进行评估并有效应对,是当前急需解决的问题。因此,在谈及C h a t G P T之于思想政治教育的应用时,需认真审视其可能带来的伦理风险,平衡技术发展与伦理底线的关系。在充分利用技术红利为思想政治教育赋能的同时,要恰当地把握技术与伦理的平衡点,防范和消除可能出现的伦理风险。

一、 C h a t G P T的概念内涵及技术特征

C h a t G P T是由美国人工智能研究实验室O p e n A I开发的一种基于人工智能技术驱动的自然语言处理模型。该模型是最新版本G P T(G e n e r a t i v e P r e - t r a i n e d - T r a n s f o r m e r)的变体,基于T r a n s f o r m e r模型,能够执行自然语言生成、翻译、问答和对话等多种任务。[ 2] C h a t G P T利用深度神经网络处理大规模自然语言数据,通过预训练和微调等技术生成自然、流畅、有逻辑的语言表达。它可以模拟人类对话方式,并且具有智能、自然和灵活的特点,被广泛应用于智能客服、虚拟助手、智能对话系统、语音识别等领域,提供了更加智能化、更高效的自然语言处理服务。C h a t G P T的技术特征主要包括以下几点。

第一,大规模预训练能力。C h a t G P T可以通过T r a n s f o r m e r模型使用大规模的数据集进行预训练行为[ 3],包括获取互联网上的文本、书籍、新闻、社交媒体等海量数据,以不断丰富语言知识来进行自监督学习、完善语言模型等。

第二,语言表达自然流畅。C h a t G P T能够通过使用自然语言处理(N L P)及序列到序列学习( S e q 2 S e q)等技术生成自然、流畅、有逻辑的语言表达,具有良好的语义理解能力和语法结构。[ 3]此外,它还能够通过对话管理及动态记忆网络等技术来理解对话中的上下文信息,根据对话内容生成相关的回复。它不仅可以考虑先前的对话历史,还可以利用更广泛的语境来生成更准确、相关的回复。

第三,情感表述丰富多样。C h a t G P T能够生成多样化的回复,甚至可以表达情感,如喜欢、厌恶、开心、悲伤等,增强了对话的趣味性和交互性,使得回复更具人性化和情感化。[ 3]

第四,可以进行开放领域的对话。C h a t G P T可以处理各种主题和领域的对话,能够应对广泛的问题和话题[ 3],并且其模型结构可以扩展到更大规模,以适应更复杂的任务和应用场景。

总之, C h a t G P T采用多种先进的自然语言处理技术,能够处理自然语言中的复杂结构、多义词和上下文信息,实现了智能化的自然语言对话,并为人机交互提供了新的可能性。

二、 C h a t G P T之于思想政治教育的伦理风险表征

谈及C h a t G P T之于思想政治教育的伦理风险表征,需要面对的是一个非常复杂的伦理和技术交织的话题。伦理是关于人类行为的规范和评价,是一种对人类价值和意义的探究,而技术则是一种用于改变人类世界的手段。因此,当C h a t G P T作为一种技术手段被引入思想政治教育中时,技术之于思想政治教育的自反性力量便会冲击个体、关系乃至整个社会,带来规范失控、关系失衡及认知失准等伦理风险。

1 .规范失控:个体隐私泄露隐患与伦理法规迟滞

一方面,在思想政治教育过程中, C h a t G P T带来最大的伦理风险莫过于对个体隐私的侵犯。C h a t G P T的核心是人工智能语言模型,它需要输入大量数据并进行训练之后才有可能具有思想政治教育的能力,因而分析大量数据是其应用于思想政治教育的前提和基础。随着教学辅助、家教辅导、在线答疑、课堂数据分析等先进教学技术的推广和应用,教育者和教育对象的生物信息、行程轨迹、关注内容、身体位置,乃至心理状况、价值取向、生理缺陷和家庭背景等数据很容易被获取和收集,成为数据“透明人”。如果C h a t G P T未经过有效的数据加密和隐私保护措施,就会使其中的敏感信息、私密话题面临泄露的危险,进而对个人的隐私及人身财产安全造成危害。

另一方面, C h a t G P T的教育应用已越来越多,而监管法规建设却相对滞后。当前,一些企业开始加大C h a t G P T教育应用的研发投入,持续发布有关教育应用的产品,例如科大讯飞公司已发布公告称,类C h a t G P T技术已于2 0 2 3年5月落地,其子产品讯飞智慧教育已在全国3 2个省级行政单位以及日本、新加坡等海外市场应用。而我国目前已有的教育法规则缺少C h a t G P T教育应用产品方面的标准规范、监督管理制度等。与高速发展的技术相比,人工智能伦理规范建设也较为迟缓,这也导致C h a t G P T教育应用相关伦理制度建设的滞后。

2 .关系失衡:主体性遮蔽与师生伦理关系异化

从技术哲学的角度来讲,当技术被广泛应用并形成自主性力量时,它的内在结构和功能往往使得技术偏离人类预设的轨道,甚至会超出人类的控制。在这种情况下,技术会产生具有强制性的“促逼”功能,它的要求和规定可能会压抑人的主观能动性和自由意志,使主体性被遮蔽的风险增高。集多种先进技术于一体的C h a t G P T所面临的伦理问题,是由多种技术伦理问题并存而导致的,这在某种程度上加剧了主体性遮蔽风险。

在C h a t G P T模型中,每个教育对象都是数字化的个体,可以借助用户画像实现思想政治教育的个性化,在一定程度上提升了思想政治教育的有效性。但也应注意到,画像看似实现了对教育对象的心理和个性的透视,将人纯粹地数据化,却忽视了现实人的多维复杂性。具体到C h a t G P T之于思想政治教育的智能场景下,每个教育对象及其日常生活、学习轨迹、学习状态都被记录为一个个数据包,并通过这些数据包形成电子画像。从表面上看,这是对教育对象思想行为特征的精准描述,但在本质上是将人抽象化为“数据的人”,忽视了“现实的人”的多维丰富性,忽略了思想政治教育主体和客体的关系性存在,进而可能导致“唯数据论”“数据崇拜论”“数据异化”风险[ 4],让“简单、抽象的信息、数字、符号替代了人的全面本质”[ 5],这与思想政治教育的目标背道而驰。

思想政治教育是育人工作,要实现教育对象对教育内容的认同与践行,而情感因素是推动教育对象把教育内容内化于心的催化剂,也是教育者与教育对象沟通的纽带。因此,思想政治教育应是以人为本的教育,即注重教育过程中的情感融入,注重教育对象的人格品行和情感养成。C h a t G P T为思想政治教育带来了新的变革,特别是在把握教育对象的环节提供了科学化、覆盖面广的技术支撑,让思想政治教育精准施教成为可能。但在C h a t G P T的参与下,对于身处互联网终端的教育者和教育对象而言,知识的传播和流动只能依附于技术作用下的数字符号和程式化的活动设置,教育双方的情绪、感受特别是情感被技术所屏蔽,相互之间无法察觉彼此的喜怒哀乐,容易造成认知和情感的“伪参与”现象,在一定程度上弱化了情感因素对思想政治教育内化的推动作用,而教育过程中情感体验的淡化也会造成教育者与教育对象现实生活关系的淡化,最终可能导致双方由于缺乏知识与情感的交流碰撞而产生关系异化的风险。

3 .认知失准:认知黑箱风险与价值共识削弱

C h a t G P T模型的黑箱特性可能会对思想政治教育效果产生负面影响。黑箱是指一种系统或装置,其内部的结构、工作原理或信息处理过程不为用户所知,用户只能观察其输入和输出,而无法了解其内部运作机制。黑箱在信息科学、工程技术、人工智能等领域中被广泛应用,但因缺乏透明度和可解释性,给人类社会带来了一些挑战。传统的思想政治教育,旨在通过教育内容和形式来引导教育对象形成正确的思想认识和品德。然而,当C h a t G P T被用于处理教育内容时,其数字化处理可能扩大教育内容和形式之间的不协调性,无法获得预期的教育效果。C h a t G P T模型会结合已有的对教育对象的数据分析,将输入的思想政治教育内容转化为教育对象所接收到的内容,但由于教育对象无法了解具体的算法内容推荐机制,只能被动接收经模型二次处理过的数据,导致教育对象逐渐陷入“认知黑箱”。同时,黑箱特性还可能使教育者无法确保模型输出数据的客观性、完整性、连贯性和准确性,因而也无法保证教育的有效性。

此外, C h a t G P T的强大算法能力极易造成群体思想极化与依赖成瘾,进而可能削弱社会价值共识。一方面,与信息茧房现象类似, C h a t G P T对教育对象的思想和知识获取进行精准化推荐和分发,使教育对象沉浸于狭窄的信息环境中,导致其排斥异质化声音和多元思想,进而滋生小众文化,带来群体极化现象。[ 6]另一方面,技术依赖容易使教育对象反思和批判能力弱化,产生技术崇拜和思维惰性。这种思维惰性不仅会强化教育对象对C h a t G P T系统的路径依赖,还会阻碍伦理风险意识的养成,对风险防控产生不良影响。在C h a t G P T教育应用场景中,教育对象很难通过冰冷的算法代码来体验人文关怀和熏陶,无法感受到思想政治教育的人文精神。C h a t G P T的算法规则和标准化流程限定了思想政治教育的对象、内容和方法,使思想政治教育内含的人文精神和价值理性受制于程序化、流程化的工具理性,“很难在数据交易过程彰显其人文精神的社会关系向度”[ 7],进而使思想政治教育主流价值共识被稀释。

三、 C h a t G P T之于思想政治教育的伦理风险成因

C h a t G P T之于思想政治教育的伦理风险,源于应用主体层面技术伦理意识的淡薄,应用技术层面对教育伦理的僭越,应用价值层面主流意识形态话语影响力的钝化。

1 .应用主体层面:技术伦理意识淡薄

C h a t G P T作为一种处理自然语言的人工智能技术,在应用于思想政治教育的过程中将会面临诸多技术伦理问题,包括算法的局限性、隐私保护、数据安全、法律追责等。首先是算法的局限性。C h a t G P T语言模型需要通过大量的语言数据进行训练,如果数据样本不足或者存在数据偏差,输出结果就可能存在偏差,甚至会对某些群体产生歧视性对待。例如,若在输入样本数据时就具有主观偏向,那么算法可能会对特定教育对象群体给予优先或者次要的对待,进而形成算法歧视,加剧系统性和结构性偏见。这种算法歧视并非算法设计人员的有意识选择,而是因算法本身缺乏要素透明、程序透明和背景透明而导致的无意识结果。[ 8]此外, C h a t G P T还面临隐私保护和数据安全问题。作为一种基于云计算的技术,其运行需要依赖用户提供的文本数据。当前,学校思想政治教育智能系统都是委托第三方商业公司进行设计开发和保障运行的,学生信息主要通过智能云端进行数据处理和存储,面临数据泄露和滥用的风险。一旦学生的信息数据被泄露或者被非法使用,就可能造成严重的财产安全、信息安全和其他相关风险。除此之外,还需要考虑法律法规问题。在C h a t G P T应用中,由于算法的自主性,其能否严格遵守相关法律法规,如个人信息保护法、反垄断法等,若由于算法的自主性导致其触犯法律,责任该如何划分等,这些都是还未解决的问题。

经典小说推荐

杂志订阅

友情链接