生成式人工智能虚假信息治理的新挑战及应对策略
作者: 何宇华 李霞摘要:生成式人工智能的基础数据来源复杂,数据的真实性与合法性存在极大不确定性,由此出现的虚假信息在技术逻辑上具有必然性和无限复制性;在传播规律上具有瞬时性和隐蔽性;在危害后果上具有复杂性和不可控性。现有多中心协同论、二元治理结构论和层级治理论分别从不同的视角提出治理策略,但过于关注协同合作本身却忽视了治理主体的协同能力和响应效率;过度依赖政府与市场的互补却遮蔽了二者面临新技术时容易懈怠的共性;盲目信任分层治理极易陷入技治主义的困境。对此,应转向敏捷治理下以政府主导强化多元主体间的协同效能、提升治理结构的适应性、破除层级障碍的治理新思路。以虚假信息治理的法治化和技术化为基本方向,保持制度的原则性要求和技术工具价值的协同,实施虚假信息等级评估制度,构建治理主体高效协作机制、快捷响应机制和容错纠错机制,搭建生成式人工智能虚假信息敏捷治理新模式的基本框架。
关键词:生成式人工智能;虚假信息;敏捷治理
中图分类号:D920.0文献标志码:A文章编号:1007-9092(2024)04-0142-015
一、问题的提出
近日,Open AI公司发布的文生视频大模型Sora极大地提升了文本与视频之间的转换效能,Meta的V-JEPA、谷歌Genie等产品亦在推测生成环境中积极探索生成式人工智能的多场景运用。而此前,ChatGPT也凭借强大的信息整合能力、自然语言处理能力和多模态交互能力,以前所未有的“人机互动”模式引发广泛关注。
然而,无论是文生视频大模型Sora还是人机对话的ChatGPT,都加剧了生成和传播虚假信息的风险。首先,在技术逻辑上,生成式人工智能虚假信息具有必然性和无限复制性。ChatGPT通过深度自主学习、人类强化反馈和Transformer算法运作,被不断解码至完成最终运算,但“解码-运算-调适”的技术机理本身略过了信息的真实性与可靠性,所以极易“主动”生成或“被动”训练出虚假信息,并被无差别地保存、复制和利用。其次,在传播规律上,生成式人工智能虚假信息具有瞬时性和隐蔽性。一旦有虚假信息纳入基础数据源,随时可能被提取出来,而只要搭上算法的“快车”,就会在互动、转发过程中放大、裂变,使其具有瞬间聚合与扩散的传播能量,“污染数据”的使用与传播几乎同时完成。此外,在“技术性输出”“计算式答案”外表下,生成式人工智能虚假信息自身已经不具备典型谣言的外在特征,输出文本具有“唯一性”“权威性”,也具备很强的迷惑性。同时,借助算法的自动化、智能化,虚假信息能更快更智能地在网络中流动,而算法“黑箱”的存在,使信息的流向与运用很难被追踪与控制。最后,在危害后果上,生成式人工智能虚假信息具有复杂性和不可控性。因为数据高度融合的特点,生成式人工智能最终生成的虚假信息可能来自源数据库、用户端或算法,甚至上述几种因素共同所致。因此,“多因一果”的复杂关系加剧了责任认定与司法救济的难度。加上Sora、ChatGPT等人工智能技术支持文本、图像、视频的深度加工和转化,“有图有真相”“图文并茂”或者以假乱真、半真半假,都会导致“偶然的事实、创造性的想象、情不自禁地信以为真”。若操纵生成式人工智能的内容生成,有目的地制造网络热点、挑动公众情绪或歪曲历史事实,甚至针对特定人群发布仇恨性言论或者煽动族群攻击,就会形成新型“技术霸权”“计算宣传”,将直接威胁公众信任、社会稳定和国家安全。
为此,欧洲《人工智能法案》将“缺乏真实性”列为生成式人工智能的核心风险。同时,我国《生成式人工智能服务管理暂行办法》也规定“不得生成虚假有害信息”。针对生成式人工智能虚假信息的治理问题,学界从不同角度进行了广泛讨论:从治理机制角度提出多元共治、协同治理;从主体角度强调政府要加强与技术研发者的合作、强化平台治理;从法律规制角度提出建构特定算法诽谤制度或软硬法兼施的复合型AI信息治理框架;从治理思路角度提出要以产业链为视角进行类型化治理。总体来看,传统理论框架无法高效快捷地应对生成式人工智能虚假信息的海量生成和快速传播。
技术进步对治理创新的速度提出了更高的要求,两者的时间差凸显了敏捷治理的必要性。2001年8月,《敏捷宣言》的发布使敏捷的概念在不同学科领域得到广泛关注和研究。敏捷治理最初在软件开发领域,继而在企业管理领域得到应用,并逐渐拓展至公共管理领域。2018年,世界经济论坛提出了敏捷治理(Agile Governance)的概念,着重思考第四次工业革命中的政策制定问题,它意味着是“一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本,以及具有包容性和可持续的决策过程”。2019年6月,我国《新一代人工智能治理原则——发展负责任的人工智能》已将敏捷治理作为八项原则之一。2023年,国家网信办在《全球人工智能治理倡议》中明确指出要实施敏捷治理。作为人工智能治理的重要组成部分,生成式人工智能虚假信息的治理自然也应是敏捷治理的题中之义。因此,厘清生成式人工智能虚假信息所带来的治理困境、探讨敏捷治理框架下生成式人工智能虚假信息治理尤有必要。
二、生成式人工智能对现有虚假信息治理理论的挑战
面对生成式人工智能虚假信息的治理问题,中央及地方立法都给予了积极回应,形成了多方协同共治、强化政府及市场行为和类型化治理等代表性主张。在国家层面,2022年3月施行的《互联网信息服务算法推荐管理规定》明确了网信、电信、公安及市场监管部门的共同治理责任和服务提供者的信息发布审核义务,要求建立识别虚假信息特征库并针对违法及不良信息进行类型化处置。此后,《互联网信息服务深度合成管理规定》进一步要求服务提供者建立健全辟谣机制,强化其训练数据管理义务和特定标识义务。而《生成式人工智能服务管理暂行办法》将数据管理责任往前延伸至技术研发、预训练阶段,同时提出要根据服务应用情况进行分类分级监管。在地方实践,2020年《天津市网络虚假信息治理若干规定》要求建立网络虚假信息综合治理体系,并通过信息共享、会商通报、联合执法、案件督办、谣言处置等方式开展协同治理。2021年9月,《浙江省人民代表大会常务委员会关于网络虚假信息治理的决定》明确多主体间协同治理的原则,强调建立跨部门、跨区域执法联动响应和协作机制,实现了各区域和各部门间的信息共享、监管互认和执法互助。上述立法所作的积极探索极大地推动了生成式人工智能虚假信息的治理效能,但由于其治理理念受限于传统治理框架,因此未能真正解决生成式人工智能深刻变革所带来的诸多问题。
(一) 多中心协同治理理论面临协同困难的挑战
“多中心”最初由Michael Bollany提出,它强调在遵循法律的前提下,保持人与人之间的独立、平等,由此达成一种合作、协调的关系。20世纪70年代,美国奥斯特罗姆夫妇将其发展为多中心治理理论,强调由多个主体共同参与,特别是在政府与市场之外,以自主组织为中心进行公共事务管理。面对各参与主体间的关系,赫尔曼·哈肯主张“协调合作”,认为协同中“序参数”可以通过伺服原理和自组织原理发生集体行为和自组织行为。以互联网技术为基础的虚假信息复杂多变,对其治理往往涉及国家利益、社会公共利益、企业平台利益和个人合法权益间的冲突与协调,以多中心理论与协同学统合形成的多中心协同治理模式成为虚假信息治理的重要选择。在此模式中,具有治理职责的政府、平台企业、社会组织和网民为主的社会公众均为独立且又相互关联的“中心”,各“中心”独自发挥优势,各自保持着作为子系统的良性循环,彼此之间达成平等与协作,是一种多元主体的平等合作关系。在协同治理格局内部,主体构成、动力机制、支撑机制、合作机制等内部要素与文化、组织、制度、权力等外部要素相互建构与内化,既保持各“中心”的完整性,又要求相互间的协同性。进入数字社会,虚假信息的技术性特征日趋明显,传统自上而下的中心化辟谣模式转向以互联网平台企业为关键责任主体的非中心化、人机协同治理新范式,这一范式顺应了人工智能时代治理环境技术化、智能化发展的趋势。
新一代生成式人工智能持续改变现有社会信息资源的供给与秩序。从AIGC事故分析看,虚假信息呈现客体多元性、范围广泛性和潜在危害复杂未知性的特点,技术运用所触发的深度伪造、信息伦理等问题,使得任何传统单一行动主体的资源与能力都无法应对,需要政府、社会组织、平台企业、社会公众等多个利益相关者密切快速配合,强化互联网把关人和媒体的作用,积极落实平台的法律责任。此时,传统协同治理主体作为“中心”的完整性和独立性需要不断被打破,协同性需要进一步提升。但现有多中心协同论以“平等”“协同”“合作”为主要特征,在治理快速生成、瞬时传播的人工智能虚假信息时,容易出现“协同迟缓”“协同真空”“协同僵化”等问题。首先,因响应不能导致协同迟缓。多中心协同论强调协同主体的广泛性,对生成式人工智能的快速协同能力与反应力重视不够,从而导致各协同主体无法迅速作出响应。其次,因协同机制不畅导致协同真空。目前各主体协同的具体内涵与实现路径不够明确,难以发现隐蔽在数据预训练、人工微调、强化学习甚至人机互动等各阶段的虚假信息;加上现有治理规则清晰度不足,协同主体依然遵循传统治理体系中的分工原则各司其职,难以避免协同真空。最后,关系调适欠佳导致协同僵化。在多中心协同论中,政府、社会组织、平台企业和社会公众之间的协作机制尚未完全体系化、规范化,彼此间关系未能完全理顺,加上现有治理以后置式、弥补式为主,而多元异质的协同主体所处地位与资源迥异,因此无法真正有效实现协调合作。
(二)二元治理结构论面临“双重失灵”的可能
20世纪90年代,治理理论得到进一步发展。罗西瑙认为,治理既包括政府机制,也包含非正式、非政府的机制。随着治理范围的扩大,各类人群或组织得以借助这些机制满足各自利益需求。一直以来,互联网被认为具有自净功能,即无需外力干涉也会在一定范围内自行“消化”网络谣言。因此,在互联网空间规制特别是网络虚假信息治理问题上,学界对更多地采用政府规制还是以市场调节为主进行治理存有分歧。
二元治理结构论主张政府规制和市场机制是治理体系中的两种手段,代表着两种不同的价值取向,二者共同构成了虚假信息治理结构。一方面,实施政府规制具有正当性。宪法的明确授权构成了政府规制的合法性基础;同时,网络自律能力不足、公共产品外部性以及信息不对称成为政府对网络媒体实施管制的必要前提,并且仍然需要进一步明晰规制手段与内容,以此来强化管控效果。从现实层面看,正是“互联网市场机制失灵所无法解决的互联网安全、网络隐私受侵害等严峻问题使得政府的适度规制变得越来越有必要”。从具体策略看,政府规制依然以传统虚假信息治理中的法律规制合理化、政府信息公开化、平台责任明确化等作为主要内容。另一方面,发挥市场机制具有合理性。因为政府规制往往存在反应迟缓、敏捷度不足或者辟谣措施不到位的问题,所以,单靠政府的宏观调控和组织协调,远远不能达到理想的治理效果,必须加强公众和其他社会组织的参与力量。而且,为避免刚性过度的政府规制压制新兴行业的活力,也应当更多地通过市场的自我调节,达到理想的治理效果。更有甚者认为随着平台经济异军突起,网络平台作用日益突出,所以强调要以网络平台规制为主,辅之以行政机关的外部管制、独立第三方机构的核查以及网络用户的自我规制,实行事中和事后监督为主的“经销商式”网络平台规制模式。上述观点表明,现有二元治理结构论主要包含了政府规制与市场机制两种手段,或以政府规制为主推进虚假信息治理,或以市场机制为基础进行自我调整,但都没有绝对排斥对方的存在,而是将政府规制的“有形”控制和市场机制的“无形”自律有机结合,形成政府与市场共同参与的二元治理结构。该治理结构倚靠政府资源集中、权力集约和行动统一的优势,同时发挥市场机制技术占优、灵活可变的长处,在面对传统虚假信息治理时呈现出良好治理效果。
然而,面对生成迅速、传播隐蔽、危害难以控制的生成式人工智能虚假信息的治理问题,政府规制与市场机制出现“双失灵”的情况。首先,受科层制结构的影响,政府的治理理念和治理手段更新慢,技术水平相对落后,规制的压力性和被动性特征明显。这种被动式规制,与生成式人工智能虚假信息的“主动”生成、快速蔓延形成巨大反差。如果一味强调政府规制,当相应的技术不能正常供给时,监管的有效性、治理的能动性均不能得到保证。另外,在网络化、平台化、市场化趋势下,政府规制和市场机制的界限变得模糊,出于主动避责考虑,政府规制变得更为被动。其次,面对新一代人工智能技术,信息的虚假与否并不是市场机制首要考量的因素,在私利的催化下,市场无暇优先顾及公共利益。而技术的工具属性会使其忽略价值功能,片面追求技术自身的革新与应用。但事实上,技术远非简单的工具,它已成为促进社会发展的生产力要素,也是重塑社会生产关系的重要因素,“现代国家内部权力结构或将由于人工智能而重构,资本与技术将会合谋为超级权力”。面对这种超级权力,市场本身缺乏主动进行“自我约束”的动力,一旦赋权平台进行治理,容易出现公权私利化倾向。简言之,政府规制和市场机制构成的二元治理结构无法适应复杂易变的生成式人工智能虚假信息治理需求。