人工智能还要杀死多少儿童?

作者: 皮特·G. 科尔施拉格

去年2月,美国佛罗里达州一位名叫塞维尔·塞泽尔三世的14岁男孩,在一个由“角色AI”平台生成的仿真人工智能角色怂恿下自杀身亡。据报道,该平台还托管着好些鼓励年轻人饮食失调行为的促厌食症人工智能聊天机器人。很显然,我们迫切需要采取更有力措施来保护儿童和青少年免受人工智能伤害。

当然,即使从严格的道德角度来看,人工智能也具备从促进人类健康和尊严到改善边缘群体的可持续发展和教育的巨大正向潜力。但这些许诺的好处,不能成为淡化或忽视伦理风险和现实代价的借口。每一个侵犯人权的行为都必须被视为伦理上不可接受的。如果一名青少年在仿真人工智能聊天机器人的挑动下丧生,那么人工智能可以在推动医学研究方面发挥作用的事实也无法作为补偿。

塞维尔的悲剧也并非个案。去年12月,得克萨斯州的两个家庭对“角色AI”及其财政支持者谷歌提起诉讼,指控该平台的聊天机器人对他们的学龄儿童实施性虐待和情感虐待,导致这些孩子实施自残和暴力行为。

我们早就见识过了这种状况,整整一代儿童和青少年已经沦为了那些利用平台成瘾性牟利的社交媒体公司的牺牲品。直到后来,我们才慢慢意识到“反社会媒体”对社会和心理造成的伤害。如今许多国家都在禁止或限制使用社交媒体,就连年轻人自己也要求加强监管。

但我们不能坐等人工智能的操纵力得到遏制。由于科技行业从我们身上获取了大量个人数据,那些建立“角色AI”等平台的人,可以创建比我们更了解我们自己的算法。同时它们被滥用的可能性也非常大,因为人工智能清楚地知道该从哪里入手来挖掘我们的欲望,或让我们以某种特定方式投票。“角色AI”平台上那些促厌食症的聊天机器人,只是其中最新、最过分的例子。

时间已经不多了,因为生成式人工智能模型的开发速度已经超出了预期—而且正普遍朝着错误的方向加速发展。“人工智能教父”、诺贝尔奖获得者、认知科学家杰弗里·辛顿继续警告说,人工智能可能会导致人类灭绝:“我担心的是那只看不见的手无法保证我们的安全。因此,仅仅将其交托给那些营利性大型企业并不足以确保它们安全地开发人工智能。唯一能迫使这些大企业在安全方面做更多研究的则是政府监管。”

鉴于大型科技企业一贯不遵守各类道德准则,指望它们去自我管制是愚蠢的。尽管“角色AI”平台存在多个众所周知的问题,谷歌还是在2024年向其投入了27亿美元。人工智能是一种全球现象,这意味着我们应该努力实现全球监管,并以新的全球执行机制为锚,比如我提议设立的联合国国际数据基底系统局。

某些东西可以实现并不意味着它就是可取的。人类有责任决定哪些技术、哪些创新和哪些进步形式应该和不应该落地和推广。我们有责任以尊重人权的方式设计、生产、使用和管理人工智能,为人类和地球创造更可持续的未来。

如果有一项全球法规来促进基于人权的“人工智能”,如果有一个全球机构来监督这一领域的创新,那么那个名叫塞维尔的男孩几乎肯定还活着。要确保人权和儿童权利得到尊重,就必须对技术系统从设计、开发到生产、销售和使用的整个生命周期进行管理。

既然我们已经知道人工智能可以杀人,我们就没有任何借口在技术不断进步的过程中保持被动,每个月都有更多不受监管的模型被推向公众。无论这些技术有一天会带来什么好处,它们都永远无法弥补那些深爱塞维尔的人们所承受的伤痛。

经典小说推荐

杂志订阅