美国人工智能犯罪趋势与防范

作者: 李皛

美国人工智能犯罪趋势与防范0

The U.S.’s Prevention of AI Crime

近年来,以ChatGPT为代表的基于互联网的生成式人工智能(指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术)工具迅速发展,很多此前需要昂贵硬件设施和大量资源的工作,如今普通人在个人电脑和移动终端上即可简单且迅速地完成,新型生成式人工智能工具的强大能力,及其前所未有的便利性和普及性,引起社会各界对于其被犯罪分子利用的广泛担忧。美国是目前全世界首屈一指的人工智能强国,面临的人工智能犯罪风险也最为严峻,据路透社近期的一项调查显示,61%的美国受访者认为人工智能的快速发展可能“危及人类的未来”。有鉴于此,美国政府和学界自2010年代末以来加强了对人工智能犯罪的发展趋势及应对措施的研究。

一、人工智能犯罪的主要类型

美国主流观点认为,人工智能犯罪总体上可分为两大类型:其一是将人工智能工具直接作为犯罪的工具或手段;二是通过攻击政府或企业使用的人工智能系统达到犯罪目的。

对于将人工智能工具直接用于犯罪,目前最具威胁性的技术被称为“深度伪造”(Deepfake)。“深度伪造”是指通过机器学习方法,使用人工智能工具生成具有极高仿真度的图片、音视频、叙事文本等虚假作品。美国各界最为关注的是利用“深度伪造”实施网络诈骗、生产违法色情产品和制作政治性假新闻。

面向公众的网络诈骗犯罪在美国也被称为“网络钓鱼”,早期犯罪分子通过大量散发包含有欺诈性内容及有害链接的电子邮件和短信息,指望能“筛选”出少数受害者。由于文本内容缺乏针对性,犯罪分子知识水平有限,此类骗术往往能被轻易识破,或被安全系统自动识别拦截。但利用ChatGPT等生成式人工智能工具,仅需少量提示就可以编辑出文法正确流畅、符合特定文化背景、叙事逻辑完善的虚假文本,可帮助犯罪分子伪造天衣无缝的假身份或虚构极具说服力的故事情节,应用于情感欺诈、投资欺诈、伪装政府人员等不同场景。如果再利用遭泄露的个人信息,以虚假音视频和图片配合文本,则可以实施针对特定目标的网络诈骗即所谓“鱼叉式网络钓鱼”。

制作、传播、营销甚至阅览、下载、保存违背当事人意愿,以伤害他人为目的,以及含有任何未成年人内容的色情产品,在美国均属于违法犯罪。自2017年以来,不法分子出于猎奇、情感报复、家庭暴力、校园及职场霸凌、满足个人欲望、获取经济利益等目的,利用生成式人工智能工具,将通过合法或非法途径获取的图片、视频中非自愿、不知情或未成年受害者的形象加以修改,或将其面容“嫁接”到色情图片和视频上,或进行加入血腥暴力内容等更复杂的“合成”,并将成品存储在个人电子设备或进行网络传播的违法犯罪行为开始大规模出现,特别是未成年人、影视明星、网络“大V”和知名政治人物成为典型的受害者。截至2020年,国际互联网上大约95%以上的“深度伪造”内容都是色情内容。

自2016年美国大选以来,利益集团制作、传播政治性虚假新闻以实现操纵舆论、煽动民意之目的的现象受到美国各界的广泛关注。自2018年以来,利用“深度伪造”技术,虚假图片和视频内容的加入使虚假新闻的效果进一步提升。这些虚假新闻中有一些是出于讽刺、宣传目的,其内容较为夸张或明确注明是人为编造,并非要使受众信以为真,其影响较为可控;但由于网络媒体的匿名化和“链式反应”式的信息传播方式,越来越多的旨在混淆视听、颠倒黑白的虚假新闻在互联网上病毒式传播,特别是每当重大政治事件发生时出现爆发性增长,对社交媒体大面积覆盖,挑动社会矛盾,政府和平台难以筛查拦截,而事后辟谣也对已造成的社会影响无能为力。目前已有大量网站或新媒体账户专门发布虚假新闻。2023年5月,专门揭露虚假新闻的“新闻卫士”(NewsGuard)公司确定了125家网站的内容全部或大部分为虚假新闻。此外,人工智能也被用于充当“水军”,发布评论或参与网络调查。对于制作、传播虚假新闻在“言论自由”和违法犯罪中的界定,美国各界对此尚有较大分歧,但对此类行为的严重社会影响和潜在危害性已予以高度重视。

当然,利用生成式人工智能工具的违法犯罪活动远不止此,如2023年8月,一位美国作家竟然在亚马逊线上书店发现一部盗用其名义,内容完全由人工智能工具生成的“伪书”正在发售中。又如“黑客”利用人工智能编写难以被识别且能更好利用系统漏洞的恶意软件实施破坏或勒索(一类恶意软件可停止其所感染的计算机系统的全部功能,直至受害者缴纳“赎金”)——IBM公司在2018年出于检测网络安全目的而开发的DeepLocker软件展示了这种可能性。

至于针对人工智能系统本身的犯罪行为,其主要手段是通过将虚假或恶意信息注入以机器学习方法“训练”人工智能系统时所用的数据中,以降低人工智能系统的效能,或引导其产生开发者和运营者意料之外的有害效果。2016年,微软发布了网络智能聊天机器人Tay(可视为ChatGPT等应用的前身),一些推特(2023年7月更名为X)账号利用Tay的“训练”方法,短时间内在推特上发布大量攻击性内容,并诱导微软为Tay在推特设立的账号重复这些内容,导致Tay“养成”了攻击性的对话习惯,迫使微软暂停了该账号。这只是在生成式人工智能发展早期,由业余人员出于猎奇目的针对缺乏实用价值的人工智能应用发起的实质影响较小的攻击。然而,当前人工智能系统已在社会生活中得到广泛应用,例如,基于机器学习的汽车智能无人驾驶系统,如果不法分子对用于“训练”该系统的数据进行“污染”或针对性“篡改”,可能导致大量运行中车辆的自动驾驶系统失灵或对特定情况作出错误反应,甚至可能会被用于实施破坏、暗杀或大规模恐怖袭击。还有一类针对人工智能系统本身的犯罪行为是通过“黑客”手段或应用端的特殊操作,将此前“训练”人工智能工具所使用的海量数据“还原”,从中获取含有个人隐私、商业秘密或其他关系社会安全的敏感信息,将其非法出售或用于实行针对特定目标的犯罪,研究认为诸如人脸识别等人工智能应用的数据面临此类风险最高。

二、人工智能犯罪的表现和危害

2022年,美国电信网络诈骗犯罪报案数为800944起,相比2021年下降约5%,但造成的潜在经济损失则从69亿美元大幅增长到102亿美元,犯罪分子对人工智能的利用是诈骗“精准性”与成功率上升的重要因素。2023年4月,犯罪分子利用“深度伪造”技术生成的虚假音频,成功使亚利桑那州的一位女士相信她的女儿遭到绑架,并勒索到100万美元赎金。业内专家表示,目前的普及型人工智能应用只需使用时长数秒到十几秒的语音素材进行“训练”,就足以生成以假乱真的短时间虚假音频。实际上早在新冠疫情时期,很多犯罪分子就利用企业普遍进行线上会议的机会,使用虚假的图片和音视频实施诈骗,但受当时技术所限其质量比较低下,以至于犯罪分子还需要用诸如网络延迟等借口增强其说服力,但当前生成式人工智能的技术水平几乎每半年就会有大幅提升。2023年7月,ChatGPT的插件“代码解释器”(Code Interpreter)全面部署,该插件可以帮助不掌握机器语言的一般公众在对话界面使用自然语言命令ChatGPT执行基于“Python语言”(一种常用的机器语言)的编程操作,美国咨询公司“人工智能领导者”(AI Leader)的首席人工智能策略师莉莎·帕尔默警告称,犯罪分子利用该插件强大的数据分析能力,可以在几分钟内从海量数据中获取其筛选受害者、伪造虚假身份、编写诈骗文本所需要的信息,甚至直接完成这些工作。这一趋势如果与近年来频发的大规模数据泄露事件联系起来——如2021年求职网络巨头领英(LinkedIn)泄露7亿条用户数据,2019年社交媒体巨头脸书(Facebook)泄露5.33亿条用户数据,且这些数据都在互联网上以低廉的价格公开售卖——未来电信网络诈骗犯罪的威胁无疑令人担忧。

滥用“深度伪造”技术导致的非法网络色情内容泛滥在美国不仅令执法部门忧虑,甚至引起了广泛的社会恐慌。2010年代末以来已有众多可根据用户喜好,根据给出的照片或图画,或者使用者的命令,生成多种类型写实或卡通风格虚假图片的网络人工智能应用在运营中,其中一些或明或暗地以色情为卖点。美国《麻省理工学院技术评论》2022年底的一篇文章对热门应用Lensa AI进行了评测,发现其在使用者并未作出明确命令的情况下生成了大量“裸体或带有明显色情特征”的图片。目前,在互联网上传播的大多数“深度伪造”色情内容都是以英美女性影视明星为“主角”,其中绝大多数都是未经当事人同意的非法作品。然而更令人担忧的受害者是未成年人。美国1996年出台的《儿童色情预防法案》包含有禁止“虚拟儿童色情”的内容,但其中对“虚拟儿童色情”进行较宽泛解释的条款在2018年因违宪起诉而遭废除。2023年11月,美国北卡罗来纳州的儿童精神病专家戴维·塔图姆因使用秘密录制的、包含裸露内容的真实儿童影像素材,利用“深度伪造”技术制作儿童色情图片和视频而被判处40年监禁,但对于制作和传播更加“虚拟”的儿童色情内容的行为仍然难以惩罚。2023年9月,全美50个州的检察官发表公开信敦促国会采取立法行动加强对制作和传播“深度伪造”儿童色情内容行为进行制裁,他们呼吁:“我们正在与时间赛跑,以保护我们国家的儿童免受人工智能的威胁。众所周知,防线已被攻破,现在必须采取行动了。”美国南卡罗来纳州总检察长艾伦·威尔逊表示,现有法律难以制裁利用合法取得的儿童肖像制作“深度伪造”色情内容的行为,更无法管控“完全虚构”但足够拟真的数字儿童色情内容。

美国政府认为,“深度伪造”假新闻和其他用于操纵舆论的人工智能技术,已对该国政治体制造成根本性威胁。美国前总统奥巴马、特朗普,众议院前议长佩洛西等知名政治人物均已成为虚假新闻的“素材”,并引发舆论风潮。2023年4月,美国政治顾问协会(美国政治家组织,民主党和共和党在董事会各占一半名额)董事会一致谴责利用“深度伪造”假新闻影响选举的行为,表示“尽管几十年来公众对政治组织及其活动的信任已经动摇,但‘深度伪造’虚假内容对美国的民主构成了截然不同的威胁”,认为包含“深度伪造”内容的政治广告不属于“言论自由”的范畴,不能被视为讽刺和宣传,而是恶意的欺骗,主张所有媒体、平台都应该拒绝发布此类政治广告。美国专家认为新技术赋能,未来“深度伪造”假新闻不只限于传统意义的媒体报道,可能出现如利用候选人的虚假音视频信息误导选民错误投票、传播仇恨言论、发布退出选举的假声明,甚至向选民发送来自其喜爱的名人的虚假通信,劝导其为特定候选人投票等更具破坏性的行为。在特定情况下,经过精心筹划,大量虚构的战争、灾难、丑闻新闻可能以不同形式在同一时间联动推出,短时间内“淹没”公众的信息源,可能直接导致社会动乱。美国政界人士普遍认为,2024年总统选举将面临来自“深度伪造”的严峻威胁。

就针对人工智能系统本身的犯罪行为而言,美国方面最担忧犯罪分子将配备自动驾驶技术的汽车作为“武器”。早在21世纪10年代初,高等级汽车自动驾驶技术刚刚开始实验时,联邦调查局就在忧虑道路上正在行驶的汽车突然被“黑客”控制可能导致的可怕场景,并在呈交参议院的报告中要求汽车制造商排除这种危险,此后,美西方国家发生了多起通过汽车冲撞实施的恐怖袭击并导致大量人员伤亡,进一步加剧了此类忧虑。《华尔街日报》设想了“黑客”攻击汽车自动驾驶系统的多种犯罪场景,如将驾驶员锁在车中并勒索赎金。纽约大学研究人员的实验证明,犯罪分子可以对自动驾驶系统进行恶意“训练”,使其在一般情况下表现正常,但可被“训练”时预先定义的“触发器”激活反常行为。例如,自动驾驶汽车平时可以正常识别停车标志并制动,但如果在该标志上贴一张黄色便签纸并被汽车“看”到,则加速行驶并锁定方向盘。目前在美国,特斯拉、福特等厂商已获准开放了允许驾驶员在公共道路上“放开方向盘”的自动驾驶服务,尽管还没有实质性证据,但一些在使用自动驾驶功能时发生的伤亡事故已引起社会上关于人工智能犯罪的讨论。除此之外,美国证券交易商普遍利用人工智能系统辅助决策带来了潜在的安全风险。早在2010年,交易员纳文德·辛格·萨劳使用简单的自动化程序,利用时间差进行投机交易导致美国股市戏剧性崩盘。纳斯达克前副主席表示,人工智能系统的应用“创造了一个对人类而言变化太快的证券市场”,监管机构认为如果这些系统发生技术故障或被犯罪分子“劫持”,事态将在几秒钟内失控,交易商根本来不及作出反应。

经典小说推荐

杂志订阅

友情链接