以法治防范人工智能安全风险

作者: 赵精武

数字时代,数字经济的发展离不开信息技术创新的驱动,也离不开网络安全的保障。网络安全不单纯是国家安全的重要组成部分。

我国一直高度重视以法治护航网络安全。截至目前,已经颁布了网络安全法、数据安全法、个人信息保护法等法律法规,出台了《网络安全审查办法》《云计算服务安全评估办法》等一系列政策文件,网络安全政策法规体系已基本建立。同时,还针对网络勒索攻击、网络安全漏洞等各类安全风险设置了专门的配套治理机制。然而,随着人工智能技术的不断发展,新型的网络安全风险也在持续产生,为此我国立法机构和监管部门开始重视并着手应对相关安全风险。

纵览产业发展现状,人工智能安全风险主要表现为三类。一是犯罪工具风险,即将人工智能技术作为传统犯罪升级的技术工具,目前实践中已经出现了利用人工智能技术实施电信网络诈骗的案件。二是信息系统安全风险,即人工智能信息系统受外部网络攻击、内部员工违规操作等因素影响,进而产生用户个人信息泄露、信息系统宕机、自动驾驶汽车操作失灵等安全风险。三是伦理风险,即人工智能产品或服务在研发、设计、应用等阶段未能进行必要的科技伦理评估,导致其产生基于性别、年龄、疾病等敏感因素的社会歧视问题。面对人工智能安全风险的新特点、新问题,研发者、服务提供者、监管部门、用户等各类主体应当积极参与到人工智能安全治理活动中来。

人工智能安全治理是一项长期性、综合性的社会治理活动,除了需要多元主体协同共治外,还需要充分利用各类治理机制全方位预防和控制相关安全风险。无论是监管机构,还是企业、公民,都应当树立正确的网络安全观,用辩证发展的眼光看待网络安全。因为网络安全治理从来都不是社会发展的“额外负担”,只有确保网络安全,才能够有效保障经济社会持续稳定发展。

经典小说推荐

杂志订阅

友情链接