加强我国人工智能安全风险的法律治理
2018-07-23 10:32:58AI云资讯954
一、目前人工智能安全方面存在的主要风险
数据与个人隐私保护防范难度增加。人工智能的发展需要海量数据的收集、应用和共享,但是,数据收集、深度处理和全球化传递中都可能危及数据和隐私安全。主要表现在三方面:一是智能设备和算法对于个人隐私的发掘分析能力远超以往技术,隐私所有权人防范的难度大大增加。二是用于身份识别验证的生物信息具有较强的稳定性,一旦发生泄露无法找回或重置,生物信息的价值大大减损,且与个人生物信息绑定的相关安全验证都将面临很高的安全风险,目前对生物信息安全问题关注远远不够。三是个人行为数据被智能设备和定位系统记录、存储和分析后会全面呈现个人的行为偏好、习惯和生活状态,目前只规制“出售或提供行踪轨迹信息,被他人用于犯罪的”情形,其它领域行为数据如何保护尚缺少相应规定。
算法透明度与可解释性缺失。一是人工智能算法的学习与决策存在海量数据本身的不确定性,使得算法的决策过程和决策规则难以被人类明悉,造成人工智能算法的透明度与可解释性缺失。二是人工智能算法的设计是编程人员的主观选择和价值判断,也可能在机器深度学习过程中自主演变和进化,不能保障算法决策的公平性和透明度,难以认定产生法律责任的主体。三是人工智能的判断规则可能存在潜在歧视,一旦作为重大决策的参照物,会带来不可想象的后果。
系统安全风险。系统安全风险主要表现在人工智能硬件应用中,智能硬件的系统漏洞、基础安全技术缺失以及复杂的供应链条带来的归责困境。一是智能硬件缺失加密技术,采用默认密码技术措施不足,使大量的用户信息处于极度危险状态。二是复杂的系统构成导致高密度关联风险增加。以智能网联汽车为例,如因软件漏洞导致系统被入侵后造成的安全事故责任,难以确定应该由整车厂或是软件系统服务提供商承担责任。
二、国外安全监管可借鉴的经验做法
颁布保护数据和个人隐私指令。在数据保护和个人隐私方面,美国于1974年颁布的《联邦隐私权法》为隐私权保护的基本法,随后颁布了《联邦电子通讯隐私法案》、《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。欧盟对此已经颁布多项个人数据保护指令,例如《关于涉及个人数据处理的个人保护以及此类数据自由流动的指令》等,构建了个人数据保护体系。2016年,欧盟颁布《个人数据保护通用条例》,禁止一切未经同意而非法使用公民个人数据的行为。在个人数据随时可被搜集的时代,任何情况下都必须坚持保护隐私和个人数据的原则。欧盟法律事务委员会建议,针对人工智能领域进行政策制定时,应当进一步完善通过设计保护隐私、默认保护隐私、知情同意、加密等概念的标准。
提高智能算法透明化和可责性。2017年1月12日,美国计算机协会下属美国公共政策委员会发布文件,阐述了关于人工智能算法透明化和可责性七条原则,旨在通过算法透明化及可追溯性,尽量减少潜在的风险及危害。2017年2月,欧盟议会通过《机器人民事法律规则》,强调算法透明原则,即对某个人或更多人的生活可能产生实质性的影响,借助于人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。2017年12月11日,纽约市议会通过《政府部门自动决策系统法案》,这是美国针对人工智能算法进行立法监管的首个法案,其目的在于促进政府自动决策算法的公开、公平,提高政府决策智能算法的公信力。
采取系列措施保障系统安全。2016年,美国发布《美国国家人工智能研发战略计划》,为确保人工智能系统的安全,提出通过采取一系列措施,比如增强人工智能的可解释性和透明度、构建信任体系、增强可验证与可确认性,以保护人工智能系统免受攻击,从而实现长期的人工智能安全和优化。
三、对策与建议
一是加快构建隐私权保护的法律。针对人工智能技术应用的不同领域,收集个人信息的来源,构架出一套自下而上、逐层具体、全面完善的隐私权保护的法律。一是对于个人敏感信息,明确列举哪些信息属于个人敏感信息,需要采取特殊的保护手段和使用限制予以保护。二是对于需要采集和存储个人信息和数据隐私的单位和个人,在采集和存储前应当明确告知信息主体,特定范围的信息需要取得信息主体的明示同意。三是明确规定可能会给信息主体造成一定风险的个人信息和数据的获取的正当性和必要性条件,规范信息获取行为,降低信息和数据被非法获取和使用的风险。
二是法律明确人工智能算法透明化和可责性要求。一是算法设计者应该对训练数据的来源及可靠性加以说明。二是算法设计机构应记录模型、算法、数据和具体决策,以便在解决出现的问题或依法监管时有据可查。三是算法应用机构应采取可靠的技术手段对其算法的程序进行验证,以提高基于此算法所自动做出的决策的可信度。四是定时评估系统的规范性,对错误决策可以进行调查并予以纠正。
三是通过立法强化人工智能系统安全义务。可靠的人工智能系统应具有强大的安全性能,能够有效应对各类恶意攻击,法律可以考虑通过安全标准、安全评估义务等规范达到强化系统安全的目的。一是提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性。二是推行智能系统安全认证制度,对人工智能技术和产品进行严格测试,增强社会公众信任。三是强化安全评估义务主体责任,针对人工智能应用场景和应用重要程度的不同,有针对性地制定技术标准和评估方案,满足不同系统安全风险与保障的差异化需求。
相关文章
- 新达内与百度智能云达成战略合作 联合培养人工智能大模型人才
- 响应“人工智能+”行动,BodyPark以“真人+AI”破解健身行业痛点,引领数字化升级
- CCF中国存储大会 | 浪潮存储刘希猛:融合存储加快“人工智能+”行动落地
- 回应时代,定义未来 | 漫柏集团与阿普人工智能共建“产教融合人才大社区”样板
- 微软人工智能推出首批自研模型MAI-Voice-1语音模型与MAI-1预览版
- 物联网与人工智能的中国力量,年度AGIC+IOTE盛会深圳重磅开幕!
- 迎“人工智能+”政策东风!2025中国智能产业大会&吴文俊人工智能创新大会即将落地常州
- 超千家AI企业“智汇”鹏城 2025 AGIC深圳(国际)通用人工智能大会暨产业博览会启幕
- 深入实施“人工智能+”行动的号角已经吹响,旷视以“升维”解码AI未来图景
- 下一个爆款在哪儿 2025英特尔人工智能创新应用大赛获奖名单揭晓
- 南通人工智能大会:数睿数据刘超提出“AI重塑软件生产力”,发布smardaten 2.0
- 破防了!NEPCON ASIA 2025亚洲电子展聚焦具身智能机器人、柔性生产、人工智能、半导体、低空飞行等井喷市场,一展打尽电子黑科技
- 人工智能政策发布,九科信息积极响应并领跑国央企AI Agent商业化落地
- 腾讯与港中大签署合作框架安排 携手推动人工智能法律研究合作与科技人才培养
- ISC.AI 2025任贤良:以创新与共治筑牢人工智能安全防线
- 2025世界人工智能大会AI+县域分论坛,杨作兴博士与陈宏铭院士对话科技点亮乡村振兴