加强我国人工智能安全风险的法律治理
2018-07-23 10:32:58AI云资讯1085
一、目前人工智能安全方面存在的主要风险
数据与个人隐私保护防范难度增加。人工智能的发展需要海量数据的收集、应用和共享,但是,数据收集、深度处理和全球化传递中都可能危及数据和隐私安全。主要表现在三方面:一是智能设备和算法对于个人隐私的发掘分析能力远超以往技术,隐私所有权人防范的难度大大增加。二是用于身份识别验证的生物信息具有较强的稳定性,一旦发生泄露无法找回或重置,生物信息的价值大大减损,且与个人生物信息绑定的相关安全验证都将面临很高的安全风险,目前对生物信息安全问题关注远远不够。三是个人行为数据被智能设备和定位系统记录、存储和分析后会全面呈现个人的行为偏好、习惯和生活状态,目前只规制“出售或提供行踪轨迹信息,被他人用于犯罪的”情形,其它领域行为数据如何保护尚缺少相应规定。
算法透明度与可解释性缺失。一是人工智能算法的学习与决策存在海量数据本身的不确定性,使得算法的决策过程和决策规则难以被人类明悉,造成人工智能算法的透明度与可解释性缺失。二是人工智能算法的设计是编程人员的主观选择和价值判断,也可能在机器深度学习过程中自主演变和进化,不能保障算法决策的公平性和透明度,难以认定产生法律责任的主体。三是人工智能的判断规则可能存在潜在歧视,一旦作为重大决策的参照物,会带来不可想象的后果。
系统安全风险。系统安全风险主要表现在人工智能硬件应用中,智能硬件的系统漏洞、基础安全技术缺失以及复杂的供应链条带来的归责困境。一是智能硬件缺失加密技术,采用默认密码技术措施不足,使大量的用户信息处于极度危险状态。二是复杂的系统构成导致高密度关联风险增加。以智能网联汽车为例,如因软件漏洞导致系统被入侵后造成的安全事故责任,难以确定应该由整车厂或是软件系统服务提供商承担责任。
二、国外安全监管可借鉴的经验做法
颁布保护数据和个人隐私指令。在数据保护和个人隐私方面,美国于1974年颁布的《联邦隐私权法》为隐私权保护的基本法,随后颁布了《联邦电子通讯隐私法案》、《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。欧盟对此已经颁布多项个人数据保护指令,例如《关于涉及个人数据处理的个人保护以及此类数据自由流动的指令》等,构建了个人数据保护体系。2016年,欧盟颁布《个人数据保护通用条例》,禁止一切未经同意而非法使用公民个人数据的行为。在个人数据随时可被搜集的时代,任何情况下都必须坚持保护隐私和个人数据的原则。欧盟法律事务委员会建议,针对人工智能领域进行政策制定时,应当进一步完善通过设计保护隐私、默认保护隐私、知情同意、加密等概念的标准。
提高智能算法透明化和可责性。2017年1月12日,美国计算机协会下属美国公共政策委员会发布文件,阐述了关于人工智能算法透明化和可责性七条原则,旨在通过算法透明化及可追溯性,尽量减少潜在的风险及危害。2017年2月,欧盟议会通过《机器人民事法律规则》,强调算法透明原则,即对某个人或更多人的生活可能产生实质性的影响,借助于人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。2017年12月11日,纽约市议会通过《政府部门自动决策系统法案》,这是美国针对人工智能算法进行立法监管的首个法案,其目的在于促进政府自动决策算法的公开、公平,提高政府决策智能算法的公信力。
采取系列措施保障系统安全。2016年,美国发布《美国国家人工智能研发战略计划》,为确保人工智能系统的安全,提出通过采取一系列措施,比如增强人工智能的可解释性和透明度、构建信任体系、增强可验证与可确认性,以保护人工智能系统免受攻击,从而实现长期的人工智能安全和优化。
三、对策与建议
一是加快构建隐私权保护的法律。针对人工智能技术应用的不同领域,收集个人信息的来源,构架出一套自下而上、逐层具体、全面完善的隐私权保护的法律。一是对于个人敏感信息,明确列举哪些信息属于个人敏感信息,需要采取特殊的保护手段和使用限制予以保护。二是对于需要采集和存储个人信息和数据隐私的单位和个人,在采集和存储前应当明确告知信息主体,特定范围的信息需要取得信息主体的明示同意。三是明确规定可能会给信息主体造成一定风险的个人信息和数据的获取的正当性和必要性条件,规范信息获取行为,降低信息和数据被非法获取和使用的风险。
二是法律明确人工智能算法透明化和可责性要求。一是算法设计者应该对训练数据的来源及可靠性加以说明。二是算法设计机构应记录模型、算法、数据和具体决策,以便在解决出现的问题或依法监管时有据可查。三是算法应用机构应采取可靠的技术手段对其算法的程序进行验证,以提高基于此算法所自动做出的决策的可信度。四是定时评估系统的规范性,对错误决策可以进行调查并予以纠正。
三是通过立法强化人工智能系统安全义务。可靠的人工智能系统应具有强大的安全性能,能够有效应对各类恶意攻击,法律可以考虑通过安全标准、安全评估义务等规范达到强化系统安全的目的。一是提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性。二是推行智能系统安全认证制度,对人工智能技术和产品进行严格测试,增强社会公众信任。三是强化安全评估义务主体责任,针对人工智能应用场景和应用重要程度的不同,有针对性地制定技术标准和评估方案,满足不同系统安全风险与保障的差异化需求。
相关文章
- 受人工智能需求影响,英特尔消费级CPU产品或面临大规模涨价
- 北京人工智能产业联盟AI智能体专委会正式成立 共筑智能体产业协同创新生态
- 量子科技里程碑式跨越,微美全息深化“人工智能+量子”战略突破开启新局
- 攻坚数据智能核心技术 中国移动项目获国内人工智能领域最高奖
- 学而思“AI未来星・2026青少年人工智能科普活动”在京启动
- 从“校园大脑”到产教融合,WPS 365加速“人工智能+教育”数字化建设落地
- 科大讯飞与金光集团签约战略合作,携手推动印尼人工智能转型
- 北京人工智能大会首都信息分享“平台+模型+场景”AI+数据要素新范式
- 首都信息红藤办公平台亮相北京人工智能大会
- Rambus 推出行业领先的超以太网安全 IP 解决方案,赋能人工智能与高性能计算
- 中国联通与七家合作伙伴集中签约,国家人工智能应用中试基地(医疗)迎来里程碑式进展
- 点猫科技向七地捐赠春晚机器人AI实验室,共筑人工智能教育未来
- 三星HBM4高带宽内存正式进入英伟达Vera Rubin人工智能芯片平台
- 桔吉人工智能解锁代理记账AI、AI做账、AI会计,合规账智能新生态
- 以AI考试技术赋能,拓维海云天荣膺“2025人工智能骨干企业”称号
- 融梦科技参编两项团标正式发布——引领“人工智能+体育”跨领域标准化建设









