人工智能发展到一定程度 人工智能需制定策略

2020-08-03 10:48:15爱云资讯

近年来,人工智能(AI)终于开始展示其巨大的力量,来重塑市场、公共部门、国家安全领域和更广泛的社会。过去十年来的技术发展,如,基于计算能力大幅度提高,可用于“训练”人工智能系统的数据量大幅度增加以及新的机器学习技术的突破,使得人工智能得以应用于更为广泛的领域。人工智能的应用随即对现实世界产生了一系列积极和消极的影响。2020年3月27日,大西洋理事会发布了一则题为《AI, society and governance: An introduction》的报告,报告介绍和阐明跨多个领域的AI策略,提出在人工智能领域,政策制定落后于技术的进步,并对这一过渡时期需制定的策略提出了建议。

在过去几年中,世界各地的公共部门、私营部门、公司、大学和其他组织已经开始处理许多与人工智能相关的政策问题。在公共部门内,人工智能决策不限于国家政府。除多边机构外,各级地方、州/地区和国家政府一直在应对与人工智能相关的挑战,并试图制定应对这些挑战的政策。这表明人工智能已经开始影响人类生存的几乎每个方面。至少在这个领域,政策肯定落后于技术进步。政策制定者现在正急于赶上。

人工智能政策制定是新的领域,并没有一套公认的最佳策略,因此,实践显得尤为重要。加拿大政府在2016年制定了第一个国家人工智能战略。从那时起开始,数十个国家竞相制定自己的人工智能战略和政策,尽管内容、目标、机制和资金水平差异很大。正如一位评论员所说,人工智能策略可以被定义为“最大化人工智能利益,同时最小化其潜在成本和风险的公共政策”。

一、人工智能策略制定的领域

(一)伦理规范

如此多的组织都在努力定义人工智能的伦理用途,这一事实本身就证明了一种恐惧,这种恐惧长期以来一直在激发人们对人工智能的思考,包括它令人难以置信的力量,以及它可能如何被用于有害和不道德的目的。这种恐惧激发了集体想象力,激发了无数科幻书籍和电影。在许多其他领域,如科学、技术、政治和人文等,思想家们依旧对人工智能在我们居住的世界中潜在毁灭性应用持保留态度。从亨利·基辛格到斯蒂芬·霍金等名人都警告说,人工智能总有一天会对人类的生存构成威胁。

这种对机器接管的恐惧围绕着“广义人工智能”的发展,这一术语指的是拥有某种超人智能的人工智能系统。广义人工智能还不存在。真正存在的是“狭义人工智能”,即应用于特定任务的人工智能。区别在于:

对广义人工智能的研究仍处于初级阶段。该领域的研究人员估计,广义人工智能可能在本世纪中叶开发出来,或者需要更长的时间。然而,考虑到广义人工智能开发的风险,一些专家主张从现在开始就要谨慎行事。他们认为,政府应该在人工智能完善之前,就对人工智能的发展进行保护,以避免出现类似终结者的场景。

在某种程度上,为了超越人工智能的说法,世界上最大的科技公司,包括谷歌和微软,一直在高调创建这样的“人工智能伦理”准则。例如,谷歌的人工智能原则列出了责任、安全和保证人工智能系统公正的承诺等内容。这些企业制定AI伦理指南的工作也成为最受关注的部分,主要是因为这些世界上最大的科技公司是以生产人工智能产品而使自己盈利为目标,并希望借此巩固在该领域全球技术领导者的地位。

(二)公平和正义

这一政策领域是人工智能领域中最受关注和争议的领域之一。主要围绕着人工智能系统是否反映、再现、甚至放大了社会问题进行研究。对于如何理解这一挑战,以及如何构建能够对抗、预防或最小化这类问题的人工智能系统,人们展开了一场持续的讨论。当涉及到人类性别特征、社会经济地位、性取向、种族和宗教地位的人工智能系统决策时,这种争论尤其令人担忧。

人工智能系统产生的决策,对很多人来说,可能是非常真实的。例如,这种系统可以决定谁能够获得公共和私人资源和服务,谁受到国家当局的监督,谁在招聘过程中被筛选,给消费者的信用评分是多少,并且可以决定警察和法院如何解释和执行法律。这些决策过程中的每一个都在筛选人们,或者对他们进行排序,正面和负面的影响取决于选择的状态。

正义和公平问题一方面涉及人工智能工具如何构建,另一方面涉及人类如何使用这些工具。缺乏有效性意味着人工智能工具没有“对真实世界的忠诚”,这意味着该工具的应用脱离了现实环境。偏差是指人工智能工具如何在预测中系统性地出错,尤其是对某些类别的人。这种人工智能偏差可能发生在成帧、数据收集和数据准备阶段。在这些阶段,人工智能系统的设计者可以有意地或通过致盲将偏差引入到算法和/或训练数据中,防止设计者看到他们是如何使结果分析产生偏差的。

(三)隐私、消费者保护和数据可用性

隐私和消费者保护问题也是备受关注的政策领域。人工智能系统可以从收集到的个人数据中分析个人的评价。因此,政府和企业可以获得大量的行为和人物数据,这些数据描述了一个人的过去,然后被基于人工智能的模型用来预测这个人未来的行为。

人工智能为数字隐私政策讨论增加了一个新的层面,涉及到行动者是否有权从个人收集的信息类型和数量以及如何处理这些数据的问题。上文提到的欧盟可信人工智能道德准则包括一个专门针对隐私的准则。该准则称隐私为“基本权利”,称“充分的数据治理”应涵盖所用数据的质量和完整性、与人工智能系统部署领域的相关性、访问协议以及以保护隐私的方式处理数据的能力等。

(四)国家人工智能战略和产业政策

各国政府正在将人工智能的商业发展作为中心目标,制定国家人工智能战略和产业政策。

国家人工智能战略代表了政府试图组织其对人工智能的思考,并因此围绕一系列战略目标调整其政策目标和利益相关者。产业政策并不完全一样。这是一个可延展的概念,但通常指国家对工业发展的直接和间接支持,特别是国家将支持那些被认为对国家经济繁荣和/或国家安全具有战略重要性的目标工业部门。产业政策工具清单可能包括设立技术发展基金、国家指导的集群投资(旨在促进地理“集群”效应)、外国技术转让要求(要求外国公司在某些条件下转让其技术)、对工人技能培训有针对性的支持等。

无论名称如何,各国政府一直在试图组织人工智能的战略方法。一项研究称,截至2019年7月,已有41个国家制定了国家人工智能战略,或表示有兴趣制定此类战略。在已经发布框架文件的19个国家中,大多数州(16个)优先考虑人工智能的研发,其次是人工智能人才的开发(11个)、人工智能作为产业战略的一部分的应用(9个)、道德和法律准则的制定(8个)、人工智能相关基础设施的投资(6个)以及人工智能在政府中的发展。

2019年,美国政府通过行政命令发布了自己的人工智能战略,强调R&D、标准和劳动力发展。这份文件是在奥巴马政府2016年发布R&D战略计划和一系列关注人工智能、社会和经济的报告之后发布的。同样是在2019年,三名美国参议员提出了一项立法,该立法将创建一项国家人工智能战略,更重要的是,为其提供资金。如果获得通过,《人工智能倡议法案》将在五年内拨款20多亿美元,用于资助一系列活动,包括建立人工智能协调办公室、几个研究中心,以及创建强大的人工智能评估标准。

(五)技术标准

根据国际标准化组织,技术标准规定了“材料、产品、过程和服务需要符合的要求、规范、指南或特性”。通过引入通用术语和规范,技术标准为市场繁荣提供了基础。具体而言,技术标准为各种商业活动创造了基础——允许技术之间的互操作,实现更快速的创新,鼓励产品差异化,简化商业合同,降低交易成本。

概括地说,政府有一系列的动机来创建(或鼓励采用)强大的技术标准。在国内,政府有兴趣帮助创造和扩大有希望的国内新技术市场。技术标准有助于促进这样的市场。但是政府显然也有兴趣保护公共利益,而技术标准又可以促进这一目的。例如,公共卫生和安全考虑,从食品到手术到运输,以及许多其他公众关注的领域,是制定技术标准的首要考虑。

最需要人工智能相关技术标准的地方莫过于自动交通系统。尽管现在有很多类似行动,但没有一个国家为自动系统制定一整套标准。美国政府按照其对技术标准的总体做法,只支持为自主汽车制定“利益相关者驱动的自愿技术标准”,并倾向于非政府组织,如国际汽车工程师学会(原汽车工程师学会)来进行研究发展。美国几十个州已经考虑或颁布了与自动车辆有关的初步立法,一些公司的目标是建立自己的(国家级)技术标准,以实现自主车辆测试。

(六)创新生态系统

国家和国家以下各级政府都对创新生态系统的创建非常感兴趣。世界领先的技术创新生态系统——如加利福尼亚湾区等城市和地区——不仅产生了世界上大部分的应用技术,而且还为当地居民创造了大量财富,进而为他们所在的国家创造了大量财富。鉴于人工智能相关技术将带来的收益,政策制定者专注于确保他们能够在自己的范围内分享这一财富创造。

在国家和国家以下各级,许多公共部门政策和投资支持(或阻碍)创新生态系统的创建和增长。这种政策和投资可以与支持产业政策的政策和投资类型重叠,尽管公众参与建设创新生态系统通常不被列为产业政策。

(七)赛博空间

人工智能使网络安全复杂化,因为它极大地加速了网络空间中的问题和机遇。网络安全行业将人工智能视为打击网络犯罪和黑客攻击的工具。因为其相信人工智能能比人类或软件更快更有效地完成这些任务。然而,与此同时,攻击者也可以利用这些优势,他们可以使用人工智能更快地发现和利用软件漏洞,生成更多的恶意软件以压倒网络防御,并创建更复杂和适应性更强的基于电子邮件的诈骗(网络钓鱼等)。

在这种情况下,越来越多的关注点是“对抗性ML”(或“对抗性AI”),当攻击者试图破坏、愚弄或窃取ML/AI系统时,就会发生这种情况。对抗性攻击有几种变体,例如,“模型反转”(攻击者获取用于训练系统的训练数据)和“模型窃取”(攻击者试图窃取模型的底层算法)。

“中毒攻击”是另一种常见的对抗性攻击,在机器学习模型中插入输入,诱使系统做出与系统设计参数不同的分类决策(是/否、输入/输出等),在中毒攻击中,不道德的行为体欺诈、欺骗、窃贼、敌对的外国政府,等等,操纵ML模型如何评估输入,以便以有利于攻击者的方式重新配置结果输出。中毒攻击会在模型的训练阶段对输入数据带来微妙的变化,这些变化设计得足够小,可以逃避研究人员的检测,但总体上却显著到足以在程序输出中产生系统偏差。这种“添加少量精心设计的噪音”可能会产生实际后果,例如,医疗领域的“受骗”人工智能系统可能会命令不必要的医疗治疗,构成医疗保险欺诈。

(八)犯罪、执法、欺诈和欺骗

人工智能是一个强有力的新工具,既能打击犯罪活动,又能使之成为可能。在打击方面,联合国区域间犯罪和司法研究所(犯罪司法所)和国际刑事警察组织(国际刑警组织)是全球一级研究这一系列问题的主要多边机构。2019年,他们发布了一份概览报告,认为虽然“许多国家”正在将人工智能应用于执法,但人们普遍对人工智能的效果缺乏了解,执法机构之间的国际协调程度也很低。犯罪司法所和国际刑警组织也正在牵头就这一问题开展全球对话,2019年7月举行了第二次年度执法人工智能全球会议。

(九)公共部门的效能

此外,人工智能可以协助其他重要的政府职能。监管监督就是其中之一。通过应用人工智能集成技术(除了人工智能之外,还有传感器和远程视频),工厂和工地检查可以变得更加普遍、有效和便宜。此外,同样重要的是,人工智能可以生成预测分析,以预测何时何地可能发生严重的不良事件,例如,发电厂的机械故障、肉类包装厂的致病性爆发或工厂的化学品泄漏。

(十)成本:财务和能源

还有一个很少被注意但很重要的领域,财务和能源领域。由于涉及人工智能研究的高成本,所以既限制了谁可以参与人工智能系统的开发,又限制了进行研究可以使用多少资源。麻省大学的研究人员在2019年6月发表的一篇论文中发现,就这两种资源而言,训练大型人工智能模型的成本都很高。尽管人工智能模型有很多,运行它们所需的资金和能量也有很大差异(主要是云计算需要资金),但研究人员发现这些成本随着模型的复杂性呈指数级增长。

(十一)致命自主武器系统

最后一组政策问题主要在国家安全领域。这些包括人工智能和致命武器,特别是“致命自主武器系统”的发展和它们在战场上的使用。对于世界主要大国的国家安全机构来说,最重要的政策优先事项很简单:在缺乏对自主武器系统具有约束力的情况下,最重要的优先事项是获得足够的资源来开发、测试和部署集成人工智能的系统,以确保优于本国的地缘战略和军事对手。

关于人工智能的使用,他们主要关心的是军事指挥链:谁(或什么)在战场上发布这种杀伤命令,或者至少是指挥链中的谁“决定如何、何时、何地以及为什么使用这种武器”?基辛格认为,鉴于基于人工智能的武器系统的发展缺乏透明度(透明度是所有军备控制的基础),控制基于人工智能的武器系统,包括法律,也许是不可能的。他的言论意在对基于人工智能的武器系统被允许不受限制地发展可能导致的严重后果发出严重警告。

二、建 议

我们现在正处于一个过渡时期,人工智能已经从潜力走向现实,其巨大的力量已经开始颠覆人类的生存,无论好坏。如果政府希望利用人工智能发挥积极的潜力,并避免人工智能带来的负面影响,就需要确定社会优先事项,制定可操作的战略,然后在实际资金支持下实施明智的政策。

(一)伦理规范

道德和规范声明的创建现在是广为人知的领域。愤世嫉俗者会辩称,这些声明之所以常见,恰恰是因为它们不具约束力,成本很低,对受影响的经济部门没有负面影响,并且标志着良性但往往模糊的制度行动。

但是这里也有一个令人信服的反驳。当通过制度化、公共环境、道德和规范声明进行定义时,可以迫使政府阐明它们最重视的价值观,从而确定它们的最高优先事项。这一过程迫使利益相关者强化他们的论点,并与他人一起协商他们的立场。此外,非约束性流程有助于在更具约束性、因此更困难的决策流程之前,围绕人工智能目标达成共识。

因此,各国政府应效仿欧盟的做法,建立高级别委员会,由公认和受尊重的主席领导,成员广泛代表社会,并负责通过严格的程序,形成广为宣传和传播的道德和规范声明。

(二)战略

说到人工智能,预期治理是至关重要的。尽管人工智能驱动未来的模式还不清楚,但政府还是应该积极面对人工智能带来的重大的、颠覆性的变革。首先,政府需要发展可操作且可行的策略,在积极的方向上塑造未来,同时避免或最小化人工智能领域中不可避免的负面后果。

综合战略应以道德和规范声明为基础,以帮助确定战略目标。理想情况下,人工智能策略不仅会定义政府希望实现的目标,而且还会定义政府不愿意容忍的结果。此外,重要的是要从一开始就认识到一些战略成果会与其他成果相矛盾。政府需要在一方面瞄准创新的前沿,即成为基于人工智能的初创企业和人工智能驱动产业的全球领导者,另一方面应对人工智能的社会治理后果之间取得平衡。

(三)隐私和数据

由于个人数据通常可能会成为人工智能系统的原始材料,所以隐私问题是大多数政策讨论的核心。从医疗保健、交通运输乃至环境保护等领域人工智能所产生的效益往往更加强大。在保护个人权利和最大限度地发挥人工智能为更广泛的公众带来的潜在利益之间取得平衡,是人工智能决策的核心。

(四)创新生态系统和人力资本

世界各国政府都将人工智能的发展视为建立和加强创新生态系统的机会,即促进一国境内的创业和新经济部门,以获得随后的经济利益。在创建强大的技术创新生态系统的过程中,存在多种政策关联。包括研发支出、知识产权保护、基础设施投资、税收政策、住房政策等等。这种政策上的相互联系对于刺激人工智能相关的创新和其他新兴技术相关的创新同样重要。

(五)致命自主武器系统

吉尔·普拉特(Gill Pratt),一位前美国国防高级研究计划局(DARPA)的机器人专家,在2015年一篇被广泛引用的论文中指出,机器学习、计算能力、数据和能量存储系统以及传感器的进步将在人工智能机器人领域带来“寒武纪大爆发”,他的意思是“机器人多样化和适用性的大爆发”。对于世界军队来说,人工智能系统的这种进步是不可抗拒的。人工智能领域产生的,运输、供应、后勤、监视以及作战能力方面的进步,远远超过当今任何军队所拥有的。

这就是困境的症结所在。在一个对自主武器系统没有任何约束性和可执行性条约的情况下,各国认为他们别无选择,只能大力发展此类系统。正如哈佛大学肯尼迪学院2017年关于人工智能军事用途的研究报告的作者所言,由于机器优越的作战能力,各州“将面临越来越大的诱惑,要么授予机器更高级别的权力,要么面临失败”。

各国投资技术开发以确保自身安全。正如计算机、全球定位系统技术、卫星和许多其他技术一样,世界各国军方正投入巨额资金用于人工智能开发,因为他们担心在这一关键技术上落后于竞争对手。事实上,美国军方是人工智能研究的全球最大资助者之一:美国国防部认为,相对于地缘政治对手,美国“必须采用人工智能来维持其战略地位”。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023