欧美相继出台AI新规,整治“蛮荒的西部”

2020-03-01 16:31:51爱云资讯

原标题:欧美相继出台AI新规,整治“蛮荒的西部”

欧美相继出台AI新规,整治“蛮荒的西部”

欧盟委员会 (European Commission) 近日发布《人工智能白皮书》,计划制定一套人工智能的新法规,以保护公民免受滥用人工智能技术的伤害。

同时,欧盟表示新法规将侧重于透明度和监督,以区别该地区与美国和中国的做法。有趣的是,欧美委员会将目前 AI 发展的现状比作「蛮荒的西部」,并表示将重点关注「高风险」案例。

AI 现状:蛮荒的西部?

如今,人脸识别已经成为一些执法机关追踪嫌犯时最强有力的武器;还有些医疗机构正通过分析人的脸部特征,来诊断某些罕见遗传疾病……但它对公民隐私权构成的威胁,也前所未有。

相较指纹等其他生物特征,人脸识别的最大不同就在于,它能远距离发生作用,而无需直接接触。这意味着,政府、公司等机构和个人可能未经当事人同意、甚至完全不知情的情况下读取并搜集其数据,进而非法使用。

事实上,人脸不仅仅能表明身份,让人觉得美或丑,还泄露许多其他信息。有研究表明,通过大数据和算法,有相当大概率能通过人脸特征来测算一个人的智力水平、性取向,甚至政治倾向……

因此,一旦这种技术被不恰当地使用,就有可能产生严重后果——例如,保险公司或可更精确判定一个人的健康状况,从而制定出包赚不赔的保单价格;雇主可能会雇佣或拒绝一些特定的雇员,以满足其偏见;一些政府则可能更加主动有效地对某些特定人群进行追踪、监控甚至迫害;在人种多元的国家,脸部特征数据的运算结果还可能造成对某些族群人士的不公正认知……

还有人认为,人脸识别会反过来影响人们的现实交往和信任关系。如果都知道自己的脸部特征会对自己将在社会上遭遇怎样的对待产生重大影响时,人们就会被训练成「表演大师」。长此以往,整个社会将陷入巨大的信任危机之中。

再比如,近几年来,基于 AI 技术的 Deepfake 视频在网络上有泛滥之势,该技术能够生成逼真的假视频或音频片段,很多时候足以乱真。这些逼真的视频让人们发出「技术无所不能」的赞叹,同时,也引发了更多的人对技术滥用和不可控的担忧,甚至是恐惧。

欧美相继出台AI新规,整治“蛮荒的西部”

Deepfake 的出现实现了「以假乱真」的合成技术

与恶搞娱乐和公益相比,Deepfake 更多地显示了技术的「阴暗獠牙」。利用 Deepfake 伪造的演讲视频已经对马来西亚和加蓬的政治丑闻产生影响。

据 Deepfake 检测软件的 Deeptrace Labs 的一份报告称,目前在线的 Deepfake 视频中有 96%是非自愿拍摄的「换头」色情片,片中人的脸往往被换成了女性名人的脸。这已经超出了恶搞的范畴,触及违法的边缘。

禁用人脸识别?

根据欧盟发布的白皮书内容,在未来的五年中,欧盟委员会将专注于数字化的三个关键目标:为人民服务的技术;公平竞争的经济;开放、民主和可持续的社会,白皮书还提出一系列人工智能研发和监管的政策措施,并提出建立「可信赖的人工智能框架」。

近年来,欧洲一直在寻求在技术政策方面强调公平和伦理。

欧洲内部市场和服务专员蒂森·布雷顿(Thierry Breton)表示,新法规将与《一般数据保护条例》(General Data Protection Regulation) 相媲美。这部影响深远的数据隐私法于 2018 年生效,也被称为史上最严数据保护法,对侵犯网民隐私的违法企业,罚金最高可达 2000 万欧元(约合 1.5 亿元人民币)或者其全球营业额的 4%,以高者为准。法规出台不久,Facebook 和谷歌等美国企业也都成为 GDPR 法案下的第一批被告。

根据新规,欧盟将建议禁止在公共场所使用面部识别技术,并且提到这些系统的运行将需要人的监督和审计。作为建议的一部分,欧盟还希望成员国任命相关部门监督人工智能政策规则的执行情况。

当然,这些规定吓坏了硅谷的公司。即使 GDPR 这样的法规只针对欧洲,也往往具有全球影响。布雷顿表示:「与 GDPR 一样,我们有自己的规则,我们将在这里执行。他们将确保我们在欧洲珍视的个人和基本权利得到尊重。」

欧洲是世界上最大的工业大陆,尽管人工智能等转型技术被称为关键技术,但人们普遍认为欧洲落后于美国,美国的发展由财力雄厚的科技巨头主导。现在,通过欧盟引入有关人工智能和面部识别等技术数据收集透明度的规则,将领先迈出重要一步。

欧盟科技主管玛格丽特 维斯特格 ( Margrethe Vestager ) 在之前的新闻发布会上指出,该规则将涵盖自动驾驶汽车和生物识别 ID 等用途。欧盟以外想要在欧洲部署其技术的公司,可能需要采取具体步骤,例如使用欧洲数据集重新训练面部识别功能。欧盟希望积累在制造业,交通运输,能源和医疗保健等领域收集的数据,以保护公众利益,并加速欧洲自己的初创公司。

同时,欧盟将提议每年花费近 220 亿美元用于构建可以用作 AI 开发基础的新数据生态系统。该计划假设欧洲拥有大量的政府和工业数据,并且希望提供监管和财务激励措施以汇总这些数据,然后这些数据将提供给同意遵守欧盟法规的 AI 开发人员。

谷歌:支持政府监管,但制定规则应谨慎

谷歌 CEO Pichai 近日在布鲁塞尔举行的 Bruegel 智库组织的一次会议上说:「我认为政府和监管法规应尽早解决此问题,并出台管理的框架规定,这是很重要的。」

「现在这样做可能会立竿见影,但也可能要等待一段时间才能见效,届时我们才能真正考虑如何使用它。使用这种技术取决于政府制定的路线。」

Pichai 表示,监管机构在起草规则时应谨慎行事。欧盟委员会在该问题上发布的建议将在很大程度上决定人脸识别技术未来在欧洲的命运。

微软:不应一刀切

相比之下,微软总裁 Brad Smith 对此表达了两点不同的观点,他认为,面部识别技术在某些情况下是可以造福社会的,比如非政府组织可以使用它来寻找失踪的孩子。

Smith 说:「我真的不愿意讨论让人们禁用某项技术,人脸识别技术可以让久别的家人团聚。」

他还说,如果能有一个合理的选择,让我们能用「手术刀」,而不是「切肉刀」来解决这个问题,那就不要一刀切都禁了。

现在重要的是首先确定问题所在,然后制定规则,确保该技术不会用于大规模监视。他认为,最终要让一项技术变得更好的方法只有一种,就是多用,而不是禁用。

Faceboo:呼吁加强监管

Facebook 首席执行官马克·扎克伯格(Mark Zuckerberg)近日还专门到访布鲁塞尔与 Vestager 会晤并讨论拟议的法规。扎克伯格在《金融时报》周末发表的观点文章中再次呼吁加强对 AI 和其他技术的监管,以帮助建立公众信任。

「我们需要更多的监督和问责,」扎克伯格写道。「人们需要感觉到,全球技术平台是对某人的回应,因此监管应该让企业在犯错时承担责任。」

据了解,公众有 12 周时间就这些规定发表评论,欧盟委员会将在今年晚些时候正式提出立法。

前进还是倒退?

白皮书标志着一个新进程的开始,这一进程可能引导针对人工智能系统及其企业的新立法。「这将使大规模(对人工智能的)监控合法化,」独立研究员斯蒂芬妮·黑尔博士说。

黑尔博士认为,委员会应暂停使用面部识别技术多年,以便就如何或是否可以合乎道德地使用这类系统征询专家的意见。

而实际上,一些英国警察已经在公共场合使用面部识别系统。英国警方使用人脸识别摄像头监控威尔士足球比赛的人群时,一些球迷捂着脸抗议。这项技术存在争议的一个迹象是,甚至一个邻近警察局的负责人也表示反对这项技术。

南威尔士警方在卡迪夫体育场外部署了装有人脸识别的货车,作为长期试验的一部分。在这个试验项目中,警方实时扫描球迷,并拘留因过去行为不端而被列入黑名单的任何人。维权人士和球队支持者在卡迪夫市和斯旺西城之间的比赛前举行了抗议,他们戴着口罩、头套或围巾。

「这与风险不相称,」威尔士足球支持者协会主席文斯·阿尔姆说,该协会帮助组织了这次抗议活动。「球迷们觉得他们好像被选中当做试验品。」

英国拥有世界上最高密度的监控摄像头之一,几十年来,英国安全部门一直在公共场所使用摄像头,但是在 2001 年 9 月 11 日之后,英国还遭遇了国内恐怖袭击。

伦敦大学学院 (University College London) 的迈克尔 维尔 (Michael Veale) 表示,这份白皮书是一个「错失发展机会的计划」。「它过于专注于孤立的系统,而没有考虑周围的环境、商业模式、它的用途,以及推动人工智能的经济和政治体系。」

Veale 博士补充说,包括 GDPR 在内的现有法律为防止滥用面部识别提供了保护,但是他认为,与其制定新的法律,不如把重点放在执行这些法律上。

他个人已经向监管机构提交了针对科技公司的「几起」投诉,但他还没有被告知任何由此导致的行动。

数字权益组织 Access Now 的丹尼尔 洛伊弗 (Daniel Leufer) 也在 twitter 上发帖称,这份白皮书在面部识别和人工智能生物识别方面的内容「令人失望」地薄弱。

也有些人对目前在人脸识别方面缺乏具体的建议表示欢迎。

法国格勒诺布尔阿尔卑斯大学 (Grenoble Alpes) 的西奥多 克里斯塔基斯 (Theodore Christakis) 是法国国家数字委员会 (French National Digital Council) 的成员。他在采访中表示:「欧盟委员会需要更多时间来研究如此复杂的问题,并在这一领域谨慎推进,这似乎是合理的。」

AI 未来何去何从?

根据一份新的政府报告,英国将不会设立专门的人工智能监管机构,但需要对公共部门的使用和道德规范给予更明确的说明。

这份名为《人工智能与公共标准:公共生活标准委员会》的报告称,政府「在开放性上失败了」,人们对「人工智能黑箱」的担忧在很大程度上是错误的。

报告指出:「公共部门组织在使用人工智能方面不够透明,而且很难发现政府目前在哪些领域使用了机器学习。」

该报告主张,「所有公营机构在提供公共服务前,应发表声明,说明使用人工智能是否符合有关法例及规例;不需要特定的人工智能监管机构,但应成立监管保证机构,以确定监管领域的空白,并就与人工智能相关的问题向个别监管机构和政府提供建议」

IT 服务提供商 Insight 的技术策略师亚历克斯·吉兰 (Alex Guillen) 在报告发布后评论称,「首先,公共部门需要记住,目前人工智能和机器学习等技术的最有效使用,是为了提高而不是取代人类。帮助公共部门的工作人员做出更明智的决定,以改善公共服务。然而,无论人工智能如何应用于公共部门,它都需要被当作雇员对待——并给予必要的培训和信息,以完成其工作。」

Guillen 补充说,「与任何依赖数据的技术一样,垃圾输入意味着垃圾输出。从警务中的面部识别,到帮助国民保健服务 (NHS) 诊断和治疗病人,人工智能需要正确的数据和正确的治理,以避免造成比解决更多的问题。否则,任何执行都会受到道德问题和数据偏见或歧视指控的困扰。」

在美国,一些政界人士对人脸识别软件的准确性和越来越多的使用也表示担忧。一些人脸识别技术错误地识别了女性和有色人种,公民自由和隐私团体对如何收集这些项目的数据表示担忧。

但与欧盟的谨慎作风不同,美国白宫在 2020 年 1 月 7 日提出 10 条人工智能监管原则,要求避免联邦机构对人工智能应用的过度干预,强调监管的灵活性。

其中,灵活性原则指出,大多数情况下,试图规定死板的人工智能应用规则是不切实际且无效的,因为人工智能将以预期的速度发展,机构需要对新的信息和证据做出反应。

熟悉此事的官员告诉《国防一号》(Defense One),美国国防部 (Defense Department) 也将很快制定一套详细的规则,以管理如何开发和使用人工智能。2019 年 10 月,美国国防创新委员会 (DIB) 发布了一份规则草案,名为「关于人工智能的道德使用的建议」。

「国防部已经进入采用人工智能原则的最后阶段,这些原则将在美国军方全面实施。」五角大楼联合人工智能中心 (Joint Artificial Intelligence Center) 发言人阿罗·亚伯拉罕森中校 (Lt. Cmdr. Arlo Abrahamson) 说。

DIB 的指导方针和附带的实现方针,远远超出了谷歌、Facebook 和微软等科技巨头发布的有关人工智能的简短而基本上是肤浅的愿景声明。一些人工智能和武器领域的伦理学家和学者对美国国防部采用人工智能的消息表示欢迎,但他们补充称,这方面还有进一步的工作要做,人工智能在军事上使用的风险和担忧仍将存在。 人工智能

相关文章
精彩评论
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明