企业如何在人与AI之间建立信任

2020-08-21 15:25:56爱云资讯

人工智能(AI)渗透到我们的日常生活中,决定诸如谁获得福利,谁入围工作,甚至发现农场植物中的疾病之类的事情。但是,人工智能也带来了无数挑战,尤其是对于设计人工智能系统的企业而言。

在过去的30多年中,人工智能已经离开实验室,出现在我们的日常生活中。“这是AI的可笑之处,它正在触动人们的生活,但他们甚至可能没有意识到。”悉尼西南大学悉尼分校计算机科学与工程学院的人工智能科学教授Toby Walsh说,他领导着Data61算法决策理论小组。

沃尔什(Walsh)教授最近被提名为14位享有盛名的澳大利亚获奖者之一,并获得澳大利亚研究委员会(Australian Research Council)授予的310万美元奖金,以继续他的研究,以了解如何构建人类可以信赖的AI系统。

人工智能今天面临的挑战

沃尔什教授解释说,每次您在Facebook或Twitter提要上阅读故事时,都是AI会向您推荐这些故事,而您在Netflix上观看的所有电影中的三分之一也来自算法。他警告说,但是即使这种听起来无害的活动也可以转移到机器上,但也会对社会产生腐蚀作用。

确实,他的研究发现了不良影响的范围之广。他说:“它们会产生过滤泡,最终导致虚假新闻或选举被篡改的可能性。”

虽然AI可以通过消除琐碎的工作来使社会更公平,更公正地生活,但它也可用于损害社会的凝聚力。实际上,沃尔什教授说,他对当今更多的世俗误用AI感到担忧,而不是对未来超级智能AI的担忧。他解释说:“我更加担心自动化在社会中加剧的不平等现象。”

算法可能像人类一样有偏见,这是当今AI面临的最大挑战之一。沃尔什教授继续说:“更糟糕的是,它们不以任何法律方式负责,也不透明。”

因此,Walsh教授在研究中着眼于如何构建AI并验证AI系统做出的公平决策,这些决策可以被追踪,解释和审计,并且尊重人们的隐私。

但是,那些已经在使用AI的公司,即“五大”(Facebook,亚马逊,苹果,微软和Google)呢?如此强大的科技巨头如何设计人们可以信赖的AI流程?

Google根据七项原则设计AI

2018年3月,谷歌宣布与五角大楼在``Project Maven''上合作,通过AI帮助分析和解释无人机视频。此后,这家科技巨头发布了七项AI原则,构成了道德宪章,指导Google在AI的所有开发和使用,并禁止在武器和侵犯人权行为中使用AI。

但有人说,自2018年以来的许多考虑并没有消失。人权观察组织(Human Rights Watch)最近发表了一份报告,呼吁禁止使用“完全自主武器”。确实,将AI永久性使用的潜力是巨大的,但是这种强大的技术提出了同样强烈的疑问,即该技术对社会的使用和影响,承认Google澳大利亚工程总监Daniel Nadasi。

他警告开发AI的任何人都应该坚持最高的道德标准,并仔细考虑如何使用这项技术来造福整个社会。确实,在过去的几年中,Google一直在使用AI来完成许多任务,例如识别图像中的项目,自动翻译以及为您的电子邮件提出明智的建议。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023