科技:AI会扫描您的数据以评估您的角色

2018-09-25 17:01:10爱云资讯

导语:最初,这部电影唤起了一个完美的乌托邦社会,人工智能(AI)与监控技术相结合,为人类的福祉。据推测,人工智能可以使用三种预防措施来预防犯罪,这些预测可以在谋杀发生之前将其视为可见,并允许警方根据信息采取行动。

“这些预算永远不会错。但偶尔,他们确实不同意,“这部电影的首席科学家说。这些分歧导致少数报告 - 交替期货的账户,通常是犯罪实际上没有发生的地方。

但是这些报道很容易被处理掉,随着故事的展开,无辜的生命受到威胁。最终,这部电影向我们展示了一个未来,人工智能所做出的预测本质上是不可靠和无效的。现在少数派报告可能是虚构的,但人工智能的快速发展技术却不是。虽然现实世界中没有涉及通灵者,但这部电影突出了人工智能和算法的一个关键挑战:如果它们产生错误或可疑结果会怎么样?如果这些结果产生不可逆转的后果呢?

算法决策是在“黑匣子”中做出的,工业和政府部门已经维护和分析了大量包含个人信息的相互关联的数据集。保险公司现在整理健康数据并跟踪驾驶行为以个性化保险费。 执法部门使用驾驶执照照片识别潜在的犯罪分子和购物中心,分析人们的面部特征,以更好地定位广告。

虽然收集个人信息以定制单个服务似乎无害,但这些数据集通常通过“黑匣子”算法进行分析,其中预测的逻辑和理由是不透明的。另外,很难知道预测是基于不正确的数据,是非法或不道德收集的数据,还是包含错误假设的数据。

如果交通摄像头错误地检测到您超速并自动触发许可证取消怎么办?如果监控摄像机错误地进行药物交易的握手怎么办?如果算法假设您看起来类似于通缉犯,该怎么办?

想象一下,无法控制错误地判定您没有资格获得大学学位的算法。即使基础数据准确,AI过程的不透明性也难以纠正算法偏差,正如一些性别歧视,种族主义或歧视穷人的AI系统中所发现的那样。如果基础数据或决策的理由不可用,您如何对不良决策提出上诉?

拿着镜子到人工智能。一个回应是创建可解释的人工智能这是由墨尔本大学副教授蒂姆米勒领导的正在进行的研究计划的一部分其中人工智能决策的基本理由以每个人都能轻易理解的方式解释。

另一个响应是创建关于AI所做假设的人机界面。人工智能能力的清晰,公开和透明的表述有助于更广泛地讨论其可能的社会影响,以及关于人类跟踪技术的伦理影响的更为知情的辩论。为了激发这一讨论,我们创建了生物识别镜像。

生物识别镜是一种交互式应用程序,可以拍摄照片并对其进行分析,以确定您的人口统计和个性特征。这些包括诸如你的吸引力,攻击性,情绪稳定性甚至你的“怪异”等特征。

人工智能使用数千个面部图像和众包评估的开放数据集,其中大量人群之前已经评估了每个面部的感知人格特征。 AI使用此数据集将您的照片与众包数据集进行比较。

生物识别镜然后评估并显示您的个性特征。然后选择你的一个特征, 比如你的责任水平并且Biometric Mirror要求你想象这些信息现在正在与某个人分享,比如你的保险公司或未来的雇主。

生物识别镜可以面对。它明确地证明了人工智能和算法偏见的可能后果,并鼓励我们思考政府和企业越来越依赖人工智能来为其决策提供信息的环境。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023