2019技术新趋势:人工智能透明化

2018-12-15 15:02:11爱云资讯

从长远来看,AI算法在它们掌握的任务中比人类表现得更好。例如,自驾车严重依赖机器学习算法,最终将减少90%的道路交通事故。AI诊断平台比人类更好地发现危险疾病的早期迹象,并帮助拯救生命。预测性维护可以以人类不可能的方式检测机械和基础设施的磨损迹象,防止灾难并降低成本。

但是,人工智能不是完美的,并且确实会犯错误,尽管犯错机会小于人类。去年,“精英危险”游戏中由人工智能驱动的对手疯狂地开始制造超级武器来追捕玩家。在另一个案例中,微软的AI聊天机器人Tay在其发布后的一天内开始喷出种族主义言论。另外,谷歌面对识别的时候开始制作一些违规的图片标签。

这些错误都不是至关重要的,并且可以简单减少损害。然而,神经网络、机器学习算法和AI的其他子集正在进入更关键的领域。其中一些领域包括医疗保健、运输和法律,其中错误可能会产生严重的甚至是致命的后果。

我们人类总是犯错误,包括致命的错误,但不同之处在于我们可以解释我们行为背后的原因并承担责任。我们在AI时代之前使用的软件也是基于代码和规则的逻辑,可以检查和推断错误,并且可以明确界定罪责。

人工智能不是这样,特别是神经网络是许多人工智能应用中的关键组成部分,属于“黑匣子”。通常情况下,甚至工程师也无法解释为什么他们的算法做出了某种决定。去年,Google的Go-playing AI通过提出专业人士无法想到的举动震惊了全世界。

关于神经网络,内部发生的事情并不总是很清楚 ,你让网络自我组织,但这确实意味着它自己组织起来,它并不一定告诉你如何它做到了。如果这些算法完全控制决策,这可能会导致问题。

如果自动驾驶汽车导致致命事故,谁将负责?你不能让任何乘客对它们无法控制的事情负责。制造商将很难解释涉及如此我的复杂性和变量的事件,并且不要指望汽车本身开始解释它的行动。

对可以自动控制患者治疗过程的AI应用程序也是如此。那么我们是否可以信任人工智能自己做出决定?对于非关键任务,例如广告、游戏和Netflix建议,我们可以容忍错误。

但是对于社会、法律、经济和政治影响可能是灾难性的情况,我们不能。对于人类生命受到威胁的情况也是如此,我们还没有准备好放弃对机器人的控制。

人工智能的突破和发展带来了新的挑战和问题。 随着AI算法越来越先进,理解其内部工作变得更加困难。 部分原因是开发它们的公司不允许仔细审查其专有算法,但很多事情都与AI因其日益复杂而变得不透明这一事实有关。

人工智能将在更广泛的社会中的应用,但是是涉及处理人类数据时 ,AI技术发展受到“黑匣子问题”的阻碍。如果人们没有彻底了解AI实际上在做什么,AI的工作似乎是神秘而深不可测的。随着我们向前发展,人工智能在我们的生活中变得更加重要,其内部不透明可能会变成一个问题。

要使AI全面得到人们的信任,我们需要知道它对我们的数据做了什么,为什么这样做,以及在涉及影响我们生活的问题时如何做出决策。这通常很难明白,因为AI特别有用的就是它能够自行绘制连接,并做出可能不明显甚至可能与我们相反的推论的能力。

但是,建立对人们工智能系统的信任很重要,这样才能让公众放心。研究和业务将受益于AI,但AI可能暴露了数据,或者存在算法的偏见。公司可能会因为担心当前的AI技术被认为是不公平或不道德,而可能在将来面临责任,从而拒绝部署人工智能。

在2019年,我们可能会越来越重视旨在提高人工智能透明度的措施。今年,IBM推出了一项技术,旨在提高决策的可追溯性,使其成为AI OpenScale技术。IBM AI OpenScale是一个企业级环境,适用于人工智能注入的应用程序,可以让企业了解如何在业务规模下构建,使用和提供投资回报率。

这个概念不仅可以实时洞察正在做出的决策,还有如何制作决策、所使用的数据、决策权重和信息偏差的可能性之间的联系。

今年在整个欧洲实施的“通用数据保护条例”为公民提供了一些保护,使其免受那些仅通过机器对其生活产生“合法或其他重大”影响的决定。虽然AI还不是一个极其热门的政治话题,但它在公共话语中的突出地位可能会在2019年大幅增长,进一步鼓励企业努力提高AI的透明度。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023