IBM宣布推出云服务以帮助企业检测和缓解AI偏差

2018-12-28 11:18:39爱云资讯

偏见是人工智能(AI)中的一个严重问题。研究 表明,流行的智能扬声器在理解非美国本土口音方面的可能性降低了30%,而且像Cognitec那样的面部识别系统 在非洲裔美国人脸上表现得更差。事实上,根据IBM最近委托进行的一项研究,由于潜在的责任问题,三分之二的企业对采用AI持谨慎态度。

为了帮助企业解决这一问题,IBM今天宣布推出基于云的全自动服务,该服务“不断为人工智能系统制定决策提供[洞察力]”。它还会扫描偏见的迹象,并建议调整 - 例如算法调整或平衡数据 - 这可能会减少其影响。

该服务解释了哪些因素影响了给定的机器学习模型的决策,以及它的整体准确性,性能,公平性和血统。此外,它对减轻偏见的建议以及促成这种信心的任何因素表现出信心。

IBM表示,它适用于流行的机器学习框架和AI构建环境,包括IBM Watson,Tensorflow,SparkML,AWS SageMaker和AzureML,并且可以根据各个企业的工作流程进行定制。

IBM在认知解决方案高级副总裁David Kenny表示:“IBM在为新的AI技术开发建立信任和透明度原则方面处于行业领先地位。” “现在是将原则付诸实践的时候了。我们正在为使用人工智能的企业提供新的透明度和控制权,并面临任何有缺陷的决策带来的最大潜在风险。“

除了宣布之外,IBM还在开源软件中推出了一个工具包 - AI Fairness 360工具包 - 包含一个算法库,代码和教程库,演示了在模型中实现偏差检测的方法。

在白皮书发布一个月之后,IBM公司采取了一些措施,其中一些研究人员为AI系统提出了“情况说明”。自愿性情况说明书 - 正式称为“供应商符合性声明”(DoC) - 将回答有关系统操作和培训数据,基础算法,测试设置和结果等问题。更细粒度的主题可能包括用于跟踪AI服务的数据工作流的治理策略,测试中使用的方法以及对数据集执行的偏差缓解。

“就像食品的营养标签或家用电器的信息表一样,人工智能服务的情况说明书将提供有关产品重要特征的信息,”IBM研究院AI基金会负责人兼AI Science for Social Good计划的联合主任Aleksandra Mojsilovic写道在介绍该论文的博客文章中。“人工智能的信任问题是IBM和许多其他技术开发商和提供商的首选。人工智能系统具有改变我们生活和工作方式的巨大潜力,但也存在一些漏洞,例如暴露于偏见,缺乏可解释性以及易受敌对攻击。必须解决这些问题才能使人工智能服务受到信任。“

IBM并不是唯一一个开发缓解算法偏见的平台。在5月举行的F8开发者大会上,Facebook宣布了Fairness Flow,这是一项面向数据科学家的自动化偏向捕获服务。微软和埃森哲已经发布了类似的工具。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023