在这里看懂算法!Google新AI工具解码神秘算法原理及过程
2019-11-25 16:05:02爱云资讯
虽然大多数人每天都会遇到算法,但没有多少人可以说他们真的了解AI的实际工作原理。但是,Google推出了一种新工具,希望能够帮助普通人掌握机器学习的复杂性。
该工具被称为“可解释AI”(Explainable AI),它可以向用户解释机器学习模型的处理结果是如何得出以及为什么得出决策的。
谷歌表示,这样做将用户更加信任机器学习模型。这一点很重要,之所以大多数现有模型往往相当不透明,是因为多数用户不清楚他们如何做出决定。
可解释AI给算法打分、量化数据因素,让你更懂算法
为此,可解释AI工具将量化数据集中每个特征对算法结果的贡献,每个数据因子都会有一个分数,来反映了它对机器学习模型的影响程度。
用户可以拉出该分数,来了解给定算法为何做出特定决策。例如,对于决定是否批准某人贷款的算法模型,“可解释AI”将显示帐户余额和信用评分作为最决定性决策的依据数据。
谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您会想知道为什么算法模型根据信用评分通过这个人却拒绝了另外一个。”
他说:“对于在企业的业务流程中使用人工智能的客户,‘解释AI’可以帮助您理解为什么人工智能基础架构能够产生特定的结果。”换句话说,“可解释AI”能否准确解释特定机器学习模型为何得出结论,对于企业中负责最终决策的高管来说很重要。对于高度严格的行业来说,能够相信AI作出的决策是至关重要的。
“可解释AI”现在可以用于托管在Google的AutoML Tables 和Cloud AI Platform Prediction上的机器学习模型。
此前,谷歌也曾采取措施使算法更加透明。去年,它推出了“假设工具”,供开发人员在使用谷歌的AI平台时,能够可视化和探查数据集。
通过量化数据因素,“可解释AI”可以给出更多见解,并让更多用户读懂这些见解。
“模型卡”将算法“黑匣子”打开,提供有关特定算法详细实用信息
Google Cloud战略主管Tracy Frey说:“您可以将‘可解释AI’与我们的假设分析工具配合使用,以全面了解算法模型的行为。”
在某些领域,例如医疗保健,提高AI的透明度将特别有用。例如,在某些疾病诊断的算法中,它会将医生诊断病症并给出决策的过程可视化,并验证这些症状不是假阳性或其他疾病的征兆。
谷歌还宣布将推出所谓的“模型卡”的新概念,即提供有关特定算法快速信息的简短文档。
这些文档实质上是用于机器学习的ID卡,其中包括有关模型性能和限制的详细实用信息。谷歌表示,这将“帮助开发人员更好地决定将哪种模型用于什么目的,以及如何负责任地部署它们。”
目前,Google已发布了两个模型卡示例,其中提供了有关人脸检测算法和对象检测算法的详细信息。
图片:Google模型卡
面部检测模型卡说明,该算法可能会受到面部尺寸,方向或光线不足的限制。
用户可以阅读有关模型输出的信息,如性能和局限性。例如,人脸检测模型卡说明该算法可能受到人脸尺寸,方向或光线不足的限制。
这次,宣布的新工具和功能是Google证明其遵守AI原则的尝试的一部分,该原则要求在开发该技术时提高透明度。而今年早些时候,谷歌解散了成立一周的AI道德委员会,该委员会旨在监督其谷歌对人工智能的使用。
- 神策分析 Copilot 成功通过网信办算法备案,数据分析 AI 化全面落地
- 九章云极DataCanvas公司牵手国家超算互联网,实现算法与算力一体化服务
- 心电深度聚焦+AI算法助力数创医疗实现心电随身测
- 引领区块链技术在知识产权保护领域的创新应用,微美全息研究基于区块链的可追踪IP版权保护算法
- 顺网科技通过深度合成服务算法备案,AI算法构建沉浸式陪伴体验
- 行业首家!TCL实业通过国家大模型算法备案
- 南栖仙策提出新型环境特征编码器学习算法,有效提升环境识别的泛化能力
- 微美全息研发混合算法模型揭示加密货币未来走势
- 迈向端到端自动驾驶,地平线正式开源Sparse4D算法
- 顺丰科技发布物流数字孪生白皮书:算法验证效率能提升600倍、逼真度高达99%
- 无锡梁溪携手极视角共同举办2023无锡首届国际人工智能算法大赛
- 微美全息研究基于自监督判别特征学习的深度多视图聚类算法,提升数据聚类的准确性
- 微美全息布局用于数据流聚类的多视图表示学习算法
- 助力新药研发,商汤创新算法模型获评“AIIA人工智能十大先锋应用案例”
- 助力新药研发,商汤创新算法模型获评“AIIA人工智能十大先锋应用案例”
- 微美全息开发非对称光谱网络算法,为高光谱图像分类领域打开新局面