在这里看懂算法!Google新AI工具解码神秘算法原理及过程
2019-11-25 16:05:02AI云资讯718
虽然大多数人每天都会遇到算法,但没有多少人可以说他们真的了解AI的实际工作原理。但是,Google推出了一种新工具,希望能够帮助普通人掌握机器学习的复杂性。
该工具被称为“可解释AI”(Explainable AI),它可以向用户解释机器学习模型的处理结果是如何得出以及为什么得出决策的。
谷歌表示,这样做将用户更加信任机器学习模型。这一点很重要,之所以大多数现有模型往往相当不透明,是因为多数用户不清楚他们如何做出决定。
可解释AI给算法打分、量化数据因素,让你更懂算法
为此,可解释AI工具将量化数据集中每个特征对算法结果的贡献,每个数据因子都会有一个分数,来反映了它对机器学习模型的影响程度。
用户可以拉出该分数,来了解给定算法为何做出特定决策。例如,对于决定是否批准某人贷款的算法模型,“可解释AI”将显示帐户余额和信用评分作为最决定性决策的依据数据。
谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您会想知道为什么算法模型根据信用评分通过这个人却拒绝了另外一个。”
他说:“对于在企业的业务流程中使用人工智能的客户,‘解释AI’可以帮助您理解为什么人工智能基础架构能够产生特定的结果。”换句话说,“可解释AI”能否准确解释特定机器学习模型为何得出结论,对于企业中负责最终决策的高管来说很重要。对于高度严格的行业来说,能够相信AI作出的决策是至关重要的。
“可解释AI”现在可以用于托管在Google的AutoML Tables 和Cloud AI Platform Prediction上的机器学习模型。
此前,谷歌也曾采取措施使算法更加透明。去年,它推出了“假设工具”,供开发人员在使用谷歌的AI平台时,能够可视化和探查数据集。
通过量化数据因素,“可解释AI”可以给出更多见解,并让更多用户读懂这些见解。
“模型卡”将算法“黑匣子”打开,提供有关特定算法详细实用信息
Google Cloud战略主管Tracy Frey说:“您可以将‘可解释AI’与我们的假设分析工具配合使用,以全面了解算法模型的行为。”
在某些领域,例如医疗保健,提高AI的透明度将特别有用。例如,在某些疾病诊断的算法中,它会将医生诊断病症并给出决策的过程可视化,并验证这些症状不是假阳性或其他疾病的征兆。
谷歌还宣布将推出所谓的“模型卡”的新概念,即提供有关特定算法快速信息的简短文档。
这些文档实质上是用于机器学习的ID卡,其中包括有关模型性能和限制的详细实用信息。谷歌表示,这将“帮助开发人员更好地决定将哪种模型用于什么目的,以及如何负责任地部署它们。”
目前,Google已发布了两个模型卡示例,其中提供了有关人脸检测算法和对象检测算法的详细信息。
图片:Google模型卡
面部检测模型卡说明,该算法可能会受到面部尺寸,方向或光线不足的限制。
用户可以阅读有关模型输出的信息,如性能和局限性。例如,人脸检测模型卡说明该算法可能受到人脸尺寸,方向或光线不足的限制。
这次,宣布的新工具和功能是Google证明其遵守AI原则的尝试的一部分,该原则要求在开发该技术时提高透明度。而今年早些时候,谷歌解散了成立一周的AI道德委员会,该委员会旨在监督其谷歌对人工智能的使用。
相关文章
- Raythink燧石热像仪测温算法Ray Thermal S攻克高精度红外测温难关!
- 诸葛智能「分析师Agent」,入选BPAA全球算法大赛Top50
- 伟辉科技控股有限公司荣获2024年香港金融科技奖,量子算法引领贵金属交易新纪元
- 酷狗音乐上线「歌曲过渡」功能,AI算法打造流畅听感体验
- 智汇普陀,第五届BPAA算法大赛总决赛在沪收官
- 伟辉科技控股:以量子算法与AI赋能金融科技,打造全球智能资管新标杆
- 2025长三角(芜湖)算力算法创新应用大赛正式启动,聚焦“算力+产业”融合新实践
- 融合深度学习与量子计算,微美全息探索Grover算法量子神经网络模型
- 伟辉科技量子算法交易重塑金融科技版图 智能资产管理领航贵金属交易新生态
- 思必驰自研AI算法突破拾音“禁区”,惊艳世界顶尖学府
- 微云全息融合Gamma校正与全变分算法, 非线性调整图像亮度以提升对比度和清晰度
- 社科院李勇坚:算法为企业带来巨大价值,其对经济发展的贡献仍被低估
- 灵初智能发布分层端到端VLA+强化学习算法模型Psi-R1
- 芯驰科技与伊世智能达成战略合作,推进本土首颗车规MCU的后量子密码算法落地
- 北大教授姚洋:算法不依赖观点推荐,能显著降低信息获取成本
- 三维天地智能路径规划引擎:以算法驱动,重新定义智能路径优化技术









