CSIRO在澳大利亚未来的指导方针中促进人工智能的道德使用

2019-04-06 16:21:30爱云资讯

英联邦科学与工业研究组织(CSIRO)强调,澳大利亚需要开发人工智能(AI),并采用足够的框架,以确保在没有适当的道德考虑的情况下对公民进行任何设置。

该组织发布了一份讨论文件[PDF], 人工智能:澳大利亚的道德框架, 关于大规模人工智能提出的关键问题,寻求解决一些问题的答案,这些问题有望为政府在澳大利亚的人道主义伦理方法提供信息。

CSIRO强调的是指导框架的八项核心原则:它产生净利益,没有损害,符合监管和法律要求,适当考虑隐私,公平,透明和易于解释,包含对决策提出异议的规定由机器制造,并且有责任追踪。

“澳大利亚的口语座右铭是对所有人来说'公平对待'。确保澳大利亚社会中许多不同群体的公平性将具有挑战性,但这切入了道德AI的核心,”CSIRO写道。

CSIRO表示虽然透明度和人工智能是一个复杂的问题,但透明度措施的最终目标是实现问责制,但一些人工智能技术的内部运作并不容易解释。

“即使在这些情况下,仍然可以让算法的开发者和用户负责,”它补充说。“另一方面,当公共利益受到威胁时,人工智能的内部运作被秘密笼罩的AI'黑匣子'是不可接受的。”

由于承认没有一个适合所有与人工智能相关的法律和道德影响问题的解决方案,CSIRO已经确定了九个可用于评估风险并确保合规和监督的工具。

这些包括影响评估,审查,风险评估,最佳做法指南,行业标准,合作,监测和改进机制,追索机制和咨询。

考虑到数据在建立人工智能中的重要性,CSIRO表示,数据治理对于道德人工智能至关重要,并指出开发人工智能技术的组织需要确保他们拥有强大的数据治理基础或其AI应用程序可能会违反隐私和/或歧视法律或存在用不恰当的数据。

“AI提供了新功能,但这些新功能还有可能以新的方式破坏隐私法规,”它写道。“例如,如果AI可以识别匿名数据,这会对数据组织可以安全使用的数据产生影响。”

因此,CSIRO表示,组织应通过考虑新的支持AI的功能并确保其数据治理系统保持相关性,不断建立现有的数据治理体系。

CSIRO确定了与人工智能和道德相关问题的一些关键方法,他说自动决策必须给予加权思考,并指出在自动决策系统的设计阶段应该应用人在环的原则并明确还应考虑问责链。

“对自动化系统做出的决策必须有明确的责任链。问:谁负责系统做出的决定?”它说。

在预测人类行为方面,该框架强调,虽然人工智能不是由人类偏见驱动的,但它是由人类编程的,可能会带来导致道德难题的风险。

“开发人员在编制人工智能时需要特别关注弱势群体,弱势群体或受保护群体,”CSIRO说。“完全透明有时是不可能的,或者是不可取的(考虑隐私泄露)。但总有办法达到一定程度的透明度。”

人类服务和数字化转型部长Michael Keenan发表声明称,政府将利用该文件的调查结果和咨询期间收到的反馈意见制定国家人工智能道德框架。

预计该框架将包括一系列原则和实用措施,组织和个人可以将其作为指导,以确保其设计,开发和使用AI“符合社区期望”。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023