Data61成立新的“伦理道德”人工智能研究所

2018-12-13 09:45:04爱云资讯灵婷

英联邦科学与工业研究组织(CSIRO)Data61与IAG和悉尼大学共同创建了一个新的人工智能(AI)研究所,旨在探索新兴技术的伦理。


Data61解释说,Gradient Institute是一个独立的非盈利组织,负责研究人工智能的道德规范,以及开发基于人工智能的道德系统,主要侧重于创建一个“所有系统都符合道德规范的世界”。

“通过将道德规范纳入人工智能,我们相信我们将能够通过道德意识的机器学习创造更好的结果,从而选择避免过去错误的方法,”研究院首席执行官比尔辛普森说。

“例如,在招聘时,自动化系统使用历史数据来指导决策制定时,他们可能会偏向某些职业中历史上代表性不足的亚组。

“通过在创建人工智能中嵌入道德规范,我们可以减轻这些在零售,电信和金融服务等行业中显而易见的偏见。”

除了研究之外,预计新研究所还将通过实践,政策倡导,公众意识和培训来探索人工智能的道德规范,特别是在人道主义的道德发展和使用方面。

Data61在周四的一份声明中表示,该研究所将利用研究成果创建开源道德人工智能工具,可由企业和政府采用和调整。

“随着人工智能的广泛采用,确保技术的开发符合道德考虑因素至关重要,”Data61首席执行官阿德里安特纳补充道。 “作为一个国家,我们需要做到这一点,从生产力的提高到新的世界价值,从AI中获益。”

在Data61今年布里斯班举行的年度会议上,ZDSet在Data61的工程与设计代理主管Hilary Cinis表示道德规范就是减少危害。

她说,解决根深蒂固的道德偏见的一种方法是确保构建算法的团队多样化。她说,围绕发展的“文化反思”需要发生。

同样,Salesforce用户研究架构师Kathy Baxter在今年早些时候在悉尼举行的人权与技术会议上表示,出现的一个主要问题是数据中很难看到偏见。她说,同样复杂的是公平意味着什么。

“如果你按照头条新闻,你会发现AI是性别歧视,种族主义,并且充满了系统性的偏见,”她说。

“人工智能基于概率和统计,”她继续说道。 “如果人工智能正在使用这些因素中的任何一个 - 种族,宗教,性别,年龄,性取向 - 它会不公平地剥夺一部分人口的权利,即使你没有在算法中明确使用这些因素,是你甚至不知道的代理人。

“在美国,邮政编码加上收入等于种族。如果你的算法中有这两个因素,你的算法可能会根据种族提出建议。”

她继续建议研究需要提前进行,以确定谁将受到影响,并在“硅谷泡沫”或开发商所处的任何地点泡沫之外提供额外的观点。

“人工智能从数据和数据中学习反映了过去 - 在渐变研究所,我们希望未来比过去好,”Simpson-Young周四补充说。

辛普森 - 杨将加入IAG全资子公司Ambiata的联合创始人兼首席科学家Tiberio Caetano博士,他将以首席科学家的身份指导该研究所的道德AI研究。
相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023