企业如何在人与AI之间建立信任
2020-08-21 15:25:56AI云资讯1374
人工智能(AI)渗透到我们的日常生活中,决定诸如谁获得福利,谁入围工作,甚至发现农场植物中的疾病之类的事情。但是,人工智能也带来了无数挑战,尤其是对于设计人工智能系统的企业而言。

在过去的30多年中,人工智能已经离开实验室,出现在我们的日常生活中。“这是AI的可笑之处,它正在触动人们的生活,但他们甚至可能没有意识到。”悉尼西南大学悉尼分校计算机科学与工程学院的人工智能科学教授Toby Walsh说,他领导着Data61算法决策理论小组。
沃尔什(Walsh)教授最近被提名为14位享有盛名的澳大利亚获奖者之一,并获得澳大利亚研究委员会(Australian Research Council)授予的310万美元奖金,以继续他的研究,以了解如何构建人类可以信赖的AI系统。
人工智能今天面临的挑战
沃尔什教授解释说,每次您在Facebook或Twitter提要上阅读故事时,都是AI会向您推荐这些故事,而您在Netflix上观看的所有电影中的三分之一也来自算法。他警告说,但是即使这种听起来无害的活动也可以转移到机器上,但也会对社会产生腐蚀作用。
确实,他的研究发现了不良影响的范围之广。他说:“它们会产生过滤泡,最终导致虚假新闻或选举被篡改的可能性。”
虽然AI可以通过消除琐碎的工作来使社会更公平,更公正地生活,但它也可用于损害社会的凝聚力。实际上,沃尔什教授说,他对当今更多的世俗误用AI感到担忧,而不是对未来超级智能AI的担忧。他解释说:“我更加担心自动化在社会中加剧的不平等现象。”
算法可能像人类一样有偏见,这是当今AI面临的最大挑战之一。沃尔什教授继续说:“更糟糕的是,它们不以任何法律方式负责,也不透明。”
因此,Walsh教授在研究中着眼于如何构建AI并验证AI系统做出的公平决策,这些决策可以被追踪,解释和审计,并且尊重人们的隐私。
但是,那些已经在使用AI的公司,即“五大”(Facebook,亚马逊,苹果,微软和Google)呢?如此强大的科技巨头如何设计人们可以信赖的AI流程?
Google根据七项原则设计AI
2018年3月,谷歌宣布与五角大楼在``Project Maven''上合作,通过AI帮助分析和解释无人机视频。此后,这家科技巨头发布了七项AI原则,构成了道德宪章,指导Google在AI的所有开发和使用,并禁止在武器和侵犯人权行为中使用AI。
但有人说,自2018年以来的许多考虑并没有消失。人权观察组织(Human Rights Watch)最近发表了一份报告,呼吁禁止使用“完全自主武器”。确实,将AI永久性使用的潜力是巨大的,但是这种强大的技术提出了同样强烈的疑问,即该技术对社会的使用和影响,承认Google澳大利亚工程总监Daniel Nadasi。
他警告开发AI的任何人都应该坚持最高的道德标准,并仔细考虑如何使用这项技术来造福整个社会。确实,在过去的几年中,Google一直在使用AI来完成许多任务,例如识别图像中的项目,自动翻译以及为您的电子邮件提出明智的建议。
相关文章
- 法大大×致远互联丨重磅发布!AI驱动合同全生命周期智能管理新范式
- “AI拉动云”飞轮效应凸显 金山云打开智算云增长天花板
- 2026 NVIDIA GTC 圆满落幕:阿丘科技携 Factory AI 亮相 GTC
- 大模型智能体行业元年来临,腾讯/阿里/微美全息集体锁定AI+Agent高增长赛道!
- 技嘉AI TOP ATOM携手AIMA打造桌面级AI落地新范式
- 任泽平年度预测演讲重磅收官,欧定成“AI改变生活”唯一服装案例
- AI协同重塑创作逻辑,灵狐AI视频平台解锁电商营销高效增长密码
- 从Office AI到AI Office,金山办公汪大炜解读WPS超大规模AI办公基建布局
- 暗壳AI Agent2.0发布!人人可用的空间智能设计Agent
- 把尾货卖到50亿,好特卖靠AI算法,拿捏情绪经济
- 全栈AIInfra护航,青云智算出席出海产业链研讨会
- QQ开启AI社区运营新时代,腾讯频道Skill正式上线
- Soul App 2025年度生态安全报告:AI助力社交元宇宙安全建设
- 旷视获广东联通三项殊荣,深化“AI+终端”产业协同
- AI与出海双轮驱动,找钢网集团升级为AI驱动的全链路科技服务平台
- Soul App社交元宇宙安全体系再升级:年度生态安全报告解读AI治理实践









