企业如何在人与AI之间建立信任
2020-08-21 15:25:56AI云资讯1280
人工智能(AI)渗透到我们的日常生活中,决定诸如谁获得福利,谁入围工作,甚至发现农场植物中的疾病之类的事情。但是,人工智能也带来了无数挑战,尤其是对于设计人工智能系统的企业而言。
在过去的30多年中,人工智能已经离开实验室,出现在我们的日常生活中。“这是AI的可笑之处,它正在触动人们的生活,但他们甚至可能没有意识到。”悉尼西南大学悉尼分校计算机科学与工程学院的人工智能科学教授Toby Walsh说,他领导着Data61算法决策理论小组。
沃尔什(Walsh)教授最近被提名为14位享有盛名的澳大利亚获奖者之一,并获得澳大利亚研究委员会(Australian Research Council)授予的310万美元奖金,以继续他的研究,以了解如何构建人类可以信赖的AI系统。
人工智能今天面临的挑战
沃尔什教授解释说,每次您在Facebook或Twitter提要上阅读故事时,都是AI会向您推荐这些故事,而您在Netflix上观看的所有电影中的三分之一也来自算法。他警告说,但是即使这种听起来无害的活动也可以转移到机器上,但也会对社会产生腐蚀作用。
确实,他的研究发现了不良影响的范围之广。他说:“它们会产生过滤泡,最终导致虚假新闻或选举被篡改的可能性。”
虽然AI可以通过消除琐碎的工作来使社会更公平,更公正地生活,但它也可用于损害社会的凝聚力。实际上,沃尔什教授说,他对当今更多的世俗误用AI感到担忧,而不是对未来超级智能AI的担忧。他解释说:“我更加担心自动化在社会中加剧的不平等现象。”
算法可能像人类一样有偏见,这是当今AI面临的最大挑战之一。沃尔什教授继续说:“更糟糕的是,它们不以任何法律方式负责,也不透明。”
因此,Walsh教授在研究中着眼于如何构建AI并验证AI系统做出的公平决策,这些决策可以被追踪,解释和审计,并且尊重人们的隐私。
但是,那些已经在使用AI的公司,即“五大”(Facebook,亚马逊,苹果,微软和Google)呢?如此强大的科技巨头如何设计人们可以信赖的AI流程?
Google根据七项原则设计AI
2018年3月,谷歌宣布与五角大楼在``Project Maven''上合作,通过AI帮助分析和解释无人机视频。此后,这家科技巨头发布了七项AI原则,构成了道德宪章,指导Google在AI的所有开发和使用,并禁止在武器和侵犯人权行为中使用AI。
但有人说,自2018年以来的许多考虑并没有消失。人权观察组织(Human Rights Watch)最近发表了一份报告,呼吁禁止使用“完全自主武器”。确实,将AI永久性使用的潜力是巨大的,但是这种强大的技术提出了同样强烈的疑问,即该技术对社会的使用和影响,承认Google澳大利亚工程总监Daniel Nadasi。
他警告开发AI的任何人都应该坚持最高的道德标准,并仔细考虑如何使用这项技术来造福整个社会。确实,在过去的几年中,Google一直在使用AI来完成许多任务,例如识别图像中的项目,自动翻译以及为您的电子邮件提出明智的建议。
相关文章
- 中国AI Agent生态崛起,自主智能体正成为企业增长新引擎
- 星环科技进博会首发三端互联AI解决方案
- AI内容创作新体验!鸿蒙版百度文库上架,核心功能齐备“即装即用”
- 旷视入选《人工智能治理案例集》,持续加码AI治理能力建设
- 用自己的声音为家乡队助威!咪咕音乐AI歌手带你玩转全运会
- 网萌科技产品总监朱林飞出席AIEC公益论坛,解码电商客服人机协同之道
- 英伟达AI工厂浪潮下,九科信息bit-Agent交出中国方案
- AI驱动+全链服务,智慧水利4S供应链集采平台引领水利设备采购新潮流
- 从涂鸦到艺术的飞跃!用张凌赫同款联想手写笔Pro第二代,开启AI智能创作之旅
- 浮点思考发布Flomind企业级智能体平台,AI员工正式上岗
- AI+XR打破虚实边界!随幻科技为进博会又带来哪些新体验?
- 从Akamai到白山云,AI推理正在重塑全球算力版图
- “破界与重构:AI 时代女性领导力的新范式革命”——2025 IEEE女工程师领导力论坛圆满闭幕
- 望石智慧入选 AI4LS 权威蓝皮书!以 3D 分子生成大模型引领小分子生成式 AI 时代
- 海外游实测:时空壶新T1 AI翻译机以端侧AI技术,破解无网沟通难题
- AIEC第二期公益论坛浦东收官,共探生成式AI人机协同新路径









