企业如何在人与AI之间建立信任
2020-08-21 15:25:56爱云资讯1233
人工智能(AI)渗透到我们的日常生活中,决定诸如谁获得福利,谁入围工作,甚至发现农场植物中的疾病之类的事情。但是,人工智能也带来了无数挑战,尤其是对于设计人工智能系统的企业而言。
在过去的30多年中,人工智能已经离开实验室,出现在我们的日常生活中。“这是AI的可笑之处,它正在触动人们的生活,但他们甚至可能没有意识到。”悉尼西南大学悉尼分校计算机科学与工程学院的人工智能科学教授Toby Walsh说,他领导着Data61算法决策理论小组。
沃尔什(Walsh)教授最近被提名为14位享有盛名的澳大利亚获奖者之一,并获得澳大利亚研究委员会(Australian Research Council)授予的310万美元奖金,以继续他的研究,以了解如何构建人类可以信赖的AI系统。
人工智能今天面临的挑战
沃尔什教授解释说,每次您在Facebook或Twitter提要上阅读故事时,都是AI会向您推荐这些故事,而您在Netflix上观看的所有电影中的三分之一也来自算法。他警告说,但是即使这种听起来无害的活动也可以转移到机器上,但也会对社会产生腐蚀作用。
确实,他的研究发现了不良影响的范围之广。他说:“它们会产生过滤泡,最终导致虚假新闻或选举被篡改的可能性。”
虽然AI可以通过消除琐碎的工作来使社会更公平,更公正地生活,但它也可用于损害社会的凝聚力。实际上,沃尔什教授说,他对当今更多的世俗误用AI感到担忧,而不是对未来超级智能AI的担忧。他解释说:“我更加担心自动化在社会中加剧的不平等现象。”
算法可能像人类一样有偏见,这是当今AI面临的最大挑战之一。沃尔什教授继续说:“更糟糕的是,它们不以任何法律方式负责,也不透明。”
因此,Walsh教授在研究中着眼于如何构建AI并验证AI系统做出的公平决策,这些决策可以被追踪,解释和审计,并且尊重人们的隐私。
但是,那些已经在使用AI的公司,即“五大”(Facebook,亚马逊,苹果,微软和Google)呢?如此强大的科技巨头如何设计人们可以信赖的AI流程?
Google根据七项原则设计AI
2018年3月,谷歌宣布与五角大楼在``Project Maven''上合作,通过AI帮助分析和解释无人机视频。此后,这家科技巨头发布了七项AI原则,构成了道德宪章,指导Google在AI的所有开发和使用,并禁止在武器和侵犯人权行为中使用AI。
但有人说,自2018年以来的许多考虑并没有消失。人权观察组织(Human Rights Watch)最近发表了一份报告,呼吁禁止使用“完全自主武器”。确实,将AI永久性使用的潜力是巨大的,但是这种强大的技术提出了同样强烈的疑问,即该技术对社会的使用和影响,承认Google澳大利亚工程总监Daniel Nadasi。
他警告开发AI的任何人都应该坚持最高的道德标准,并仔细考虑如何使用这项技术来造福整个社会。确实,在过去的几年中,Google一直在使用AI来完成许多任务,例如识别图像中的项目,自动翻译以及为您的电子邮件提出明智的建议。
相关文章
- 2025 年 MQTT 技术趋势:驱动 AI 与物联网未来发展的核心力量
- AI车身技术领航者数格致元入驻天开华苑园 联合发布《工业软件与汽车产业协同发展白皮书》
- 智惠民生 深耕固本,易联众重磅发布“AI+”民生业务领域整体解决方案
- Denodo平台9.2发布,凭借先进的生成式人工智能(GenAI)能力,提供直观的数据市场体验
- Raythink燧石推出旗舰无线热像仪:30米图传+AI超分重构手机红外检测体验
- 东阳光药与唯信计算达成战略合作,共同推进AI小分子药物研发平台建设
- 倍孜网络CEO聂子尧主持虎啸盛典AI论坛并发布《2025中国数字营销行业人工智能应用趋势研究报告》
- 腾讯云TencentOS Server AI,助力荣耀打造高性能AI底座
- 中科亿海微AI图像推理解决方案:助力智能装备目标识别与跟踪
- AI驱动调解仲裁变革,东软助力黑龙江打造智慧人社新标杆
- 青云科技亮相清华校友AI产业发展论坛
- 英伟达新一季财报再创新高,微美全息筑牢AI算力根基开拓百亿市场!
- 物联网视频云平台AIRTC上线阿里云!除了兼容90%以上接口,还有三大技术优势
- 工业AI检测行业:日联科技UNICOMP的技术突围与生态构建
- 2025年6月,HR测试后精选的AI面试服务商TOP5榜单分享!
- 红松携“AI+银发”应用亮相GAITC2025,探讨科技适老化创新路径