人工智能技术在工作场景下的研究剖析

2018-12-16 08:41:56爱云资讯

以员工为中心的人工智能的确带来了巨大的好处,但短期内的收益也可能会带来反作用,因为它可能会带来员工士气低落、员工流动率上升、生产率下降等问题,并引发公共关系方面的反弹。

人工智能正在迅速的进入工作场所。因为人工智能能够在瞬间做出明智的预测,并以人类无法匹敌的规模完成特定任务,因而正在被应用于从业务流程到分析的所有领域。

虽然人工智能对工作场所的影响的大部分审查都集中在适合替换的工作类型上,但是人工智能专门针对劳动力问题的努力,比如进行求职者筛选和绩效评估,出现了特别棘手的问题——尤其是当机器人开始进入管理领域的时候。

诚然,以员工为中心的人工智能具有显著的优势,但短期内人工智能推动的生产率或安全性的提高,从长远来看可能会适得其反,员工不满和士气低落都会导致更高的人员流动率,并最终导致生产率的下降。此外,人工智能的影响还可能会导致公关问题,让客户、投资者和求职者失去兴趣,更不用说可能违反工作场所隐私的法律和合规问题了。

以下是对工作场所出现的新人工智能技术的研究,它们是如何工作的,它们的意图是什么,以及它们可能会在何时越界。

筛选你的工作申请

上个月,亚马逊(Amazon)取消了一款基于人工智能(AI)的招聘工具,因为它对女性存在偏见。事实证明,当一家公司的开发者大多是白人男性时,他们开发的人工智能得出的结论就很可能是,白人男性比其他人群更适合这家公司。如果将性别从考虑范围中剔除,人工智能也将找到实现同样目标的代理措施。

但这并没有阻止其他公司将人工智能应用于简历筛选。例如,Oracle正在推出自己的工具来寻找“最适合”的候选人,Oracle负责自适应智能应用程序的副总裁Melissa Boxer说。

“我们总是喝着自己的香槟,”Boxer表示。甲骨文(Oracle)是一家数据公司,希望向其客户销售各种人工智能工具。 “这是不可谈判的问题之一。我们在公司内部推出了我们正在开发的产品。”

Boxer说,Oracle雇佣了很多人,所以这是一个很好的起点。但人力资源员工不得不费力处理大量的员工。“我们如何才能让这项工作变得更轻松,并确保我们雇佣了合适的人才?”

此外,但无意识的偏见、数据隐私和其他道德问题也是其中人们最关心的问题。

“我们有一个道德委员会,”Boxer说。 “他们负责建立机器学习公平性的最佳实践,以及相关的问责制和透明度概念。”

例如,其中包括哪些类型的个人数据可能会或可能不会用作学习过程的一部分的指导原则。

她还表示,Oracle致力于让人工智能变得可以解释——努力解决人工智能的“黑箱”问题。“我们已经在应用程序中设置了一系列监督控制措施,以促进透明度和问责制。”

Boxer说,Oracle还计划推出向员工提供推荐服务的工具。例如,销售人员可能会得到关于下一位最有希望成为潜在客户的建议。Boxer说,虽然使用人工智能来建议员工要承担的任务可能会产生一系列负面影响,但Oracle的目标是让员工更容易完成工作。

“这不仅仅是让AI来提醒你需要做的事情,”她说。 “它让员工更深入的了解了他们的销售渠道。以及我们是否专注于正确的机会?”

接听服务台电话

在电影中,当人工智能与人类对话时,结局往往很糟糕。比如,Hal 9000,还有终结者。但这也会发生在现实生活中。最著名的是,在2015年,微软的Tay聊天机器人仅仅在互联网上曝光了几个小时,就变成了一个种族主义者。

大多数公司正在以更可控的方式部署聊天机器人——例如,用于客户服务或技术服务台。

本月,微软(Microsoft)宣布将正面解决这个问题,发布了一套建立负责聊天机器人的指导方针。

例如,该公司表示,用户应该清楚,他们是在与聊天机器人交谈,而不是与另一个人交谈。当对话进行得不顺利时,聊天机器人应该迅速将问题转到真人身上。

其中还包括了一个关于确保机器人有内置的安全措施来防止其被滥用,并对滥用或攻击性用户做出适当反应的章节。

“承认你的机器人的局限性,确保你的机器人坚持着它的设计目的,”微软公司负责会话AI的副总裁Lili Cheng在一篇博客文章中写道。 例如,一个专为点披萨而设计的机器人应该避免涉及种族、性别、宗教和政治等敏感话题。

这些准则还涉及了可靠性、公平性和隐私问题。

评估你的表现

今年夏天,报道称,IBM正利用其人工智能平台沃森(Watson)来评估员工的表现,甚至是预测其未来的表现。然后,这些评级将被经理们用于奖金、薪酬和晋升决策。

IBM声称其准确率为96%,但是在员工评估中引入人工智能并提出注意事项可能会引起关注。毕竟,你需要知道当它出错时你该怎么办?还有很多事情可能会出错,特别是如果这项技术没有被正确推广的话。

“我们可以设计一个用于绩效评估的人力资源系统,该系统可以与智能算法一起运行,从个人过去的行为中学习,或者进行某种测试来衡量他们的决策能力,”来自瑞尔森大学的一位教授表示。 “无论它是什么,如果设计不当,它就可能会有很大的偏差,而且最终可能会给出错误的建议。”

为了避免问题,任何这样的系统都应该从一开始就具有透明度。

“这个模型的每一步都应该得到公司的验证,所以他们不会处理任何黑盒算法,”她说。对于内部开发的系统和商用工具来说都是如此。

她表示,该算法的大部分设计也可能是主观的,比如决定是否推荐时要考虑哪些因素。她说,这些设计决策需要与使用该技术的人分享,并且需要被相关人员理解。

她说:“如果你还记得金融危机,那里就涉及到了人们无法理解和审计的复杂的数学问题。他们看不出到底出了什么问题。”

除了检查算法是否如设计的那样工作,公司还应该确保使用了正确的数据集,并且系统能够识别出何时存在数据不足,或者数据不合适的问题。

对于绩效评估,考虑到每个工作类别需要不同的标准,并且这些标准可能会因部门或其他因素而变化,数据集在许多情况下可能不充分,或者存在过度代表某些类别而牺牲其他类别的问题。

Bener说:“人工智能术语中还有一种叫做概念漂移的东西,这意味着今天我的模型假设是正确的,但是事情发生了变化,我的数据发生了变化,我的环境发生了变化,我的客户也发生了变化。因为整个系统也就有了一个漂移,我需要重新审视算法来校准它并再次进行优化。”

“审计非常重要,”她说。“但我认为目前的审计系统没有很好地涵盖这些算法,因为受过培训的人不够多。”

她表示,审计师需要10到15年的经验,才能熟练地评估人工智能算法,而且现在还为时过早。“我们没有那样的人。”

管理你的工作

担心你的老板可能会被人工智能取代,而你很快就要为机器人工作?对一些人来说,这种未来已经到来。

拥有15年工作经验的软件开发人员Paulo Eduardo Lobo就职于巴西巴拉那州政府。但最近,他还在科技供应商Zerocracy做自由职业者,该公司用人工智能取代了项目经理。

AI会根据开发人员的声誉和其他因素分配项目任务。他们还会设定时间表,预测交付时间,并计算预算。

Lobo说:“我们不需要开会或人为干预来给团队成员分配任务。”此外,他还说,这有助于鼓舞士气。“我们没有人试图取悦项目经理,因为这是一个人工智能,另一方面,人工智能也不会浪费时间以试图取悦团队成员或提高士气。”

它有助于公司使用一种编程方法,使项目可以很容易地分割成小任务,通常持续时间不超过30分钟。

但Lobo说,有些任务还不能自动化,例如确定项目的范围。 “必须有人来定义我们的软件将要做什么,以及我们首先要做什么,”他说。此外,人们仍然需要评估代码质量,并在出现问题时承担责任。

Zerocracy的软件架构师Kirill Chernyavsky表示,如果某个任务是由不急于完成的开发人员承担的,那么可能还需要人工干预。

人工智能驱动的项目管理是一个新的想法,但可能很难推广。“客户更喜欢传统的管理,因为时间证明了这一点,”他说。

总部位于帕洛阿尔托的Zerologin成立于两年前,自去年春天以来一直在使用其AI系统,现在已经有五个客户在使用该系统。但首席执行官Yegor Bugayenko表示,开发人员已经为AI工作了大约一年。目前有60名开发人员在这个平台上工作,其中一些是Zerocracy的员工,一些是自由职业者,其余的是客户公司的员工。

“最初,当人们开始在机器人管理下工作时,他们会感到惊讶,并产生怀疑,”他说。“他们认为电脑不可能告诉他们该做什么。”

监视你的行动

今年早些时候,亚马逊(Amazon)被迫公开否认正在为一款追踪仓库工人行为的设备申请专利。该公司在一份声明中说:“有关这项专利的猜测是错误的。”相反,其腕带跟踪系统将被用作手持扫描仪的替代品。

随着一年来有关亚马逊仓库虐待员工情况的报道不断传来,这种保证变得不那么令人信服,其中包括了对员工是否可以上厕所的限制。

当然,想要不惜一切代价实现效率最大化的公司不需要等待亚马逊的腕带上市。Insight的主管Jeff Dodge表示,视频摄像头与图像识别技术的结合,可以同样容易地追踪到员工的动作。Insight是一家总部位于丹佛的技术咨询和系统集成公司。

“如果你是一名员工,并且你在一个有摄像头的空间里,你的雇主实际上是在观察、分析你的每一个动作、每一个行动,”他说。

除了某些特定的法规遵从性相关的情况外,这在今天是完全合法和可能的。

这种监视可以是完全无害的——例如,出于安全目的,或为了帮助优化办公室布局。Dodge说,这就是公司目前使用它的方式。

“我们经常与客户交谈,不是谈论什么是可能的,而是谈论什么是正确的,什么是道德上正确的,”他说。

他说,是的,我们有可能追踪每个员工在洗手间花了多少时间。“但人们非常清楚,如果他们这样做了,而有人发现了,那将带来一个非常负面的新闻后果。”

Dodge说,关键是要与员工开诚布公地讨论人工智能项目的目的。“‘嘿,我们正在考虑把洗手间建在更方便使用的地方,但要做到这一点,我们必须监控人们会去哪儿。’如果你确实得到了支持,那么对于谁有权访问这些数据的透明度对于建立信任来说同样重要。如果被发现某些人工智能正在做出帮助管理的决策,而且你拥有一个将我们与他们相比的环境,那么信任就荡然无存了,”他说。

监控不一定局限于视频监控。公司还可以访问员工的电子邮件、网页浏览记录以及大量其他的行为数据。

衡量你的忠诚度

情绪分析包括使用分析来确定人们是否对公司或产品有好感。同样的技术也可以用在员工身上,只不过这里的公司不仅可以访问他们的公共社交媒体档案,还可以访问他们所有的内部通信。

如果做得恰当,情感分析可能会对一家公司有用,而不会造成侵害。

这项技术的一个具体应用是预测哪些员工可能离开一家公司,例如,他们正在浏览求职网站,发送简历,或者比平时发送更多带有附件的电子邮件到个人账户。

一位不愿透露姓名的财富500强公司的高级信息安全专家表示,这很容易做到。这位专业人士说他已经做了十年了,而且非常可靠。

例如,这种技术可以被无害地使用,以确保专有信息不会离开公司,这就是安全专家的公司使用专有信息的方式。或者它也可以被综合使用,在每个人离开公司之前帮助公司解决普遍的士气问题。但是,公司也有其他方法可以利用从这些方法中获得的信息,例如将一名被认为不忠的员工排除在有声望的任务、旅行机会或专业培训之外。

Dodge表示,这样做可能会给公司带来很多麻烦,这也是大多数公司避开人工智能这类应用的原因。“一般来说,公司对透明度的指数很高。他们都有关于他们做什么和不做什么的公共政策 - 他们是真的在考虑对他们的品牌的长期影响以及公众对滥用这种技术的看法。”

管理你的健康

越来越多的公司正在推出员工健康计划。但是,Dodge说,这里有很大的隐私侵犯空间,公司必须小心。尤其是当公司还在为员工管理医疗保险项目时。

如果事情变得过于个人化,就会出现很多问题。当员工佩戴个人健身或健康监测设备时,很快就会变得非常私人化。

“如果你愿意,从隐私的角度来说,它是有害的,”Dodge说。“想象一下,‘我们建议你去看一下关于IBS的专家,因为你经常去洗手间’。”

Dodge建议公司完全不要涉足这一行业,让专业公司来收集和分析数据,并直接向员工提出建议。即使这些建议是通过公司赞助的员工门户网站提出的,但它是一项外部服务这一事实,也有助于减少人们对它的反感,以及滥用这种令人毛骨悚然的服务的可能性。

AI与权力平衡

在工作场所滥用人工智能的一个常见因素是技术如何影响公司和员工之间的权力动态。

卡内基梅隆大学伦理与计算技术教授、CREATE实验室主任Illah Nourbakhsh表示:“你可以利用(人工智能)来增强员工的代理能力。或者你可以用它来巩固公司的权力结构。它是关于权力关系的。你可以用人工智能来创造平衡,或赋予权力——或强化工作场所现有的紧张关系。”

对于一家公司来说,试图对其员工获得更多权力是很有吸引力的,比如通过使用监控技术来提高生产力。

“从战术上讲,这可能会产生一些效果,”他说。“但是从战略上来说,从长远来看,它会让员工感觉不那么有能力,并会损害生产力和营业额。如果亚马逊因为你走得太慢而罚款,那会让员工感觉不那么受重视,也不像团队中的一员。短期来说,它会让人们走得更快,但从长期来看,它会伤害人际关系。”

与其他专家一样,Nourbakhsh建议,在推出新的人工智能项目时,应高度关注透明度和可解释性。

这包括潜在数据集和用于分析它的算法中的偶然和故意偏差问题,以及数据或算法中的错误。

当好的AI变坏的时候

此外,公司需要为AI以意想不到的方式失败做好准备。

“AI是外星人,”Nourbakhsh说。“我们假设人工智能系统会像人类一样犯错误。”

这种假设可能是有害的。

例如,人工智能系统可以以一种相对微妙的方式观察一幅经过修改的图像,并以极高的自信将其完全归为其他类别。

例如,去年,研究人员发现,一小片胶带会让人工智能认为,一个停车标志是一个限速为每小时45英里的标志,这对于人工智能驱动的汽车来说是一个严重的错误。

“这是一个惊人的错误,”Nourbakhsh说。 “太可怕了。但是,这有助于我们对于一个事情是如何失败的理解,我们有一种先入为主的偏见。当它失败时,它不仅仅是一点点的失败,就像人类失败一样。但是它会以一种完全不同的方式失败”。

有时,结果可能是致命的。

去年10月,一架波音737 MAX飞机在印度尼西亚附近坠毁,机上189人全部遇难,原因是自动驾驶系统出现问题。

他说,按照系统的设计方式,飞行员很难重新获得控制权。“人类需要进行最后的监督。当公司实施人工智能系统并给予他们自主控制时,这是有问题的。”

给人类控制权的一种方法是确保人工智能系统能够自我解释,而且解释需要让用户能够理解。他表示,这应该是任何公司构建或购买人工智能系统时的基本要求。

如果公司有可用的工具来监控人工智能系统,以确保它们正常工作,这也会有所帮助。但这些工具目前还无法使用,甚至无法解决种族或性别偏见等常见问题。德勤(Deloitte)网络风险服务数据安全主管Vivek Katyal表示,企业必须建立自己的网络。“或者你可以手工调节,然后想办法解决问题。”

当然,任何技术都无法阻止企业故意滥用人工智能系统。最近一项针对人工智能早期使用者的调查显示,在与人工智能相关的三大担忧中,不到三分之一的人将伦理风险列为最重要的三大担忧。相比之下,超过一半的受访者表示,网络安全是他们最关心的三大问题之一。

他说,除了声誉受损和与隐私相关的合规标准之外,没有什么能迫使企业做出正确的事情了。

Katyal说:“在缺乏监管的情况下,人们会做自己想做的事。”各州正在制定法案,扩大对隐私的保护,另外有一个国家标准也是有意义的。但他说,即使有隐私规定,也无助于解决算法存在偏见或滥用的问题。“我们将如何更好的控制它?这是我看到的当下组织需要解决的一个重要问题。”

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023