伪人工智能的兴起:科技公司如何悄悄利用人类来做机器人的工作

2018-07-10 18:17:22爱云资讯

建立一个由人工智能驱动的服务很难。事实上,因为太艰难,一些初创公司已经研究出更便宜、更容易让人类像机器人一样行事,而不是让机器像人类一样行事。

“使用人来完成这项工作可以让你跳过大量的技术和业务开发挑战。显然,它不会扩大规模,但它允许你在早期构建一些东西,并跳过困难的部分。”ReadMe的首席执行官Gregory Koberger说。他说遇到了很多“伪AI”。

“这基本上是人工智能与人类的原型。”他说。

这一做法本周在《华尔街日报》的一篇文章中突显出来,这篇文章强调了谷歌允许访问人们收件箱的数百名第三方应用程序开发者。

对于总部位于圣何塞的Edison Software,人工智能工程师通过数百名用户的个人电子邮件 —— 他们的身份编辑 —— 来改进“智能回复”功能。该公司在其隐私政策中没有提及人类会查看用户的电子邮件。

《华尔街日报》文章中强调的第三方远远不是第一批这么做的。 2008年,一家将语音邮件转换为短信的公司Spinvox,被指控在海外呼叫中心上使用人工而不是机器来完成其工作。

2016年,彭博社强调了人们每天花12小时,假装是聊天机器人,用于日历安排服务,如X.ai和Clara。这项工作让人麻木,以至于这些工作人员表示他们期待被机器人取代。

2017年,业务费用管理应用程序Expensify承认,它一直在使用人类来转录其声称使用其“智能扫描技术”处理的部分收据。收据的扫描被发布到亚马逊的Mechanical Turk众包劳动工具上,低薪工人正在阅读和转录这些工具。

“我想知道Expensify SmartScan用户是否知道MTurk工作人员会收到他们的收据。”Rochelle LaPlante说道,他是推特上的零工经济工人的倡导者,“我正在查看某人的Uber收据,他们的全名、接送和下车地址。”

即使是在人工智能上投入巨资的Facebook也依赖人类作为Messenger的虚拟助手。

在某些情况下,人类习惯于训练AI系统并提高其准确性。一家名为Scale的公司提供一系列人力工作者,为自动驾驶汽车和其他人工智能系统提供培训数据。例如,“定标器”将查看摄像头或传感器馈送,并在框架中标记汽车、行人和骑车人。通过足够的人体校准,AI将学习识别这些物体本身。

在其他情况下,公司会伪造它直到它们成功,告诉投资者和用户他们已经开发了可扩展的AI技术,同时秘密地依赖人类智慧。

艾莉森·达西是一位心理学家,也是提供心理健康聊天机器人Woebot的创始人,她将此描述为“绿野仙踪式的设计技术”。

“你模拟了某种东西的终极体验。很多时候,人工智能,幕后有人而不是算法。”她说,并建立一个良好的人工智能系统需要大量的数据,有时设计师想知道在投资之前,是否有足够的服务需求。

她说,这种方法不适合像Woebot这样的心理支持服务。

“作为心理学家,我们遵守道德准则。不欺骗人是非常明显的道德原则之一。“

研究表明,当人们认为他们正在与一台机器而不是一个人交谈时,他们倾向于透露更多信息,因为一个人寻求心理健康支持时常常有耻辱感。

来自南加州大学的一个团队用名为Ellie的虚拟治疗师对此进行了测试。他们发现,患有创伤后应激障碍的退伍军人,更有可能在他们知道Ellie是一个人工智能系统,而不是被告知有人在操作机器时,吐露他们的症状。

其他人则认为公司应始终对其服务运营方式保持透明。

“我不喜欢这样。”那些假装提供人工智能服务但实际雇用人类的公司的LaPlante说,“这对我来说感觉不诚实,是一种欺骗,这些都不是我想从我正在使用的业务中得到的东西。”

“而作为工人方面,感觉我们被推到了幕后。我不喜欢一家公司使用我的劳动力,但转而向客户撒谎,不告诉他们真正发生的事情。”

这种道德上的窘境也引发了人为AI系统的思考。最近的一个例子是Google Duplex,这是一个机器人助手,可以通过一些迟疑的语气词如“嗯”、“呃”等,制作出令人毛骨悚然的逼真电话效果,用来预约和预定。

在最初强烈反对之后,谷歌表示,它的人工智能将会识别出它所与之交谈的人类。

“在他们的演示版本中,低影响力的对话中感觉有点欺骗性。”达西说。尽管在餐馆预订位置可能看起来像是一种没什么风险的互动,但同样的技术可能会在错误的人手中更有操控性。

例如,如果你能做出逼真的电话,模拟名人或政客的声音,会发生什么?

达西说:“围绕人工智能已经存在很大的恐惧,当缺乏透明度时,它并没有真正帮助对话。”

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023