卡巴斯基专家称:人工智能会引发“痛苦疏远综合症”

2023-08-25 15:33:45爱云资讯

网络罪犯为了减轻负罪感,会指责自己创造的人工智能完成了恶意工作

卡巴斯基专家今天分享了他们对人工智能(AI)可能的后果的分析,特别是这项技术潜在的心理危害。

卡巴斯基全球研究与分析团队(GReAT)亚太区研发中心负责人Vitaly Kamluk揭示,当网络罪犯使用人工智能进行恶意行动时,他们可以将责任归咎于技术,觉得自己对网络攻击的影响不需要承担太多责任。

这会导致“痛苦疏远综合征”。

“除了人工智能的技术威胁方面,这种技术还存在潜在的心理危害。网络罪犯中有一种已知的痛苦疏远综合症。在街上对人进行人身攻击会给罪犯带来很大的压力,因为他们经常会看到受害者遭受痛苦。但这种情况不适用于虚拟世界的小偷,因为他们是从他们看不到的受害者那里实施盗窃。网络罪犯分子通过创造的人工智能,神奇地带来金钱或非法利润而不用亲自动手。这让他们觉得受到指责的应当是人工智能,而不是他们自身,”Kamluk解释说。

人工智能的另一个可能影响IT安全团队的心理副产品是“责任推卸”。随着越来越多的网络安全流程和工具变得自动化并委托给神经网络,如果发生网络攻击,人类可能会感到责任感降低,特别是在公司环境中。

“类似的影响可能也适用于防御者,特别是在充满合规和正式安全责任的企业部门。智能防御系统可能成为替罪羊。此外,完全独立的自动驾驶技术的存在减少了人类驾驶员的注意力,”他补充说。

Kamluk分享了一些指导方针,让我们可以安全地享受人工智能的好处:

可获取性——我们必须限制匿名访问在大量数据上构建和训练的真实智能系统。我们应该保留生成内容的历史记录,以确定给定的合成内容是如何生成的。

与 WWW 类似,应该有一套程序来处理人工智能的误用和滥用,并有明确的联系方式来报告滥用情况,这可以通过基于人工智能的一线支持进行验证,如果需要,在某些情况下由人类进行验证。

法规 —— 欧盟已经开始讨论如何标记在人工智能的帮助下制作的内容。这样,用户至少可以快速可靠地检测人工智能生成的图像、声音、视频或文本。总会有违规者,但他们只是少数,而且他们总会东躲西藏。

对于AI开发人员,对这类活动颁发许可证可能是合理的,因为这类系统可能是有害的。这是一种军民两用技术,与军事或军民两用设备类似,其制造必须受到控制,包括必要时的出口限制。

教育——对所有人来说,最有效的方法是让他们了解如何检测人工智能内容、如何验证人工智能内容以及如何报告可能的滥用行为。

学校应该教授人工智能的概念,人工智能与自然智能的区别,以及它所产生幻觉有多可靠或破碎。

软件开发人员必须学会负责任地使用技术,并了解滥用技术的惩罚。

“有人预测,人工智能将成为世界末日的中心,这将摧毁人类文明。多家大型企业的高层管理人员甚至站出来呼吁放慢人工智能的发展速度,以防止灾难发生。的确,随着生成式人工智能的兴起,我们看到了技术上的突破,它可以合成与人类类似的内容:从图像到声音、深度伪造视频,甚至是与人类无异的基于文本的对话。与大多数技术突破一样,人工智能是一把双刃剑。只要我们知道如何为这些智能机器设置安全指令,我们总能利用它为我们带来优势,”Kamluk补充说。

卡巴斯基将于10月25日至28日在泰国普吉岛举行的2023年卡巴斯基安全分析师峰会(SAS)上继续讨论网络安全的未来。

这次活动欢迎来自全球各地的高水平反恶意软件研究人员、全球执法机构、计算机应急响应小组以及金融服务、技术、医疗保健、学术界和政府机构的高级管理人员参加。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023