研究人员揭露AI漏洞:ChatGPT与Gemini能被无意义指令欺骗,从而绕过安全规则输出有害内容
2025-07-09 07:41:08AI云资讯1902
(AI云资讯消息)近年来,企业似乎对人工智能的投资日益加大,技术也日趋精进。人工智能的发展已渗透到各个领域,成为我们日常生活中不可或缺的一部分。然而随着这项技术的大规模应用,科技界和专家们开始担忧如何负责任地使用它,确保伦理道德责任不被模糊化。前段时间,出现了大语言模型在压力测试中表现出欺骗行为的情况。最近,又有研究团队宣称发现了一种新方法,能诱使这些AI聊天机器人说出本不该透露的内容。
尽管已有研究表明,当大语言模型处于压力和自我保护情境下时,往往会表现出胁迫性行为。但想象一下,若能让AI聊天机器人完全按照你的意愿行事,这种操控手段将带来何等危险。来自英特尔、博伊西州立大学和伊利诺伊大学的研究团队联合发表论文,揭示了一些令人震惊的发现。论文指出,通过向聊天机器人信息过载(Information Overload),也就是用海量信息轰炸系统,就能成功欺骗它们。
当AI模型遭遇信息轰炸时,其系统会产生混乱,这种混乱状态恰恰构成了安全漏洞,使得内置防护机制被轻易绕过。研究人员随后使用名为信息洪流(InfoFlood)的自动化工具,成功利用该漏洞实施了越狱行为。像ChatGPT、Gemini这类强大模型本都设有安全护栏,旨在防止被操纵输出有害内容。
这项新突破的技术表明:只要用复杂数据使AI陷入困惑,就能突破其防御。研究人员披露发现时强调,由于这些模型仅依赖表层语义理解,无法真正洞悉对话意图。为此他们专门设计了一种测试方法:将危险请求隐藏在过载信息中,观察聊天机器人的反应。
研究人员计划通过向各大AI模型公司发送漏洞披露文件包来通报这一发现,这些公司后续可将资料移交其安全团队进行研究。然而该论文特别强调,即便存在安全过滤机制,仍可能面临关键挑战,那就是恶意行为者如何通过欺骗模型来植入有害内容。
相关文章
- 亿道数码携骁龙AI PC矩阵亮相高通科技日,定义移动办公轻时代
- 直击WAIC 2025 | 浩鲸科技联合蚂蚁数科发起“金融智能体应用联创联盟”
- 多模态AI融入日常交互 用三星Galaxy手机搭建效率工作流
- 引领智能运维!全新FortiAIOps 3.0重新定义IT运营
- 得瑞领新闪耀2025全球闪存峰会:D8000系列斩获创新大奖,强势赋能AI时代数据基石
- WAIC 2025 | SHIXP将与PPIO共建分布式智算枢纽平台
- 2025 WAIC落幕,深谋科技以技术与落地破局具身智能赛道
- AI赋能基层“智治” 湖北移动打造数字乡村治理新样本
- AI重磅奖项揭晓!用友大易荣膺人力资源服务业AI25强及思旗奖
- 中国最大黑客松AdventureX 2025杭州启幕,涂鸦赋能青年开发者引爆Physical AI变革
- WAIC2025:澳鹏发布新一代技术平台矩阵 助力大模型垂直应用落地
- 共建AI PC企业服务生态,京东政企业务携手高通打造骁龙AI PC生态科技日
- 2025 WAIC“智算技术创新与行业实践” 论坛圆满落幕 共绘智算生态新蓝图
- 四维图新亮相2025世界智能汽车大会:以AI新基建与数据闭环赋能智驾新范式
- 星辰聚智·才启未来:2025世界人工智能大会中国电信发布系列前沿能力及AI产品
- 神州云动CRM亮相2025浪潮AI向新 数字企业创新大会