研究人员揭露AI漏洞:ChatGPT与Gemini能被无意义指令欺骗,从而绕过安全规则输出有害内容
2025-07-09 07:41:08AI云资讯2844

(AI云资讯消息)近年来,企业似乎对人工智能的投资日益加大,技术也日趋精进。人工智能的发展已渗透到各个领域,成为我们日常生活中不可或缺的一部分。然而随着这项技术的大规模应用,科技界和专家们开始担忧如何负责任地使用它,确保伦理道德责任不被模糊化。前段时间,出现了大语言模型在压力测试中表现出欺骗行为的情况。最近,又有研究团队宣称发现了一种新方法,能诱使这些AI聊天机器人说出本不该透露的内容。
尽管已有研究表明,当大语言模型处于压力和自我保护情境下时,往往会表现出胁迫性行为。但想象一下,若能让AI聊天机器人完全按照你的意愿行事,这种操控手段将带来何等危险。来自英特尔、博伊西州立大学和伊利诺伊大学的研究团队联合发表论文,揭示了一些令人震惊的发现。论文指出,通过向聊天机器人信息过载(Information Overload),也就是用海量信息轰炸系统,就能成功欺骗它们。
当AI模型遭遇信息轰炸时,其系统会产生混乱,这种混乱状态恰恰构成了安全漏洞,使得内置防护机制被轻易绕过。研究人员随后使用名为信息洪流(InfoFlood)的自动化工具,成功利用该漏洞实施了越狱行为。像ChatGPT、Gemini这类强大模型本都设有安全护栏,旨在防止被操纵输出有害内容。
这项新突破的技术表明:只要用复杂数据使AI陷入困惑,就能突破其防御。研究人员披露发现时强调,由于这些模型仅依赖表层语义理解,无法真正洞悉对话意图。为此他们专门设计了一种测试方法:将危险请求隐藏在过载信息中,观察聊天机器人的反应。
研究人员计划通过向各大AI模型公司发送漏洞披露文件包来通报这一发现,这些公司后续可将资料移交其安全团队进行研究。然而该论文特别强调,即便存在安全过滤机制,仍可能面临关键挑战,那就是恶意行为者如何通过欺骗模型来植入有害内容。
相关文章
- 法大大×致远互联丨重磅发布!AI驱动合同全生命周期智能管理新范式
- “AI拉动云”飞轮效应凸显 金山云打开智算云增长天花板
- 2026 NVIDIA GTC 圆满落幕:阿丘科技携 Factory AI 亮相 GTC
- 大模型智能体行业元年来临,腾讯/阿里/微美全息集体锁定AI+Agent高增长赛道!
- 技嘉AI TOP ATOM携手AIMA打造桌面级AI落地新范式
- 任泽平年度预测演讲重磅收官,欧定成“AI改变生活”唯一服装案例
- AI协同重塑创作逻辑,灵狐AI视频平台解锁电商营销高效增长密码
- 从Office AI到AI Office,金山办公汪大炜解读WPS超大规模AI办公基建布局
- 暗壳AI Agent2.0发布!人人可用的空间智能设计Agent
- 把尾货卖到50亿,好特卖靠AI算法,拿捏情绪经济
- 全栈AIInfra护航,青云智算出席出海产业链研讨会
- QQ开启AI社区运营新时代,腾讯频道Skill正式上线
- Soul App 2025年度生态安全报告:AI助力社交元宇宙安全建设
- 旷视获广东联通三项殊荣,深化“AI+终端”产业协同
- AI与出海双轮驱动,找钢网集团升级为AI驱动的全链路科技服务平台
- Soul App社交元宇宙安全体系再升级:年度生态安全报告解读AI治理实践









