OpenAI安全研究主管离职 跳槽至竞争对手Anthropic

2026-01-16 06:09:42AI云资讯1322

(AI云资讯消息)过去一年,人工智能行业颇具争议的问题是,当用户在与聊天机器人的对话中表现出心理健康问题的迹象时,该如何应对。负责此类安全研究的OpenAI高管安德烈亚·瓦隆内(Andrea Vallone)现已离职加入Anthropic公司。

近日,瓦隆内在社交平台领英发文中表示:"过去一年中,我领导着OpenAI针对一个几乎无先例可循问题的研究:当模型面对情感过度依赖迹象或心理健康困扰的早期征兆时,应如何回应?"

瓦隆内在OpenAI任职三年期间,组建了模型策略研究团队,专注于GPT-4、OpenAI推理模型及GPT-5的最佳部署方案,并为基于规则奖励机制等AI行业主流安全技术开发训练流程。如今她已加入Anthropic的对齐团队,该团队致力于研判人工智能模型的最大风险及应对策略。

瓦隆内将向杨·莱克(Jan Leike)汇报工作,而杨·莱克恰是前OpenAI安全研究负责人,于2024年5月离职。杨·莱克辞职原因是反对OpenAI管理层重视光鲜的产品开发胜于安全文化。

过去一年来,领先的人工智能初创企业因用户心理健康问题引发的争议日益加剧。当用户向AI聊天机器人倾诉时,心理困境可能进一步恶化,尤其在长时间对话中安全护栏往往失效。多个受害家庭已提起诉讼,安全研究人员正承担着解决这一严峻问题的责任。

对齐团队负责人萨姆·鲍曼(Sam Bowman)在领英发文中表示,他“为Anthropic严肃地对待如何规范AI系统行为这一难题感到自豪。”

1月15日,瓦隆内在领英发文中表示:"我渴望在Anthropic继续我的研究,专注于通过对齐与微调技术,塑造Claude在新情境下的行为模式。"

相关文章

人工智能企业

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>

人工智能技术

更多>>
AI云资讯(爱云资讯)立足人工智能科技,打造有深度、有前瞻、有影响力的泛科技信息平台。
合作QQ:1211461360微信号:icloudnews