在AI能力指数级跃升、安全风险日益凸显的背景下,OpenAI正以高规格姿态填补其安全体系的关键拼图。公司近日在官网发布“Preparedness 负责人”(Preparedness Lead)高级职位招聘信息,年薪起点高达55万美元,并配发股权,隶属于Safety Systems(安全系统)部门。该岗位将直接参与前沿AI模型的产品发布决策,被CEO Sam Altman 亲自称为“关键时期的关键角色”。

OpenAI,人工智能,AI

 “Preparedness”:专为应对AI“黑天鹅”而设

“Preparedness”(准备度/防备能力)是OpenAI近年来构建的核心安全机制之一,旨在系统性评估与防御大模型可能引发的极端风险,包括但不限于:

- 模型被滥用于生物、网络或化学攻击;

- 自主智能体失控或策略欺骗;

- 社会级操纵与大规模虚假信息生成。

该岗位负责人需制定技术战略、设计压力测试框架、运行红队演练,并对模型是否具备“安全上线”条件出具权威评估,拥有一票否决权。

 高层直接管辖,地位空前

值得注意的是,该职位将直接向OpenAI安全系统高层汇报,并与模型研发、产品、政策团队深度协同。此前,该职能由知名AI安全专家Aleksander Madry(曾任MIT教授,现为OpenAI VP)等临时牵头,但目前尚无常任主管,凸显其职责之重与人选之难。

Sam Altman在内部信中强调:“随着我们逼近更强大的AI能力,确保我们‘准备好’比以往任何时候都更重要。这不是一个支持角色,而是塑造公司未来走向的核心岗位。”

 行业信号:AI安全从“合规”走向“战略制高点”

55万美元起的薪酬,已远超普通安全工程师水平,接近OpenAI研究科学家与产品高管层级。这反映出AI行业对“主动防御型安全人才” 的极度渴求——安全不再仅是事后审查,而是前置到研发源头的战略能力。

与此同时,Anthropic、Google DeepMind等公司也相继设立类似“AI灾难防控”或“极端风险评估”团队,预示AI安全正从技术分支升级为独立战略支柱。

 AIbase观察:谁掌控“AI刹车”,谁就定义AI未来

在大模型竞赛从“谁更快”转向“谁更稳”的当下,OpenAI此举释放明确信号:最顶尖的AI公司,不仅要造得出超级智能,更要管得住它。而Preparedness负责人的设立,本质上是在为AGI(通用人工智能)的到来安装“紧急制动系统”。

当一份年薪55万美元的工作,职责是防止AI毁灭世界——这或许正是这个时代最富戏剧性,也最不可或缺的岗位。