跳到正文
Back to Feed

总结

OpenAI 首席执行官奥尔特曼近日发帖招聘“准备工作负责人(Head of Preparedness)”,年薪约55.5万美元并配股权,折合人民币约400万元起步,可能达到百万美元级总包。该岗位被定义为高压、需立即介入的“救火”角色,重点并非提升模型能力,而是建立可落地、可扩展的安全流程与护栏,在模型快速增强背景下评估威胁、制定缓解措施,降低心理健康影响与网络安全滥用等风险。招聘发生在公司安全团队经历超级对齐团队解散、负责人调岗及多名研究人员离职后,被视为对“安全空心化”担忧的补位与强化,以应对大模型竞赛中“加速但不失控”的挑战。

正文

奥尔特曼掏出「400 万 + 股权」招人,不是来卷模型智商,而是给 OpenAI 买一份「AI 失控险」-- 一上岗就下深水、当救火队长。 奥尔特曼开价 400 万,要为 OpenAI 买一份「安全保险」! 近日,奥尔特曼发帖要为 OpenAI 招募一位「准备工作负责人(Head of Preparedness)」。 55.5 万美元年薪,外加股权,换算成人民币大约 400 万起步。 在硅谷,「55.5 万美元基础年薪 + 股权」,属于极少见的高底薪高管岗,底薪越高,往往意味着岗位稀缺、责任边界更大。 虽然 OpenAI 并未公开股权规模,该岗位薪酬总包可能达到百万美元级别。 与高薪相对应的是极富挑战性的工作内容。 奥尔特曼为这个岗位的定调就是「充满压力」「要立刻下深水」: 这会是一份压力很大的工作,而且你几乎一上来就要跳进深水区。 关键时刻的关键角色 这份工作更像是一个「救火队长」,甚至可以称为「末日主管」。 不是为了把模型做得更聪明,而是要为不断变强的模型套上「安全围栏」,管控好随之而来的风险。 用奥尔特曼的话说,这是一个「关键时刻的关键角色」,模型正在飞快变强,能做出很多很棒的事,但也开始带来「真实的挑战」。 他在招聘帖子中特别点名了两件事,这是在过去的一年中发现的: 模型对心理健康的潜在影响; 模型在计算机安全上强到一个新阶段,已经开始能发现「高危漏洞」。 奥尔特曼强调,我们在衡量能力增长方面已经有了很扎实的基础,但接下来的挑战是如何防止这些能力被滥用,如何在产品里、以及在现实世界里把这些坏处压到最低,同时还能让大家继续享受它带来的巨大好处。 他认为这是一个巨大的难题而且几乎没有先例,是一个需要「更精细理解和更细致度量的世界」。 许多听起来很不错的想法,落到现实里都会遇到一些棘手的例外和边界情况。 因此,新招募的这位「准备工作负责人」的职责,就是要解决在模型能力持续发展和应用不扩大的前提下,去设定一道安全防线: 如何用最前沿的能力去武装网络安全防守方,同时确保攻击者没法拿来作恶。 奥尔特曼也为这份工作定下了目标: 最理想的情况,是通过让所有系统都变得更安全来实现,比如更安全地发布在生物领域的 AI 能力,以及提升自我改进的系统能够更安全地运行的信心。 模型变强, 风险也更加「硬核」 过去我们谈 AI 风险,常常像在发布天气预报:可能下雨,最好带伞。 随着大模型能力的提升,以及技术的快速渗透,当前的 AI 风险更像是到了乌云压城的关头:雨已经落下来了,而且风向还在变。 一方面是模型更强了。 奥尔特曼提到一个标志性变化: 模型在计算机安全方面进入新阶段,「开始能发现关键漏洞」。 这句话细思极恐 -- 当模型能替你找漏洞,它同样可能替别人找漏洞。 正所谓道高一尺,魔高一丈。 另一方面,模型技术的普及也带来了更多「硬风险」,这在 2025 年已经看到一些苗头。 比如,模型对心理健康的潜在影响。 进入 2025 年我们也看到了许多关于「AI 精神病」的报道: 有人把与机器人聊天当作心理治疗的替代方案,而在某些情况下,这会加剧心理健康问题,助长妄想等令人担忧的行为。 今年 10 月,OpenAI 也曾表示正与心理健康专业人士合作,改善 ChatGPT 对出现精神错乱或自残等令人担忧行为的用户的互动方式。 不止心理健康,还有报道指出 ChatGPT 在法律文件中产生幻觉,引发大量投诉。 此外,还有 ChatGPT、Sora 等应用产品上线后带来的一系列诸如深度伪造以及社会伦理等方面的挑战。 比如 Sora 曾在 2025 年 10 月因用户生成「不尊重」内容而暂停 / 封禁对马丁・路德・金相关视频的生成,并同步加强历史人物肖像相关的护栏与退出机制。 因此,奥尔特曼要求这份工作,要把安全从能力评估、威胁建模、缓解措施做成一条可落地的链条,形成一个「连贯、严谨且可操作、可扩展的安全流程」。 填补「安全空心化」的焦虑 这次招聘,更像是对 OpenAI 安全团队的紧急补位与强化。 OpenAI 的核心使命是以造福全人类的方式开发人工智能,从一开始它就将安全协议 (safety protocols) 作为其运营的核心部分。 然而,一些前员工表示,随着 OpenAI 开始发布产品以及盈利压力的增加,该公司开始将利润置于安全之上。 一个标志性事件,就是「超级对齐」(superalignment)团队的解散。 2024 年 5 月,OpenAI「超级对齐」团队解散,该团队工作将被并入 / 吸收进其他研究工作。 超级对齐团队的两位共同负责人 Ilya Sutskever、Jan Leike 也相继离开,其中 Leike 在离职时还尖锐地批评了公司,公司已经迷失了确保技术安全部署的使命: 「构建比人类更聪明的机器本身就是一项危险的尝试...... 但在过去几年里,安全文化和流程已经让位于光鲜亮丽的产品」。 Leike 表示 OpenAI 未能投入足够的计算资源来研究如何引导和控制那些远比我们聪明的人工智能系统。 另外一名前员工 Daniel Kokotajlo 也表示他辞职是因为他「对公司在通用人工智能 (AGI) 出现时能否负责任地行事逐渐失去信心」。 当时奥尔特曼就 Leike 的发帖回复,认为他说的对:「我们还有很多事情要做;我们承诺会去做」。 OpenAI 联合创始人兼总裁 Greg Brockman 也声称公司愿意因安全问题推迟产品发布: 「首次弄清楚如何让一项新技术变得安全并非易事,我们既相信要实现巨大的潜在收益,也致力于努力降低重大风险」。 在超级对齐团队解散大概两个月后,7 月 AI 安全负责人 Aleksander Madry 被调岗。 OpenAI 原 AI 安全负责人 Aleksander Madry 10 月 23 日,OpenAI 长期政策研究人员、AGI readiness 团队高级顾问 Miles Brundage 离开 OpenAI。 随着 Brundage 离开,AGI readiness 的子团队 economic research division 将转到新任首席经济学家 Ronnie Chatterji 之下,其余部分则分散到其他部门。 Kokotajlo 曾表示,「OpenAI 最初约有 30 人研究与通用人工智能 (AGI) 相关的安全问题,一系列的离职使得这一人数减少了近一半」。 安全团队的负责人及员工离职、调岗,项目被不断分拆、重组,由此带来的「安全空心化」焦虑,正是这次奥尔特曼高调招聘的大背景。 当「前沿模型」的能力逼近更高边界时,谷歌、Anthropic、OpenAI、xAI 等大模型厂商在 AI 军备竞赛中,都要解决同一个问题:怎么在加速中不失控? 而此次招募的「准备工作负责人」的工作,则是要把不断变强的模型,在现实使用场景中转化为一个能评估、能落地、能迭代的「可执行的安全管线」。 当 AI 竞赛进入紧要关头,能够守住安全底线才是不败的关键。 参考资料: https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12 本文来自微信公众号: 新智元(ID:AI_era)
发布时间: