1593万应届生涌入就业市场的这一年,某顶级大厂的AI产品经理headcount相比去年缩减了显著幅度。但诡异的是,面试通过率最低的,恰恰是那些简历上写满「Transformer架构」「大模型微调」「RLHF经验」的候选人。
我看到一个正在发生的趋势:硅谷大厂的 hiring committee 正在系统性地拒绝「纯正AI背景」的申请者,转而把offer发给那些「非技术出身但懂人性」的应届生。这不是因为技术不重要,而是因为我们对「AI产品经理」的定义发生了根本性的偏移。
上周我参加了一个某头部科技公司的L6
上周我参加了一个某头部科技公司的L6 panel debrief。两个候选人进入了final round:一个是顶尖实验室的CS博士,发表过三篇行业顶会;另一个是心理学本科背景,只对AI有业余项目经验。按常理,这场较量在简历阶段就该结束。但结果相反,committee一致投票给了后者。
理由写在feedback form的最后一栏:「他能把这个模型的uncertainty翻译成用户的掌控感,而前者只会讲loss function的优化。」
这就是我想说的第一点:不是AI背景越纯越好,而是「非AI出身但懂人性」的候选人正在反杀。
很多应届生误解了AI产品经理的核心竞争力。他们花三个月学PyTorch,六个月跟论文复现项目,以为这样就能在1593万人的洪流中建立壁垒。但他们弄反了一件事:头部科技公司招PM,不是在招算法工程师的助手,而是在招「技术的翻译官」。
在现在的面试房间里,面试官不再问「你怎么设计一个推荐算法」,而是问「当算法给出用户完全无法理解的结果时,你如何在产品层面兜底」。不是谁能把BERT的原理讲得更透彻,而是谁能解释清楚「为什么在这个场景下,宁可牺牲一定准确率,也要保证结果的可解释性」。
第二个判断:不是在考你能不能训模型,而是在考你能不能理解「人为什么需要这个」。
我见过太多候选人在case
我见过太多候选人在case interview里陷入技术自嗨。他们能精确计算F1 score的权衡,能设计出复杂的奖励函数,但当我问「如果用户看到AI生成的内容后感到被冒犯,你会在哪个环节插入人工审核」时,他们愣住了。他们的思维路径是从技术可行性出发,而不是从人类的脆弱性出发。
这就是「人工模拟AI」的真正含义。不是你用人工的方式去实现AI功能,而是你在设计AI功能时,始终保留对人类行为复杂性的敬畏。你知道模型会hallucination,所以你在UI上预留了「这可能是AI生成的」的提示;你明白用户会对黑盒产生恐惧,所以你在交互中加入了「为什么给我推荐这个」的解释入口。
这种能力不需要你有CUDA编程经验,需要的是你对人类认知盲区的洞察。
第三个反常识:不是技术栈越深越安全,而是「技术的人性化翻译能力」才是护城河。
在今年的校招季,某顶级大厂的AI产品组明确在hiring bar里加了一条:「优先录取有社科、人文、心理学背景的候选人,技术能力可trainable」。这不是政治正确,而是一个基于行业观察的产品决策——他们发现,纯技术背景的PM上线功能后,用户留存率显著低于那些「不懂技术但懂人」的PM设计的同类产品。
因为前者设计的是「算法最优解」,后者设计的是「人类可接受的妥协」。
当你面对一个AI面试官时,不要试图证明你比ChatGPT更懂Transformer。你要证明的是,当技术把世界变得越来越像黑箱时,你是那个能为用户保留「确定性幻觉」的人。你能看到技术的边界在哪里,人性的需求在哪里,以及这两者之间的鸿沟需要用什么产品语言去填补。
1593万人的竞争,表面看是科技的竞争,实则是「谁更懂人」的竞争。
当机器能写代码、能画图、能作曲,真正稀缺的不是与机器竞争的能力,而是定义机器服务边界的判断力。那个能说出「这个功能如果这样设计,会让用户产生被算法支配的焦虑」的应届生,永远比那个能算出最优hyperparameter的人更接近offer。