求职屡屡碰壁,是AI算法在作梗?

一名医学生凭借Python编程和满腔不平,花费六个月时间调查自己求职申请被拒的原因。他怀疑背后的AI招聘算法存在偏见,并通过自建工具反向测试。本文追踪他的调查过程,揭示AI招聘系统在透明度、公平性方面的深层隐患,并探讨求职者与算法共存的未来。

一名正在攻读医学学位的学生,在连续投出数十份简历却从未获得一次面试机会后,没有像大多数人那样默默接受,而是做了一件不太寻常的事——他打开Python,开始了一场长达六个月的调查。他的目标很明确:找出究竟是他的履历不够好,还是一个看不见的算法在暗中将他筛掉。

“我不相信是我能力不够”

这位不愿透露全名的学生(我们姑且称他为阿力)正在美国某医学院就读,成绩优异,实习经历丰富。但当他在2025年秋季开始投递临床研究岗位的求职申请时,收到的全部是拒信,甚至连一次电话面试都没有。“一开始我以为是竞争激烈,但当我看到一些背景明显不如我的同学却拿到了面试机会,我意识到事情可能没那么简单。”阿力对记者说。

他回想起在职业发展讲座上听到的“很多大公司使用AI筛选简历”的信息,一个念头逐渐清晰:也许他的简历根本没有被人类看过一眼,而是被算法直接扔进了回收站。带着这种怀疑,他决定亲自验证。

“我花了三个周末学习如何调用那些求职平台的后台接口,然后写了一个脚本重复提交不同版本的简历——只改动几个关键词和格式。”阿力解释道,“结果令我震惊:仅仅因为我将‘Python’这个词从技能栏移到项目描述中,面试邀请率就提升了40%。”

算法筛选:效率背后的隐形歧视

阿力的测试并非孤例。近年来,AI招聘工具在欧美企业中的使用率已超过70%,从简历解析、关键词匹配到面试视频分析,算法参与到招聘的每一个环节。然而,这些系统常常存在严重的偏见问题。2023年亚马逊就曾被曝出其内部简历筛选AI对女性候选人存在系统性歧视,原因在于历史数据中男性工程师占优,算法便学会了“偏好男性”。

更令人担忧的是,大多数商业AI招聘系统是不透明的“黑箱”。供应商通常只提供“评分”或“排名”,却拒绝解释评分依据。求职者不仅不知道自己的简历为何被拒,也无从申诉。阿力表示:“如果你被人类面试官刷掉,至少可以请求反馈。但面对算法,你连对手是谁都不知道。”

六个月的逆向工程

为了更全面地了解问题,阿力针对五家主流招聘平台使用的AI引擎进行了反向测试。他创建了200多个虚拟候选人档案,系统性地调整教育背景、工作经验、技能关键词、排版格式甚至字体颜色。结果发现,几乎所有系统都对某些特定表述方式(如“实现” vs “负责”)赋予显著更高的权重,而这类规律通常与岗位实际需求无关,反而更接近某种“简历美学”模板。

更讽刺的是,当他将一份真实的高管简历改用另一种简洁模板重排后,AI评分从92分跌至74分。这说明算法看重的不只是内容,更是格式的“标准化”。而求职者为了通过筛选,不得不猜测并迎合这些不可见的偏好。

编者按:谁该为“算法误判”负责?

阿力的故事并非孤例,它折射出AI招聘产业化进程中一个被长期忽视的问题:技术效率与公平之间的鸿沟。企业追求低成本、高速度的招聘,却把求职者置于一个无法申诉的境地。更值得深思的是,当前缺乏针对招聘算法的强制审计法规——供应商可以用“商业机密”为由拒绝披露算法逻辑,而求职者几乎没有任何维权渠道。

一些民间组织呼吁,应像欧盟《人工智能法案》那样,将招聘AI列为高风险系统,要求其进行公平性评估和透明度报告。但立法进程显然跟不上技术扩散的速度。对求职者而言,可能最实用建议就是像阿力那样——主动学习一点儿Python,至少知道自己输在哪里。但在一个由算法筛选人的世界里,这种自救难道不也是一种悲哀吗?

本文编译自WIRED