从求职到被裁,算法是如何毁掉你的前程的
2024/06/25 | via.媒体 英国《金融时报》,节选 | 收藏本文
就人工智能发表危言耸听的论调的人会警告说,机器学习终将毁灭人类——或者至少让人类变得多余。但如果说真正令人担忧的问题其实更加平常无奇呢?比如人工智能工具其实活儿干得很糟糕。
纽约大学教授、记者希尔克·谢尔曼花了5年时间研究如今雇主在招聘、解雇和管理中广泛使用的工具,之后得出了上述结论。机器人越来越多地决定我们在网上看到哪些招聘广告,招聘人员阅读哪些简历,哪些求职者进入最终面试,哪些员工能够晋升、拿到奖金或收到裁员通知。“但在这个由算法界定我们是什么样的人,我们在哪些方面表现出色,在哪些方面做得吃力的世界里……如果算法出错了怎么办?”谢尔曼在《算法》一书中问道,她把自己在研究中的发现写进这本书中。
招聘人员和管理人员有很多理由用到人工智能:筛选堆积如山的简历,更快地找人填补职位空缺;帮助他们找到有才能的人,即使这些人的过往背景异于常人;做出更公平的决定,消除人类的偏见;或者跟踪绩效并识别问题员工。
但谢尔曼的经验表明,市面上的许多系统可能弊大于利。例如,她测试了一款视频面试软件,测试结果是她非常适合某个职位,即使她用“我喜欢团队合作”这种人云亦云的套话替换她原本的听起来很在理的答案,或者完全用德语说话,结果仍是如此。
她与一些专家进行了交谈,这些专家审查了简历筛选工具是否存在潜在的偏见——他们发现,这些工具可能会过滤掉来自某些邮政编码地区的候选人,这可能构成种族歧视;可能青睐某些国籍的人;或者把候选人喜欢男性主导类运动(比如棒球)视为一种成功的标志。
试过一些游戏后,对于快速的模式匹配游戏或性格测试能否帮助招聘人员确定最有可能在某个岗位上不称职或表现出色的人选,谢尔曼持怀疑态度。对于那些因为孩子而分心的人,或者那些身体上有软件无法识别的残疾的人来说,这类游戏会更加困难。
但谢尔曼发现的许多问题本质上与使用人工智能无关。如果招聘人员不理解为什么有些新员工比其他新员工干得好,开发人员就无法设计出好的招聘测试。如果一个系统的设计初衷主要是为了快速填补空缺,它就不会选出最好的人选。
谢尔曼发现,除非开发者介入,否则招聘平台会向那些在回复招聘人员和申请高级职位方面最积极的求职者(通常是男性)展示更多的广告。还有的问题是因为管理者盲目地依赖工具,而这些工具本来只是为人类的判断提供信息——有时管理者错误地认为,这些工具会让他们免受法律挑战。
机器学习可能会以难以发现的方式放大现有的偏见,即使开发人员心中警觉。算法可以识别过去表现出色或糟糕的人的共性,但无法理解它们所挑出的特征是否重要。
谢尔曼书中最有用的部分可能是一个附录,它为求职者提供了一些建议(在简历中使用项目符号,避免使用&符号,以使其适合机器阅读),也为正在受到老板关注的人提供了一些建议。但她也对监管机构提出了一些建议,比如如何确保人工智能工具在推向市场前经过测试。
相关报道