点击这里给金令牌猎头顾问发消息
 金令牌首页 金令牌猎头 十佳职业经理人评选 最佳雇主评选 加入俱乐部 《职业经理人周刊》 会员区   薪酬调查报告登录  
Rss订阅
《职业经理人周刊》 猎头公司
职业经理人俱乐部首页 >> 经理人资讯 >> 人力资源 >> 今日视点 >> 正文

职场招聘中的歧视与偏见,竟然被 AI 工具给解决了?


  《职业经理人周刊》   猎头班长v微博   微信:AirPnP   2020/8/31
猎头职位搜索
猎头|自助猎头
兼职|推荐人才

前段时间,由于美国“BLM”平权运动的持续发酵,IBM、谷歌等互联网巨头纷纷下架或停止了自家的 AI 人脸识别业务,因为这些业务被证实存在种族和性别偏见。

但从大厂不断关闭的 AI 业务中,也有一些人找到了相反的创业方向,他们试图利用 AI 工具来解决职场招聘过程中的歧视与偏见问题。

著名猎头机构推荐金领职位
金令牌搜索企业 职位 经理人 专访 社区 会员
生物工程新药研发与临床转化 A轮--人力资源总监50-80万北京
上市公司-影视版权交易板块-人力资源总经理100-120万北京
知名商业百货集团公司人力资源部总经理助理 70万北京 哈尔滨
著名互联网广告公司(pre-ipo)HRD50-70万北京 杭州
大型金融科技投资集团公司-董事长助理 40-50万河北 北京
国内知名保险公司-人力资源总监 50-70万北京
旅游产业集团-人力资源总监/总裁助理40-50万广东 北京
影视传媒-新三板IPO—人力资源VP50-70万北京 上海

人工智能招聘工具

根据调研机构的分析,在世界财富 500 强企业中,有 98% 以上的企业在招聘过程中会使用 AI 简历过滤软件,同时也有越来越多的中小型企业使用类似的招聘工具。但与 AI 人脸识别一样,这些 AI 工具也存在偏见问题。

据外媒报道,两年前,美国电商巨头亚马逊曾秘密下线了公司内部的一个 AI 招聘工具,原因是该系统在长期对求职者简历进行筛选的训练过程中“学会”了性别歧视

即该 AI 在筛选简历时会更偏爱男性求职者,同时会自动降低一些女性求职者简历的评级。这一事件在当时也引发了人们对于 AI 招聘工具公平性的质疑。

近日,一家名为 GapJumpers 的 AI 创业公司声称,通过精心设计和训练其 AI 模型,他们的 AI 招聘工具能够在招聘流程中专门解决各种系统性偏见。

这不是一个简单的任务:首先 AI 算法本身就存在一些性别和种族方面的偏见。而这家公司采用的策略是清除招聘程序中的身份识别信息,仅依靠匿名面试和技能测试来评定求职者与职位的匹配度,同时加入职位调剂的机制以吸引尽可能多的应聘者。

GapJumpers 是一家位于旧金山的初创公司,他们推出的 AI 招聘项目为求职者提供了一个平台,该平台使用机器学习算法对求职者进行仅与工作相关技能的评估,同时屏蔽所有的个人身份信息,再对每个候选人进行评分和排名。

该公司联合创始人兼首席执行官 Kedar Iyer 表示,这种方法有助于减少传统 AI 招聘工具对于简历内容的过分依赖,因为简历作为训练数据的来源“充满了偏见”,并避免类似亚马逊的 AI 招聘工具在长期的简历筛选中将这样的偏见不断放大。

评论认为,这种减少歧视的刻意做法可能会鼓励更多公司尝试使用 AI 辅助招聘。随着平权运动在西方国家获得越来越广泛的支持,越来越多的企业开始致力于构建企业结构多元化,像 GapJumpers 这样的 AI 招聘业务也得到了很多潜在客户的询问。Iyer 说:“我们看到各种规模的公司都对提高他们的多元化越来越感兴趣。”

需要人工监督的人工智能

亚马逊下线的 AI 招聘工具带来的另一个教训是,在开发类似的 AI 招聘工具时,仅仅关注算法的设计和训练是不够的,因为 AI 软件几乎总是需要不断的人工监督。

对于开发人员和招聘人员来说,这意味着他们不能盲目地信任 AI 工具的筛选结果 —— 他们还需要了解其背后的流程,不同的训练数据如何影响其行为,并监控可能出现的偏见。

来自北卡罗来纳州立大学的信息技术教授 Fay Cobb Payton 表示,科技企业中的种族偏见由来已久,“ 因为该行业中的部分群体(例如非裔美国人、女性)相对较少,而该行业的平均薪酬又恰好高于其他行业,这就造成了人们常常议论的 ‘种族贫富差距’。

而一直以来,这部分群体在招聘过程中就难以进入科技公司(特别是研发部门),从而形成了一个带有偏见的历史循环。”

Payton 和她的同事在去年发表的一篇论文中提到了包括 GapJumpers 在内的多家以 AI 招聘工具为业务的公司,认为它们是采用“故意设计正义”的方法来改变 IT 界的招聘机制。

根据 Payton 的观点,AI 招聘工具根据其在招聘过程中的参与度可分为三种类型。初级的招聘工具可能只是给 HR 提供关于招聘哪种候选人的一般性建议;中级的工具可能会向招聘人员推荐特定的应聘者;而一些高级工具可以对候选人进行主动的筛选,甚至直接做出选择的决策。

但是,无论 AI 在招聘过程中扮演什么角色,最终都应该要人来对评估系统做出决策,并拥有随时推翻 AI 所做决策的权力。

Payton 说:“我认为,正确的 AI 工具不应该在算法建议的末尾才提到人为介入。人类应该从设计 AI 工具到使用该工具进行招聘的整个循环过程中全程参与,一直到系统内部形成完全没有偏见的模型为止。”

Payton 补充说,AI 系统决策点的每个阶段都应允许进行人工审核,以便预防每个阶段可能出现的偏见。当然,人员的分工是至关重要的,比如审核系统的人员与最初设计系统的人员应该是不同的人,这样也能大大降低系统出现偏见或歧视的概率。

AI 工具并不是快速解决方案

AI 招聘工具面临的另一个挑战是,有些客户希望使用这些工具能够快速解决复杂的问题,而事实上并非如此。总部位于伦敦的招聘软件初创公司 Headstart 的产品营销主管 James Doman-Pipe 表示,任何想要使用 AI 或其他技术避免职场歧视的企业,都需要组织领导层和其他部门在各个环节的大力支持。

Headstart 的软件使用机器学习来评估求职者,并生成相应的“匹配分数”,以显示应聘者满足该工作岗位对技能、学历和工作经验要求的程度。Doman-Pipe 说:“通过产生匹配分数来对应聘者进行排序,招聘人员更有可能抛开种族、性别、家庭环境等因素,对应聘者择优录取,从而减少主观潜在的偏见。”

该公司声称,在将基于 AI 的方法与传统招聘方法进行比较的测试中,使用其软件的客户看到了新员工在多样性方面的显着改善。

尽管如此,以人工智能为动力的招聘工具在获得广泛信任之前,所面临的最大障碍之一是缺乏公信力,即这些 AI 工具需要一些公开的数据来表明:不同的工具是如何帮助招聘过程变得更加公平的。

宾夕法尼亚州立大学教授 Yarger 表示:“我从与一些软件公司的访谈中知道,他们确实为了更好的多元化进行了改变,他们重新校准了他们的招聘系统。但是,提高 AI 招聘中的算法公平性是否真的带来了效果,这点尚不清楚。”

她解释说,由于围绕公平就业和职场歧视的问题会带来一些法律责任,因此许多公司仍然不愿公开分享此类信息。因为一旦公开的数据证明了他们使用的 AI 工具曾经或仍然存在歧视某些群体的现象,那么该公司很可能会面临法律后果。

Payton 教授认为,人工智能是否能帮助企业创建公平、公正的人才招聘机制,仍然有待观察。“人类社会长久以来形成的偏见,包括一些职场招聘歧视的现象,并不会一夜之间发生变化。所以我们还有很多工作要做。”

(来源:开源中国)


我们尊重原创者版权,除非我们确实无法确认作者以外,我们都会注明作者和来源。在此向原创者表示感谢。本网转载文章完全是为了内部学习、研究之非商业目的,若是涉及版权等问题,烦请联系 service@execunet.cn 或致电 010-85885475 删除,谢谢!

发表评论:
主题:
内容:
匿名发表 验证码: 登录名: 密码:   个人 企业
发帖须知:
一、请遵守中华人民共和国有关法律法规、《全国人大常委会关于维护互联网安全的决定》《互联网新闻信息服务管理规定》
二、请注意语言文明,尊重网络道德,并承担一切因您的行为而直接或间接引起的法律责任。
三、管理员有权保留或删除其管辖留言中的任意内容。
四、您在本站发表的言论,本站有权在网站内转载或引用。
五、发表本评论即表明您已经阅读并接受上述条款。
金令牌猎头
企业找猎头   职业经理人找猎头
CHO相关资讯
更多>> 
CHO焦点企业对话
更多>> 
CHO相关猎头职位
更多>> 
十大猎头公司推荐金领职位
关于我们 | 招聘猎头 | 猎头 | 自助猎头 | 悬赏招聘 | 十佳职业经理人评选 | 年度最佳雇主评选 | 会员登录 | 企业 | 职位 | 设为主页
联系我们 | 法律声明 | 搜索 | 猎头招聘 | 猎头公司 | 《职业经理人周刊》 | 职业经理人俱乐部 | 沙龙活动 | 资讯 | 刊例 | 收藏本站
Copyright® 版权所有  猎头服务热线:010-85885475 E-MAIL:club@execunet.cn
京ICP备05025905号-1   京公网安备 110105001605号
点击这里给金令牌猎头顾问发消息 猎头顾问