当前位置:首页 > 最新资讯 > 行业资讯

聊聊机器学习与人力资源管理碰撞什么火花?

前言

近年来,机器学习领域取得了许多重大突破,人工智能技术驱动的人力资源管理服务产品也拥有一个庞大且充满活力的市场。越来越多的企业和政府机构逐渐开始思考将机器学习技术应用于人力资源管理,通过神经网络做出正确有效的决策,准确地预测人力资源管理的结果。

本文从四个方面展开将机器学习用于人力资源管理研究的介绍,主要包括技术难点、人力资源管理决策系统简介、系统设计方法和系统安全性,期望读者可以初步了解相关研究。

技术难点

2019年,美国20家大公司的首席执行官进行了相关的研讨会,结果表明,机器学习技术应用在人力资源管理领域面临着独特的挑战。开发有价值的人力资源管理决策系统不仅仅有技术的挑战,还需要衡量人力资源管理结果的固有复杂性方面的障碍,以及难以解决的数据、道德、法律约束和对受影响员工可能产生的负面影响。人力资源管理的决策需要避免容易挑战法律的选择程序,或者员工或其他利益相关者认为有争议的选择程序。

总结有如下几个方面:

如何建立和监督一系列研究和开发项目,探索机器学习在人力资源管理中的应用;

如何有效地开发基于NLP的决策支持系统;

如何测试决策支持系统以确认它们在决策中使用是安全的;

一旦系统被开发和测试,如何成功地将系统转换为可接受的使用方式。

人力资源管理决策系统简介

人力资源管理决策系统的实现面临如下挑战:

系统应该自动化决策,为人类决策者提供输入,还是以其他方式与决策过程交互?

人类决策者需要什么样的输入,候选机器学习系统在提供这些输入方面有多有效?

考虑到当前不同候选系统可用的功能级别,不同类型的决策支持的风险是什么?

如下图展示了一个用于概念化设计和用于人力资源管理的机器学习系统的框架。框架背后的理念是,系统设计与系统的最高优先级目标是不可分割的。人力资源管理目标帮助设计者从机器学习支持人力资源管理决策过程的许多可能方式中进行选择。而实现的设计反过来又影响系统的评估方式。例如,自动化决策的系统可以根据其准确性或其他重要标准进行评估,而为人类决策者提供输入的系统必须根据输入的准确性以及它们如何影响整体决策结果进行判断。如果系统不能满足安全标准,则必须修改实施设计,直到设计人员能够得到一个对人力资源管理目标有价值的系统,并且能够满足安全参数。

机器学习系统框架

系统设计方法

在开发的早期,有许多设计选项可以将基于机器学习的输入整合到决策制定中。设计在时间(例如,在人类制定决策之前还是之后)和影响程度(例如,推荐一个选项还是将注意力引导到重要功能上)方面有所不同。这里将重点介绍机器学习决策系统的五个主要设计实现:

1. 决定。机器学习系统对人力资源管理记录进行评分,并在没有人类决策者参与的情况下自动做出决策。

2. 推荐。机器学习系统向人类决策者提供建议,作为额外的输入。

3. 得分。机器学习系统将分数作为额外的输入提供给人类。

4. 总结。机器学习系统自动为人类决策者总结。

5. 审计。机器学习系统标记不正常的情况,供人类决策者审查,作为审计过程的一部分。

设计过程从确定机器学习系统的优先级目标开始,不同的目标组合需要不同的设计实现,如表所示。

图片

这些目标还指出了评估过程的有效性的潜在度量。例如,如果目标是减少工作量,系统应该减少人类决策者的数量或他们花费在记录评分上的时间;如果目标是改善人类的决策,系统应该有助于提高决策的质量,通过证据来衡量决策更好地促进重要的人力资源管理结果。

自动总结叙事记录的机器学习系统可以作为决策支持的一种模式。一个人的大部分人力资源记录分为两种自由格式的文本和人员属性。自由格式的文本,如任务列表、职责描述和主要成就总结。人员属性是预先量化的、可解释的、对管理有用的数据,例如经验年限、功绩顺序或晋升测试分数。虽然后一种类型的信息更容易在模型或可视化中处理和使用,但前一种类型的信息也是做出充分知情的人力资源管理决策所需要的。

管理层处理决策需要对记录进行深思熟虑的审查,并由经验丰富的人员执行手动审查或评分过程。在为支持手工评审而考虑的各种设计实现中,“总结”是最通用的。这是唯一与所有人力资源管理目标适度或高度一致的设计。自动总结对于提供反馈、增加透明度和提高人工决策的准确性非常有用,并且它们至少对于标准化、减少人工工作量有一定的用处。同时,总结实现保持了对决策过程的高度人工控制,因此它比其他设计更有可能满足安全标准。事实上,总结突出了系统认为重要的文本元素,因此,它是对系统决策的一种解释。因此,总结可以作为一个有用的辅助工具,帮助管理人员理解其他设计实现中的模型输出。

系统安全性

人力资源管理决策影响企业未来的有生力量。因此,在对决策过程进行重大更改时必须采用“首先不伤害”的原则。随着对机器学习的投资增加,大量的研究和政策文件旨在为负责任的和合乎道德的使用机器学习(以及更广泛的人工智能)提供规范性指导。

例如,保护成员隐私的现行规则和框架将继续适用于任何开发项目。在开发和部署期间,有三个原则与测试系统特别相关,测试系统要求机器学习系统准确、公平和可解释:

准确性意味着机器学习系统或它包含的模型以高概率正确地预测感兴趣的结果。

公平性意味着机器学习系统平等地对待子组。

可解释性意味着人类可以理解导致机器学习系统结果的因素和关系。

这些安全标准有时会相互冲突。为了增加公平性,设计师可能会对系统施加限制,降低其准确性或可解释性。为了增加可解释性,系统设计者可能会使用更多可解释性(但灵活性较差)的建模方法,这可能会影响准确性和公平性。测试必须包括平衡准确性、公平性和可解释性,以达到满足人力资源管理目标以及法律和道德约束的设计。

关于公平,重要的是要注意公平没有单一的定义,而且往往不可能满足竞争类型的公平。因此,机构必须选择一个定义来推进测试。这里区分了程序公平性和结果公平性,前者确保人力资源管理过程或算法对不同子组的成员一视同仁,后者检查模型或过程结果是否存在偏见。

最后,可解释性对于实现人力资源管理目标至关重要,因为如果人们不了解系统如何有助于更好的决策,他们可能会忽略或滥用系统。此外,定义可解释性与目标受众是分不开的,因为不同类型的用户需要不同层次的解释。设计人员可以考虑使用本质上可解释的模型来增加可解释性,并且他们还可以进行人在循环测试,以评估人们对系统功能的理解程度。

小结

本文主要从技术难点、人力资源管理决策系统简介、系统设计方法和系统安全性四个方面简要介绍机器学习用于人力资源管理领域的研究。期望可以对想要初步了解此研究的读者有所帮助。

猜你喜欢