随着人工智能(AI)技术的飞速发展,AI 在招聘领域扮演着越来越重要的角色。越来越多的企业开始使用 AI 面试官来筛选求职者。根据《2023 年中国网络招聘市场发展研究报告》,AI 视频面试的应用场景已占到 31.8%。专业招聘平台大力推动人工智能招聘系统研发和应用的背后,是庞大的市场需求。
AI 招聘之所以受到青睐,主要源于它的几个优势:
-
高效:面对成千上万的简历,AI 算力比人工筛选效率高很多,可以帮助企业节省大量时间和人力成本。
-
客观:AI 能够摒弃人的主观偏见,对求职者的评价更加中立,避免了人为因素的影响。
-
低成本:AI 招聘能够节省大量的时间、人力和物力成本,为企业降低招聘成本。
在不断发展过程中,AI 招聘系统越来越智能,从最初的简历筛选到人岗匹配,再到 AI 面试,AI 在招聘中能完成的任务越来越多。最新的 AI 面试系统已经具备了个性化追问功能,可以根据求职者的回答进行更有针对性的提问,从而更加准确地评估求职者的能力和潜力。
然而,在享受 AI 招聘带来的科技红利的同时,我们也必须警惕其可能带来的负面效应。
例如,AI 招聘的“黑箱”问题可能会导致算法歧视,进而影响招聘的公平性。此外,AI 面试中可能会收集大量的敏感个人信息,例如人脸信息、声纹信息等,这也引发了对个人隐私和数据安全的担忧。
为了确保 AI 招聘的合法合规,我们必须进行冷静思考,在技术发展和法律规范之间找到平衡点。下面将从透明度、公平性、个人信息与人格尊严保护以及人工监督四个方面进行分析,并尝试探讨应对之道。
**一、透明度问题**
算法黑箱问题是 AI 招聘中一个亟待解决的问题。许多求职者不明白自己为什么被 AI 打了低分而出局,这背后反映了 AI 评价和决策的算法运行机制缺乏透明度。为了防止算法歧视和误判,招聘者负有对关键算法进行公开解释的法律义务,以保证求职者能够理解 AI 的评价标准和决策过程。从求职者的角度看,法律赋予了其算法解释权,可以拿起法律武器积极维护自身权益。
**二、公平性问题**
AI 招聘可能会对求职者作出不公正的评价,甚至引发算法歧视。算法歧视的来源主要有两方面:
-
招聘者在设计算法时有意植入带有歧视性的参数,刻意排除某些求职群体。
-
数据训练或算法设计本身存在科学性缺陷,导致AI模型对某些特定群体存在偏见。
就业权是一项基本人权,AI 招聘关系到求职者能否获得工作,因此招聘算法属于高风险算法。AI 招聘系统的设计者、使用者除了不断加强数据训练和改进算法以提升其科学性之外,还负有对招聘算法进行周期性风险评估的法律义务,应通过评估发现并消除歧视性风险。对于遭受不公正对待的求职者,依然可以主张反歧视救济,现有的反歧视法对 AI 招聘同样适用。
**三、个人信息与人格尊严保护问题**
AI 面试中的人脸识别、语音分析、情感识别等技术手段的运用,不可避免地要大量收集求职者的个人信息,其中包括人脸信息、声纹信息等敏感个人信息,这些信息的收集处理受到严格的法律限制。招聘者须依据个人信息保护法的规定履行个人信息处理者的义务。
-
对求职者信息的收集必须以明确的招聘目的为限制,不能为其他目的所使用。
-
遵循最小化原则,以满足招聘目的为必要限度,尽可能少收集个人信息,对已收集的信息不能永久保存,应在招聘完成后的合理时间销毁。
-
应就收集个人信息向求职者履行告知义务并征得其同意。
-
履行个人信息保护风险评估义务,定期评估数据安全风险并采取必要的防范措施。
-
对收集的信息采取脱敏化、去标识化、匿名化等保密措施,保护求职者的信息安全。
对在 AI 面试中被收集的个人信息,求职者依法享有查阅、复制以及删除的权利。 除了个人信息保护之外,AI 招聘还可能涉及人格尊严问题。 值得关注的是,根据新近颁布的欧盟《人工智能法案》,分析雇员情绪的人工智能系统因属于不可接受的风险等级而被禁止,而这恰恰是很多 AI 招聘系统宣称的先进技术。我国对此虽尚无明确禁止的立法,但是对于 AI 招聘可能给人格权带来的挑战应当持谨慎态度。
**四、对 AI 的人力监督问题**
在赋予 AI 招聘功能之后,人类应当扮演什么角色值得反思。由于 AI 的局限性可能导致的算法失准、歧视等风险,招聘者不能完全袖手旁观,而应做好 AI 监督者。随着技术的升级,AI 在招聘中的角色从最初的辅助性工作逐渐向独立作出自动化决策的方向发展。个人信息保护法第 24 条规定,如果一项决定是仅通过自动化决策的方式作出的且对于个人权益有重大影响,那么个人有权利拒绝该决定。招聘中的自动化决策影响到劳动者的就业权,显然符合该规定。这意味着,招聘者应当对 AI 形成的自动化决策作出人工审查。
AI 招聘是技术发展的结果,提高了工作效率,但其必须在法律设定的边界内运行,实际招聘者才应是监督者和最终决策者。