边界之问:科技公司用 AI 算法招聘,又用算法裁员

算法招聘不稀奇,现在利用 AI 算法来自动化处理海量简历筛选,已经是司空见惯的操作。但算法裁员,对于许多人来说就闻所未闻了。

最近,一家海外公司 Xsolla 通过算法判断出 150 人是“没有生产力的员工”,然后一口气裁掉了他们。

引起争议的不是裁员本身,而是这一决定背后的原因、标准:Xsolla 首席执行官阿列克桑德・阿加皮托夫接受俄罗斯出版物《Meduza》的一次采访中提出,员工的“数字足迹”不符合公司标准。

远程工作时代,加上外部环境急剧变化,处于困境的企业不得不裁员自救,原本无可厚非。但利用 AI 算法来履行裁员职责,就有待商榷了,因为这牵涉到一系列问题,比如:

靠数字足迹判断员工合格是否合理?算法开除的决定是否符合劳动保护条例?这是不是意味着未来打工人必须按照 AI 的喜好来行动,从而成为算法的奴隶?

边界之问:算法裁员,究竟释放出了哪些“恶之花”?

通过算法来开除员工,听起来着实有些匪夷所思,直到 Xsolla 创始人阿加皮托夫撰写的内部邮件被公开,人们才知道算法的判断标准是:数字足迹(Digital Footprint)。

信中提到,Xsolla 的大数据团队分析了员工在 Jira、Confluence, Gmail、聊天、文档、仪表板等应用中的活动,然后将那些行为路径不总出现在工作场景中的员工标记为“没有生产力的员工”。

在技术社会中,想要追踪一个人的网络活动是很容易的。此前,许多企业会通过社交媒体筛选潜在的员工,员工也会经营自己的“赛博形象”以传递好的形象,大家似乎都为企业考察员工的数字足迹投出了一张“赞成票”。

但当事情发生在裁员这一动作下,或许才会发现,数字足迹在职场的应用,正释放出了三个危险信号:

1.模糊生活与工作的隐私边界。涉及 150 人规模的员工不知道自己正在被 AI 跟踪,并且网络活动的“蛛丝马迹”都可能被引入考核标准,还是很让人恐惧的。

2.算法“黑箱性”缺乏说服力。通过数字足迹的可以分析判断出该人的性格特征,这在招聘时可作为加分项,但裁员需要明确的“不胜任工作”的认定标准,算法“黑箱性”让裁员这件事充满了不确定性,难以服众,容易引发心理失衡的报复事件;

3.缺乏对“幸存者”指导意义。一次成功的裁员,不仅仅在于将部分员工开除,还要让“幸存者”做好对新任务的准备、了解持续发展的规范,但通过分析数字足迹作出的裁员决定,却无法清晰地体现出被裁和网络活动的因果关系。

一个人可能因为总在工作时间登录社交媒体,被认为效率过低,但这一结果对于需要与用户频繁交流的创意型岗位就没什么价值,也让“幸存者”处于惶惶然不可终日的状态。

疫情之后,越来越多的企业开始推行永久制的远程办公,与此同时,如何评估员工的工作状态和生产力也成为难题。这个案例也驱使我们思考,个人该向企业让渡多少数字足迹访问权限,将成为未来劳动市场和法律法规的重要议题。

标准之谜

那么,通过数字足迹来衡量员工的敬业度和生产力,到底靠不靠谱呢?

我们知道,数字足迹只能跟踪到软件交互的时间和频率,对于流程化程度高的工作有直接的参考意义,但对于创造性工作就有点无能为力了。

一来,科技企业是典型的知识经济,涉及到大量的创意创新,这是十分个性化的过程。比如乔布斯喜欢打坐冥想,然后做出决策;有媒体报道过,当团队遭遇瓶颈时,张小龙就带着大家一起听摇滚乐;德国作家席勒缺乏灵感的时候,则喜欢吸几口烂苹里的味道…… 如果让 AI 来判断,这些都算“不务正业”。

二来,现有算法很难评估 OKR 与数字足迹之间的因果关系。英特尔公司创始人安迪・葛洛夫发明的 OKR 目标与关键成果法,已经成为谷歌、Facebook、Linked in、BAT 等科技企业广泛使用的工作模式,即先明确努力的方向和目标,过程中员工可以自主探索,只要保质保量地完成预定目标即可。这种方式能最大程度地激活员工的积极性,并且鼓励他们打破常规。这时候,用网络冲浪的蛛丝马迹来衡量员工的表现,是一种既过时又极其无效的标准。

标准的不合理性,也会直接影响裁员程度的正当性。我们知道,为了避免任意裁员,许多国家的法律法规都对裁员的程序公平有着严格限制,依靠 AI 算法裁员很难避免暗箱操作和违规裁员,正规企业为了避免陷入风险也不会草率上马相关算法。

人性之思

算法裁员,也证实了一个令诸多学者都担忧已久的问题:AI 应该增强人性,而不是减少或取代它,是这个时代面临的最大挑战之一。

数字时代,许多劳动者都不可避免地被“异化”,失去了对工作、生活和自我的控制,比如与系统争分夺秒的外卖派送员、被算法支配的网约车司机、沉浸在算法推送中不可自拔的短视频爱好者…… 本该具备人文关怀的裁员,也开始因算法加入而变得冰冷。

此次 Xsolla 创始人信中表现出的态度和语气令许多网友感到不满,他给被解雇的员工贴上“没有参与工作和无益”的标签,称“我真的相信 Xsolla 不适合你”。还分享了一份“被开除者名单”,直言不担心离职员工,也不担心这些措施是否会打击公司前进的士气。

根据算法直接把人裁掉,Xsolla 作出如此草率的决定,说明企业本身存在更大的问题。但用技术语言与员工沟通的做法,在科技公司却并不罕见。

2018 年就曾发生过某技术总监因不满辞退,怒删 9TB 关键数据,造成直接经济损失 225 万;2020 年 63 岁的亚马逊司机因算法评分较低而解雇。试图让算法“背锅”,拒绝以人为本的沟通,等待的不是被裁者的“反杀”,就是大众的群嘲了。

在裁员这一环节中,算法能提供的仅仅只是一个参考标准,更多工作则需要人性化的方式来进行。比如裁员沟通,就是一种更为人性化的方式。有研究显示,在裁员期间受到管理者积极人际待遇的员工,会较少表现出消极反应,对组织未来目标的认可也会增加。

高质量的对话,可以有效地避免员工的不公平感,从而把裁员的负面效应减少到最低限度。这是裁员活动中最不可控也至关重要的一个环节,也是展现企业文化和管理者个人素养的标尺。

马克思曾指出:我们的一切发现和进步,似乎结果是物质力量成为有智慧的生命,而人的生命则化为蠢钝的物质力量。

AI 越来越多地进入到企业经营的各个关键领域当中,但在直接与人有关的领域,仓促部署 AI 都是不合适的。刚刚浮现出的算法裁员问题,应该被快速提上技术伦理甚至法律规范的议程。

因为无论多强的技术、再多的数据,都无法穿越 0 和 1 的字符本身,明辨是非善恶。人机共生的必然方向:AI 越努力,人性的光辉越需要照耀到每一个技术角落。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注