如何监督“算法监工”

大数据
广东企业服务
一家大数据信息企业
最近融资:|2014-09-19
我要联系
脸书究竟是通过什么程序决定留下谁,又裁掉谁的呢?

图片

编者按:本文来自微信公众号经济观察报,作者:陈永伟,创业邦经授权转载,头图来源图虫创意。

脸书究竟是通过什么程序决定留下谁,又裁掉谁的呢?最初的一些报道对此给出的说法是:脸书是通过算法“随机”挑选的裁员对象。类似的报道出现之后,舆论哗然。在各种社交媒体上,出现了大量声讨脸书的声音。

01管人、裁人的竟然不是人

最近,一则脸书解雇60名员工的新闻登上了一些媒体的显著位置。在经济衰退的阴影之下,企业出于降本增效的目的辞退一部分员工是寻常的事情,即使裁员的企业是脸书这样的互联网巨头也不例外。为什么这个新闻如此引人关注呢?答案是,主持这次裁员的,并不是人,而是算法。

根据报道,此次被解雇的60名员工都属于劳务派遣性质,是脸书通过埃森哲奥斯汀分公司聘用的。此前,脸书和埃森哲签订了一个五亿美元的合同,用以雇佣负责内容审核和商业诚信的员工,此次被解雇的员工就是这批雇员的一部分。那么,脸书究竟是通过什么程序决定留下谁,又裁掉谁的呢?最初的一些报道对此给出的说法是:脸书是通过算法“随机”挑选的裁员对象。类似的报道出现之后,舆论哗然。在各种社交媒体上,出现了大量声讨脸书的声音。

之后,有一名被辞退的员工爆料,脸书的这次裁员并没有那么随机,而是严格按照绩效考核办事的结果。这位被裁员工表示,在他们为脸书工作期间,脸书会在他们工作的电脑上安装监控程序来监视他们的工作状况。一旦发现工作中出现了违规或偷懒,就会进行记录。例如,只要程序观察到他们的电脑有超过8分钟的不活跃,就会自动判定他们正在休息,并将这些“休息”时间进行累计。按照规定,每个员工每天有30分钟的就餐时间和30分钟的休息时间,因而员工每天的“合法”休息时间是1个小时。如果程序监控到的“休息”时间超过了1个小时,就会对员工进行警告,并扣除相应的绩效分数。类似的,如果员工上班迟到,或者出现了其他的违规行为,绩效分也会遭到扣除。在决定裁员时,这些平时积累的绩效分数才是真正的评判标准。

然而,相比于随机的裁员,这种随时监控员工的行为显然更加被人们厌恶——至少,前者多少还有一些“公平”性,而后者则是赤裸裸剥削的表现。

02职场管理算法越来越多

或许,那些在网上痛骂脸书用算法来决定裁员名单的人并不知道,那些被算法裁掉的人最初很可能也是由算法招进来的。作为一家在行业内处于突出地位的企业,脸书每天都会接到上千封的求职申请。要从如此庞大的申请人员中挑选出合适的员工,着实不是一件容易的事情。因此,脸书的HR部门从很早开始就借助算法来进行简历的初筛。如果是像内容审核等对技术要求不高的岗位,可能都不用劳烦HR出马,算法自己就可以做决定。被算法招入公司,在公司被算法监控,然后又被算法踢出公司,这倒也算是达到了某种意义上的“圆满”了。

用算法来充当HR和“监工”的,并不只有脸书一家。事实上,用算法来进行人力资源管理的做法非常常见。例如,早在2015年,亚马逊就针对其仓储管理开发了一套AI效率监测和评估系统。这套系统可以实时监控员工的工作状况。如果发现工人取货时间过长,或者出现了违规休息的情况,系统就会自动将员工打上“效率低下”的标签,并对其给予相应的警告和处罚。根据TheVerge的报道,在2017年到2018年期间,亚马逊的某个分拣中心就有约300名员工因被算法判定为“效率低下”而遭到解雇,这个人数已经占到了该分拣中心员工数的12%。当然,除了亚马逊、脸书这种巨头级别的企业外,很多规模相对较小的企业也开始使用算法来管理员工。例如,去年新闻就有报道游戏行业支付处理公司Xsolla使用算法裁掉了150名员工。

在国内,类似的做法也正在变得越来越常见。比如,2020年,一篇《外卖骑手,困在系统里》的文章在朋友圈刷屏。从这则报道中,我们已经可以窥得一些国内企业通过算法控制员工的现状。时隔两年之后,情况是否有所改善呢?或许,对于外卖等因被媒体报道而受到了监管部门“重点关照”的行业,答案是肯定的,但对于更多行业而言,情况则更可能是没有改善。事实上,出于节约成本、提升效率的考虑,已经有越来越多的企业开始学习脸书、亚马逊等公司的“先进经验”,开始用算法来招聘、监督、辞退员工。尤其是很多规模不算大的企业,其节约成本的动机更强,因而在对员工管理的过程中,反而会比大型企业更多地依赖于算法。例如,不久前,新闻上就爆出某地的一家互联网企业除了通过在工作电脑上安装监控程序外,还专门开发了可以监控员工心率、呼吸、坐姿、疲劳感等数据的“高科技坐垫”。其对员工的控制力度和范围,着实令人吃惊。

随着越来越多的企业开始用算法来管理员工,相关的创业项目也受到了追捧。在近几年,就有不少从事AI招聘、AI监控项目的企业拿到了大额的投资,而投资人中就包括了脸书、亚马逊等最早使用算法进行员工管理的巨头。看来这些巨头真的已经从自身的实践当中,体会到了这一赛道的前途无量。

03职场算法的问题

除了人们经常谴责的不近人情外,用算法充当“监工”的做法还会带来很多新的问题,而这些问题中的很大一部分,甚至是在被监控的员工们不知情的情况下产生的。

仍以亚马逊为例。依靠其在监督员工工作时的铁面无情,开除员工时的雷厉风行,亚马逊的仓储物流员工监督系统在业内赢得了昭彰恶名。然而,人们并不知道的是,仓储物流员工监督系统仅仅是亚马逊诸多员工监控程序中的其中之一。2021年时,美国非营利组织Coworker.org曾对市场上的劳动力监控软件的状况进行了一次调查。调查结果显示,亚马逊购买并拥有的劳动力监控软件总共有十多项——这个数字还仅仅是亚马逊从第三方供应商那里购买的软件数,不包括其自研的产品。这些软件搜集的数据可能决定着员工的职场命运,而员工甚至可能并不知道它们的存在。由于这些软件中很多是由第三方企业提供的,因此亚马逊员工的数据也很可能就在不知不觉泄露到了这些第三方企业手中。但令人遗憾的是,当自己的信息受到侵犯时,这些信息的所有人几乎毫不知情。

值得注意的是,乐于使用这些监控软件的,并不限于亚马逊这样“剥削”沉重的企业。根据Coworker.org的报告,即使被称为“职场养老院”的谷歌,也购买了七种职场监控软件。这意味着,尽管谷歌从名义上并不强迫员工辛勤工作,但事实上,如果员工对其信以为真,在工作中自由散漫,那么偷偷在一旁监视的程序也会将他们的行为记录在案,并作为秋后算账的依据。而那些与工作之外的信息,也可能在这个过程中一并被搜集。

04应用职场算法的利与弊

随着越来越多的企业开始用算法管理自己的员工,关于其利弊的讨论也引发了更多的讨论。

客观地说,在职场管理中应用算法,其本身是可以带来很多好处的。对于企业主而言,这种做法可以大规模节约管理的成本。而对于员工来说,如果算法本身设计合理,那么它就可以有效地排除各种主观因素的干扰,实现考核的公平。在关于脸书用算法裁员事件的评论当中,有一条是这样的:“这样做除了可以保证员工不用再费心去讨好自己的领导外,我几乎看不到任何用算法来管理人的好处。”虽然这个评论明显是在讽刺脸书的做法,但客观上也道出了实情。

在现实中,职场的人情关系十分复杂。在人治为主的组织,员工绩效的考评常常被少数的几个人掌握,这样就可能造成不公平。而如果用算法来替代人执行监督和考评,就可以很好地解决这个问题。除此之外,在职场当中,基于身份的歧视也是一个难以解决的问题。具有某些身份(如籍贯、性别、民族)的人,经常会在职场中遭遇很多不公。过去,由于对人员的管理都是由人进行的,因此这种偏见很难被排除。而如果用算法来管理职场,就很容易在招聘和管理的相关算法中排除上述因素的干扰。从这个角度看,算法其实只是人们手中的一个工具。如果应用得当,它是完全可以被用来改善职场状况的。

所以,真正的问题其实不在于算法本身,而在于现在的企业用算法干了不对的事。事实上,像脸书、亚马逊那样用严苛的算法来管理员工,就是企业出于自身利益的考虑,对员工进行了高强度的剥削和压榨。从本质上看,这和传统的“血汗工厂”做的并没有什么不同,唯一的区别仅仅是它们把原来由真人担任的监工改成了更为隐秘的算法。产生这种情况的根源,是企业和雇员在劳动力市场上的不对等地位。尤其是在当前就业形势日益严峻的大背景下,用人单位正掌握越来越大的市场力量。在很多场景下,应用算法来监督、筛选和压榨员工,其实可以被看作是这些企业在劳动力市场上滥用其市场力量所产生的后果。

05难管,但不得不管

随着算法使用的日益频繁,其产生的问题也开始被越来越多的人所重视。过去几年中,就出现了很多与算法相关的案例,比如我们熟悉的“大数据杀熟”、“算法合谋”等问题,都是与算法相关的问题。

不过,从总体上看,目前已经被正式处理的算法案例大多集中在企业与其他市场主体之间,而类似用职场算法来监控员工这样的问题则相对较少受到关注,得到处理的案例也比较少。其原因是多方面的:第一,对于员工,用人单位享有管理权。据此,用人单位当然可以在一定程度内对员工的行为进行监控。第二,对员工使用的生产工具和在工作时间创造的成果,用人单位享有财产权。为了对这些财产的安全进行保护,用人单位也必须对员工的行为进行监督。第三,对员工的必要监督,也是企业履行其责任和义务所必须的。例如,企业需要保证员工所处环境的安全性,以及不受他人的侵犯和伤害。而要做到这些,就必须进行相应的监控。

基于以上原因,企业在工作时间内监控员工确实是具有一定的合理性的。而在国内外的一些相关案例中,监控员工的企业也经常会用上述这些理由来论证自身的合理性。这就造成了人们很难在企业是否应该监控员工、监控到什么度之间找到一个合理的边界,而基于算法的监控是否应该被允许,也就成了一个很难说清楚的问题。至于在算法监控的背后,有多大程度上是源自于企业滥用自己在劳动力市场上的市场力量,这一点则更难搞明白。

但是,仅仅因为用算法监控员工是企业内部的事情就可以不闻不问了吗?答案当然是否定的。事实上,用算法监控、考评员工,甚至决定员工奖惩、去留的行为,可能会涉及很多不得不重视的法律和伦理问题:

首先,这可能构成对员工人格权的损害。正如我们看到的,企业在监控员工的过程中,会搜集大量有关员工的个人信息和行为数据,而这就可能将很多用户不愿透露的隐私造成意外暴露。如果企业对这些信息保存不善,还可能引起它们的意外泄露。与此同时,企业在搜集了员工的信息后,通常会基于这些信息对员工给出相应的奖惩。但由于算法设计的局限性,这些奖惩通常会伴有一定的歧视性。除此之外,当人们被置于一个时刻都被算法监控的工作环境中时,还很容易陷入焦虑,引发各种负面情绪,这就可能构成对一般意义上的人格权的侵害。

其次,这可能会侵犯到员工的通信自由和通信秘密。一些用人单位不仅会用算法监控员工的行为,还会用算法获取他们在邮箱等通信工具中的通讯信息。这样的监控,就会在侵犯员工人格权的同时,侵犯其通信自由和通信秘密。

再次,这还可能意外引发对员工人生和财产安全的损害。不少用人单位搜集的员工信息非常详细,除了其工作期间的数据外,还包括类似家庭住址、行程轨迹等十分敏感的信息。如果这些信息保管不善,落入不法分子的手中,就可能影响员工的安全。

基于以上几点原因,虽然要说清楚用算法监控员工行为的是非并不容易,但这个问题本身必须引起我们的重视。为了规范职场秩序,协调好劳资双方的矛盾,必须将企业的类似行为纳入相应的规制体系当中。

06如何规制职场算法

那么,对于职场算法监控问题的规制应该从何入手呢?从国内外的经验看,这主要涉及三条路径:

第一条路径是从个人信息保护入手,通过明确员工对其隐私和个人信息所保有的权利,并从此出发对企业的算法监控行为划定界限。

现在,国内国外的相关法律都从个人信息保护角度对企业搜集劳动者数据提出了一定的原则。这些原则包括目的限制原则以及“合理隐私期待”等。

所谓目的限制原则,指的是企业在搜集员工的信息时,必须有明确、合理的目的,并且其搜集的信息应当以满足管理目的的最低限度为标准。例如,欧盟《通用数据保护条例》的第5条(b)就规定:“个人数据的搜集应当有具体的、清晰的和正当的目的,对个人数据的处理不应当违反初始目的”;而第5条(c)则规定:“个人数据的处理应当是为了实现数据处理目的而适当的、相关的和必要的”。而我国的《个人信息保护法》也在第6条规定:“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。”“收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息。”

所谓“合理隐私期待”,指的是如果公民对某场所或物品具有主观上的隐私期待,则政府执法人员不得对这些场所或物品实施搜查或者收押。这个原则最早出现在1967年的“凯茨诉美国政府案”(Katzv.UnitedStates)。在该案中,凯茨由于其使用的公共电话亭被联邦官员窃听而将后者告上了法庭。最终,美国最高法院最终认定“保护人民而非保护场所”,即只要个人的行为意愿并非想要公之于众并刻意避免引起注意,即使发生在公开场合也应该被保护。目前,这个原则已经被欧美等国的法律条文和诉讼所吸收。

此外,各国在相关法律中,还规定了对于个人数据和隐私的利用不得被用于歧视性的用途,还有部分国家的法律中,直接对雇主可以获取的雇员信息进行了规定。根据以上这些原则和规定,就为企业可以通过算法搜集的数据划定了一个范围。在这个基础之上,企业利用算法来监控员工的行为也就得到了一定的限制。

第二条路径是从算法规制入手。这个路径主要强调要打开算法的“黑箱”,并对算法的使用进行一定的规范。关于这一点,各国也都有了一定的探索,其中以下几条是比较有共识性的:

首先,应该设法让算法保持透明。这包括两个层面:第一个层面是针对算法的应用对象,即企业的员工透明。这一点要求企业在使用算法招聘、监控员工,以及决定对员工进行奖惩之前,必须向员工进行相关的说明。说明的内容应当包括算法使用的范围、算法的输入、输出和作用机制,以及算法可能对员工的权利义务产生的影响等。只有当用户知晓这些信息,并同意使用算法时,才可以进行使用。第二个层面是针对监管部门透明。这意味着面临监管部门的检查,企业应当主动披露其算法的运行机制。相对于对员工的披露,对监管部门的披露应该更为详细,以便相关专家进行评估。

其次,应当对算法在员工管理中的应用进行一定的限制。对于一些可能排除或限制员工合法权益的领域,算法的管理应当考虑予以限制。例如,那些可能剥夺用户休息时间,以及上洗手间时间的算法,应当慎重使用。

再次,在算法被投入使用前,应当进行预防性的评估。

最后,应当对用人单位不当使用算法,从而给劳动者造成的损害和不良后果进行问责。目前,我们依然处于弱人工智能阶段,从本质上看,算法只是人进行决策的一个工具。因而,算法造成的后果依然要由使用算法的人来承担。

第三条路径是对劳动力市场的反垄断。如前所述,企业能够用算法来监控、剥削员工的前提,是其和员工之间存在着一种不对等的地位。作为劳资双方,这种不对等关系在一定范围内是正常的。不过,如果企业滥用其在劳动力市场上的市场力量来强化这种不对等,就是另外一种情况了。这时,监管部门就可以依托《反垄断法》或者其他的手段,对企业的违法行为进行处理。

需要指出的是,以上的三条应对路径并不是独立的或矛盾的。在实践当中,如果可以将这三条路径进行配合,就可以更有效地规范算法在职场中的应用。

07DAO:另一条道路

除了加强监督的力度之外,应对职场监督算法带来的各种问题的另一条思路或许是从组织的内部进行突破。

随着Web3.0时代的到来,一种新的组织形式——DAO正在得到越来越多人的重视。所谓DAO,是“去中心化自治组织”(Decentralized Autonomous Organization)的简称。这个概念最早来自于EOS的创始人丹尼尔·拉里默于2013年提出的一个类似概念:“去中心化自治公司”(Decentralized Autonomous Corporation), 即 DAC。2014年,以太坊的创始人维塔利克·布特林在此基础上提出了DAO的概念。

布特林对DAO的定义是从三个维度展开的:第一个维度是组织拥有的资本究竟是内部资本还是外部资本。这里,所谓的内部资本指的是组织的资本都属于组织的成员,而外部资本指的则是组织资本来源于外部。第二个维度是组织的中心究竟是算法还是人。第三个维度是组织的边缘究竟是算法还是人。在布特林看来,一个DAO应该是基于内部资本的,并且算法居于组织的中心,而人则处于组织的边缘,其行为要遵从算法的规定。

乍看之下,布特林所定义的DAO所指的就是那些正在用算法来监控员工的企业——很显然,在这些公司中,算法是居于中心的,而员工则是围着算法转,接受算法的监督和领导。但事实上,DAO和这些企业存在着本质的区别:其一,由于DAO的资本是属于组织成员的,因此所有的成员本质上都是DAO的主人,他们之间并不存在着隶属与被隶属的关系,因而也就不存在着剥削和被剥削。其二,虽然在DAO中也是算法指导着人,但这些算法背后的规则却是由组织成员自身通过民主程序制定的,因而组织成员遵从算法本质上就是服从自己。其三,在那些用算法监督员工的企业中,算法所扮演的是一个强制劳动的“监工”角色;而在DAO当中,算法只是提供一套与成员利益“激励相容”的激励方案。成员只需要按照这套激励方案形式,就可以在实现自身利益最大化的同时达成组织的目标。

从实践上看,现在已经有很多的企业(尤其是一些投资公司和律所)对自己进行了DAO改造。在改造之后,这些组织的管理和运作方式都从基于人改成了基于算法。如果仅从算法所起的作用看,它们要比那些用算法监督员工的企业走得更远。但从各方面的反馈看,似乎很少有人抱怨DAO用算法用得过度了。其中原因,固然是因为在DAO组织当中,很多都用了区块链等技术,足以保证组织成员的数据和隐私,但更重要的是,DAO很好地调和了成员和组织之间的利益冲突。因此,如果在未来,人们可以通过类似DAO的组织创新,处理好以上这些矛盾,那么用算法来监控、调节人,或许也不会是一个不可接受的做法。

本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅