编者按:本文来源微信公众号全媒派,作者腾讯传媒,创业邦经授权转载。
关于互联网注意力经济,Twitter、Medium和Blogger的联合创始人Evan Williams有一个非常尖锐的比喻,他将注意力比作一场“车祸”。2017年,在接受《纽约时报》采访时,他认为用户的喜爱和分享使其一步步走向极端,而那些经受训练的算法看似善解人意,其实却是冷酷无情。
他说,浏览网页,就像是在公路上开车,“你无意中目睹了一场车祸,然后你关注了这则事故”。不同的是,当你在网页上这样看完一场车祸后,算法将为你提供更多的车祸新闻。他们这样做的最主要目标就是,“吸引和保持你的注意力”。
当我们关注那些互联网大平台时,能很容易地看到这些“车祸”留下的累累残骸:YouTube的推荐算法,危害了儿童的身心健康;谷歌搜索亚马逊森林大火的相关报道,比资讯内容排序更靠前的是电商Amazon的推销广告;那些因为Facebook和Instagram的推荐算法而进行病毒传播的应用,则给我们的数据安全带来了灰暗。
考虑到上述种种,现在,很多依赖廉价算法替代人工劳动进行内容分类和推荐的平台,正在开始引入一种解决方案:人工。
事实上,Spotify、Google Play 、YouTube Kids、LinkedIn、HBO和Apple News都已经开始强调“人”的参与,将其作为一种营销策略。最近,Facebook也加入了这一阵营。
本期全媒派(ID:quanmeipai)带来独家编译,带你了解Facebook最新的策略调整,看一看重新被引入角力场的“人”,和这些年来变动不居的Facebook。
被重新引入的“人工”
在今年8月,Facebook宣布将重新引入人工编辑来管理新闻标签。
Facebook非常明确地强调和区别了人类编辑和算法的不同职责和分工:人工编辑将负责审核和选择平台精选文章、突发新闻,除此之外,其余大部分内容将由算法根据已有用户数据进行推荐和分发。
对人工编辑的重新引入,被视为Facebook重新尝试启动新闻项目的新机会。据了解,该公司目前正在寻求与媒体建立合作伙伴关系,从而有权推广《纽约时报》、《华尔街日报》、《华盛顿邮报》等媒体的文章。根据《华尔街日报》的消息,该谈判仍在进行中。
引入“人”的视角,由人工进行新闻标签的管理,对内容进行平衡,被视作Facebook对长久以来饱受指责的平台把关和追求注意力经济的一种补偿策略。
Facebook发布这一消息之际,恰好是FB公布自身保守偏见审计结果报告之时。该报告调查了133位保守派立法者和利益集团人士对FB的评价,该人群曾对Facebook应对平台右翼内容的举措表示过担忧。
在2016年,Gizmodo的一份报告披露,Facebook要求热门话题团队(Trending Topics Team)的人工编辑对保守派的新闻进行压制。针对这一指责,Facebook回应称,自身将认真对待“偏见指控”,并坚持称,其编辑原则不允许将一种政治观点凌驾于另一种观点之上。
类似这样的“偏见指控”,使得Facebook多年来面临着艰难的舆论处境。多年以来,扎克伯格一直标榜算法是阻止仇恨和虚假新闻的有效手段。这一观点背后的关键信息是,Facebook认为,人本身具有偏见和主观性,因此在过滤仇恨言论等工作中,需要较少的人力参与。
“这表明,我们需要更完善、复杂的人工智能来帮助我们标记特定内容。”在去年的某次国会听证会议上,面对委员会指出的十几条保守派内容被错误删除的例子,扎克伯格说道,Facebook将更多地依赖人工智能来提供解决方案,他请求委员会注意到,“在人类发现之前,人工智能就已经检查出并且标记了ISIS相关内容”。
后来,扎克伯格似乎对这一看法有所改变,他强调人类在调节、补充算法中有着独特作用。
Facebook最近提出的新闻标签项目,强调了人的作用,认为人类可以制止未经证实的内容广为传播。但是在讨论内容审核时,扎克伯格也强调了人工智能的巨大作用。有观点认为,这可能是为了减轻公众对于人类内容审核工作的批评(参见全媒派往期编译《那些为机器打工的Facebook神秘审核员》)。
算法&人工,都只是“稻草人”
多年以来,为了发挥自身的优势,Facebook有选择地强调或者不强调“人”在其算法系统中的作用。
当非盈利新闻机构ProPublica指责Facebook允许广告主购买针对“犹太仇恨者”的广告时,Facebook表示,自身的算法没有过滤仇恨言论的编程设置;当算法推荐带来了冰桶挑战而不是“黑人的命也是命”(Black Lives Matter)抗议活动获得病毒式传播时,Facebook又重新引入了人的视角来判断新闻的“相关性”……
“Black Lives Matter”是美国近来因为一连串警察针对性执法过当而造成平民死亡的事件所卷动出来的运动,最初源起于2012年2月佛罗里达的17岁非裔青少年被警察枪击死亡。
人类或者算法,似乎只是被平台根据情势,被推出或者被忽略。
从前,在Facebook解雇人类编辑之后,算法接管了人类的工作,直到假新闻、群体极化等现象受到关注后,作为一剂解药,人类角色又被再次引入和强调。但需要注意的是,人类和算法的简单二分法是错误的,人类和算法并非全然割裂。因为算法必须基于人的数据,在这个意义上,可以说人类在训练着算法,算法在学习着人类。哪怕是强调“人”的主体作用的新闻标签项目,其实也体现了这种互动。
Facebook告诉《纽约时报》,它希望算法最终能够了解人们到底如何“处理”新闻。尽管又强调了人类的作用,但其实背后隐藏的仍是算法统治的决心,只不过它没有向媒体公开这一点罢了。
热门话题(Trending Topics)从反面说明了,如果我们希望通过人工克服算法之弊,其实过于天真。从表面来看,的确是人类编辑决定了哪些是所谓的热门话题,但其实,它们是从数条热门新闻中被挑选出来的。而这些备选新闻的产生,本质上依然仰赖着算法分发或推荐。
每当发生一次丑闻,人类或者算法就会成为众矢之的,他们其实都是稻草人——虚假的攻击对象。对于所有人而言,强调算法而不是人类应当为互联网的负面负责,是非常有用的掩护。在著作《如果……那么》中,研究人员Taina Bucher认为,将系统表述为完全由人类或算法控制的,都是一种“知识托辞(Knowledge Alibi)”,在这种偏差下,技术被描述为独立的、复杂的,而人类则是懒惰的、不顾后果的。
为了推卸责任,公司将批评者的注意力从算法所拥有的代理权限转移到了人类在其中的作用上,在这一过程中,公司制造了“算法巨人”和“人类弱小”的形象。(但这种人的弱小、无力,何尝不是这些技术公司制造出来的呢?)对算法的偏见并不能通过加深这种人与算法的对立得到解决。当人们担心算法可能存在的偏见时,他们实际上应该担心的,是在其中暗藏着的人类偏见。
Facebook本质仍是追求利润的企业
当我们看到Facebook仍然在使用各种“策略”,通过突出或者淡化算法、人工的角色来帮助自己更好地运行整个系统时,也许会感到一些失望。在成立15年之后,Facebook经历了一系列丑闻、喧嚣、作证和道歉,人们可能会认为,Facebook的用户将对该公司的业务运作有相当的了解。
但是,事实上并没有。皮尤一项新的研究表明,经过这么长时间,大多数用户仍然不知道Facebook采集了自己的哪类信息。
在研究中,皮尤研究中心的工作人员给近1000名美国人打了电话,询问他们是否知道Facebook为几乎所有活跃用户保留了“特征和兴趣”数据列表。74%的受访者说他们不知道这个列表的存在。
在饱受假新闻、谣言传播机的指责后,Facebook曾向外界表现出了进行事实核查的决心。在2016年大选后,FB与众多第三方机构就打击虚假消息建立了合作关系。今年2月,事实核查机构Snopes宣布结束了与Facebook的事实核查合作关系。据Snopes网站称,Facebook在2017年为它的事实核查工作支付了10万美元。当时,美联社也向媒体表示,它正在和Facebook进行谈判,并期待在2019年可以为Facebook进行事实核查。
截至2019年2月,Facebook发言人透露,当前有34家合作伙伴参与了Facebook的事实核查合作计划。Poynter的一份报告指出,像Snopes一样,每家机构每年从Facebook获得的事实核查费用也是10万美元。而据哥伦比亚大学Tow数字新闻中心披露,部分合作伙伴拒绝了这笔来自平台的费用,它们认为,如果接受了这一报酬,将破坏自身独立性。
Facebook支付的金额在增加,但也变得更加多变。每进行一次事实核查,事实核查机构就会得到报酬,但每月只能得到一定数额的报酬。流向Facebook所有34名事实核查机构的资金总额可能仍是几百万美元。
也就是说,Facebook愿意在事实核查上花更多的钱,但不会花太多。
目前,Facebook监管着可能是全球最大的人类注意力市场。一次又一次,它在不断地给这个市场修改、增添了新的规则,却似乎没有考虑玩家该如何应对、适应这种变化。
在Facebook致力于发展视频内容时,它曾通过改变算法推荐和流量引导的方式,刺激诸多媒体纷纷入局,投入大量的人力和金钱为平台内容增加供给。许多公司跟随着“转向视频”的步伐,一大批记者和编辑被解雇。但是随着视频浏览量的下降,Facebook又一次做出了调整,很多媒体又随之解雇了大量的视频制作者。诸如此类因为Facebook算法调整,媒体患得患失的案例还有很多。
在过去,我们倾向于认为,Facebook忽视了其巨大的体量和随之而来的责任,因为疏忽大意而产生了意外的系统性后果。在今天,我们似乎应该明确,不管Facebook承载着多少期待和祝愿,但它本质上,仍是一个追求利润的企业。
本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。