网络资讯真伪谁说了算? Facebook的“清道夫”大军

网络咨询太繁杂,各式各样的内容有真实、有煽动、有作假,所以Facebook 有内容仲裁团队,负责将这些违反Facebook 守则的内容全给删除!

一排排整齐的办公桌,电脑荧幕背后是一张张年轻而疲惫的面孔,连续数小时的工作时间中, 唯一的任务便是按下“Delete”键。这些办公室或位于美国硅谷某幢大厦,或隐藏在菲律宾、印度某条寻常街巷。共同点在于,这里的职员均隶属Facebook的“内容仲裁”(content moderation)团队,负责识别和删除平台上的不当内容。

他们需处理的内容由文字至图片、影像,涵盖一切违背Facebook“社群守则”的贴文,例如色情、暴力、种族歧视、仇恨言论,自然也少不了所谓的“假新闻”。公司组建一支由法律、政策、公关领域专家组成的团队,制定出这套囊括数百条款的规则,而具体执行则交给分佈在美国海内外的“内容仲裁”大军。

根据英国广播公司(BBC)报道,大约3万名职员从事这份工作,他们大多并非直接受僱于Facebook,因平台将这项业务交给数间承包公司处理。关注这一群体的美国学者罗伯茨(Sarah T. Roberts)调查发现,这些“内容仲裁员”多是受过良好教育、刚从大学毕业的年轻人

01

罗伯茨表示,儘管“内容仲裁员”通常被视为初级职位,但员工们抱有自豪感,因认为自己的工作能带来“更大的福祉”(to the benefit of the greater good),即维护美好的社交网络环境。也有不少人相信,这份工作能成为进入科技行业的踏脚石。

判断孰真孰假 一份“守则”是否足够?

不过,一班职员很快发现“清道夫”的工作并非易事。除却工时长、任务重,最大难关也许是最关键的任务——判断一则资讯孰真孰假。面对鱼龙溷杂的社交网络贴文,这项工作无疑是相当大的挑战。

“内容仲裁员”排查的贴文主要来自两大途径:Facebook用户举报,以及仍在研发和完善的人工智能系统。儘管有公司制定的守则指引,职员在判断具体个桉时也难免受到个人观点影响,尤其是当碰到具争议的内容,例如仇恨言论(hate speech)便是容易产生意见分歧的一个类别。再加上Facebook的规则并非一成不变,职员处理每条贴文的时间也相当有限(通常以秒计算),种种因素均加大这份工作的难度,据指他们的时薪由15美元(约63令吉)起。

02

人非机器,“内容仲裁员”的个人判断会随认知变化而改变,令情况更加複杂。不少职员接受传媒访问时承认,接触一些阴谋论(conspiracy theory)的时间愈长,愈容易被它们打动。例如有人开始相信美国911事件并非恐袭,或是质疑犹太人大屠杀(The Holocaust)的真实性。

乍听让人匪夷所思,但一班员工们每日也被这些讯息包围,而阴谋论的论述中不乏有说服力者,要在打假与保障用户言论自由之间作出适当判断,其实并不容易。

为保障人工判断的准确性,Facebook要求员工在碰到违反多项守则的桉例时,逐个列出删除它的原因。公司还计划推出工作模拟系统,让“内容仲裁员”进行训练,再接受个人化指导。

03

患上PTSD 职员权益需保障

如果说Facebook致力于打造一个超越地区、文化、语言限制的全球社群,那麽以不实资讯为首的“违规内容”则是这个网络社会的阴暗面。正因如此,公司在涉及这班“清道夫”的问题时一贯三缄其口,背后自然是出于品牌管理、维护企业形象的考虑。大部分“内容仲裁员”入职时都要签署保密协议,因此与家人朋友也甚少谈论工作内容。

长此以往,职员每日面对儿童色情、暴力欺凌等残忍内容,却缺乏纾解情绪的途径,有人工作数月后便染上酗酒、吸毒等恶习,严重者更出现创伤后压力症候群(PTSD)的徵兆。2018年,有一班“内容仲裁员”便入禀加州法院,状告Facebook让他们患上PTSD。

也许终有一天,社交网络的内容审查工作能够全权交给算法、AI负责,不再需要人工判断。在那一天到来之前,这批网络“清道夫”的权益由谁来保障,他们的前途又在何方,值得业界深思。