• 维护主题插件开发者利益,本站取消所有破解模版获取方式!
  • 最美的贴图库,分享最美的那一刻我要分享
  • 手把手教你申请QQ公众帐号,公众空间
  • 简单的PHP域名授权函数
  • 免插件实现Adblock检测,全网通用
  • Phuong My 2015时尚独特女性魅力
  •  8个月前 (04-19)  慢生活  技术宅 隐藏边栏 评论关闭  334 
    文章评分 0 次,平均分 0.0

    Facebook们的潜规则:看不见的内容过滤,正在改变言论自由的模样

    如今,YouTube 的一亿多用户每分钟上传 400 小时的视频内容;而每个小时,Instagram 的用户可以点出 1 亿 4600 万个「赞」,Twitter 的用户发出 2100 万条状态。去年八月,扎克伯格在自己的 Facebook 上宣布自家网站已经通过了「一个重要的里程碑:第一次,Facebook 的当天在线人数突破十亿。」

    用户在这些互联网平台日夜不停地产生内容,对标榜民主和言论自由的西方,实则在暗处对这些内容进行着审查过滤。

    暗藏于自由之下的商业秘密

    在互联网行业最为发达的美国,内容审查在各家公司独立运作着,但其细节却通常被隐藏在公众的视野之外,对公众和它们的用户来说,这是商业机密。尽管民间长期呼吁互联网平台内容过滤的透明公开化,这些网络社交平台却并没有公布其内部内容审核的指南和细节;也没有大的平台作出公开指引。负责内容审查工作的员工被公司要求签订长期保密协议,无论在职还是离职都不能公开具体工作细节,因此几乎没有人知道这些平台是如何制定内容审查政策。

    Facebook们的潜规则:看不见的内容过滤,正在改变言论自由的模样

    对于目前被问及的内容审查问题,Facebook 社区支持部门的负责人 Monika Bickert 和 Ellen Silver 指派了安全经理 Charlotte Willner 出面接受采访。然而,Facebook 和 Pinterest ,以及 Twitter、Reddit 和谷歌都拒绝提供其过去或当前的内部审核政策和指引。同时,Twitter、Reddit、谷歌也拒绝了其他多个采访的要求。当被问及 Twitter 的信任与安全部门的操作,他们的发言人只写了以下这些话:

    “我们设定的规则是为了让我们的用户能够在一个安全的环境下创建和分享各种各样内容。当用户发布的内容违反了我们的规则时,我们将暂停他的账户,违规的内容包括暴力威胁和有特定的虐待行为。我们基于用户上传的内容评估和不断完善我们的政策,同时还与其他安全组织合作以保证我们能够实践这个行业的最佳做法。”

    一些互联网公司的内容审查从业者表示,企业对这些问题三缄其口的原因有两个:一方面,高管们想把这方面的技术专利保护起来,同时避免承担一些责任;另一方面,他们希望在如今快速变化的情况下能够有足够的空间灵活应对,以及保护员工免受公众的监督和威胁,避免平台陷入和某些用户对公共政策的博弈中去。

    西方网络世界自由的源头

    在发展的初期,互联网行业提出「信息想要实现免费」这个极具远见的目标。互联网被期望成为激发人们积极性、创造性潜能的东西,而不是提供给虐待狂、猥亵儿童者、强奸犯、或极端种族主义者的工具。但完全免费的互联网却迅速成为一些令人发指的内容散布的地方,而这些内容的发布者和支持者仿佛在互联网找到了美好归宿。

    Facebook们的潜规则:看不见的内容过滤,正在改变言论自由的模样

    这个早期阶段,从上世纪 60 年代持续到 2000 年,被哈佛大学伯克曼互联网与社会中心的前执行董事 J.G.Palfrey 称为「开放的互联网」。1996 年通过的「通信内容端正法案」( Communications Decency Act)的 第 230(c) 节,免除了提供内容共享服务的公司对用户发布内容的责任。这个法案也被称为「好心人保护法」。

    230 节的具体内容是:“任何一个交互式计算机服务的提供者或使用者,都不应被视作另一内容发布者所发布的任何信息之发布者或言论者。”这条规定把言论自由的决定权交到个人手中,有效地免除了平台所有内容不违反联邦法律的责任,如儿童色情。所有用来监管传统媒体的那套将不再适用,也没有诽谤的风险,实际上,没有规则。

    互联网公司对自由的「反叛」

    经过初期的野蛮生长后,一些公司在 2000 年开始采取更积极的态度。比如 CompuServe (美国最大的在线信息服务机构之一)开发了最早的「用户行为规范」,用以禁止种族主义言论,原因是有个大屠杀修正主义立场的用户开始在它的一个热门论坛里填充反犹主义的评论。2001 年,eBay禁止了平台上的纳粹和3K党的纪念品和其他带有种族、宗教和民族仇恨符号的内容。民主国家联手封杀儿童色情,行业和政府通过协调一致的努力来禁止那些倒胃口的内容。

    在接下来的十年中,公司和政府打磨出第一代审查工具,并逐步细化政策,一个独立于现实世界、不受法律、政策监管的自由网络空间的神话崩溃了。

    Facebook们的潜规则:看不见的内容过滤,正在改变言论自由的模样

    如今,在行业领导者如 Facebook、Pinterest、YouTube,其审核进程在大幅度提高;在其他一些平台可能还处于滞后十年的情况。各个公司的之间的审查是相互独立的,审查系统的联手构建还处于早期阶段,由此,这些不同的内容审查标准反映了不同用户和创始人的内在价值取向。

    一些内容审核专家推举 Pinterest (美国知名的图片分享网站)为行业内容审核方面的领先者。微软的 Tarleton Gillespie ,也是即将出版的《在网络时代的言论自由》一书的作者,称 Pinterest 做到了很多社交媒体公司没有做到的事情,就是在平台和用户之间、私人企业和公众之间的鸿沟上搭建了桥梁。并且 Pinterest 的审核人员得到了充足的资金和支持,据说 Pinterest 把内容过程对用户透明化造就了行业内前所未有的突破。例如,Pinterest为了说明这个网站的“可接受的使用范围”而公开了具体的图片案例,以帮助用户更好地了解该平台的内容指南和帮助维护这些内容的版主做出决策。

    内容审查者的迷思

    这些躲在暗处的内容审查者,在工作过程中积累和刷新着审查标准。对于同一标准的理解,每个人会有不同的看法,一些内容的审查结果难免发生争议。在早期 YouTube 的内容审查中,一条高度指引他们的原则是:“我能够和我的家人分享这个内容吗?”

    Facebook们的潜规则:看不见的内容过滤,正在改变言论自由的模样

    如今,这些互联网平台在标准制定、算法识别和人工审查方面都取得了长足的进展,却仍无法完全消除这些争议。Facebook 的 Bickert 表示:“我们对有一套适用于全世界的内容标准,这有利于维护我们社区的全球性,因为它允许人们分享的内容跨越国界。同时,保持一套统一的标准具有挑战性,因为世界各地的人们对什么是适合在网络上分享的内容可能会有不同的想法。”(咳咳,所以你知道为什么中国不能用 Facebook 了吧)

    然而,这些平台的内容审查者,在公司利润、社会责任、人权的矛盾交集之下不安地生存着,他们对言论自由、政府争议、社会规范的建立、用户安全和隐私的定义又起着举足轻重的作用。可是什么标记的内容应该被删除?谁来决定什么内容可以在这些网络平台发布,为什么?什么是新闻价值?这构成了威胁吗?这造成了伤害吗?什么时候需要执法人员介入解决?他们也没有答案。

    Facebook 第一个用于内容审查的「标准」创建于2009年,包含了 15000 个单词。在 2008 年-2013 年间主管 Facebook 内容政策方面的 Dave Willner 说:“当时这份「标准」企图是无所不包的。”只是 Williner 也有疑问:如果 Facebook 是为了让世界更开放,你为什么要删除这些内容呢?

    微信公众账号:技术宅
    分享互联网科技新闻轶事,各种数码使用小技巧。
    760人已关注
    切换注册

    登录

    忘记密码 ?

    您也可以使用第三方帐号快捷登录

    切换登录

    注册

    文章目录