Facebook:一季度清除190万个恐怖主义相关内容

  新浪科技讯 北京时间5月16日早间消息,Facebook表示,人工智能正在帮忙清理旧帖子中的不良内容。

  Facebook称,今年第一季度,一共对190万个与基地组织、伊斯兰国(ISIS)等恐怖主义有关的帖子采取了强制措施。加强监督通常意味着用户帖子被删除、帐户被暂停,或用户被禁止登陆Facebook。此举可以改善机器学习,使该公司找到更多与恐怖主义相关的图片,无论它们是新上传的,或是已在Facebook平台上存在了比较长的时间。

  报告称,在上一季度,97%与恐怖主义相关的帖子是由Facebook自己找到的,而不是来自用户的举报。Facebook将该数据作为第一份《社区标准执行报告》的一部分,该报告描述了Facebook公司在去年10月至今年3月间采取的内容监督行动。

  报告中的其它内容包括:

  - 图片暴力:包括图片暴力的帖子占到总浏览量的0.22%-0.27%,从上个季度的0.16增长到0.19%。该公司对340万个帖子采取了行动,高于上个季度的120万个帖子。暴力帖子的增加似乎与叙利亚冲突加剧成正比。

  - 裸体和性:有关裸露或性的帖子占到总浏览量的0.07%-0.09%,从上个季度的0.06%提高到0.08%。该公司对2100万个帖子采取了行动,与前一季度基本持平。

  - 仇恨言论:Facebook对250万个违反仇恨言论规则的帖子采取了行动,比上个季度增长56%,其中62%的帖子是被用户举报的。

  - 垃圾邮件:Facebook对8.37亿个垃圾邮件帖子采取了行动,比上个季度增长了15%。该公司表示,垃圾邮件全部是由公司内部自行发现的。

  - 虚假帐号:在Facebook网的每月用户中,3%-4%是虚假帐号,该公司表示,在今年第一季度删除了5.83亿个虚假帐号,低于上个季度的6.96亿个。

  Facebook公司在报告中指出,计划每年至少发布两次相关数据,“主动承担自己的责任。”报告中说,“这个指南解释了我们的方法,让公众能够理解我们共享数据的益处和局限性,以及我们如何通过改进方法使数字发生变化。我们致力于做得更好,并更公开地让公众了解我们的努力,向前迈进。”

  Facebook产品管理副总裁盖伊·罗森(Guy Rosen)在接受记者采访时表示,该公司仍在努力开发精确标准,以辨识社交平台上经常出现的仇恨言论。目前,该公司的机器学习系统在识别仇恨语音方面仍存在困难,因为计算机难以理解上下文。

  尽管如此,人们还是在Facebook平台上发布了数不清的仇恨言论帖子。今年3月,联合国称Facebook要为在缅甸传播罗兴亚少数民族仇恨言论一事负责。Facebook公司辩称,由于缺少能说当地语言的审核者,难以阻止仇恨言论的传播。“我们必须做更多的工作,以确保对这些情况引起关注,”罗森说,他同时指出,该公司最近聘请了更多当地审核者。

  在这份执行报告发布前一个月,Facebook网首次对外公布了社区标准,规定了不允许在Facebook上发布的内容范围,该网站在全球的内容管理员也以此作为工作准则。

  Facebook执行报告发布之时,该公司正在面临越来越大的压力,外界纷纷呼吁该社交平台减少仇恨言论、暴力和错误信息。受制于美国国会的压力,Facebook公司表示,今年将安全保障团队增至20000人。(斯眉)



0 条回复

发表评论

发表评论

邮箱地址不会被公开。 必填项已用*标注