社交账号登录

社交账号登录

0/34

上传头像

拖拽或者缩放虚线框,生成自己满意的头像

头像

预览

忘记密码

设置新密码

商业

新西兰枪击案视频继续传播,Facebook 解释了技术过滤视频的局限

徐弢2019-03-23 06:45:08

第一个用户举报枪击案视频时,距离直播结束已经过去 12 分钟

上周的新西兰基督城清真寺枪击案相当引人注目。这起枪击案不仅造成了 50 人死亡,品牌将广告从传播相关视频的网站 Facebook、YouTube 上撤下。

已经撤下广告的包括 ASB 银行、汉堡王、电信运营商 Spark 等公司。

更大的问题在于,Facebook 在视频审核上的人工智能过滤技术没能发现这次枪击直播,后续 Facebook、Google 也没能完全阻止相关视频继续出现。

Facebook 称,对这种枪击直播视频的监测在技术上很难实现。3 月 20 日,Facebook 负责产品管理的副总裁 Guy Rosen 发布了一份新的声明称,Facebook 的自动监测系统没能自动标记出这次用枪手用 GoPro 做的直播。

需要解释的是,Facebook、YouTube 等网站对于视频内容的审核基本模式是相同的:用户在做直播、上传视频时,平台使用自动监测系统对内容进行监测,再提交给审核员进行审核;作为补充手段,这些平台也依赖于用户提交的举报。

人工智能现在仍然只是辅助监测系统的一种手段。Facebook 声称,该公司使用人工智能来帮助判断、优先那些可能包含自杀或者造成伤害行为的视频,再将其交给审核人员。

这次的问题是,Facebook 应用了人工智能的自动监测系统失效了。对此,Guy Rosen 给出了 2 个理由:由于这类枪击事件相当少见,Facebook 没有大量的数据培训人工智能,因此没能对这次枪击视频进行识别;另外,Facebook 的监测系统难以将枪击视频与电子游戏这类有相似性的视频区分。

Facebook 撤掉视频的行为实际发生在用户举报、新西兰警方提醒后。根据 Guy Rosen 披露新西兰警方此前要求封锁的信息,这次枪击直播过程吸引到的观看量少于 200 次,整个直播过程中没有用户向 Facebook 举报。

第一位用户向 Facebook 举报这支视频的时候,距离直播开始已经过去了 29 分钟,距离直播结束也过去了 12 分钟。

对这类暴力、凶杀视频的监测在技术上确实存在难题。“很难阻止新录制的暴力视频第一次上传,”内容识别公司 ACRCloud 创始人 Peng Dong 告诉《时代》称,实际上社交网站如果想要阻止这类视频上传,他们的数据库内通常需要一份视频的备份才能做比对。

即便是有类似的视频用于训练人工智能、用于比对,Facebook、YouTube 可能也无法完全屏蔽枪击相关视频。

Facebook 称,有一群用户持续不断地将不同版本的枪击案视频上传,同时还有不同的用户用手机拍摄电视中的枪击案画面。他们已经确定了 800 种不同的版本,但实际上还有视频流入平台。

用户对原有视频进行重新编辑,或者采用拍摄电视画面的方式制作的视频,实际都会被视为不同内容的视频。Facebook、YouTube 的数据库中没有相对应的视频做比对,这些枪击案相关的视频就足以绕过 Facebook、YouTube 的过滤器

Guy Rosen 称,他们计划利用声音识别的技术以辨别同一视频的不同版本。

枪击视频大量流出的一部分原因,是有用户将枪击直播视频下载下来、上传至文件共享网站。在 Facebook 撤掉视频前,在线论坛 8chan 的一个用户就贴出了一个被保存下来的视频链接。数百万的枪击案相关视频随后被传至 Facebook、YouTube、Twitter 等社交网站上。

通常而言,Facebook 会将支持、赞同这类暴力视频的内容进行删除,但这次删除范围也包括新闻视频在内。

在这次事件中,Facebook 认为这次枪击案属于恐怖事件,对于用户重复上传、新闻报道中采用的视频片段统一采取封禁措施。

Facebook、Google 都有各自的内容规定。Facebook 设计了社群守则,对暴力、仇恨言论、垃圾信息等进行审核与删除。YouTube 也有类似的社群规范,平台禁止的内容范围基本与 Facebook 相同。

YouTube 也在枪击案视频大量传播后才开始采取封禁措施。根据 YouTube 的说法,YouTube 在上周改变了内容审核方式。YouTube 让机器学习直接审核内容、撤掉枪击案相关视频。当时用户每秒钟上传 1 个 YouTube 视频。在此之前,YouTube 的常规流程是,审核人员审核机器学习提交的违反社群规定的视频,并拥有是否撤掉视频的决定权。

2017 年 6 月,YouTube 开始引入机器学习技术用于标注仇恨内容,审核人员再做最后判断、确定是否撤掉内容。

YouTube 目前使用机器学习对违反社群规范内容的识别率在 83%,这一数字很久没有变化过了。按照 YouTube 公司 2017 年的说法,该平台 2017 年 9 月撤下的极端主义视频中,83% 是由机器学习技术识别,识别率比此前 1 个月提升了 8 个百分点。 

即便还有枪击案相关视频流出,按照 Google 的说法,YouTube 撤下这些枪击视频的速度挽回了一些品牌、代理商的信任。

在本周欧洲广告周的演讲前,Google 广告业务负责人 Prabhakar Raghavan 接受行业媒体 The Drum 采访时称:"当我到伦敦与品牌、代理商沟通的时候,很惊讶的发现,好几个人都说他们对于 Google 反应如此迅速感到满意。"

但这不意味着品牌真的恢复了他们对于 Facebook、YouTube 两家公司的信任度。过去几年,社交网站出现隐私泄漏、色情丑闻,品牌也都是下撤广告然后再回来继续投放,类似的事情反复发生。毕竟,在数字广告领域,品牌短期内也没有更好的投放选择。

Google 负责欧洲、中东及非洲地区商务与运营总裁 Matt Brittin 就直言,YouTube“对品牌来说 100% 安全”这件事永远不会发生。

新西兰政府也计划调查 Facebook、YouTube 在这次枪击视频传播中的责任。在新西兰法律中,用户传播这类枪击视频的部分或者全部片段,都将面临指控


题图来自:visualhunt

喜欢这篇文章?去 App 商店搜 好奇心日报 ,每天看点不一样的。