富廛隼
2019-05-26 07:26:31

来自Twitter,YouTube和Facebook的高管们周三告诉立法者,他们正在努力更快地取消恐怖相关内容,现在有数千名员工负责这项工作。

“自6月以来,YouTube已经删除了超过160,000个暴力极端主义视频,并因违反我们针对恐怖主义内容的政策而终止了大约30,000个频道,”YouTube公共政策主管Juniper Downs在周三参议院商务委员会听证会上准备的评论中表示。 “我们通过更严格的政策,机器和人员加强执法以及与外部专家的合作来实现这些成果。”

Downs描述了YouTube如何使用“混合技术和人类立即删除暴力内容。”除了使用算法 - 其中98%的极端主义内容被捕获 - YouTube的母公司Google每天还有大约10,000人监控网站上的内容。

“我们制定了严格的政策和计划,以保护我们的平台免受仇恨和煽动暴力的影响,”她说。

Twitter的公共政策和慈善事业负责人Carlos Monje透露,虽然没有“神奇算法”来识别恐怖分子内容,但该技术巨头能够利用其算法自2015年起暂停110万个恐怖分子账户,2017年将近50万个。

在这些被暂停的账户中,Monje说75%的账户在发布一次之前就被暂停了。

“就像一个坚定的对手一样,因为我们让恐怖分子更难使用Twitter,他们的行为也在不断发展,”Monje解释道。 “为了保持领先,我们继续投资技术,以防止新帐户被打开以取代我们暂停的帐户,同时还进一步开发防止在攻击后分发宣传的工具。”

他说,Twitter员工自2015年以来还参与了100多场针对极端主义内容的培训活动。

Facebook的产品政策和反恐主管莫妮卡比克特说,超过99%的伊斯兰国和基地组织宣传他们从网站上删除的内容是他们使用图像和文本匹配来识别自己的内容。

她说,Facebook还计划到2018年底将安全和保障人员的数量从10,000增加到20,000。

“我们认为打击极端主义的一个关键部分是通过破坏导致人们实施暴力行为的潜在意识形态来阻止招募。这就是为什么我们支持各种反向努力,”比克特说。