Facebook 正在测试一个弹出式通知,当用户尝试搜索与剥削儿童相关的内容时会出现该通知。并且警报将警告尝试共享此类内容的用户。Facebook正在测试新工具,旨在遏制搜索包含儿童性虐待的照片和视频,并防止共享此类内容。
使用我们的应用程序伤害儿童是令人憎恶和不可接受的,负责 Facebook 全球安全工作的安提戈内戴维斯周二在一篇博客文章中表示。
此举是因为社交网络面临着更大的压力来解决这个问题,因为它计划为 Facebook Messenger 和 Facebook 拥有的照片服务Instagram 上的消息启用默认加密 。端到端加密意味着除了发送者和接收者之外,任何人都无法查看消息,包括 Facebook 和执法人员。儿童安全倡导者担心 Facebook 的加密计划可能会使打击儿童掠夺者变得更加困难。
Facebook 正在测试的第一个工具是一个弹出通知,如果用户搜索与儿童性虐待相关的术语,就会出现该通知。该通知将询问用户是否要继续,并包含指向罪犯转移组织的链接。该通知还说,儿童性虐待是非法的,查看这些图像可能会导致包括监禁在内的后果。
去年,Facebook 表示,它分析了向国家失踪和受虐儿童中心报告的儿童性虐待内容。该公司发现,超过 90% 的内容与之前报道的内容相同或相似。6 个视频的副本占 2020 年 10 月和 11 月报告的儿童剥削内容的一半以上。
戴维斯在博客文章中写道:事实上,只有少数内容对许多报告负责,这表明更好地理解意图可以帮助我们防止这种再次受害。 该公司还进行了另一项分析,结果显示用户分享这些图片是出于伤害孩子之外的其他原因,包括愤怒或幽默感。
Facebook 表示正在测试的第二个工具是一个警报,如果用户试图分享这些有害图像,它会通知用户。安全警报告诉用户,如果他们再次分享此类内容,他们的帐户可能会被禁用。该公司表示,它正在使用该工具来帮助识别用户的行为信号,这些用户可能在更大范围内共享这些有害内容。戴维斯说,这将有助于公司教育他们为什么它是有害的,并鼓励他们不要公开或私下分享它。
Facebook 还更新了其儿童安全政策和报告工具。这家社交媒体巨头表示,它将撤下 Facebook 个人资料、页面、群组和 Instagram 帐户,这些帐户专门用于分享其他无辜的儿童图片,并带有标题、主题标签或评论,其中包含对图片中描绘的儿童的不当情感或评论. 举报内容的 Facebook 用户还将看到一个选项,让社交网络知道照片或视频涉及儿童,允许公司优先审查。
根据Business Insider 1月份的一份报告,在大流行期间,在线儿童性虐待图像有所增加 。从 7 月到 9 月,Facebook 在主要社交网络和 Instagram 上检测到至少 1300 万张此类有害图片。