微比恩 > 信息聚合 > 普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目

普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目

2021-08-23 08:41:24来源: IT之家

8 月 23 日上午消息,近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称 CSAM)筛查系统具有一定危险性,因为他们曾构建过一个类似的系统。此前,苹果公司出于保护儿童免受色情内容侵袭,宣布推出三项保护政策。包括:机器筛查 Messages 信息,当孩子收到色情图片时,图片会变得模糊,并且 Messages 应用程序会显示一条警告;儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri 和搜索功能改进,人们可询问 Siri 如何报告儿童性虐待内容或性剥削,Siri 将告诉用户在哪可以汇报给有关部门。普林斯顿大学这两位学者说,他们曾经的一个项目工作原理与 Apple 的方法完全相同,但他们很快发现了明显的问题。助理教授 Jonathan Mayer 和研究生研究员 Anunay Kulshrestha 在《华盛

关注公众号
标签: 苹果