8 月 16 日上午消息,苹果公司近日推出了三条打击儿童性犯罪的和性侵害的功能,但这些也引发了人们对隐私保护的担忧,对此,负责软件工程的高级副总裁克雷格・费德里吉(Craig Federighi)发言解释了相关问题。
克雷格・费德里吉(Craig Federighi)
这三条保护政策在十天之前宣布,包括:机器筛查 Messages 信息,当孩子收到不良图片时,图片会变得模糊,并且 Messages 应用程序会显示一条警告;儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri 和搜索功能改进,人们可询问 Siri 如何报告儿童性虐待内容或性剥削,Siri 将告诉用户在哪可以汇报给有关部门。
其中引发争议的主要是第一二条,费德里吉在接受《华尔街日报》采访时说:“我们希望每个人都能更清楚地了解这一点,因为我们对自己正在做的事情感到非常积极,而我们看到它被广泛误解了。”
“事后看来,我承认,同时引入这两个功能是造成这种混乱的一个缘由,”他继续道。“很明显,很多信息都被严重地混淆了。我相信肯定有人说,天哪,苹果正在扫描我的手机以获取图像。—— 但这不是事实。”
费德里吉随后描述了 iCloud 扫描上传的 CSAM 图像所涉及的过程,以及当通过消息向孩子发送此类图像时会发生什么。
对这些功能的批评集中在苹果正在分析用户 iPhone 照片的看法上。“这是一个常见但非常深刻的误解,”费德里吉说。
“这个过程作为将某些内容存储在云中的过程的一部分来应用,而不是对您存储在 Messages 信息的图像进行某些处理…… 或者您正在通过网络浏览的内容。这实际上是在 iCloud 中存储图像的管道的一部分。”
他想说的是,苹果公司是在分析图像是否与国家失踪和受虐儿童中心提供的已知 CSAM 图像数据库匹配,而不是分析图片本身。他们将国家失踪和受虐儿童中心的数据库转换为一组不可读的哈希函数(将一段较长的数据映射为较短的数据),之后进行对比。一旦匹配程度达到某个阈值,苹果公司将手动审查确认匹配,然后禁用用户的帐户,并向国家失踪和受虐儿童中心发送报告。
当被问及现在是否有发布此功能的压力时,费德里吉说没有。
“不,我们想通了,”他说。“我们本来就想做点什么,但此前一直不愿意部署涉及扫描所有客户数据的解决方案。”