苹果已经证实,它从2019年开始就一直在扫描iCloud邮件中的CSAM,并且一直在这样做。但是,它没有扫描iCloud照片或iCloud备份。
该公司反欺诈主管之前发布了一项颇为奇怪的声明,表示苹果是“传播儿童色情的最佳平台”。这立即引发了一个问题,如果该公司没有扫描iCloud照片,它怎么会知道这一点?还有一些其他的线索表明苹果在进行某种CSAM扫描。
苹果儿童安全页面的存档版本中这样表示:“无论我们的产品在哪里使用,苹果都致力于保护我们生态系统中的儿童,我们将继续支持这一领域的创新。我们在软件平台的各个级别以及整个供应链中开发了强大的保护。作为这一承诺的一部分,苹果使用图像匹配技术来帮助发现和报告儿童被利用的情况。就像电子邮件中的垃圾邮件过滤器一样,我们的系统使用电子签名来查找可疑的儿童剥削。我们通过单独审查来验证每个匹配。含有儿童剥削内容的帐户违反了我们的服务条款和条件,任何使用此材料的帐户都将被禁用。”
此外,该公司首席隐私官在2020年1月也说过同样的话。苹果公司首席隐私官简·霍瓦思(Jane Horvath)在一次技术会议上说,该公司使用屏蔽技术寻找非法图像。该公司表示,如果苹果发现儿童剥削材料的证据,它将禁用账户,但没有具体说明如何发现。苹果自己表示从未扫描过iCloud的照片。
然而,苹果证实,自2019年以来,它一直在扫描iCloud邮件中发送和接收的CSAM附件。电子邮件未加密,因此在邮件通过苹果服务器时扫描附件将是一项微不足道的任务。苹果还表示,它正在对其他数据进行一些有限的扫描,但不愿告诉那是什么,只是暗示这只是一个小规模的扫描。它确实表示,其他数据不包括iCloud备份。
苹果每年向CSAM提交的报告总数是数百份,这意味着电子邮件扫描不会为苹果服务器上的大规模问题提供任何形式的证据。原因可能在于其他云服务正在扫描CSAM的照片,而苹果没有。如果其他服务禁用了上传CSAM的帐户,而iCloud照片没有(因为苹果没有扫描),那么逻辑推断是苹果平台上的CSAM比其他任何地方都多。
对苹果公司CSAM计划的争议仍在继续,两位普林斯顿大学的学者表示,他们根据与苹果公司完全相同的方法设计了一个扫描系统的原型,但由于政府滥用的风险而放弃了这项工作。