2021年8月,苹果公司宣布了一项计划,扫描用户存储在iCloud中的照片,查找儿童性虐待招聘(CSAM)。该计划旨在保护隐私,并允许该公司在不透露任何其他信息的情况下标记潜在的问题和虐待性内容。但这一举措是有争议的,并很快引起了隐私和安全研究人员以及数字权利团体的广泛批评,因为监视能力本身可能被滥用,破坏世界各地iCloud用户的隐私和安全。2021年9月初,苹果公司表示将暂停该功能的推出,以及 “在发布这些极其重要的儿童安全功能之前收集意见并进行改进”。换句话说,发布会仍在进行中。但现在,该公司表示,根据收到的反馈和指导意见,iCloud照片的CSAM检测工具已经失效。
相反,苹果公司本周告诉WIRED,它正将其反CSAM的努力和投资集中在其 “通信安全 “功能上,该公司最初在2021年8月宣布并在去年12月推出。父母和照顾者可以通过家庭iCloud账户选择加入保护措施。它们在Siri、苹果的Spotlight搜索和Safari搜索中工作,如果有人在看或搜索儿童性虐待材料,就会发出警告,并当场提供资源,报告这些内容并寻求帮助。此外,保护的核心是信息的通信安全,如果儿童收到或试图发送含有裸体的照片,照顾者可以对其进行设置,为其提供警告和资源。目标是在儿童剥削发生或变得根深蒂固之前阻止其发生,并减少新CSAM的产生。
“在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈意见后,我们正在深化对2021年12月首次提供的通信安全功能的投资,”该公司在一份声明中告诉WIRED。”我们进一步决定不推进我们之前提出的iCloud照片的CSAM检测工具。儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方。”
苹果公司在更新CSAM的同时,还宣布该公司正在大幅扩展其iCloud的端到端加密产品,包括增加对存储在云服务上的备份和照片的保护。致力于打击CSAM的儿童安全专家和技术专家经常反对更广泛地部署端到端加密,因为它使科技公司无法获得用户数据,使他们更难以扫描和标记CSAM。世界各地的执法机构在反对使用和扩大端到端加密时,也同样引用了儿童性虐待的严峻问题,尽管其中许多机构历来对端到端加密持敌视态度,因为它可能使一些调查更具挑战性。不过,研究一直表明,端到端加密是保护人权的重要安全工具,其实施的弊端并不超过其好处。
信息的通信安全是选择加入的,并分析用户在其设备上发送和接收的图像附件,以确定照片是否包含裸体。该功能的设计使苹果永远无法获得信息,信息提供的端到端加密也不会被破坏,苹果甚至不知道设备已经检测到裸体。
该公司告诉WIRED,虽然它还没有准备好宣布扩大其通信安全功能的具体时间表,但该公司正在努力增加在启用保护功能时检测通过信息发送的视频中的裸体的能力。该公司还计划将该功能扩展到信息以外的其他通信应用。而最终的目标是使第三方开发者有可能将通信安全工具纳入他们自己的应用程序。苹果公司说,这些功能越能扩散,儿童就越有可能在被剥削之前获得他们所需的信息和支持。
“该公司在其声明中说:”通过为父母提供选择工具,帮助保护他们的孩子免受不安全通信的影响,可以在潜在的儿童剥削事件发生之前就加以阻断。”苹果公司致力于开发创新的隐私保护解决方案,以打击儿童性虐待材料和保护儿童,同时解决个人通信和数据存储的独特隐私需求。”
与其他公开努力解决CSAM问题的公司(包括Meta)类似,苹果公司告诉WIRED,它还计划继续与儿童安全专家合作,使其用户尽可能容易向宣传组织和执法部门报告剥削性内容和情况。
打击CSAM是一项复杂和细微的努力,对全世界的孩子来说都有极高的风险,目前还不知道苹果对主动干预的赌注会得到多少牵引力。不过,科技巨头们正在走一条细线,因为他们正在努力在CSAM检测和用户隐私之间找到一个平衡。