站长之家 - 业界 2021-08-14 01:58

苹果高管承认儿童安全功能让用户混淆 并透露相关保障措施新细节

苹果公司软件工程高级副总裁Craig Federighi今天在接受《华尔街日报》的重要采访时,为该公司计划中有争议的儿童安全功能进行了辩护,透露了一些关于苹果公司扫描用户照片库中的儿童性虐待材料(CSAM)保障措施的新细节。Craig Federighi承认,苹果在上周宣布这两项新功能时处理得不好,这两项功能涉及检测儿童信息中的明确内容和存储在iCloud照片库中的CSAM内容,并承认围绕这些工具存在广泛的混淆。很明显,很多信息在如何理解方面被搞得很乱,苹果希望可以更加清楚地向用户进行说明。

事后看来,在同一时间推出这两个功能是造成这种混乱的主要原因。苹果推出的通信安全功能意味着,如果儿童通过iMessage发送或接收露骨的图像,他们在查看之前会得到警告,图像会被模糊,并且会有一个选项让他们的父母得到提醒。另一方面,CSAM扫描则试图在上传到iCloud之前,将用户的照片与已知CSAM的散列图像进行匹配。检测到CSAM的账户将接受苹果公司的人工审查,并可能被报告给美国国家失踪和被剥削儿童中心(NCMEC)。

这些新功能受到了来自用户、安全研究人员、电子前沿基金会(EFF)和爱德华斯诺登的大量批评,甚至是苹果员工的批评。在这些批评声中,Craig Federighi解决了其中一个主要的关注领域,强调苹果的系统将受到保护,防止被政府或其他第三方利用,并有多层次的可审计性。

Craig Federighi还透露了围绕该系统保障措施的一些新细节,例如,用户需要在其照片库中满足约30个CSAM内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是CSAM的真实实例。如果而且只有当用户达到30张已知儿童色情图片的匹配门槛时,苹果才会知道用户的账户和这些图片的情况,而且在这一点上,苹果只知道这些图片,不知道用户的任何其他图片。

Craig Federighi还指出了将匹配过程直接放在iPhone上的安全优势,而不是发生在iCloud的服务器上。因为它在手机上,安全研究人员能够不断研究苹果手机软件中发生了什么。因此,如果做出任何改变,以某种方式扩大这个范围,安全研究人员就会及时发现。

当被问及用于匹配用户设备上CSAM内容的图像数据库是否会插入其他材料(如政治内容)而受到影响时,Craig Federighi解释说,该数据库是由多个儿童安全组织的图像构建的,其中至少有两个是在不同的司法管辖区。据Craig Federighi称,这些儿童保护组织以及一个独立的审计机构将能够核实图像数据库只包括来自这些实体的内容。

推荐关键词

24小时热搜

查看更多内容

大家正在看

阿里开始了大反攻