Craig Federighi 承认,苹果在上周宣布这两项新功能时处理得不好,这两项功能涉及检测儿童信息中的明确内容和存储在 iCloud 照片库中的 CSAM 内容,并承认围绕这些工具存在广泛的混淆 … Craig Federighi 还透露了围绕该系统保障措施的一些新细节,例如,用户需要在其照片库中满足约 30 个 CSAM 内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是 CSAM 的真实实例 … 如果而且只有当用户达到 30 张已知儿童色情图片的匹配门槛时,苹果才会知道用户的账户和这些图片的情况,而且在这一点上,苹果只知道这些图片,不知道用户的任何其他图片。