Apple 的新儿童安全工具起初看起来是个好主意,但在过去一周在科技界引起了相当大的轰动。该公司于 8 月 6 日宣布了该功能,目前仅
Apple 的新儿童安全工具起初看起来是个好主意,但在过去一周在科技界引起了相当大的轰动。该公司于 8 月 6 日宣布了该功能,目前仅适用于(US),但它是平台级别的更新,这意味着它将成为iOS、macOS、watchOS 和 iPadOS 的一部分,并且可能会出现在每个国家/地区苹果在哪个国家运营。当然,该公司能否在某个国家/地区启用该功能将取决于该国家/地区的法律是否允许此类功能。但在我们开始之前…… 它是如何工作的? 儿童性虐待材料 (CSAM) 是一个几乎与互网本身一样古老的问题。世界各国政府都想解决这个问题,并在一定程度上取得了成功。但它仍然存在。因此,Apple 正在为其平台添加新算法,这些算法将扫描 iPhone、iPad、Mac、Apple Watch、iMessage 和 iCloud 上的图像,以检测属于 CSAM 类别的图像。违规用户最终将被报告给。 “CSAM 检测使 Apple 能够准确识别和报告在其 iCloud 照片帐户中存储已知儿童性虐待材料 (CSAM) 的 iCloud 用户。苹果服务器标志账户超过匹配CSAM图像哈希让苹果可以向国家中心失踪提供相关信息和被剥削儿童(NCMEC)的一个已知的数据库图像的阈值的数目,”公司说在技术文件。 此外,苹果声称系统错误标记帐户的风险“极低”。该文件称:“选择该阈值是为了提供极低(万亿分之一)错误标记给定帐户的可能性。” 此外,苹果还表示将牢记用户隐私。这意味着该公司将无法访问您的任何图像。该系统基本上将您设备和 iCloud 上的图像与预先选择的 CSAM 图像数据库进行匹配。它将加密签名附加到您设备上的每个图像,与数据库匹配的图像由其签名标识。如果图像匹配,将进行人工审核,并报告用户。 在用户隐私方面,苹果可能是世界上所有大型科技公司中最值得信赖的。然而,事实仍然是该系统将内置到您的设备中,并将扫描您设备上的每一个图像,无论它们是什么。用户不会知道 CSAM 数据库中有哪些图像,也不会知道何时发现图像有问题。 |