研究人员称苹果的CSAM扫描是一种危险的武器

导读 几周前,Apple 宣布将在所有支持 iCloud 的 iPhone 上实施一项新措施,以帮助捕捉拥有包含儿童性虐待照片的掠夺者。不幸的是,这长期

几周前,Apple 宣布将在所有支持 iCloud 的 iPhone 上实施一项新措施,以帮助捕捉拥有包含儿童性虐待照片的掠夺者。不幸的是,这长期以来一直是我们社会中的一个普遍问题,我们能做的只有这么多来对抗它。

苹果公司的想法是通过即将对上传到境内 iCloud 帐户的任何和所有个人照片(目前)实施自动图像扫描。这意味着几乎所有照片都会进行这种扫描,因为大多数人倾向于打开 iCloud 照片,因为它提供了基本上无限的存储空间。

扫描照片后,将根据现有 CSAM(或儿童性虐待材料)数据库中的图像检查其哈希值。如果发现任何相同甚至接近的匹配项,该照片将立即被标记。但是,为了标记一个帐户并将其报告给国家失踪和受虐儿童中心,需要在该帐户上找到大约 30 个 CSAM 匹配项。

苹果公司实施这种设备监控的决定立即遭到了强烈反对,因为它有可能严重损害人们的基本隐私权,并且本质上很容易受到严重剥削和滥用。数千人已经签署了反对 即将出台的政策的信函,甚至德国议会也联系了蒂姆库克, 要求他重新考虑。

如果 Apple 选择更换其行业标准的端到端加密政策以执行该计划,则整个公司的完整性和隐私声誉可能会受到损害。世界各地的人民和政府自然都有权担心这样一个巨大的后门会向非法监视敞开大门,以及一整个潘多拉魔盒可能带来的邪恶。

普林斯顿加入竞争,指出苹果系统中的危险

普林斯顿大学的几位研究人员最近为讨论提供了一些深入的知识和对此类系统的第一手经验。Anunay Kulshrestha 和 Jonathan Mayer 都开发了一个监视系统原型,其功能和目的与 Apple 非常相似——旨在通过感知哈希匹配 (PHM) 识别虐待儿童的材料。

然而,他们很快就遇到了道德问题。任何旨在“打击有害媒体,例如 CSAM 和极端主义内容”的 PHM 系统,如果落入坏人之手,就会有被用于不道德目的的危险。

例如,平台可以使用我们描述的结构来实施审查或非法监视——并且可能会受到不致力于言论自由和法治的政府的强迫。

换句话说,一个允许在任何特定时间监控私人通信并移交给当局的系统可能是独裁统治的一个简单工具。最后,PHM 系统的实施和利用方式完全取决于其人类控制者的判断,他们“将不得不策划和验证 [哈希集 B 确实只包含有害媒体]”。

有害媒体的构成也缺乏客观的定义,并且可能会被扩展和扭曲,以包括任何被权力选择视为“有害媒体”的东西——损害人们的言论自由权,或者在某些国家进一步压制公民自由不被视为人权。

苹果公司的“万亿分之一”误检率也受到质疑,虽然这家科技巨头说这听起来不可能,但普林斯顿大学的研究人员认为,这些误报是一种合理的可能性(尽管概率很低)危害无辜个人的安全。“即使没有感知相似性,客户的媒体 [可能] 匹配哈希集中的值,”他们写道。

“在这些情况下,一个无辜的 E2EE 客户端可能——取决于内容审核响应——失去通信机密性,他们的帐户被终止,或成为

执法调查的主题。”不用说,这是一个荒谬的不受欢迎的场景,这种风险不应该存在。

甚至为 Apple 工作的员工也表达了他们对此类系统固有危险的担忧。苹果已经对批评做出了回应,承诺永远不会让这样的照片监控系统落入任何管理或外部实体的控制,并且只会用于防止虐待儿童的物质占有。

自然,仅凭这一承诺就远不能令人满意,而且在 Apple 同意坚持端到端加密之前,这种反弹似乎不会放缓,除了所有者之外,没有人可以访问存储的任何照片和数据无论是在他们的 iPhone 还是 iCloud 上——在这一点上,它已经成为几乎所有流通的 iPhone 的扩展。

免责声明:本文由用户上传,如有侵权请联系删除!