苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈

IT之家 8 月 13 日消息 苹果软件工程高级副总裁 Craig Federighi(克雷格・费德里吉)今天接受了《华尔街日报》的采访,为该公司有争议的儿童安全计划进行了解释。

苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈

Federighi 承认,苹果在上周宣布的两项新功能处理不当,“通讯安全”功能和“扫描存储在 iCloud 照片库中的 CSAM(儿童性虐待照片)内容” 不能混为一谈

很明显,很多信息在如何理解方面非常混乱,我们希望每个人都能更清楚地了解这一点。

事后看来,同时宣布这两项功能是造成这种混乱的一个原因。同时宣布这两项功能,人们会将它们联系起来,并感到非常害怕:我的隐私发生了什么?

答案是,您的隐私没有发生任何变化。

他解释称,“通讯安全”功能指,如果孩子们通过 iMessage 发送或接收露骨的照片,他们会在查看照片前收到警告,照片会变得模糊,并且会有一个选项让他们的父母收到提醒。

苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈

而 CSAM(儿童性虐待照片)扫描会尝试将用户的照片与已知 CSAM 的散列图像匹配,然后再将它们上传到 iCloud。检测到 CSAM 的帐户将接受苹果的人工审查,并可能会报告给国家失踪和受虐儿童中心 (NCMEC)。

苹果高管克雷格:通讯安全功能和扫描 iCloud 儿童虐待照片不能混为一谈

IT之家了解到,该功能受到了用户、安全研究人员、电子前沿基金会 (EFF) 和 Facebook 前安全主管爱德华・斯诺登,甚至苹果员工的大量批评。

面对这些批评,Federighi 解答了大家主要关心的问题,强调苹果的系统将受到保护,不会被政府或其他具有“多层次可审计性”的第三方利用。

Federighi 还透露了一些关于系统保护措施的新细节,例如在苹果收到警报之前,手机会在照片库中匹配大约 30 个 CSAM 内容,然后它会确认这些图像是否是真实的 CSAM 照片。

只有当该照片与 30 个已知的 CSAM 照片匹配的阈值时,苹果才会知道用户的帐户和这些照片的信息,而不涉及用户的任何其他照片。此外,Federighi 表示检测过程是全程在手机本地的

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/90075.html

(0)
上一篇 2021年8月14日
下一篇 2021年8月14日

相关推荐

发表回复

登录后才能评论