访问:
● Messages 应用
iPhone、iPad 和 Mac 上的 Messages 应用程序中的可选通信安全功能可以在接收或发送色情照片时警告儿童及其父母。启用该功能后,Apple 表示 Messages 应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情,照片将自动模糊并警告孩子。
● 扫描 iCloud 文件
Apple 将能够检测存储在 iCloud 照片中的已知儿童性虐待材料 (CSAM) 图像,从而使 Apple 能够将这些情况报告给国家失踪和受虐儿童中心 (NCMEC), 这是一个与该机构合作的非营利组织与美国执法机构。Apple 今天证实,该过程仅适用于上传到 iCloud 照片的照片,而不适用于视频。
● 额外资源
Apple 将通过提供额外资源来帮助儿童和父母保持在线安全并在不安全的情况下获得帮助,从而扩展跨设备的 Siri 和 Spotlight 搜索指南。例如,询问 Siri 如何报告 CSAM 或儿童剥削的用户将被指向有关在何处以及如何提交报告的资源。
虽然没有发布任何官方公告,不过 Apple 表示通过向第三方扩展儿童安全功能,以便用户得到更广泛的保护。Apple 没有提供任何具体示例,但一种可能性是通信安全功能可用于 Snapchat、Instagram 或 WhatsApp 等应用程序,以便模糊儿童收到的色情照片。
另一种可能性是,苹果已知的 CSAM 检测系统可以扩展到第三方应用程序,这些应用程序将照片上传到 iCloud 照片以外的其他地方。
Apple 没有提供何时可以将儿童安全功能扩展到第三方的时间表,并指出它仍然需要完成这些功能的测试和部署,该公司还表示需要确保任何潜在的扩展不会破坏隐私属性或功能的有效性。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/industrynews/59971.html