扫描图片争议大,苹果宣布延迟推出 CSAM 儿童保护功能
- 09 月 06 日
- 爱思助手
- 2250
据报道,苹果公司上个月宣布了几项新的儿童安全功能,但其中一些存在争议,包括在 iCloud Photos 中扫描 CSAM(儿童性虐待照片)内容。苹果今日表示,在面向公众推迟之前,将投入更多时间来完善这些功能。
苹果在一份声明中称:“上个月,我们宣布了一些功能的计划,旨在帮助保护儿童免受‘利用通讯工具招募和剥削他们的掠夺者’的伤害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”
按照原计划,苹果这些新的儿童安全功能将于今年晚些时候发布,作为 iOS 15、iPadOS 15 和 macOS Monterey 更新的一部分。如今,这些功能何时推出还是个未知数。至于如何进一步完善这些功能,苹果在今天的声明中也没有提供任何细节。
上个月,在宣布新的 CSAM 检测技术后,苹果受到了隐私倡导者的强烈抵制和批评。即使苹果的内部员工也担心,政府可能会通过寻找 CSAM 以外的内容,迫使苹果使用这项技术进行审查。还有一些员工担心,苹果正在损害其业界领先的隐私声誉。
但苹果却十分看好这一功能的前景,并表示,如果真正实施起来,要比谷歌和 Facebook 等其他公司使用的技术更能保护隐私。此外,苹果还证实,事实上自 2019 年以来,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料(CSAM),只不过尚未扫描 iCloud 照片或 iCloud 备份。
特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。