苹果放弃了在iCloud上扫描儿童色情的计划
苹果放弃了在iCloud上扫描儿童色情的计划苹果本周告诉《连线》杂志,它正在将反CSAM的努力和投资集中在其“通信安全”功能上,该公司最初于2021年8月宣布并于去年12月推出。父母和看护人可以通过家庭iCloud帐户选择加入保护措施。这些功能适用于Siri、Apple的Spotlight搜索和Safari搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的CSAM的产生。该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于2021年12月首次提供的通信安全功能的投资。”“我们进一步决定不再继续使用我们之前提出的iCloud照片CSAM检测工具。无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方”——