苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

相关推荐

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

政策团体要求苹果放弃侦测儿童色情内容的计划

政策团体要求苹果放弃侦测儿童色情内容的计划 路透8月18日 - 世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果(AAPL.O)放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。 “虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果,”这些团体在事先透露给路透的信中写到。 总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。

封面图片

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及 苹果 公司已经悄悄地从其儿童安全网页上删除了所有提及 CSAM 的内容,这表明在对其方法提出重大批评后,其检测 iPhone 和 iPad 上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折 拍手称快

封面图片

【为阻击儿童色情,苹果公布了三项新功能】苹果会扫描存储在 iCloud 云端中的这类图像,并向美国国家儿童失踪与受虐儿童援助中心

【为阻击儿童色情,苹果公布了三项新功能】苹果会扫描存储在 iCloud 云端中的这类图像,并向美国国家儿童失踪与受虐儿童援助中心(NCMEC)报告实例。该公司会将 NCMEC 的数据库转换为一组不可读的哈希函数,之后进行对比。一旦匹配程度达到某一阈值,苹果将手动审查确认匹配,然后禁用帐户,并向 NCMEC 报告。 #抽屉IT

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE 将检测危害儿童的色情(CSAM)内容 首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。 同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。 在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 "极高的准确性",即账户不会被错误地标记。 这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人