苹果宣布暂时推迟扫描手机相册的计划

苹果宣布暂时推迟扫描手机相册的计划 苹果公司上个月宣布了几项新的儿童安全功能,但是在 iPhone 上扫描 CSAM(儿童性虐待照片)内容的计划引起了不小的争议。苹果今日表示,在向公众推出之前,将投入更多时间来完善这些功能。 上个月,在宣布新的 CSAM 检测技术后,苹果受到了社会各界的强烈批评。即使苹果的内部员工也担心,政府可能会滥用这项技术,迫使苹果审查政治内容。不少人认为苹果正在摧毁其赖以生存的「尊重隐私」人设。 需要注意的是,从 2019 年开始,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料。[1] [1] 我们安全了 暂时 本频道强烈反对任何以保护儿童/打击恐怖主义为借口,对所有人进行有罪推定的监控行为和技术。这些行为和技术将会不可避免地导致对隐私权的侵犯和寒蝉效应的发生。 "Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." Edward Snowden 更何况,这项技术还

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及 苹果 公司已经悄悄地从其儿童安全网页上删除了所有提及 CSAM 的内容,这表明在对其方法提出重大批评后,其检测 iPhone 和 iPad 上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折 拍手称快

封面图片

苹果公司周五宣布,推迟发布备受争议的扫描用户照片库以查找儿童性虐待的图片的功能。

苹果公司周五宣布,推迟发布备受争议的扫描用户照片库以查找儿童性虐待的图片的功能。 苹果在声明中称,“根据用户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间来收集意见,并在发布这些至关重要的儿童安全功能之前进行改进”。 (CNBC)

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能 苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。 苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。 Heat Initiative 对苹果决定终止该功能感到失望。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人