苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及 苹果 公司已经悄悄地从其儿童安全网页上删除了所有提及 CSAM 的内容,这表明在对其方法提出重大批评后,其检测 iPhone 和 iPad 上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折 拍手称快

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE 将检测危害儿童的色情(CSAM)内容 首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。 同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。 在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 "极高的准确性",即账户不会被错误地标记。 这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

苹果宣布暂时推迟扫描手机相册的计划

苹果宣布暂时推迟扫描手机相册的计划 苹果公司上个月宣布了几项新的儿童安全功能,但是在 iPhone 上扫描 CSAM(儿童性虐待照片)内容的计划引起了不小的争议。苹果今日表示,在向公众推出之前,将投入更多时间来完善这些功能。 上个月,在宣布新的 CSAM 检测技术后,苹果受到了社会各界的强烈批评。即使苹果的内部员工也担心,政府可能会滥用这项技术,迫使苹果审查政治内容。不少人认为苹果正在摧毁其赖以生存的「尊重隐私」人设。 需要注意的是,从 2019 年开始,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料。[1] [1] 我们安全了 暂时 本频道强烈反对任何以保护儿童/打击恐怖主义为借口,对所有人进行有罪推定的监控行为和技术。这些行为和技术将会不可避免地导致对隐私权的侵犯和寒蝉效应的发生。 "Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." Edward Snowden 更何况,这项技术还

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能 苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。 苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。 Heat Initiative 对苹果决定终止该功能感到失望。

封面图片

欧盟计划本周发布一项法律草案,要求科技公司扫描 CSAM

欧盟计划本周发布一项法律草案,要求科技公司扫描 CSAM 委员会预计将在本周发布一项法律草案,要求Meta Platforms、谷歌和苹果等数字公司在罚款的威胁下检测、删除并向执法部门报告非法虐待图像。 根据POLITICO周二获得的一份提案信息,委员会表示,到目前为止,一些平台采取的自愿措施证明不足以解决滥用在线服务有关 CSAM 的问题。 该规则手册的出台是因为儿童保护热线报告说,在冠状病毒大流行期间,网上流传的令人不安的内容数量创下了纪录。欧洲是托管此类内容的一个热点,2021年全球62%的非法图像位于欧洲的数据服务器上。 由于对一项临时法案的复杂谈判,该法律已经被推迟了一年,该法案明确了科技公司可以自愿检查其平台上的虐待儿童行为。在委员会内部也出现了对立法如何影响隐私的担忧的反击。 经过几个月的游说,科技公司和儿童权利组织正焦急地等待着看这些规则会有多激烈。 内政专员Ylva Johansson一直看好寻找方法来打击网上的虐待内容,包括照片、现场直播和犯罪者诱导孩子拍摄自己的对话。 politico

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人