活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会 要求恢复儿童安全保护措施 Heat Initiative 首席执行官莎拉-加德纳(Sarah Gardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021 年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的 CSAM 图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向 NCMEC 报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年 12 月中旬暂停了该计划,并最终在次年 12 月完全放弃了该计划。苹果废弃的 CSAM 检测工具当被问及原因时,苹果公司表示, 该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出 CSAM 检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有 CSAM 的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(Christine Almadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与 Heat Initiative 发生冲突。2023 年,该组织针对苹果发起了一场耗资数百万美元的运动。 ... PC版: 手机版:

相关推荐

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能 苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。 苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。 Heat Initiative 对苹果决定终止该功能感到失望。

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE 将检测危害儿童的色情(CSAM)内容 首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。 同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。 在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 "极高的准确性",即账户不会被错误地标记。 这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

封面图片

Telegram 转变政策加入儿童安全计划

Telegram 转变政策加入儿童安全计划 12月4日,即时通讯软件 Telegram 同意与一个国际认可的机构合作,阻止儿童性虐待内容 (CSAM) 的传播。互联网观察基金会 (IWF) 被主要的在线服务机构用来帮助他们检测和删除 CSAM,并防止其传播。Telegram 曾多次拒绝参与该或任何类似计划。然而,在其创始人帕维尔·杜罗夫因涉嫌未能控制极端内容而在巴黎被捕四个月后,Telegram 宣布改变政策。IWF 将 Telegram 的决定描述为“变革性的”,但警告说,这只是该应用“漫长旅程”的第一步。IWF 临时首席执行官德里克·雷-希尔表示:“通过加入 IWF,Telegram 可以开始部署我们世界领先的工具,以帮助确保这些内容不能在该服务上共享。”

封面图片

苹果公司、Proton Mail 和 Wire 帮助西班牙警方识别活动人士

苹果公司、Proton Mail 和 Wire 帮助西班牙警方识别活动人士 据法庭文件显示,作为对参与者调查的一部分,西班牙警方从私密消息应用和加密邮箱获取了信息,这帮当局识别了一名匿名活动人士。今年早些时候,通过瑞士警方向总部位于瑞士的和发出了法律请求。国民警卫队要求提供与两家公司各自平台上的账户相关的任何识别信息。 提供了用于注册帐户的 Proton Mail 电子邮件地址,然后又提供了该电子邮件的恢复电子邮件,这是一个电子邮件地址。法庭文件显示,国民警卫队在获得 iCloud 电子邮件地址后,便向苹果公司索取信息,而苹果公司则提供了全名、两个家庭住址和一个关联的 Gmail 帐户。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人