跟进本月初的这个消息

跟进本月初的这个消息 由90多个致力于民权、数字权利和人权的国际组织组成的联盟,今天致函苹果公司首席执行官蒂姆·库克,敦促苹果公司放弃在其 iPhone、iPad 和 其他产品中建立监控功能的计划。 “尽管这些功能声称旨在保护儿童和减少儿童性虐待材料(CSAM)的传播,但是,我们非常担心它们会被用来审查受保护的言论,威胁到世界各地人们的隐私和安全,并对许多儿童产生灾难性的后果”,这封信的签署者包括民主与技术中心(CDT)、美国公民自由联盟(ACLU)、美国笔会、电子前沿基金会(EFF)、Access Now、英国隐私国际(Privacy International)、Derechos Digitales、全球之声、全球伙伴数字组织、以及来自欧洲、拉丁美洲、非洲、亚洲和澳大利亚的团体。 信中指出,苹果公司打算用来检测 “信息中露骨图像的算法” 出了名的不可靠 …… 而且容易错误地标记艺术、健康状况信息、教育资源、宣传信息和其他图像”。 由于苹果公司的审查计划,“iMessages将不再通过端对端加密信息系统向用户提供保密性和隐私,不再只有发送者和预定接收者能够获得所发送的信息。公开信中强调:“一旦内置了这种后门功能,政府可以迫使苹果公司将通知扩展到其他账户,并检测出因性行为以外的原因而令人反感的图像”。 苹果公司还在引入第二项功能,将对照儿童安全组织提供的CSAM图像的哈希数据库,扫描用户上传到iCloud的每张照片,当达到匹配的阈值时,将禁用该账户并向当局报告该用户和这些图像。 CDT安全与监控项目联合主任 Sharon Bradford Franklin 说,该联盟担心苹果将面临来自全球各地政府的压力,要求扫描CSAM以外的他们认为政治敏感的图像。 “我们可以预计,各国政府都将利用苹果公司在iPhone、iPad和电脑中建立的监控能力。他们将要求苹果公司扫描并阻止侵犯人权的图像、政治抗议和其他应受保护的自由表达内容,这些内容构成了自由和民主社会的支柱”。 公开信:

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及 苹果 公司已经悄悄地从其儿童安全网页上删除了所有提及 CSAM 的内容,这表明在对其方法提出重大批评后,其检测 iPhone 和 iPad 上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折 拍手称快

封面图片

苹果宣布暂时推迟扫描手机相册的计划

苹果宣布暂时推迟扫描手机相册的计划 苹果公司上个月宣布了几项新的儿童安全功能,但是在 iPhone 上扫描 CSAM(儿童性虐待照片)内容的计划引起了不小的争议。苹果今日表示,在向公众推出之前,将投入更多时间来完善这些功能。 上个月,在宣布新的 CSAM 检测技术后,苹果受到了社会各界的强烈批评。即使苹果的内部员工也担心,政府可能会滥用这项技术,迫使苹果审查政治内容。不少人认为苹果正在摧毁其赖以生存的「尊重隐私」人设。 需要注意的是,从 2019 年开始,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料。[1] [1] 我们安全了 暂时 本频道强烈反对任何以保护儿童/打击恐怖主义为借口,对所有人进行有罪推定的监控行为和技术。这些行为和技术将会不可避免地导致对隐私权的侵犯和寒蝉效应的发生。 "Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." Edward Snowden 更何况,这项技术还

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE 将检测危害儿童的色情(CSAM)内容 首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。 同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。 在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 "极高的准确性",即账户不会被错误地标记。 这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会 要求恢复儿童安全保护措施 Heat Initiative 首席执行官莎拉-加德纳(Sarah Gardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021 年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的 CSAM 图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向 NCMEC 报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年 12 月中旬暂停了该计划,并最终在次年 12 月完全放弃了该计划。苹果废弃的 CSAM 检测工具当被问及原因时,苹果公司表示, 该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出 CSAM 检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有 CSAM 的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(Christine Almadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与 Heat Initiative 发生冲突。2023 年,该组织针对苹果发起了一场耗资数百万美元的运动。 ... PC版: 手机版:

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能 苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。 苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。 Heat Initiative 对苹果决定终止该功能感到失望。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人