【为阻击儿童色情,苹果公布了三项新功能】苹果会扫描存储在 iCloud 云端中的这类图像,并向美国国家儿童失踪与受虐儿童援助中心

【为阻击儿童色情,苹果公布了三项新功能】苹果会扫描存储在 iCloud 云端中的这类图像,并向美国国家儿童失踪与受虐儿童援助中心(NCMEC)报告实例。该公司会将 NCMEC 的数据库转换为一组不可读的哈希函数,之后进行对比。一旦匹配程度达到某一阈值,苹果将手动审查确认匹配,然后禁用帐户,并向 NCMEC 报告。 #抽屉IT

相关推荐

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE 将检测危害儿童的色情(CSAM)内容 首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。 同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。 在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 "极高的准确性",即账户不会被错误地标记。 这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

苹果会主动扫描 iPhone 用户的手机相册

苹果会主动扫描 iPhone 用户的手机相册 苹果公司周四表示,该公司将通过一套非常复杂的机制,在 iOS 设备上扫描相册并向执法部门报告上传到其美国 iCloud 服务上的儿童色情图片。 简单来说:用户的相册在上传到 iCloud 之前,iPhone 会在本地将图片的特征码提取,并与一家美国 NGO 组织提供的数据库进行比对。 如果检测到若干数量的违规文件,那么该系统将允许苹果公司查看该 iCloud 账号上的所有图片,并由审查人员确认是否属于儿童色情材料,如果属实将通知执法机构逮捕用户。 1⃣ 该审查暂时只针对美国的 iOS 15 用户,但是苹果表示将会在全球逐步推广这项审查。 2⃣ 美国 FBI 曾要求苹果解锁罪犯的手机,但苹果没有服从。不过,作为妥协之一,苹果故意没有对备份到iCloud上的内容做加密,以方便执法机构调取和查看。 3⃣ 美国约翰斯·霍普金斯大学副教授马修·格林表示:“现在苹果已经示范了他们能搞一套能跟 iCloud 协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?” 个人观点 苹果目前的打法已经比较清晰了:首先通过宣传 iPhone 的隐私安全特性来吸引用户;然后在 iCloud 上大开后门,满足世界各国执法机构对用户的监视需求。最后,通过 Handoff、通用控制、Find My、Fitness+ 这些依赖 iCloud 的功能说服用户订阅 iCloud 云服务。成功在用户隐私和政府监管的夹缝中生存。 然而,随着用户隐私意识的觉醒和各国对监管力度的逐渐增强,苹果终将有一天会面临一个两头不讨好的困境,而今天的这一举动,无疑又将时钟拨快了几格。 延伸阅读

封面图片

活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会 要求恢复儿童安全保护措施 Heat Initiative 首席执行官莎拉-加德纳(Sarah Gardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021 年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的 CSAM 图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向 NCMEC 报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年 12 月中旬暂停了该计划,并最终在次年 12 月完全放弃了该计划。苹果废弃的 CSAM 检测工具当被问及原因时,苹果公司表示, 该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出 CSAM 检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有 CSAM 的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(Christine Almadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与 Heat Initiative 发生冲突。2023 年,该组织针对苹果发起了一场耗资数百万美元的运动。 ... PC版: 手机版:

封面图片

苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有

苹果的新iOS系统会主动扫描iPhone用户的手机相册里有无儿童色情图片,如果手机里的儿童色情图片数量达到一定值,苹果就会通知有关机构。尽管苹果的这套系统第一阶段只会在美国实行,但外界仍然担忧苹果是否会在某些国家利用这套系统甄别用户手机里是否存在涉嫌颠覆政府的图片、文字等。外界同时批评苹果公司平时标榜自己“尊重隐私”,把苹果设备的隐私性当作卖点,现在却又主动扫描用户手机。 扫描儿童色情图片的系统部件将会随着今年秋天iOS 15版本的更新,一并发布给用户。苹果解释道,执法机构以及保护儿童剥削的一些非盈利组织会维护一系列儿童色情文件的数据库。这种数据库会保存文件的“哈希值”(hash)。“哈希值”是一种单向的甄别码,即软件可以通过文件算出“哈希值”,但没法通过“哈希值”反推出文件。一般来说,这些儿童色情文件稍加修改,其“哈希值”就会变化,便不再能被系统识别出来了。但据路透社报道,苹果还将使用一种所谓“神经网络哈希”(NeuralHash)的机制,来识别出跟原图十分近似,只稍加修改过的儿童色情图片。苹果也说他们会同时使用包括“哈希”计算在内的密码学方案以及人工智能(AI)两种方法来识别儿童色情内容。 苹果说,只存储在iPhone本地的图片不会经过扫描,只有上传到iCloud Photos的照片才会。凡是将要上传到iCloud的文件,苹果会先使用本地下载好的儿童色情“哈希值”数据库比对,如果有命中,则会生成“安全凭证”(safety voucher),而这一“安全凭证”会随着图片一起上传到iCloud。通过另一个叫“阈值密钥分享”(threshold secret sharing)的技术,苹果的这套系统能够保证只有用户手机上的、命中了的儿童色情内容数量在相当多的情况下,系统才能解开“安全凭证”,看到结果。之后,会有人工审查命中的信息是否确属儿童色情内容。苹果认为,他们的这套系统可以同时兼顾用户隐私和保护儿童。 苹果跟各国司法机构之间经常因为保护用户隐私陷入争执。分析认为,苹果引入这一检测儿童色情内容的机制,是苹果的妥协。美国执法机构曾屡次要求苹果解锁恐怖分子等罪犯的手机,但因加密技术限制,苹果无法做到。作为妥协之一,苹果并没有对备份到iCloud上的手机内容做加密,以应执法机构之需。执法机构也批评各类加密系统、聊天软件等为传播儿童色情和策划恐怖袭击提供了渠道。 美国“全国失踪和受剥削儿童保护中心”主席在声明里写道,“苹果把他们的保护扩展到儿童身上改变了局势。他们证明了保护隐私和保护儿童可以同时共存。”苹果使用的儿童色情信息数据库的来源就是美国的这一中心,如果检测到了大量儿童色情内容,也是这个中心来处理。该中心的数据库里收集了二十多万张儿童色情图片。 跟着扫描相册的功能一起,苹果还会对通过手机彩信和iMessage功能收到的儿童色情图片打马赛克并发出警告,同时如果用户配置了家长监护功能,苹果还会警告家长。苹果的iMessage短信聊天系统使用了“端到端加密”技术,技术上苹果无法看到聊天内容,但因为有数据库在本地,苹果可以比对聊天中收到的图片。 美国约翰斯·霍普金斯大学副教授马修·格林表示,看到苹果能给聊天软件加上屏蔽儿童色情内容的功能,各国政府肯定也会想要让苹果在手机里增加监视用户的组件。格林教授说:“现在苹果已经示范了他们能搞一套能跟iMessage聊天协同工作、目的明确的监视系统出来。我就很想知道他们能在中国政府面前坚持多久?” 英国萨里大学的计算机安全教授艾伦·伍德沃德认为,苹果的这套系统的侵入性并不大,因为其扫描是在用户手机本地上进行的,且只有当命中时,苹果的系统才会收到提示。伍德沃德教授认为,如果非要去检查用户的手机有无儿童色情内容,这种去中心化的办法是所有办法里几乎最好的。 保护数字权利的电子前哨基金会(EFF)发声明反对。声明写道:“对于苹果提出的后门,他们能长篇大论一番这后门能如何地保护隐私、如何地保护安全,但说到头来,后门就是后门,无论这后门的技术文档写得多详细、构思得有多紧密、适用范围有多狭窄。” 《华尔街日报》报道说,iPhone的数据安全已经不再是以往的铜墙铁壁。包括近期曝光的以色列黑客软件都能找到从iPhone里获取数据的方法。另外,苹果、Facebook等公司在用户信息安全、加密等领域的举措也遭到美国政府的批评。美国司法部总检察长威廉·巴尔在2019年就Facebook公司旗下聊天软件使用的加密方式难以解密一事,评论“在人民生命和儿童的安全遭受威胁时,这些公司不能肆无忌惮地运作。” (金融时报,华尔街日报,路透社,苹果官方解释)

封面图片

跟进本月初的这个消息

跟进本月初的这个消息 由90多个致力于民权、数字权利和人权的国际组织组成的联盟,今天致函苹果公司首席执行官蒂姆·库克,敦促苹果公司放弃在其 iPhone、iPad 和 其他产品中建立监控功能的计划。 “尽管这些功能声称旨在保护儿童和减少儿童性虐待材料(CSAM)的传播,但是,我们非常担心它们会被用来审查受保护的言论,威胁到世界各地人们的隐私和安全,并对许多儿童产生灾难性的后果”,这封信的签署者包括民主与技术中心(CDT)、美国公民自由联盟(ACLU)、美国笔会、电子前沿基金会(EFF)、Access Now、英国隐私国际(Privacy International)、Derechos Digitales、全球之声、全球伙伴数字组织、以及来自欧洲、拉丁美洲、非洲、亚洲和澳大利亚的团体。 信中指出,苹果公司打算用来检测 “信息中露骨图像的算法” 出了名的不可靠 …… 而且容易错误地标记艺术、健康状况信息、教育资源、宣传信息和其他图像”。 由于苹果公司的审查计划,“iMessages将不再通过端对端加密信息系统向用户提供保密性和隐私,不再只有发送者和预定接收者能够获得所发送的信息。公开信中强调:“一旦内置了这种后门功能,政府可以迫使苹果公司将通知扩展到其他账户,并检测出因性行为以外的原因而令人反感的图像”。 苹果公司还在引入第二项功能,将对照儿童安全组织提供的CSAM图像的哈希数据库,扫描用户上传到iCloud的每张照片,当达到匹配的阈值时,将禁用该账户并向当局报告该用户和这些图像。 CDT安全与监控项目联合主任 Sharon Bradford Franklin 说,该联盟担心苹果将面临来自全球各地政府的压力,要求扫描CSAM以外的他们认为政治敏感的图像。 “我们可以预计,各国政府都将利用苹果公司在iPhone、iPad和电脑中建立的监控能力。他们将要求苹果公司扫描并阻止侵犯人权的图像、政治抗议和其他应受保护的自由表达内容,这些内容构成了自由和民主社会的支柱”。 公开信:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人