苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划苹果本周告诉《连线》杂志,它正在将反CSAM的努力和投资集中在其“通信安全”功能上,该公司最初于2021年8月宣布并于去年12月推出。父母和看护人可以通过家庭iCloud帐户选择加入保护措施。这些功能适用于Siri、Apple的Spotlight搜索和Safari搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的CSAM的产生。该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于2021年12月首次提供的通信安全功能的投资。”“我们进一步决定不再继续使用我们之前提出的iCloud照片CSAM检测工具。无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方”——

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。——cnBeta

封面图片

政策团体要求苹果放弃侦测儿童色情内容的计划

政策团体要求苹果放弃侦测儿童色情内容的计划路透8月18日-世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果(AAPL.O)放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。“虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果,”这些团体在事先透露给路透的信中写到。总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE将检测危害儿童的色情(CSAM)内容首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloudPhotos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保"极高的准确性",即账户不会被错误地标记。这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会要求恢复儿童安全保护措施HeatInitiative首席执行官莎拉-加德纳(SarahGardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的CSAM图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向NCMEC报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年12月中旬暂停了该计划,并最终在次年12月完全放弃了该计划。苹果废弃的CSAM检测工具当被问及原因时,苹果公司表示,该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出CSAM检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有CSAM的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(ChristineAlmadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与HeatInitiative发生冲突。2023年,该组织针对苹果发起了一场耗资数百万美元的运动。...PC版:https://www.cnbeta.com.tw/articles/soft/1434362.htm手机版:https://m.cnbeta.com.tw/view/1434362.htm

封面图片

儿童安全倡导组织发起针对苹果公司的抗议活动

儿童安全倡导组织发起针对苹果公司的抗议活动此前,苹果公司以维护用户隐私为由,就放弃计划的原因做出了最详细的回应。作为对苹果公司的回应,HeatInitiative正式推出了其活动网站。该倡议组织在首页发表声明称:"iCloud上存储了儿童性虐待的信息。苹果允许这样做。""苹果公司宣布在2021年检测儿童性虐待图像和视频,这一具有里程碑意义的宣布被悄然推翻,影响了全世界儿童的生活,"声明继续说道。"每过一天,就有孩子因为这种不作为而遭受痛苦,这就是我们呼吁苹果兑现承诺的原因。"该网站包含据称的案例研究,详细介绍了iCloud被用于存储性虐待材料(包括照片、视频和露骨信息)的多个案例,呼吁苹果公司"检测、报告并删除iCloud中的性虐待图片和视频",并"创建一个强大的报告机制,以便用户向苹果公司报告儿童性虐待图片和视频"。该公司提供了一封直接发给蒂姆-库克(TimCook)的信的副本,信中称,"决定扭转方向,不采取CSAM检测措施,令我们感到"震惊和气馁"。信中还有一个按钮,允许访问者向整个苹果公司管理团队发送一封事先写好的电子邮件,要求苹果公司采取行动。儿童性虐待材料是苹果公司一直严重关注的问题,苹果公司曾试图通过设备和iCloud检测工具来解决这一问题。这些备受争议的工具最终于2022年12月被放弃,留下了更多争议。HeatInitiative并不是唯一的探索者。根据9to5mac的报道,ChristianBrothersInvestmentServices和DegroofPetercam也分别提交和支持了有关这一问题的股东决议。以下是信件原文:https://www.scribd.com/document/668571256/Letter-to-Tim-Cook-With-Signatures...PC版:https://www.cnbeta.com.tw/articles/soft/1381113.htm手机版:https://m.cnbeta.com.tw/view/1381113.htm

封面图片

FBI称对苹果加强iCloud加密的做法"深为关切" 隐私保护机构举双手赞成

FBI称对苹果加强iCloud加密的做法"深为关切"隐私保护机构举双手赞成iCloud端到端加密,或苹果公司所谓的"高级数据保护",对用户存储在iCloud中的数据进行加密,这意味着只有受信任的设备才能解密和读取数据。具有高级数据保护功能的账户中的iCloud数据只能由受信任的设备读取,而不是苹果、执法部门或政府实体。EFF(电子前沿基金会)是一个长期呼吁苹果启用端到端加密并采取更多措施保护用户隐私的组织,在其发布公告后,该组织发表了一份声明,对新功能和苹果对隐私的重新承诺表示赞赏。我们赞扬苹果公司听取了专家、儿童倡导者和希望保护其最敏感数据的用户的意见。加密是我们维护在线隐私和安全的最重要工具之一。这就是为什么我们将苹果公司让用户加密iCloud备份的要求纳入我们在2019年发起的FixItAlready活动。流行的加密信息应用Signal的首席执行官梅雷迪思-惠特克(MeredithWhittaker)说,苹果决定提供端到端加密,"这很好,已经有足够的压力和足够的叙述工作,他们看到了历史形成的一面。这真的令人难以置信,"惠特克告诉《华盛顿邮报》。监控技术监督项目(S.T.O.P)称高级数据保护是"必不可少的,早该如此"。尽管宣布了这一消息,但该组织对端到端加密需要用户选择加入而不是默认启用感到"失望"。该组织的执行董事福克斯-卡恩说:"很高兴看到苹果公司的隐私保护措施赶上了它的销售宣传,但让这些保护措施选择加入将使大多数用户处于弱势"。多年来,苹果公司在吹嘘其隐私记录的同时,却让其用户容易受到伤害,特别是受到警察的监视。用户存储在iCloud上的许多数据只需法院下令就可以成为警察的囊中之物。有了这些变化,苹果将跟上其他公司多年来一直遵循的隐私最佳做法。但令人失望的是,用户必须主动选择加入许多这些新的保护措施,使绝大多数人处于危险之中。另一个关注隐私的宣传团体FightfortheFuture在Twitter上说,苹果宣布端到端加密使该公司关注隐私的营销变成了现实。"苹果公司作为支持隐私的科技公司的声誉长期以来一直与iCloud备份没有端到端加密的现实相抵触。这一消息意味着人们的个人信息、文件和数据将不受执法部门、黑客和苹果公司本身的保护。"该组织现在呼吁苹果在iPhone中实施RCS信息服务,该组织称此举是"没有商量的下一步"。虽然隐私组织和应用程序对苹果在iCloud中扩大端到端加密表示赞赏,但政府的反应却级而那不同。世界上最大的情报机构联邦调查局在给《华盛顿邮报》的一份声明中说,它"深切关注端到端加密和仅限用户访问的加密所带来的威胁"。该局表示,端到端加密和苹果的高级数据保护使他们更难开展工作,他们要求"通过设计流程进行合法访问"。"这阻碍了我们保护美国人民免遭犯罪行为的能力,从网络攻击和针对儿童的暴力到贩毒、有组织犯罪和恐怖主义,"该局在一份电子邮件声明中说。"在这个网络安全和要求'设计安全'的时代,联邦调查局和执法伙伴需要'设计合法的访问流程'。"前联邦调查局官员SashaO'Connell也发表了看法,他告诉《纽约时报》:"很高兴看到公司优先考虑安全问题,但我们必须牢记,这是有代价的,其中一个经常不被考虑的是它对减少执法部门获取数字证据的影响。"2020年1月,路透社报道称,在联邦调查局的要求下,苹果放弃了对iCloud中的用户数据进行加密的计划,联邦调查局担心此举会阻碍调查和情报工作。昨天,在接受《华尔街日报》记者JoannaStern的采访时,苹果公司软件工程副总裁CraigFederighi将这一报道称为不准确的。"我听说过这个传言,但我不知道它是从哪里来的。"在同一次采访中,Federighi说,苹果公司"对执法部门的工作深表赞赏,并支持执法部门的工作。我们认为,我们真的有相同的使命,那就是保证人们的安全"。苹果公司表示,高级数据保护将在今年年底向所有美国用户提供,并计划在2023年初向全球推出。...PC版:https://www.cnbeta.com.tw/articles/soft/1334743.htm手机版:https://m.cnbeta.com.tw/view/1334743.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人