活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会要求恢复儿童安全保护措施HeatInitiative首席执行官莎拉-加德纳(SarahGardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的CSAM图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向NCMEC报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年12月中旬暂停了该计划,并最终在次年12月完全放弃了该计划。苹果废弃的CSAM检测工具当被问及原因时,苹果公司表示,该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出CSAM检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有CSAM的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(ChristineAlmadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与HeatInitiative发生冲突。2023年,该组织针对苹果发起了一场耗资数百万美元的运动。...PC版:https://www.cnbeta.com.tw/articles/soft/1434362.htm手机版:https://m.cnbeta.com.tw/view/1434362.htm

相关推荐

封面图片

儿童安全倡导组织发起针对苹果公司的抗议活动

儿童安全倡导组织发起针对苹果公司的抗议活动此前,苹果公司以维护用户隐私为由,就放弃计划的原因做出了最详细的回应。作为对苹果公司的回应,HeatInitiative正式推出了其活动网站。该倡议组织在首页发表声明称:"iCloud上存储了儿童性虐待的信息。苹果允许这样做。""苹果公司宣布在2021年检测儿童性虐待图像和视频,这一具有里程碑意义的宣布被悄然推翻,影响了全世界儿童的生活,"声明继续说道。"每过一天,就有孩子因为这种不作为而遭受痛苦,这就是我们呼吁苹果兑现承诺的原因。"该网站包含据称的案例研究,详细介绍了iCloud被用于存储性虐待材料(包括照片、视频和露骨信息)的多个案例,呼吁苹果公司"检测、报告并删除iCloud中的性虐待图片和视频",并"创建一个强大的报告机制,以便用户向苹果公司报告儿童性虐待图片和视频"。该公司提供了一封直接发给蒂姆-库克(TimCook)的信的副本,信中称,"决定扭转方向,不采取CSAM检测措施,令我们感到"震惊和气馁"。信中还有一个按钮,允许访问者向整个苹果公司管理团队发送一封事先写好的电子邮件,要求苹果公司采取行动。儿童性虐待材料是苹果公司一直严重关注的问题,苹果公司曾试图通过设备和iCloud检测工具来解决这一问题。这些备受争议的工具最终于2022年12月被放弃,留下了更多争议。HeatInitiative并不是唯一的探索者。根据9to5mac的报道,ChristianBrothersInvestmentServices和DegroofPetercam也分别提交和支持了有关这一问题的股东决议。以下是信件原文:https://www.scribd.com/document/668571256/Letter-to-Tim-Cook-With-Signatures...PC版:https://www.cnbeta.com.tw/articles/soft/1381113.htm手机版:https://m.cnbeta.com.tw/view/1381113.htm

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。——cnBeta

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE将检测危害儿童的色情(CSAM)内容首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloudPhotos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保"极高的准确性",即账户不会被错误地标记。这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

苹果公司、Proton Mail 和 Wire 帮助西班牙警方识别活动人士

苹果公司、ProtonMail和Wire帮助西班牙警方识别活动人士据法庭文件显示,作为对参与者调查的一部分,西班牙警方从私密消息应用和加密邮箱获取了信息,这帮当局识别了一名匿名活动人士。今年早些时候,通过瑞士警方向总部位于瑞士的和发出了法律请求。要求提供与两家公司各自平台上的账户相关的任何识别信息。提供了用于注册帐户的ProtonMail电子邮件地址,然后又提供了该电子邮件的恢复电子邮件,这是一个电子邮件地址。法庭文件显示,在获得电子邮件地址后,便向苹果公司索取信息,而苹果公司则提供了全名、两个家庭住址和一个关联的帐户。——

封面图片

苹果被指少报其平台上疑似 CSAM 内容

苹果被指少报其平台上疑似CSAM内容7月23日消息,苹果公司被指控低报其平台上儿童性虐待内容(CSAM)的普遍程度。英国儿童保护慈善机构国家防止虐待儿童协会(NSPCC)表示,苹果公司去年向国家失踪与受虐儿童中心(NCMEC)报告了全球267起疑似CSAM案件。与谷歌报告的147万起潜在案例和Meta报告的3060万起相比,这显得微不足道。NSPCC还表示,2022年4月至2023年3月期间,苹果公司在英格兰和威尔士涉及的CSAM案件(337起)比其在全球范围内一年内报告的案件数量还要多。“这之间存在令人担忧的差异”。NSPCC儿童安全在线政策负责人理查德·科拉德说:“苹果在解决儿童性虐待问题上明显落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国推出《网络安全法》做好准备。”——

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划苹果本周告诉《连线》杂志,它正在将反CSAM的努力和投资集中在其“通信安全”功能上,该公司最初于2021年8月宣布并于去年12月推出。父母和看护人可以通过家庭iCloud帐户选择加入保护措施。这些功能适用于Siri、Apple的Spotlight搜索和Safari搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的CSAM的产生。该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于2021年12月首次提供的通信安全功能的投资。”“我们进一步决定不再继续使用我们之前提出的iCloud照片CSAM检测工具。无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方”——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人