苹果被指少报其平台上疑似 CSAM 内容

苹果被指少报其平台上疑似CSAM内容7月23日消息,苹果公司被指控低报其平台上儿童性虐待内容(CSAM)的普遍程度。英国儿童保护慈善机构国家防止虐待儿童协会(NSPCC)表示,苹果公司去年向国家失踪与受虐儿童中心(NCMEC)报告了全球267起疑似CSAM案件。与谷歌报告的147万起潜在案例和Meta报告的3060万起相比,这显得微不足道。NSPCC还表示,2022年4月至2023年3月期间,苹果公司在英格兰和威尔士涉及的CSAM案件(337起)比其在全球范围内一年内报告的案件数量还要多。“这之间存在令人担忧的差异”。NSPCC儿童安全在线政策负责人理查德·科拉德说:“苹果在解决儿童性虐待问题上明显落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国推出《网络安全法》做好准备。”——

相关推荐

封面图片

儿童安全倡导组织发起针对苹果公司的抗议活动

儿童安全倡导组织发起针对苹果公司的抗议活动此前,苹果公司以维护用户隐私为由,就放弃计划的原因做出了最详细的回应。作为对苹果公司的回应,HeatInitiative正式推出了其活动网站。该倡议组织在首页发表声明称:"iCloud上存储了儿童性虐待的信息。苹果允许这样做。""苹果公司宣布在2021年检测儿童性虐待图像和视频,这一具有里程碑意义的宣布被悄然推翻,影响了全世界儿童的生活,"声明继续说道。"每过一天,就有孩子因为这种不作为而遭受痛苦,这就是我们呼吁苹果兑现承诺的原因。"该网站包含据称的案例研究,详细介绍了iCloud被用于存储性虐待材料(包括照片、视频和露骨信息)的多个案例,呼吁苹果公司"检测、报告并删除iCloud中的性虐待图片和视频",并"创建一个强大的报告机制,以便用户向苹果公司报告儿童性虐待图片和视频"。该公司提供了一封直接发给蒂姆-库克(TimCook)的信的副本,信中称,"决定扭转方向,不采取CSAM检测措施,令我们感到"震惊和气馁"。信中还有一个按钮,允许访问者向整个苹果公司管理团队发送一封事先写好的电子邮件,要求苹果公司采取行动。儿童性虐待材料是苹果公司一直严重关注的问题,苹果公司曾试图通过设备和iCloud检测工具来解决这一问题。这些备受争议的工具最终于2022年12月被放弃,留下了更多争议。HeatInitiative并不是唯一的探索者。根据9to5mac的报道,ChristianBrothersInvestmentServices和DegroofPetercam也分别提交和支持了有关这一问题的股东决议。以下是信件原文:https://www.scribd.com/document/668571256/Letter-to-Tim-Cook-With-Signatures...PC版:https://www.cnbeta.com.tw/articles/soft/1381113.htm手机版:https://m.cnbeta.com.tw/view/1381113.htm

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。——cnBeta

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能苹果近日拒绝了一个名为HeatInitiative的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。苹果尽管认同CSAM需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的CSAM扫描功能,因为扫描私人iCloud数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。HeatInitiative对苹果决定终止该功能感到失望。https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

封面图片

印度要求 X、YouTube 和 Telegram 从其平台上永久删除 CSAM 内容,否则将剥夺平台免责保护的权利

印度要求X、YouTube和Telegram从其平台上永久删除CSAM内容,否则将剥夺平台免责保护的权利路透孟买10月7日-印度政府表示,已向社交媒体平台X(以前称为Twitter)、YouTube和Telegram发出通知,要求它们确保其平台上没有儿童性虐待内容。政府在星期五一份声明中表示,如果这些公司不遵守规定,可能会被剥夺法律责任保护。这些由电子和信息技术部(MEITY)发出的通知强调了迅速、永久删除平台上任何儿童性虐待材料的重要性。声明援引信息技术部副部长​​拉吉夫·钱德拉谢卡尔(RajeevChandrashekhar)的话说:“如果他们不迅速采取行动,《信息技术法》第79条规定的安全港将被撤销,印度法律规定的后果也将随之而来。”印度政府表示,钱德拉塞卡一直大力倡导从印度互联网上删除此类内容,印度总理纳伦德拉·莫迪政府决心“根据IT规则建立一个安全且值得信赖的互联网”。Telegram周六表示:“Telegram的版主积极巡逻平台的公共部分并接受用户报告,以删除违反我们条款的内容。”X和拥有YouTube的谷歌的代表没有立即回应置评请求。——

封面图片

印度据报要求社交平台确保没有涉及儿童性虐内容

印度据报要求社交平台确保没有涉及儿童性虐内容印度政府向多个社交平台发出通告,包括前身是Twitter的X、Youtube和Telegram等,要求他们确保平台上没有涉及儿童性虐待内容。政府在声明表示,如果公司不遵守规定,可能会被剥夺法律的保护。通告强调社交平台迅速并永久删除平台上任何涉及儿童性虐待内容的重要性。声明引述官员指出,如果他们不迅速采取行动,法例赋予社交平台的安全港将被撤销,法律后果也将随之而来。Telegram表示,服务条款明确禁止出现虐待儿童的内容。他们会积极巡查并接受用户报告,以删除违反条款的内容。X和YouTube母公司谷歌暂时未有回应。2023-10-0710:41:29

封面图片

政策团体要求苹果放弃侦测儿童色情内容的计划

政策团体要求苹果放弃侦测儿童色情内容的计划路透8月18日-世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果(AAPL.O)放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。“虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果,”这些团体在事先透露给路透的信中写到。总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人