苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能苹果近日拒绝了一个名为HeatInitiative的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。苹果尽管认同CSAM需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的CSAM扫描功能,因为扫描私人iCloud数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。HeatInitiative对苹果决定终止该功能感到失望。https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。——cnBeta

封面图片

APPLE 将检测危害儿童的色情(CSAM)内容

APPLE将检测危害儿童的色情(CSAM)内容首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloudPhotos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保"极高的准确性",即账户不会被错误地标记。这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

封面图片

美国上诉法院判定苹果必须停止销售具有血氧检测功能的手表

美国上诉法院判定苹果必须停止销售具有血氧检测功能的手表苹果公司必须停止在美国销售有血氧检测功能的Series9和Ultra2智能手表,这标志着苹果在与MasimoCorp.的专利纠纷中再遭法律挫折。美国联邦巡回上诉法院拒绝延长苹果对美国国际贸易委员会进口禁令提出的暂停期。这一裁决意味着苹果在上诉期间必须停止销售带有该血氧测量功能的手表,苹果认为上诉期可能会持续一年或更长时间。投稿:@TNSubmbot频道:@TestFlightCN

封面图片

苹果将于周四开始销售没有血氧检测功能的手表

苹果将于周四开始销售没有血氧检测功能的手表在与Masimo公司的专利纠纷遭遇法律挫折后,苹果公司将开始在美国销售没有血氧检测功能的Series9和Ultra2手表。苹果公司周三表示,经过调整的型号将于周四在其零售店和在线商店开始销售。新型号仍将包含血氧监测工具,但无法运行。当天早些时候,美国联邦巡回上诉法院拒绝延长苹果对美国国际贸易委员会进口禁令提出的暂停期。该裁决意味着该公司必须停止在美国销售有血氧检测功能的智能手表,同时该禁令的上诉仍在进行中——苹果认为上诉期可能会持续一年或更长时间。一一

封面图片

苹果被指少报其平台上疑似 CSAM 内容

苹果被指少报其平台上疑似CSAM内容7月23日消息,苹果公司被指控低报其平台上儿童性虐待内容(CSAM)的普遍程度。英国儿童保护慈善机构国家防止虐待儿童协会(NSPCC)表示,苹果公司去年向国家失踪与受虐儿童中心(NCMEC)报告了全球267起疑似CSAM案件。与谷歌报告的147万起潜在案例和Meta报告的3060万起相比,这显得微不足道。NSPCC还表示,2022年4月至2023年3月期间,苹果公司在英格兰和威尔士涉及的CSAM案件(337起)比其在全球范围内一年内报告的案件数量还要多。“这之间存在令人担忧的差异”。NSPCC儿童安全在线政策负责人理查德·科拉德说:“苹果在解决儿童性虐待问题上明显落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国推出《网络安全法》做好准备。”——

封面图片

苹果回应记者最新碰撞检测功能测试视频:没有足够信号来触发

苹果回应记者最新碰撞检测功能测试视频:没有足够信号来触发《华尔街日报(WSJ)》的JoannaStern最近前往密歇根州以测试苹果在iPhone14和AppleWatchUltra中推出的新碰撞检测功能。作为回应,苹果提供了一些关于该功能如何工作的补充信息。PC版:https://www.cnbeta.com/articles/soft/1322811.htm手机版:https://m.cnbeta.com/view/1322811.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人