苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

相关推荐

封面图片

沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

封面图片

苹果拒绝重启检测上报虐童内容功能

苹果拒绝重启检测上报虐童内容功能 苹果 近日拒绝了一个名为 Heat Initiative 的权益组织关于重新启用检测上报儿童性虐待内容(CSAM)功能的提议,并回信解释了此前放弃这项备受争议功能的背景。 苹果尽管认同 CSAM 需要控制,但此前经过研究认为,即使采用保护隐私的措施,也不应推进涉及服务端的 CSAM 扫描功能,因为扫描私人 iCloud 数据将“为数据盗窃创造新的路径,为大规模监视打开后门”。 Heat Initiative 对苹果决定终止该功能感到失望。

封面图片

FBI逮捕利用AI生成儿童性虐待图像的男子

FBI逮捕利用AI生成儿童性虐待图像的男子 美国联邦调查局因涉嫌使用人工智能生成儿童性虐待图像并将其发送给未成年人而以刑事指控逮捕了一名男子。 检察官在20日的声明中说,来自威斯康星州霍尔门的42岁男子史蒂文·安德雷格涉嫌使用文本到图像生成式人工智能模型 Stable Diffusion 创建“数千张青春期前未成年人的逼真图像”。从安德雷格的电子设备中恢复的证据显示,他使用与未成年人相关的特定的、露骨的色情文本提示生成了这些图像,然后将其存储在计算机上。”他随后与一名15岁的男孩进行了交流,描述了他创建图像的过程,并通过 Instagram 私信向他发送了几张人工智能生成的未成年人图像。 (摘抄部分)

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。 欧盟正在通过一项新规定,该规定将要求对数字消息进行大规模扫描,包括加密消息。周四,欧盟各国政府将对这一提议的立法采取立场,该立法旨在发现儿童性虐待材料(CSAM)。投票将决定该提议是否拥有足够的支持以在欧盟的立法过程中推进。 这项法律首次出台于 2022 年,将实施一个“上传审核”系统,扫描你所有的数字消息,包括共享的图片、视频和链接。每个被要求安装这种“审查”监控技术的服务,还必须征得你的同意来扫描你的消息。如果你不同意,你将无法分享图片或网址。 这已经够疯狂了,提议的立法似乎同时支持和反对端到端加密。起初,它强调端到端加密是“保护基本权利的必要手段”,但随后又提到加密消息服务可能“无意中成为可以共享或传播儿童性虐待材料的安全区域。” 拟议的解决方案是敞开消息供扫描但在某种程度上不会影响端到端加密提供的隐私层。该建议表示,新审核系统可以通过在应用程序如 Signal、WhatsApp 和 Messenger 加密消息之前扫描消息内容来实现这一点。 对此,Signal 总裁梅雷迪思·惠特克表示,如果这些规定成为法律,Signal 将在欧盟停止运行,因为该提案“从根本上破坏了加密”,无论是在加密前扫描还是其他。惠特克写道:“我们可以称之为后门、前门或者‘上传审核’,但无论我们怎么称呼,这些方法中的每一种都会制造一个可以被黑客和敌对国家利用的漏洞,它们取代了牢不可破的数学保护,带来的是一个高价值的漏洞。” 包括电子前沿基金会、民主与技术中心和 Mozilla 在内的几家组织也签署了一份联合声明,敦促欧盟拒绝扫描用户内容的提议。 标签: #欧盟 #聊天控制法 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人