沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

None

相关推荐

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

封面图片

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。 欧盟正在通过一项新规定,该规定将要求对数字消息进行大规模扫描,包括加密消息。周四,欧盟各国政府将对这一提议的立法采取立场,该立法旨在发现儿童性虐待材料(CSAM)。投票将决定该提议是否拥有足够的支持以在欧盟的立法过程中推进。 这项法律首次出台于 2022 年,将实施一个“上传审核”系统,扫描你所有的数字消息,包括共享的图片、视频和链接。每个被要求安装这种“审查”监控技术的服务,还必须征得你的同意来扫描你的消息。如果你不同意,你将无法分享图片或网址。 这已经够疯狂了,提议的立法似乎同时支持和反对端到端加密。起初,它强调端到端加密是“保护基本权利的必要手段”,但随后又提到加密消息服务可能“无意中成为可以共享或传播儿童性虐待材料的安全区域。” 拟议的解决方案是敞开消息供扫描但在某种程度上不会影响端到端加密提供的隐私层。该建议表示,新审核系统可以通过在应用程序如 Signal、WhatsApp 和 Messenger 加密消息之前扫描消息内容来实现这一点。 对此,Signal 总裁梅雷迪思·惠特克表示,如果这些规定成为法律,Signal 将在欧盟停止运行,因为该提案“从根本上破坏了加密”,无论是在加密前扫描还是其他。惠特克写道:“我们可以称之为后门、前门或者‘上传审核’,但无论我们怎么称呼,这些方法中的每一种都会制造一个可以被黑客和敌对国家利用的漏洞,它们取代了牢不可破的数学保护,带来的是一个高价值的漏洞。” 包括电子前沿基金会、民主与技术中心和 Mozilla 在内的几家组织也签署了一份联合声明,敦促欧盟拒绝扫描用户内容的提议。 标签: #欧盟 #聊天控制法 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

性奴性虐性虐待

封面图片

婚内性虐待

封面图片

#FBI 逮捕利用AI生成 #儿童 #性虐待 图像的男子

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人