世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。

世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。 总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。这些团体在事先透露给路透的信中写道,“虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果。” 一些海外签名者尤其担心这些变化对具有不同法律体系的国家的影响,包括一些已经在加密和隐私问题上发生激烈争论的国家。 CDT安全与监控项目的联合负责人沙伦·布拉德福德·富兰克林说:“苹果公司这样做非常令人失望和不安,因为他们过去一直是捍卫加密技术的坚定盟友。”已签名的互联网协会巴西分会主席弗拉维奥·瓦格纳:“我们主要担心的是这一机制的后果,以及这将如何扩展到其他情况和其他公司,这代表对加密技术的严重削弱。”除了美国和巴西外,其他签名者来自印度、墨西哥、德国、阿根廷、加纳和坦桑尼亚等。 苹果的一位发言人说,该公司在周五的一份文件中已解决隐私和安全关切,该文件概述了为何扫描软件的复杂架构应该能抵制破坏它的企图。 (路透社)

相关推荐

封面图片

政策团体要求苹果放弃侦测儿童色情内容的计划

政策团体要求苹果放弃侦测儿童色情内容的计划 路透8月18日 - 世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果(AAPL.O)放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。 “虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果,”这些团体在事先透露给路透的信中写到。 总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。

封面图片

苹果公司周五宣布,推迟发布备受争议的扫描用户照片库以查找儿童性虐待的图片的功能。

苹果公司周五宣布,推迟发布备受争议的扫描用户照片库以查找儿童性虐待的图片的功能。 苹果在声明中称,“根据用户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间来收集意见,并在发布这些至关重要的儿童安全功能之前进行改进”。 (CNBC)

封面图片

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。

这个提议旨在防止儿童性虐待材料的传播,但实际上会破坏加密技术。 欧盟正在通过一项新规定,该规定将要求对数字消息进行大规模扫描,包括加密消息。周四,欧盟各国政府将对这一提议的立法采取立场,该立法旨在发现儿童性虐待材料(CSAM)。投票将决定该提议是否拥有足够的支持以在欧盟的立法过程中推进。 这项法律首次出台于 2022 年,将实施一个“上传审核”系统,扫描你所有的数字消息,包括共享的图片、视频和链接。每个被要求安装这种“审查”监控技术的服务,还必须征得你的同意来扫描你的消息。如果你不同意,你将无法分享图片或网址。 这已经够疯狂了,提议的立法似乎同时支持和反对端到端加密。起初,它强调端到端加密是“保护基本权利的必要手段”,但随后又提到加密消息服务可能“无意中成为可以共享或传播儿童性虐待材料的安全区域。” 拟议的解决方案是敞开消息供扫描但在某种程度上不会影响端到端加密提供的隐私层。该建议表示,新审核系统可以通过在应用程序如 Signal、WhatsApp 和 Messenger 加密消息之前扫描消息内容来实现这一点。 对此,Signal 总裁梅雷迪思·惠特克表示,如果这些规定成为法律,Signal 将在欧盟停止运行,因为该提案“从根本上破坏了加密”,无论是在加密前扫描还是其他。惠特克写道:“我们可以称之为后门、前门或者‘上传审核’,但无论我们怎么称呼,这些方法中的每一种都会制造一个可以被黑客和敌对国家利用的漏洞,它们取代了牢不可破的数学保护,带来的是一个高价值的漏洞。” 包括电子前沿基金会、民主与技术中心和 Mozilla 在内的几家组织也签署了一份联合声明,敦促欧盟拒绝扫描用户内容的提议。 标签: #欧盟 #聊天控制法 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

美国总统拜登签署法案保护儿童免受网络性虐待和性剥削

美国总统拜登签署法案保护儿童免受网络性虐待和性剥削 参议员乔恩·奥索夫和玛莎·布莱克本4月29日提出了一项两党法案,以保护儿童免受网络性剥削。拜登总统5月7日正式签署《报告法案》成为法律。这标志着网站和社交媒体平台首次有法律义务向国家失踪和受虐儿童中心 (NCMEC) 儿童性侵举报热线报告与联邦贩卖、诱骗和引诱儿童有关的犯罪行为。根据新法律,故意忽视在其网站上报告儿童性虐待内容的公司将遭受巨额罚款。例如,对于拥有超过1亿用户的平台,首次违规将被处以85万美元的罚款。为了确保执法部门认真彻底地调查儿童性剥削的紧急威胁,法律要求证据保留更长时间,可以长达一年,而不是仅仅90天。

封面图片

苹果宣布暂时推迟扫描手机相册的计划

苹果宣布暂时推迟扫描手机相册的计划 苹果公司上个月宣布了几项新的儿童安全功能,但是在 iPhone 上扫描 CSAM(儿童性虐待照片)内容的计划引起了不小的争议。苹果今日表示,在向公众推出之前,将投入更多时间来完善这些功能。 上个月,在宣布新的 CSAM 检测技术后,苹果受到了社会各界的强烈批评。即使苹果的内部员工也担心,政府可能会滥用这项技术,迫使苹果审查政治内容。不少人认为苹果正在摧毁其赖以生存的「尊重隐私」人设。 需要注意的是,从 2019 年开始,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料。[1] [1] 我们安全了 暂时 本频道强烈反对任何以保护儿童/打击恐怖主义为借口,对所有人进行有罪推定的监控行为和技术。这些行为和技术将会不可避免地导致对隐私权的侵犯和寒蝉效应的发生。 "Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." Edward Snowden 更何况,这项技术还

封面图片

FBI逮捕利用AI生成儿童性虐待图像的男子

FBI逮捕利用AI生成儿童性虐待图像的男子 美国联邦调查局因涉嫌使用人工智能生成儿童性虐待图像并将其发送给未成年人而以刑事指控逮捕了一名男子。 检察官在20日的声明中说,来自威斯康星州霍尔门的42岁男子史蒂文·安德雷格涉嫌使用文本到图像生成式人工智能模型 Stable Diffusion 创建“数千张青春期前未成年人的逼真图像”。从安德雷格的电子设备中恢复的证据显示,他使用与未成年人相关的特定的、露骨的色情文本提示生成了这些图像,然后将其存储在计算机上。”他随后与一名15岁的男孩进行了交流,描述了他创建图像的过程,并通过 Instagram 私信向他发送了几张人工智能生成的未成年人图像。 (摘抄部分)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人