Telegram 转变政策加入儿童安全计划

Telegram 转变政策加入儿童安全计划 12月4日,即时通讯软件 Telegram 同意与一个国际认可的机构合作,阻止儿童性虐待内容 (CSAM) 的传播。互联网观察基金会 (IWF) 被主要的在线服务机构用来帮助他们检测和删除 CSAM,并防止其传播。Telegram 曾多次拒绝参与该或任何类似计划。然而,在其创始人帕维尔·杜罗夫因涉嫌未能控制极端内容而在巴黎被捕四个月后,Telegram 宣布改变政策。IWF 将 Telegram 的决定描述为“变革性的”,但警告说,这只是该应用“漫长旅程”的第一步。IWF 临时首席执行官德里克·雷-希尔表示:“通过加入 IWF,Telegram 可以开始部署我们世界领先的工具,以帮助确保这些内容不能在该服务上共享。”

相关推荐

封面图片

政策团体要求苹果放弃侦测儿童色情内容的计划

政策团体要求苹果放弃侦测儿童色情内容的计划 路透8月18日 - 世界各地90多个政策和权利团体将于周四发表一封公开信,敦促苹果(AAPL.O)放弃扫描儿童信息中的裸体内容和成人手机中的儿童性虐待图片的计划。 “虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果,”这些团体在事先透露给路透的信中写到。 总部设在美国的非营利组织民主与科技中心(CDT)组织了这项迄今为止针对一家公司加密问题的最大规模活动。

封面图片

警方抱怨 OnlyFans 付费墙增加了发现儿童色情材料的难度

警方抱怨 OnlyFans 付费墙增加了发现儿童色情材料的难度 OnlyFans 付费墙让警方难以发现平台上的儿童色情材料(CSAM),尤其是新出现的 CSAM 材料。每一位 OnlyFans 内容创作者都是在自己的付费墙后面发布内容,因此除非订阅所有 OnlyFans 账号,否则不太可能独立核实发布了多少 CSAM。OnlyFans 声称其平台上的 CSAM 数量非常少,它在 2023 年只删除了 347 条被怀疑是 CSAM 的帖子。OnlyFans 表示,如果一个账号被怀疑从事创作或传播 CSAM,警方能获得该账号的完整访问权限。 via Solidot

封面图片

活动人士在苹果总部集会 要求恢复儿童安全保护措施

活动人士在苹果总部集会 要求恢复儿童安全保护措施 Heat Initiative 首席执行官莎拉-加德纳(Sarah Gardner)对硅谷说:"我们不想来这里,但我们觉得必须来。只有这样,才能引起人们的注意,让苹果公司更加重视在其平台上保护儿童。"2021 年,苹果公司计划推出一项新功能,能够将iCloud照片与已知的 CSAM 图像数据库进行比对。如果发现匹配,苹果公司将对图片进行审查,并向 NCMEC 报告任何相关发现。该机构是虐待儿童材料的报告中心,与美国各地的执法机构合作。在多个团体的强烈反对下,公司于同年 12 月中旬暂停了该计划,并最终在次年 12 月完全放弃了该计划。苹果废弃的 CSAM 检测工具当被问及原因时,苹果公司表示, 该计划将"为数据窃贼寻找和利用新的威胁载体",并担心这些载体会危及安全性,而这正是苹果公司引以为豪的严肃话题。虽然苹果公司从未正式推出 CSAM 检测系统,但它推出了一项功能,当儿童在"信息"、AirDrop、FaceTime视频信息和其他应用程序中接收或试图发送含有裸体内容时,该功能会发出警报。然而,抗议者认为这一系统不足以追究拥有 CSAM 的掠夺者的责任,他们更希望恢复以前废弃的系统。"我们正试图与苹果公司进行对话,以实施这些改变,"抗议者克里斯蒂娜-阿尔马吉安(Christine Almadjian)周一表示。"他们不认为这些是必要的行动"。这也不是苹果公司第一次与 Heat Initiative 发生冲突。2023 年,该组织针对苹果发起了一场耗资数百万美元的运动。 ... PC版: 手机版:

封面图片

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

封面图片

X 因未能提供有关虐待儿童内容的信息而被澳大利亚罚款

X 因未能提供有关虐待儿童内容的信息而被澳大利亚罚款 澳大利亚网络安全监管机构 eSafety 周一对 X(前身为 Twitter)处以 386,000 美元的罚款,原因是该平台未能回答有关该平台针对虐待儿童内容所采取行动的“关键问题”。 该监管机构于 2 月份根据该国的《在线安全法》向 Google、TikTok、Twitch、Discord 和 X(当时称为 Twitter)发出了法律通知。通知要求这些公司回答有关处理儿童性虐待材料 (CSAM) 的问题。 消息来源:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人