欧盟计划本周发布一项法律草案,要求科技公司扫描 CSAM

欧盟计划本周发布一项法律草案,要求科技公司扫描 CSAM 委员会预计将在本周发布一项法律草案,要求Meta Platforms、谷歌和苹果等数字公司在罚款的威胁下检测、删除并向执法部门报告非法虐待图像。 根据POLITICO周二获得的一份提案信息,委员会表示,到目前为止,一些平台采取的自愿措施证明不足以解决滥用在线服务有关 CSAM 的问题。 该规则手册的出台是因为儿童保护热线报告说,在冠状病毒大流行期间,网上流传的令人不安的内容数量创下了纪录。欧洲是托管此类内容的一个热点,2021年全球62%的非法图像位于欧洲的数据服务器上。 由于对一项临时法案的复杂谈判,该法律已经被推迟了一年,该法案明确了科技公司可以自愿检查其平台上的虐待儿童行为。在委员会内部也出现了对立法如何影响隐私的担忧的反击。 经过几个月的游说,科技公司和儿童权利组织正焦急地等待着看这些规则会有多激烈。 内政专员Ylva Johansson一直看好寻找方法来打击网上的虐待内容,包括照片、现场直播和犯罪者诱导孩子拍摄自己的对话。 politico

相关推荐

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

封面图片

欧盟将公布一项具有里程碑意义的法律:限制大型科技公司追踪用户,确立平台监管非法内容的义务

欧盟将公布一项具有里程碑意义的法律:限制大型科技公司追踪用户,确立平台监管非法内容的义务 欧盟准备在周五公布一项具有里程碑意义的法律,该法律将迫使大型科技公司更积极地监管其平台的非法内容,这标志着监管机构遏制大型科技集团权力的最新举措。 据四位知情人士透露,《数字服务法》(DSA)将禁止通过用宗教信仰、性别或性取向等属性来追踪用户。 DSA 是一个立法方案,首次规定了大型科技公司应如何保证用户的网络安全。它是在欧盟通过《数字市场法》一个月后出台的,因为欧盟正在推进20多年来对监管世界上最大的技术公司的法律进行的最大改革。 根据《数字服务法》,导致人们不情愿地点击互联网上的内容的操纵性技术也将面临禁止。 欧盟负责数字政策的执行副主席玛格丽特-维斯塔格说,她希望在周五取得突破。她补充说,《数字服务法》将使监管机构能够采取行动,使用户能够 "安全上网,购买产品和表达自我"。... “《数字服务法》表明,在线平台不能为所欲为,并且他们不会单方面设定用户可以看到或看不到的内容”一位负责立法的欧盟官员表示。 监管机构还将包括一个紧急机制,以迫使平台披露他们正在采取哪些措施来应对 Covid-19 和乌克兰战争的错误信息或宣传。... 两位直接了解此事的人士表示,大型科技公司将为监管费用提供资金,以确保他们遵守监管互联网的义务。 Financial Times

封面图片

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及

苹果公司从其儿童安全网页上删除了对有争议的 CSAM 扫描功能的提及 苹果 公司已经悄悄地从其儿童安全网页上删除了所有提及 CSAM 的内容,这表明在对其方法提出重大批评后,其检测 iPhone 和 iPad 上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折 拍手称快

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

封面图片

英国议会料将批准一项内容广泛的新社交媒体法案草案,如果大型科技公司不为儿童提供保护措施,使他们受到网上某些内容的侵害,公司首席执

英国议会料将批准一项内容广泛的新社交媒体法案草案,如果大型科技公司不为儿童提供保护措施,使他们受到网上某些内容的侵害,公司首席执行官将被追究刑事责任。该法案是针对Alphabet Inc.或Meta Platforms Inc.等大型科技公司的新一轮监管的一部分。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人