苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测

苹果宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。 #抽屉IT

相关推荐

封面图片

沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

封面图片

FBI逮捕利用AI生成儿童性虐待图像的男子

FBI逮捕利用AI生成儿童性虐待图像的男子 美国联邦调查局因涉嫌使用人工智能生成儿童性虐待图像并将其发送给未成年人而以刑事指控逮捕了一名男子。 检察官在20日的声明中说,来自威斯康星州霍尔门的42岁男子史蒂文·安德雷格涉嫌使用文本到图像生成式人工智能模型 Stable Diffusion 创建“数千张青春期前未成年人的逼真图像”。从安德雷格的电子设备中恢复的证据显示,他使用与未成年人相关的特定的、露骨的色情文本提示生成了这些图像,然后将其存储在计算机上。”他随后与一名15岁的男孩进行了交流,描述了他创建图像的过程,并通过 Instagram 私信向他发送了几张人工智能生成的未成年人图像。 (摘抄部分)

封面图片

苹果放弃了在iCloud上扫描儿童色情的计划

苹果放弃了在iCloud上扫描儿童色情的计划 苹果本周告诉《连线》杂志,它正在将反 CSAM 的努力和投资集中在其“通信安全”功能上,该公司最初于 2021 年 8 月宣布并于去年 12 月推出。 父母和看护人可以通过家庭 iCloud 帐户选择加入保护措施。 这些功能适用于 Siri、Apple 的 Spotlight 搜索和 Safari 搜索,如果有人正在查看或搜索儿童性虐待材料,就会发出警告,并在现场提供资源以报告内容和寻求帮助。 此外,保护的核心是消息的通信安全,如果儿童收到或试图发送包含裸体的照片,看护者可以设置该保护以向儿童提供警告和资源。 目标是在儿童剥削发生或变得根深蒂固之前制止它,并减少新的 CSAM 的产生。 该公司在一份声明中告诉《连线》杂志:“在与专家广泛协商以收集我们去年提出的儿童保护举措的反馈意见后,我们正在加深对我们于 2021 年 12 月首次提供的通信安全功能的投资。” “我们进一步决定不再继续使用我们之前提出的 iCloud 照片 CSAM 检测工具。 无需公司梳理个人数据即可保护儿童,我们将继续与政府、儿童倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为儿童和我们所有人更安全的地方 ”

封面图片

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子 司法部在周一的一份公告中说:"这些图像中有许多描绘了裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器,或与男性发生性关系。从安德雷格的电子设备中找到的证据显示,他利用与未成年人有关的特定、露骨的文字提示生成了这些图片,然后将其存储在自己的电脑中。"据称,他随后与一名 15 岁的男孩进行了交流,描述了自己创建图片的过程,并通过 Instagram 的直接消息向他发送了几张人工智能生成的未成年人图片。在一些信息中,安德雷格告诉 Instagram 用户,他使用 Telegram 发布人工智能生成的 CSAM。法庭记录指控说:"他通过 Instagram 和 Telegram 积极建立了一个由臭味相投的犯罪者组成的在线社区,在这个社区里,他可以炫耀他对未成年人的淫秽描绘,并与这些其他犯罪者讨论他们对儿童的共同性兴趣。换句话说,他利用这些 GenAI 图像来吸引其他罪犯,这些罪犯可以将他对儿童的性兴趣正常化并加以确认,同时助长这些罪犯和他自己看到未成年人遭受性虐待的兴趣。"这标志着联邦调查局首次指控某人利用人工智能制作儿童性虐待材料。今年 3 月,威斯康星州警方指控安德雷格两项"让儿童接触有害材料"的罪名,以及另一项"与 13 岁以下儿童发生性接触"的罪名,但他拒绝认罪。根据福布斯当时的报道。警长的副手在一份宣誓书中说,安德雷格在网上接受其他人的请求,生成青少年的人工智能图像,现今人工智能色情市场已经成为 滥用图像制造商的大生意.公告指出,安德雷格之所以落网,是因为 Instagram 向国家失踪与被剥削儿童中心报告了他的账户传播图片的行为。法庭记录称,"他的笔记本电脑里有 13000 多张 GenAI 图像,其中数百张(如果不是数千张的话)描绘了未成年裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器。还有一些图片描绘了未成年少女触摸看似成年男性的阴茎或进行性交的画面。笔记本电脑中的其他证据表明,他使用了极其具体和明确的提示来创建这些图像。同样,他还使用了特定的'负面'提示,即指导 GenAI 模型在生成的内容中不包含哪些内容的提示,以避免生成描绘成年人的图像"。此前媒体报道了Stable Diffusion生成儿童性虐待材料的能力,以及生成式人工智能公司承认其用户可能使用其工具制作 CSAM 的情况,尽管官方已经使用"负面提示"来避免创建成人人工智能图像的情况。这个案例证明了在线虐童问题专家几个月前警告过的问题,当时LAION-5B 数据集被发现包含疑似儿童性虐待图像。专家曾警告过:即使在人工智能生成的图像中无法识别真实的儿童,性剥削者者也可能利用生成的图像来诱骗真实的儿童。首席副助理司法部长 Nicole M. Argentieri 在联邦调查局的一份新闻稿中说:"今天的公告传达了一个明确的信息:使用人工智能制作儿童色情图片是非法的,司法部将毫不犹豫地追究那些拥有、制作或传播人工智能生成的儿童性虐待材料的人的责任。"安德雷格被联邦拘留,等待定于 5 月 22 日举行的拘留听证会。 ... PC版: 手机版:

封面图片

【美参议员Warren呼吁司法部、国土安全部打击使用加密货币支付儿童性虐待材料的行为】

【美参议员Warren呼吁司法部、国土安全部打击使用加密货币支付儿童性虐待材料的行为】 美国参议员 Elizabeth Warren 和 Bill Cassidy 敦促美国当局打击在非法交易儿童性虐待材料(CSAM)中使用加密货币的行为。议员们在 4 月 26 日给司法部长 Merrick Garland 和国土安全部(NHS)部长 Alejandro Mayorkas 的两党信件中发出警告。 参议员们认为,加密货币的匿名性是促进 CSAM 支付进入数字领域的关键因素。他们指出,加密货币已成为此类非法活动的首选支付方式,强调迫切需要采取立法和行政行动来解决这一问题。 区块链分析公司 Chainalysis 在 2024 年 1 月的一份报告中证实,基于加密货币的 CSAM 销售问题日益严重。该报告指出,虚拟货币是商业 CSAM 内容买卖双方的主要交易方式。 财政部金融犯罪执法网络(FinCEN)2 月份的一项分析进一步支持了这一发现。FinCEN 的报告显示,为了避免被发现,犯罪者使用虚拟货币的情况有所增加。 分析还发现,金融机构已经提交了数千份与 CSAM 相关的可疑活动报告,确定了与这些犯罪相关的 1800 多个独立比特币钱包地址。 参议员们写道,这些事态发展凸显了强有力的反洗钱措施和有效的执法策略来打击此类犯罪的必要性。 快讯/广告 联系 @xingkong888885

封面图片

苹果公司删除关于CSAM扫描功能的网页

苹果公司删除关于CSAM扫描功能的网页 苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。 苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。 这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。 大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。 苹果继续为"信息"功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。 9月,该公司表示,"根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。"上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。 cnBeta

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人