美国总检察长联名呼吁采取行动阻止AI生成的儿童色情图像

美国总检察长联名呼吁采取行动阻止AI生成的儿童色情图像信中写道:"作为我们各自州和地区的总检察长,我们对各自辖区内儿童的安全深感忧虑。虽然针对儿童的互联网犯罪已经被积极起诉,但我们担心人工智能正在创造一个新的虐待领域,使这种起诉更加困难。"StableDiffusion等开源图像合成技术可以轻松创建人工智能生成的色情作品,围绕增强这种能力的工具和附加组件已经形成了一个庞大的社区。由于这些人工智能模型可以公开获得,而且通常在本地运行,因此有时没有任何防护措施来防止有人制作儿童色情图片,这给美国的顶级检察官敲响了警钟。(值得注意的是,Midjourney、DALL-E和AdobeFirefly都内置了禁止创建色情内容的过滤器)。信中写道:"创建这些图像比以往任何时候都要容易,因为任何人都可以将人工智能工具下载到自己的电脑上,只需输入用户想要看到的内容的简短描述即可创建图像。而且,由于许多人工智能工具都是'开源'的,这些工具可以不受限制、不受管制地运行。"正如我们之前所报道的,利用社交媒体上的照片,在未经本人同意的情况下创建人工智能生成的深度假人也变得相对容易。总检察长们提到了类似的担忧,并将其延伸至儿童图像:"人工智能工具可以通过研究受虐待儿童的真实照片,快速、轻松地创建'深度伪造',生成显示这些儿童性姿势的新图像。这涉及将一个人的脸叠加到另一个人的身体上。还可以通过将互联网上原本未受害儿童的照片与受虐儿童的照片叠加,生成涉及先前未受伤害儿童的新CSAM,从而生成'深度伪造'图像"。"在考虑有关人工智能生成儿童图像的法规时,一个显而易见的问题出现了:如果图像是假的,是否造成了伤害?对于这个问题,总检察长们提出了一个答案,他们指出,无论真实的儿童是否受到虐待,这些技术都会给儿童及其家庭带来风险。他们担心,即使是不切实际的人工智能生成的CSAM也会"支持儿童剥削市场的增长,使虐待儿童正常化,并刺激那些试图将儿童性化的人的欲望"。美国对色情制品的监管历来是一种微妙的平衡,既要维护言论自由权,又要保护弱势群体免受伤害。然而,对于儿童,监管的天平却倾向于更严格的限制,因为人们对保护儿童几乎达成了普遍共识。正如美国司法部所写,"儿童色情图片不受第一修正案权利的保护,根据联邦法律属于非法违禁品"。事实上,正如美联社指出的那样,54位政治立场各异的总检察长在任何事情上达成一致意见都是非常罕见的。然而,目前还不清楚国会可以采取什么形式的行动来阻止这类图像的生成,同时又不限制个人使用人工智能生成合法图像的权利,而这种能力可能会受到技术限制的偶然影响。同样,政府也无法阻止稳定扩散公司发布人工智能模型,因为这些模型已经被广泛使用。不过,总检察长们还是提出了一些建议:首先,国会应成立一个专家委员会,专门研究人工智能用于剥削儿童的手段和方法,并提出阻止和解决这种剥削的方案。由于这项技术发展迅速,该委员会将持续运作,以确保对该问题有最新的了解。虽然我们知道已经成立了几个政府办公室和委员会对人工智能进行总体评估,但有必要成立一个专门负责保护儿童免受人工智能侵害的工作组,以确保我们中的弱势群体不被遗忘。其次,在考虑专家委员会的建议后,国会应采取行动阻止和解决剥削儿童的问题,例如扩大现有的对CSAM的限制,明确涵盖人工智能生成的CSAM。这将确保检察官拥有保护儿童所需的工具。值得注意的是,一些虚构的CSAM描述在美国是非法的(尽管这是一个复杂的问题),这可能已经涵盖了人工智能生成的"淫秽"材料。在保护儿童免受剥削的必要性与不过度束缚快速发展的科技领域(或侵犯个人权利)之间建立适当的平衡在实践中可能很难,这可能就是为什么总检察长们建议成立一个委员会来研究任何潜在的法规。过去,一些针对科技领域CSAM的善意斗争包含了有争议的副作用,为可能影响守法者隐私和权利的潜在越权行为打开了大门。此外,尽管CSAM是一个非常真实且令人憎恶的问题,但保护儿童的普遍诉求也被审查制度的倡导者用作言辞上的挡箭牌。人工智能可以说是2023年最具争议性的科技话题,用煽情的语言描绘出一幅飞速发展、末日即将来临的景象已成为当下的流行风格。同样,这封信的作者也用戏剧性的行动呼吁来表达他们的深切担忧:"我们正在与时间赛跑,以保护我们国家的儿童免受人工智能的危害。事实上,众所周知的城墙已经被攻破。现在是采取行动的时候了"。...PC版:https://www.cnbeta.com.tw/articles/soft/1382257.htm手机版:https://m.cnbeta.com.tw/view/1382257.htm

相关推荐

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容(CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制CSAM扩散的新原则。他们承诺确保训练数据集不包含CSAM,避免使用包含CSAM的高风险数据集,并从数据源中删除CSAM图像或指向CSAM的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何CSAM图像,并且只发布经过儿童安全评估后的模型。其他签署者包括Anthropic、Civita、Metaphysical、MistralAI和StabilityAI。——

封面图片

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子司法部在周一的一份公告中说:"这些图像中有许多描绘了裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器,或与男性发生性关系。从安德雷格的电子设备中找到的证据显示,他利用与未成年人有关的特定、露骨的文字提示生成了这些图片,然后将其存储在自己的电脑中。"据称,他随后与一名15岁的男孩进行了交流,描述了自己创建图片的过程,并通过Instagram的直接消息向他发送了几张人工智能生成的未成年人图片。在一些信息中,安德雷格告诉Instagram用户,他使用Telegram发布人工智能生成的CSAM。法庭记录指控说:"他通过Instagram和Telegram积极建立了一个由臭味相投的犯罪者组成的在线社区,在这个社区里,他可以炫耀他对未成年人的淫秽描绘,并与这些其他犯罪者讨论他们对儿童的共同性兴趣。换句话说,他利用这些GenAI图像来吸引其他罪犯,这些罪犯可以将他对儿童的性兴趣正常化并加以确认,同时助长这些罪犯和他自己看到未成年人遭受性虐待的兴趣。"这标志着联邦调查局首次指控某人利用人工智能制作儿童性虐待材料。今年3月,威斯康星州警方指控安德雷格两项"让儿童接触有害材料"的罪名,以及另一项"与13岁以下儿童发生性接触"的罪名,但他拒绝认罪。根据福布斯当时的报道。警长的副手在一份宣誓书中说,安德雷格在网上接受其他人的请求,生成青少年的人工智能图像,现今人工智能色情市场已经成为滥用图像制造商的大生意.公告指出,安德雷格之所以落网,是因为Instagram向国家失踪与被剥削儿童中心报告了他的账户传播图片的行为。法庭记录称,"他的笔记本电脑里有13000多张GenAI图像,其中数百张(如果不是数千张的话)描绘了未成年裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器。还有一些图片描绘了未成年少女触摸看似成年男性的阴茎或进行性交的画面。笔记本电脑中的其他证据表明,他使用了极其具体和明确的提示来创建这些图像。同样,他还使用了特定的'负面'提示,即指导GenAI模型在生成的内容中不包含哪些内容的提示,以避免生成描绘成年人的图像"。此前媒体报道了StableDiffusion生成儿童性虐待材料的能力,以及生成式人工智能公司承认其用户可能使用其工具制作CSAM的情况,尽管官方已经使用"负面提示"来避免创建成人人工智能图像的情况。这个案例证明了在线虐童问题专家几个月前警告过的问题,当时LAION-5B数据集被发现包含疑似儿童性虐待图像。专家曾警告过:即使在人工智能生成的图像中无法识别真实的儿童,性剥削者者也可能利用生成的图像来诱骗真实的儿童。首席副助理司法部长NicoleM.Argentieri在联邦调查局的一份新闻稿中说:"今天的公告传达了一个明确的信息:使用人工智能制作儿童色情图片是非法的,司法部将毫不犹豫地追究那些拥有、制作或传播人工智能生成的儿童性虐待材料的人的责任。"安德雷格被联邦拘留,等待定于5月22日举行的拘留听证会。...PC版:https://www.cnbeta.com.tw/articles/soft/1431703.htm手机版:https://m.cnbeta.com.tw/view/1431703.htm

封面图片

FBI逮捕利用AI生成儿童性虐待图像的男子

FBI逮捕利用AI生成儿童性虐待图像的男子美国联邦调查局因涉嫌使用人工智能生成儿童性虐待图像并将其发送给未成年人而以刑事指控逮捕了一名男子。检察官在20日的声明中说,来自威斯康星州霍尔门的42岁男子史蒂文·安德雷格涉嫌使用文本到图像生成式人工智能模型StableDiffusion创建“数千张青春期前未成年人的逼真图像”。从安德雷格的电子设备中恢复的证据显示,他使用与未成年人相关的特定的、露骨的色情文本提示生成了这些图像,然后将其存储在计算机上。”他随后与一名15岁的男孩进行了交流,描述了他创建图像的过程,并通过Instagram私信向他发送了几张人工智能生成的未成年人图像。——(摘抄部分)

封面图片

白宫呼吁遏制 AI 色情图像传播

白宫呼吁遏制AI色情图像传播据美联社5月23日报道,美国政府正在敦促科技行业和金融机构关闭越来越庞大的利用人工智能(AI)制作性侵图像的市场。新出现的生成式人工智能工具可以轻松将一个人的肖像转换成色情图像,便于这些逼真的深度伪造图像在聊天室或者社交平台上传播。受害者无论是名人还是儿童,都几乎没有办法阻止这种行为。美国白宫于5月23日发出呼吁,希望科技公司在尚无联邦立法的情况下自愿开展合作。美国官员希望私营部门承诺采取一系列具体措施,遏制这种未经当事人同意就创作、传播人工智能图像并从中获利的行为,包括要打击涉及儿童的性暴露图像。拜登的首席科学顾问、白宫科技政策办公室主任阿拉蒂・普拉巴卡尔说:“随着生成式人工智能进入视野,所有人都在猜测第一个真正意义上的危害将在哪里出现。我认为我们有答案了。”普拉巴卡尔告诉美联社记者,在人工智能工具的推动下,未经当事人同意的图像正以“惊人的加速度”涌现出来,且主要针对妇女和女童,而这很可能颠覆她们的生活。她说:“我们看到问题在加速发展,因为生成式人工智能正在飞速发展。最快的解决办法就是让公司站出来承担责任。”美联社记者拿到的一份白宫文件指出,应该拿出行动的不仅仅是人工智能开发者,还包括支付处理机构、金融机构、云计算供应方、搜索引擎以及“互联网看门人”——即苹果、谷歌等决定手机软件能否进入应用商店的公司。白宫认为,私营部门应该加大力度,“打破”图像类性侵行为的货币化过程,限制支付渠道,尤其限制那些发布未成年人性暴露图片的网站。受到深度伪造色情图像伤害的人士当中,最出名的恐怕要数美国音乐人泰勒・斯威夫特。今年1月,这位创作型歌手的人工智能色情图像开始在社交平台上流传,斯威夫特的粉丝进行了反击。部分虚假图像被溯源至美国微软公司旗下的人工智能视觉设计工具,微软随即承诺将加强防护措施。(参考消息)

封面图片

澳大利亚新法规要求科技公司消除AI生成的虐待儿童图像

澳大利亚新法规要求科技公司消除AI生成的虐待儿童图像澳大利亚电子安全专员JulieInmanGrant表示,科技公司需要在减少其产品可能带来的危害方面发挥主导作用。她指出,目前已经出现了合成虐待儿童材料,并称恐怖组织正在使用生成式人工智能来制作宣传材料,这已经成为现实,不再是幻想。因此,有必要采取行动。图源备注:图片由AI生成,图片授权服务商Midjourney根据新的法规,搜索引擎公司将被要求定期审查和改进其人工智能工具,以确保不返回“1A类”材料,包括儿童性虐待、恐怖主义和极端暴力材料。此外,这些公司还必须研究技术,帮助用户检测和识别可从其服务访问的深度伪造图像。这一法规被认为是世界上第一批类似框架之一。JulieInmanGrant形容人工智能的迅猛发展为一场“军备竞赛”,并表示这一技术的演变“让大多数政策制定者、监管机构和国家措手不及”。她认为,对于生成式人工智能,监管工具的使用需要有不同的思考方式,并强调监管审查必须从设计和部署阶段开始,而不是问题出现后才采取应对措施。在这一背景下,新法规要求科技公司从一开始就将进一步监管这些工具的规定纳入其中,而不是在问题出现后进行应对,这种情况类似于汽车制造商被要求安装安全带。JulieInmanGrant表示,这种做法对科技行业是有商业意义的,现在科技行业需要类似于“安全带时刻”的规定。电子安全专员还表示,监管机构已经意识到一些不良分子正在利用新的人工智能工具进行非法活动,包括生成虐待儿童材料。新规则将迫使科技公司不仅要减少其平台上的危害,还要致力于构建工具,促进更高的在线安全,例如检测深度伪造图像。澳大利亚总检察长MarkDreyfus在议会上宣布,澳大利亚联邦警察正在使用人工智能来检测虐待儿童材料,而不再依赖手动审查照片。这一倡议的新工具呼吁成年人提交自己儿童时期的照片,以帮助训练人工智能模型,从而更好地应对虐待儿童材料问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1382487.htm手机版:https://m.cnbeta.com.tw/view/1382487.htm

封面图片

谷歌 DeepMind 推出了人工智能生成图像的水印工具

谷歌DeepMind推出了人工智能生成图像的水印工具谷歌DeepMind推出了一款新的水印工具,可以标记图像是否是由人工智能生成的。该工具名为SynthID,最初仅供Google人工智能图像生成器Imagen的用户使用,该生成器托管在GoogleCloud的机器学习平台Vertex上。用户将能够使用Imagen生成图像,然后选择是否添加水印。希望它可以帮助人们辨别人工智能生成的内容何时被冒充为真实内容,或者帮助保护版权。ViaHuaHua投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人