澳大利亚新法规要求科技公司消除AI生成的虐待儿童图像

澳大利亚新法规要求科技公司消除AI生成的虐待儿童图像澳大利亚电子安全专员JulieInmanGrant表示,科技公司需要在减少其产品可能带来的危害方面发挥主导作用。她指出,目前已经出现了合成虐待儿童材料,并称恐怖组织正在使用生成式人工智能来制作宣传材料,这已经成为现实,不再是幻想。因此,有必要采取行动。图源备注:图片由AI生成,图片授权服务商Midjourney根据新的法规,搜索引擎公司将被要求定期审查和改进其人工智能工具,以确保不返回“1A类”材料,包括儿童性虐待、恐怖主义和极端暴力材料。此外,这些公司还必须研究技术,帮助用户检测和识别可从其服务访问的深度伪造图像。这一法规被认为是世界上第一批类似框架之一。JulieInmanGrant形容人工智能的迅猛发展为一场“军备竞赛”,并表示这一技术的演变“让大多数政策制定者、监管机构和国家措手不及”。她认为,对于生成式人工智能,监管工具的使用需要有不同的思考方式,并强调监管审查必须从设计和部署阶段开始,而不是问题出现后才采取应对措施。在这一背景下,新法规要求科技公司从一开始就将进一步监管这些工具的规定纳入其中,而不是在问题出现后进行应对,这种情况类似于汽车制造商被要求安装安全带。JulieInmanGrant表示,这种做法对科技行业是有商业意义的,现在科技行业需要类似于“安全带时刻”的规定。电子安全专员还表示,监管机构已经意识到一些不良分子正在利用新的人工智能工具进行非法活动,包括生成虐待儿童材料。新规则将迫使科技公司不仅要减少其平台上的危害,还要致力于构建工具,促进更高的在线安全,例如检测深度伪造图像。澳大利亚总检察长MarkDreyfus在议会上宣布,澳大利亚联邦警察正在使用人工智能来检测虐待儿童材料,而不再依赖手动审查照片。这一倡议的新工具呼吁成年人提交自己儿童时期的照片,以帮助训练人工智能模型,从而更好地应对虐待儿童材料问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1382487.htm手机版:https://m.cnbeta.com.tw/view/1382487.htm

相关推荐

封面图片

欧盟拟议新法规要求大规模扫描数字消息,包括加密消息,以检测儿童性虐待材料

欧盟拟议新法规要求大规模扫描数字消息,包括加密消息,以检测儿童性虐待材料欧盟正接近通过一项新法规,该法规将强制对所有数字消息进行大规模扫描,包括加密消息,目的是检测儿童性虐待材料(CSAM)。这项提议的法律,首次于2022年提出,将实施一种“上传审查”系统,扫描所有数字消息,包括共享的图像、视频和链接。如果用户不同意扫描,将无法分享图片或链接。该法律似乎同时支持和拒绝端到端加密,一方面强调端到端加密是保护基本权利的必要手段,另一方面指出加密消息服务可能成为儿童性虐待材料的“安全区域”。隐私倡导者和一些组织,如Mozilla,已签署联合声明,敦促欧盟拒绝扫描用户内容的提议。议会成员也表达了对该提议的反对,指出无差别搜索和错误频出的私人聊天和私密照片泄露将破坏我们的基本通信隐私权。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子司法部在周一的一份公告中说:"这些图像中有许多描绘了裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器,或与男性发生性关系。从安德雷格的电子设备中找到的证据显示,他利用与未成年人有关的特定、露骨的文字提示生成了这些图片,然后将其存储在自己的电脑中。"据称,他随后与一名15岁的男孩进行了交流,描述了自己创建图片的过程,并通过Instagram的直接消息向他发送了几张人工智能生成的未成年人图片。在一些信息中,安德雷格告诉Instagram用户,他使用Telegram发布人工智能生成的CSAM。法庭记录指控说:"他通过Instagram和Telegram积极建立了一个由臭味相投的犯罪者组成的在线社区,在这个社区里,他可以炫耀他对未成年人的淫秽描绘,并与这些其他犯罪者讨论他们对儿童的共同性兴趣。换句话说,他利用这些GenAI图像来吸引其他罪犯,这些罪犯可以将他对儿童的性兴趣正常化并加以确认,同时助长这些罪犯和他自己看到未成年人遭受性虐待的兴趣。"这标志着联邦调查局首次指控某人利用人工智能制作儿童性虐待材料。今年3月,威斯康星州警方指控安德雷格两项"让儿童接触有害材料"的罪名,以及另一项"与13岁以下儿童发生性接触"的罪名,但他拒绝认罪。根据福布斯当时的报道。警长的副手在一份宣誓书中说,安德雷格在网上接受其他人的请求,生成青少年的人工智能图像,现今人工智能色情市场已经成为滥用图像制造商的大生意.公告指出,安德雷格之所以落网,是因为Instagram向国家失踪与被剥削儿童中心报告了他的账户传播图片的行为。法庭记录称,"他的笔记本电脑里有13000多张GenAI图像,其中数百张(如果不是数千张的话)描绘了未成年裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器。还有一些图片描绘了未成年少女触摸看似成年男性的阴茎或进行性交的画面。笔记本电脑中的其他证据表明,他使用了极其具体和明确的提示来创建这些图像。同样,他还使用了特定的'负面'提示,即指导GenAI模型在生成的内容中不包含哪些内容的提示,以避免生成描绘成年人的图像"。此前媒体报道了StableDiffusion生成儿童性虐待材料的能力,以及生成式人工智能公司承认其用户可能使用其工具制作CSAM的情况,尽管官方已经使用"负面提示"来避免创建成人人工智能图像的情况。这个案例证明了在线虐童问题专家几个月前警告过的问题,当时LAION-5B数据集被发现包含疑似儿童性虐待图像。专家曾警告过:即使在人工智能生成的图像中无法识别真实的儿童,性剥削者者也可能利用生成的图像来诱骗真实的儿童。首席副助理司法部长NicoleM.Argentieri在联邦调查局的一份新闻稿中说:"今天的公告传达了一个明确的信息:使用人工智能制作儿童色情图片是非法的,司法部将毫不犹豫地追究那些拥有、制作或传播人工智能生成的儿童性虐待材料的人的责任。"安德雷格被联邦拘留,等待定于5月22日举行的拘留听证会。...PC版:https://www.cnbeta.com.tw/articles/soft/1431703.htm手机版:https://m.cnbeta.com.tw/view/1431703.htm

封面图片

FBI逮捕利用AI生成儿童性虐待图像的男子

FBI逮捕利用AI生成儿童性虐待图像的男子美国联邦调查局因涉嫌使用人工智能生成儿童性虐待图像并将其发送给未成年人而以刑事指控逮捕了一名男子。检察官在20日的声明中说,来自威斯康星州霍尔门的42岁男子史蒂文·安德雷格涉嫌使用文本到图像生成式人工智能模型StableDiffusion创建“数千张青春期前未成年人的逼真图像”。从安德雷格的电子设备中恢复的证据显示,他使用与未成年人相关的特定的、露骨的色情文本提示生成了这些图像,然后将其存储在计算机上。”他随后与一名15岁的男孩进行了交流,描述了他创建图像的过程,并通过Instagram私信向他发送了几张人工智能生成的未成年人图像。——(摘抄部分)

封面图片

美国总检察长联名呼吁采取行动阻止AI生成的儿童色情图像

美国总检察长联名呼吁采取行动阻止AI生成的儿童色情图像信中写道:"作为我们各自州和地区的总检察长,我们对各自辖区内儿童的安全深感忧虑。虽然针对儿童的互联网犯罪已经被积极起诉,但我们担心人工智能正在创造一个新的虐待领域,使这种起诉更加困难。"StableDiffusion等开源图像合成技术可以轻松创建人工智能生成的色情作品,围绕增强这种能力的工具和附加组件已经形成了一个庞大的社区。由于这些人工智能模型可以公开获得,而且通常在本地运行,因此有时没有任何防护措施来防止有人制作儿童色情图片,这给美国的顶级检察官敲响了警钟。(值得注意的是,Midjourney、DALL-E和AdobeFirefly都内置了禁止创建色情内容的过滤器)。信中写道:"创建这些图像比以往任何时候都要容易,因为任何人都可以将人工智能工具下载到自己的电脑上,只需输入用户想要看到的内容的简短描述即可创建图像。而且,由于许多人工智能工具都是'开源'的,这些工具可以不受限制、不受管制地运行。"正如我们之前所报道的,利用社交媒体上的照片,在未经本人同意的情况下创建人工智能生成的深度假人也变得相对容易。总检察长们提到了类似的担忧,并将其延伸至儿童图像:"人工智能工具可以通过研究受虐待儿童的真实照片,快速、轻松地创建'深度伪造',生成显示这些儿童性姿势的新图像。这涉及将一个人的脸叠加到另一个人的身体上。还可以通过将互联网上原本未受害儿童的照片与受虐儿童的照片叠加,生成涉及先前未受伤害儿童的新CSAM,从而生成'深度伪造'图像"。"在考虑有关人工智能生成儿童图像的法规时,一个显而易见的问题出现了:如果图像是假的,是否造成了伤害?对于这个问题,总检察长们提出了一个答案,他们指出,无论真实的儿童是否受到虐待,这些技术都会给儿童及其家庭带来风险。他们担心,即使是不切实际的人工智能生成的CSAM也会"支持儿童剥削市场的增长,使虐待儿童正常化,并刺激那些试图将儿童性化的人的欲望"。美国对色情制品的监管历来是一种微妙的平衡,既要维护言论自由权,又要保护弱势群体免受伤害。然而,对于儿童,监管的天平却倾向于更严格的限制,因为人们对保护儿童几乎达成了普遍共识。正如美国司法部所写,"儿童色情图片不受第一修正案权利的保护,根据联邦法律属于非法违禁品"。事实上,正如美联社指出的那样,54位政治立场各异的总检察长在任何事情上达成一致意见都是非常罕见的。然而,目前还不清楚国会可以采取什么形式的行动来阻止这类图像的生成,同时又不限制个人使用人工智能生成合法图像的权利,而这种能力可能会受到技术限制的偶然影响。同样,政府也无法阻止稳定扩散公司发布人工智能模型,因为这些模型已经被广泛使用。不过,总检察长们还是提出了一些建议:首先,国会应成立一个专家委员会,专门研究人工智能用于剥削儿童的手段和方法,并提出阻止和解决这种剥削的方案。由于这项技术发展迅速,该委员会将持续运作,以确保对该问题有最新的了解。虽然我们知道已经成立了几个政府办公室和委员会对人工智能进行总体评估,但有必要成立一个专门负责保护儿童免受人工智能侵害的工作组,以确保我们中的弱势群体不被遗忘。其次,在考虑专家委员会的建议后,国会应采取行动阻止和解决剥削儿童的问题,例如扩大现有的对CSAM的限制,明确涵盖人工智能生成的CSAM。这将确保检察官拥有保护儿童所需的工具。值得注意的是,一些虚构的CSAM描述在美国是非法的(尽管这是一个复杂的问题),这可能已经涵盖了人工智能生成的"淫秽"材料。在保护儿童免受剥削的必要性与不过度束缚快速发展的科技领域(或侵犯个人权利)之间建立适当的平衡在实践中可能很难,这可能就是为什么总检察长们建议成立一个委员会来研究任何潜在的法规。过去,一些针对科技领域CSAM的善意斗争包含了有争议的副作用,为可能影响守法者隐私和权利的潜在越权行为打开了大门。此外,尽管CSAM是一个非常真实且令人憎恶的问题,但保护儿童的普遍诉求也被审查制度的倡导者用作言辞上的挡箭牌。人工智能可以说是2023年最具争议性的科技话题,用煽情的语言描绘出一幅飞速发展、末日即将来临的景象已成为当下的流行风格。同样,这封信的作者也用戏剧性的行动呼吁来表达他们的深切担忧:"我们正在与时间赛跑,以保护我们国家的儿童免受人工智能的危害。事实上,众所周知的城墙已经被攻破。现在是采取行动的时候了"。...PC版:https://www.cnbeta.com.tw/articles/soft/1382257.htm手机版:https://m.cnbeta.com.tw/view/1382257.htm

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容(CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制CSAM扩散的新原则。他们承诺确保训练数据集不包含CSAM,避免使用包含CSAM的高风险数据集,并从数据源中删除CSAM图像或指向CSAM的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何CSAM图像,并且只发布经过儿童安全评估后的模型。其他签署者包括Anthropic、Civita、Metaphysical、MistralAI和StabilityAI。——

封面图片

澳大利亚:若美科技巨头不披露删除虐待儿童材料措施 日均罚款55.5万澳元

澳大利亚:若美科技巨头不披露删除虐待儿童材料措施日均罚款55.5万澳元澳大利亚监管机构向Facebook母公司Meta、苹果公司和微软公司发出法律信函,要求其分享平台打击虐待儿童材料的策略,否则将面临巨额罚款。监管机构利用1月生效的法律,迫使科技巨头们披露他们在28天内采取的检测和删除虐待儿童材料的措施。如若不然,将面临每天555000澳元(约合人民币265万元)的罚款。自2021年以来,澳大利亚对大型科技公司采取了强硬的监管措施,不光要求它们为展示其内容向媒体机构付费,还强制交出发布诽谤性材料的匿名账户详细信息。互联网公司在世界各地都面临着监管压力,他们被要求在不侵犯用户隐私的情况下,监测加密信息和流媒体服务中的虐待儿童材料。机构专员强调,这些活动不再局限于暗网的隐蔽角落,而在孩子们每天使用的主流平台上流通。随着越来越多的公司转向加密的信息服务,并部署了直播等功能,担心此类信息会在平台上肆意传播。微软公司发言人表示,司已经收到法律信函,并计划在28天内作出回应。PC版:https://www.cnbeta.com/articles/soft/1310313.htm手机版:https://m.cnbeta.com/view/1310313.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人