大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

相关推荐

封面图片

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺

微软和Google宣布为生成式人工智能服务提供新的儿童安全承诺 这两家公司和其他公司与两个团体合作,提出了这些新的承诺。一个名为"Thorn",是一个致力于打击儿童性虐待的非营利组织。另一个名为"所有科技都应以人为本"(All Tech Is Human),旨在帮助创建一个"负责任的科技生态系统"。微软在博文中表示,它将开发生成式人工智能模型,这些模型将不会在包含儿童性或剥削性内容的数据集上进行训练。这也将有助于保护这些模型在发布后免受此类内容的影响。博文补充道:今天的承诺标志着在防止滥用人工智能技术制作或传播儿童性虐待材料(AIG-CSAM)和其他形式的儿童性伤害方面迈出了重要一步。这一集体行动彰显了科技行业对儿童安全的重视,表明了对道德创新和社会最弱势群体福祉的共同承诺。Google在博文中提到的儿童安全承诺与微软 在其人工智能服务方面所做的一些承诺如出一辙。Google补充说,它有自己的团队专门负责查找显示儿童可能面临危险的内容,此外他们还表示,正试图通过"哈希匹配技术、人工智能分类器和人工审核的结合"来查找和删除涉及儿童性虐待和性剥削的内容。最后,Google宣布支持美国国会关于保护儿童免受虐待和剥削的一系列法案。 ... PC版: 手机版:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen 3迎来升级 Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(Demis Hassabis)说,与前代产品Imagen 2相比,Imagen 3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen 3 将使用 DeepMind 开发的SynthID 方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册 Imagen 3 的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台 Vertex AI 的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。 ... PC版: 手机版:

封面图片

科技公司签署协议打击人工智能制造的选举骗局

科技公司签署协议打击人工智能制造的选举骗局 Facebook 和 Instagram 的母公司 Meta 公司全球事务总裁尼克-克莱格(Nick Clegg)在峰会前接受采访时说:"每个人都认识到,没有一家科技公司、没有一个政府、没有一个民间社会组织能够独自应对这种技术的出现及其可能的邪恶用途。"该协议在很大程度上是象征性的,但针对的是越来越逼真的人工智能生成的图像、音频和视频,"这些图像、音频和视频会欺骗性地伪造或改变政治候选人、选举官员和民主选举中其他关键利益相关者的外表、声音或行动,或向选民提供关于何时、何地以及如何合法投票的虚假信息"。这些公司并未承诺禁止或删除深度伪造内容。相反,该协议概述了它们将采用的方法,以便在创建或在其平台上传播欺骗性人工智能内容时,对其进行检测和标记。协议指出,这些公司将相互分享最佳实践,并在这些内容开始传播时提供"迅速和适度的回应"。承诺的模糊性和缺乏任何有约束力的要求可能有助于赢得众多公司的青睐,但可能会让希望得到更有力保证的民主活动家和监督机构失望。克莱格说:"每家公司都有自己的内容政策,这是无可厚非的。这并不是要给每个人都穿上紧身衣。而且,无论如何,业界没有人认为,你可以通过一扫而过、玩'打地鼠'游戏、找出所有认为可能误导他人的东西来应对全新的技术范式。"就在 50 多个国家将于 2024 年举行全国大选之际,德国城市年度安全会议达成了这一协议。其中一些国家已经举行了选举,包括孟加拉国、台湾、巴基斯坦和最近的印度尼西亚。人工智能干预选举的尝试已经开始,比如上个月,模仿美国总统乔-拜登声音的人工智能机器人电话试图阻止人们在新罕布什尔州的初选中投票。就在斯洛伐克11 月大选的前几天,人工智能生成的录音冒充一名自由党候选人,讨论提高啤酒价格和操纵选举的计划。事实核查人员很快辨认出这些录音是假的,但它们已经在社交媒体上被当作真实录音广为传播。从使用人工智能聊天机器人与选民沟通,到在广告中添加人工智能生成的图像,政治家和竞选委员会也在尝试使用这种技术。在印度尼西亚大选之前,一个政党的领导人分享了一段克隆已故独裁者苏哈托面容和声音的视频。X 上的帖子披露了视频是由人工智能生成的,但一些网络批评者称这是滥用人工智能工具恐吓和左右选民。周五的协议称,在应对人工智能生成的深度伪造时,平台"将注意语境,特别是保护教育、纪录片、艺术、讽刺和政治表达"。它表示,两家公司将重点关注向用户提供有关欺骗性人工智能选举内容政策的透明度,并努力教育公众如何避免上人工智能造假的当。许多公司此前都表示,他们正在为自己的人工智能生成工具(可以处理图像和声音)设置保障措施,同时也在努力识别和标记人工智能生成的内容,以便社交媒体用户知道他们看到的是否是真实的。但这些建议的解决方案大多尚未推出,这些公司面临着来自监管机构和其他方面的压力,要求它们做得更多。这种压力在美国更加突出,因为美国国会尚未通过法律来规范人工智能在政治领域的应用,人工智能公司在很大程度上只能自我管理。在没有联邦立法的情况下,许多州都在考虑如何在选举和其他应用中为人工智能的使用设置防护栏。美国联邦通信委员会最近确认,人工智能生成的机器人电话音频片段是违法的,但这并不包括在社交媒体或竞选广告中流传的深度伪造音频。虚假信息专家警告说,虽然人工智能深度伪造尤其令人担忧,因为它们有可能在暗中影响今年的选民,但更便宜、更简单的虚假信息形式仍然是一大威胁。该协议也注意到了这一点,承认"传统操纵也可用于类似目的"。许多社交媒体公司已经制定了相关政策,以阻止有关选举程序的欺骗性帖子无论是否由人工智能生成。例如,Meta表示,它会删除有关"投票、选民登记或参与人口普查的日期、地点、时间和方法"的错误信息,以及其他旨在干扰他人参与公民事务的虚假帖子。诚信研究所(Integrity Institute)联合创始人、Facebook 前数据科学家杰夫-艾伦(Jeff Allen)说,该协议似乎是"积极的一步",但他仍希望看到社交媒体公司采取其他基本行动来打击不实信息,比如建立内容推荐系统,而不是将参与度放在首位。除了帮助促成周五协议的主要平台外,其他签署方还包括聊天机器人开发商 Anthropic 和 Inflection AI、语音克隆初创公司 ElevenLabs、芯片设计公司 Arm Holdings、安全公司 McAfee 和 TrendMicro,以及以制造图像生成器 Stable Diffusion 而闻名的 Stability AI。值得注意的是,另一个流行的人工智能图像生成器 Midjourney 也没有加入该协议。这家位于旧金山的初创公司周五没有立即回复置评请求。X的加入是周五协议中最大的惊喜之一。马斯克在接管前Twitter公司后大幅削减了内容审核团队,并将自己描述为"言论自由绝对主义者"。但 X 公司首席执行官琳达-雅卡里诺(Linda Yaccarino)在周五的一份声明中说,"每个公民和公司都有责任维护自由公正的选举"。她说:"X 致力于发挥自己的作用,与同行合作打击人工智能威胁,同时保护言论自由并最大限度地提高透明度。" ... PC版: 手机版:

封面图片

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子

FBI逮捕一名利用AI生成儿童性虐待图像并传播的男子 司法部在周一的一份公告中说:"这些图像中有许多描绘了裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器,或与男性发生性关系。从安德雷格的电子设备中找到的证据显示,他利用与未成年人有关的特定、露骨的文字提示生成了这些图片,然后将其存储在自己的电脑中。"据称,他随后与一名 15 岁的男孩进行了交流,描述了自己创建图片的过程,并通过 Instagram 的直接消息向他发送了几张人工智能生成的未成年人图片。在一些信息中,安德雷格告诉 Instagram 用户,他使用 Telegram 发布人工智能生成的 CSAM。法庭记录指控说:"他通过 Instagram 和 Telegram 积极建立了一个由臭味相投的犯罪者组成的在线社区,在这个社区里,他可以炫耀他对未成年人的淫秽描绘,并与这些其他犯罪者讨论他们对儿童的共同性兴趣。换句话说,他利用这些 GenAI 图像来吸引其他罪犯,这些罪犯可以将他对儿童的性兴趣正常化并加以确认,同时助长这些罪犯和他自己看到未成年人遭受性虐待的兴趣。"这标志着联邦调查局首次指控某人利用人工智能制作儿童性虐待材料。今年 3 月,威斯康星州警方指控安德雷格两项"让儿童接触有害材料"的罪名,以及另一项"与 13 岁以下儿童发生性接触"的罪名,但他拒绝认罪。根据福布斯当时的报道。警长的副手在一份宣誓书中说,安德雷格在网上接受其他人的请求,生成青少年的人工智能图像,现今人工智能色情市场已经成为 滥用图像制造商的大生意.公告指出,安德雷格之所以落网,是因为 Instagram 向国家失踪与被剥削儿童中心报告了他的账户传播图片的行为。法庭记录称,"他的笔记本电脑里有 13000 多张 GenAI 图像,其中数百张(如果不是数千张的话)描绘了未成年裸体或半裸的未成年人淫荡地展示或触摸自己的生殖器。还有一些图片描绘了未成年少女触摸看似成年男性的阴茎或进行性交的画面。笔记本电脑中的其他证据表明,他使用了极其具体和明确的提示来创建这些图像。同样,他还使用了特定的'负面'提示,即指导 GenAI 模型在生成的内容中不包含哪些内容的提示,以避免生成描绘成年人的图像"。此前媒体报道了Stable Diffusion生成儿童性虐待材料的能力,以及生成式人工智能公司承认其用户可能使用其工具制作 CSAM 的情况,尽管官方已经使用"负面提示"来避免创建成人人工智能图像的情况。这个案例证明了在线虐童问题专家几个月前警告过的问题,当时LAION-5B 数据集被发现包含疑似儿童性虐待图像。专家曾警告过:即使在人工智能生成的图像中无法识别真实的儿童,性剥削者者也可能利用生成的图像来诱骗真实的儿童。首席副助理司法部长 Nicole M. Argentieri 在联邦调查局的一份新闻稿中说:"今天的公告传达了一个明确的信息:使用人工智能制作儿童色情图片是非法的,司法部将毫不犹豫地追究那些拥有、制作或传播人工智能生成的儿童性虐待材料的人的责任。"安德雷格被联邦拘留,等待定于 5 月 22 日举行的拘留听证会。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人