Nightshade用向图像“投毒”的方法以阻止AI训练并帮助保护艺术家

Nightshade用向图像“投毒”的方法以阻止AI训练并帮助保护艺术家《麻省理工科技评论》重点介绍了由芝加哥大学研究人员创建的名为Nightshade的新工具。它的工作原理是在上传图像之前对图像像素进行非常小的更改,这些更改是肉眼无法看到的。这会毒害DALL-E、StableDiffusion和Midjourney等工具使用的训练数据,导致模型以不可预测的方式崩溃。生成式人工智能如何错误地解释被茄属植物毒害的图像的一些例子包括将狗变成猫,将汽车变成牛,将帽子变成蛋糕,将手提包变成烤面包机。它也适用于提示不同的艺术风格:立体派变成动漫,卡通变成印象派,概念艺术变成抽象派。研究人员最近在arXiv上发表的论文将Nightshade描述为一种特定提示的中毒攻击。Nightshade不需要毒害数百万张图像,而是可以用大约50个样本破坏稳定扩散提示,如下图所示。研究人员写道,该工具不仅可以毒害“狗”等特定提示术语,还可以“渗透”到“小狗”、“猎犬”和“哈士奇”等相关概念。它甚至会影响间接相关的图像;例如,中毒“幻想艺术”会将“一条龙”、“指环王中的一座城堡”和“迈克尔·惠兰的一幅画”的提示变成不同的东西。领导了Nightshade创建团队的芝加哥大学教授赵本表示,他希望该工具能够对不尊重艺术家版权和知识产权的人工智能公司起到威慑作用。他承认存在恶意使用的可能性,但要对更大、更强大的模型造成真正的损害,攻击者需要毒害数千张图像,因为这些系统是在数十亿数据样本上进行训练的。生成式人工智能模型训练者还可以使用针对这种做法的防御措施,例如过滤高损失数据、频率分析和其他检测/删除方法,但赵本说它们不是很稳健。一些大型人工智能公司让艺术家可以选择不将他们的作品用于人工智能训练数据集,但这可能是一个艰巨的过程,并且无法解决任何可能已经被废弃的作品。许多人认为艺术家应该可以选择加入而不是必须选择退出。...PC版:https://www.cnbeta.com.tw/articles/soft/1392263.htm手机版:https://m.cnbeta.com.tw/view/1392263.htm

相关推荐

封面图片

艺术家使用图像投毒工具反击生成式人工智能

艺术家使用图像投毒工具反击生成式人工智能一种名为“Nightshade”的新工具可以让艺术家们在将作品上传到网络之前,对作品中的像素点进行不可见的修改,这样一来,如果作品被抓取到人工智能训练集中,就会导致生成的模型以混乱和不可预测的方式崩溃,使它们的一些输出结果变得毫无用处,比如狗变成猫,汽车变成牛等等。开发此工具的团队还开发了一个名为“Glaze”的工具,允许艺术家“屏蔽”自己的个人风格,过微妙的方式改变图像的像素,这种改变人眼看不见,但却能操纵机器学习模型,将图像解释为与实际显示不同的东西。来源,频道:@kejiqu群组:@kejiquchat

封面图片

新的数据污染工具让艺术家有了防止自己作品被用于AI训练的能力

新的数据污染工具让艺术家有了防止自己作品被用于AI训练的能力一种新工具可以让艺术家在将作品上传到网上之前对其艺术作品中的像素添加不可见的更改,这样,如果它被用于构建AI训练数据集,可能会导致生成的模型以混乱且不可预测的方式崩溃。该工具名为Nightshade,旨在反击人工智能公司在未经创作者许可的情况下使用艺术家的作品来训练模型的行为。使用它来“毒害”这些训练数据可能会损害图像生成人工智能模型的未来迭代,例如DALL-E、Midjourney和StableDiffusion,因为它们的一些输出变得无用——狗变成了猫,汽车变成了牛等等。《麻省理工科技评论》独家预览了该研究,该研究已提交计算机安全会议Usenix进行同行评审。OpenAI、Meta、Google和StabilityAI等人工智能公司面临着来自艺术家的一系列诉讼,这些艺术家声称他们的受版权保护的材料和个人信息在未经同意或补偿的情况下被窃取。——

封面图片

三家AI公司要求美国法院驳回版权诉讼:AI生成图像与艺术家作品不相似

三家AI公司要求美国法院驳回版权诉讼:AI生成图像与艺术家作品不相似这些公司要求美国旧金山联邦法院驳回艺术家提起的集体诉讼。这些企业认为,人工智能生成的图像与艺术家的作品不相似,而且该诉讼没有指出涉嫌侵犯版权的具体图像。对此,Midjourney的一名律师拒绝置评。Stability、DeviantArt和艺术家的代表均没有立即回应置评请求。今年1月,SarahAndersen,KellyMcKernan和KarlaOrtiz三人起诉了这些公司。这些艺术家称,这些公司未经授权就复制他们的作品来训练系统,并以他们的风格创建人工智能生成的图像,这些行为侵犯了他们的权利。Stability在提交的文件中表示,这些艺术家“未能确认涉嫌侵权的任何一张输出图像,更不用说与他们受版权保护的任何作品本质上相似的图像了。”Midjourney提交的文件称,该诉讼也没有“确定任何原告的任何一部作品”“可能被用作训练数据”。DeviantArt允许用户通过Stability的StableDiffusion系统创作图像。该公司也回应了这些观点,并表示该公司对人工智能公司所谓的不当行为不承担责任。“即使从表面上看原告的主张,DeviantArt也没有做过任何可能引起原告主张的责任的事情,”该公司说。...PC版:https://www.cnbeta.com.tw/articles/soft/1355793.htm手机版:https://m.cnbeta.com.tw/view/1355793.htm

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题AmbientDiffusion是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权--字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5月,Google母公司Alphabet遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器Imagen。StabilityAI、Midjourney和DeviantArt(它们都使用了Stability的StableDiffusion工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受X光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用CelebA-HQ高质量名人图片数据库中的3000张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用3000张高度损坏的图像对模型进行了重新训练,其中多达90%的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(AdamKlivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像AmbientDiffusion这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub上查阅。该研究发表在预印本网站arXiv上。...PC版:https://www.cnbeta.com.tw/articles/soft/1431886.htm手机版:https://m.cnbeta.com.tw/view/1431886.htm

封面图片

数百名顶级音乐家发公开信要求不要用AI取代人类艺术家

数百名顶级音乐家发公开信要求不要用AI取代人类艺术家在人工智能时代,这是音乐行业集体为艺人代言所采取的最强硬立场之一。字里行间与其他创作者围绕人工智能所做的宣传不同,这封信专门针对科技公司对音乐艺术家的担忧,如复制艺术家的声音、无偿使用他们的作品来训练人工智能模型,以及稀释支付给艺术家的版税。艺术家权利联盟(ARA)是代表签署这封信的艺术家的行业组织,其执行董事珍-雅各布森(JenJacobsen)对Axios说:"我们在这里考虑的不是立法。我们呼吁我们的技术和数字合作伙伴与我们合作,使这成为一个负责任的市场,并保持音乐的质量,而不是取代人类艺术家。"这封信由ARA内部数十位知名音乐人撰写,特别呼吁科技公司和人工智能开发商停止"掠夺性地使用人工智能窃取专业艺术家的声音和肖像,侵犯创作者的权利,破坏音乐生态系统"。包括ElvisCostello、诺拉-琼斯、妮姬-米娜、卡米拉-卡贝罗、凯西-马斯格雷夫斯、乔恩-巴蒂斯特、JaRule、杰森-伊斯贝尔、PearlJam、山姆-史密斯等数十位各音乐流派的音乐家。信中写道:"我们呼吁所有人工智能开发商、技术公司、平台和数字音乐服务承诺,他们不会开发或部署有损或取代词曲作者和艺术家的人类艺术创作,或剥夺我们的公平报酬的人工智能音乐生成技术、内容或工具。"信中还承认,人工智能在负责任地使用时,有一些方法可以促进人类的创造力。但该信认为,一些平台和人工智能开发商正在广泛地使用这项技术,"破坏创造力,损害艺术家、词曲作者、音乐家和权利人的利益"。音乐产业开始支持保护其作品免受人工智能版权问题影响的法案,但这些努力主要针对立法者。今年早些时候,数百名艺术家签署了人类艺术运动(HumanArtistryCampaign)的一封信,敦促国会签署《禁止人工智能欺诈法案》(TheNoAIFRAUDAct),这是一项旨在防止人工智能生成假货和伪造品的更广泛的法案。许多艺术家提交了个人证词,支持田纳西州的《猫王法案》,该法案是田纳西州第一个针对人工智能为居民提供声音、形象和肖像保护的法案。代表大型唱片公司的美国唱片业协会(RIAA)也支持该法案。...PC版:https://www.cnbeta.com.tw/articles/soft/1425968.htm手机版:https://m.cnbeta.com.tw/view/1425968.htm

封面图片

三位艺术家起诉AI作画公司:抓取50亿张图像 侵犯“数百万艺术家”版权

三位艺术家起诉AI作画公司:抓取50亿张图像侵犯“数百万艺术家”版权这起诉讼的原告包括萨拉·安德森(SarahAndersen)、凯莉·麦科南(KellyMcKernan)和卡拉·奥尔蒂斯(KarlaOrtiz),他们声称,这些组织在“未经原始艺术家同意”的情况下,利用从网上抓取的50亿张图像对其AI工具进行训练,侵犯了“数百万艺术家”的作品版权。他们委托的律师名为马修·巴特里克(MatthewButterick)以及约瑟夫萨维里律师事务所,巴特里克曾在去年11月份起诉微软、GitHub和OpenAI,理由是他们的AI编程模型GitHubCopilot侵犯了GitHub众多程序员的版权。在通报最新诉讼的博客文章中,巴特里克将此案描述为“让AI确保公平和惠及所有人的又一步。”他说,像StableDiffusion这样的AI艺术工具可能会“让市场上涌入近乎无限数量的侵权图像,这将对艺术市场和艺术家造成永久性的伤害”。在过去一年里,AI作画工具大受欢迎,这在艺术界引发强烈反响。虽然有些人认为这些工具可能会提供帮助,就像Photoshop和Illustrator等软件那样,但更多人反对使用他们的作品来培训这些赚钱工具。所谓的生成式AI艺术模型利用从网络上收集的数十亿张图片进行训练,而且通常是在创作者不知情或没有获得他们同意的情况下进行。然后,这些AI艺术生成器可以生成符合特定艺术家风格的艺术作品。专家表示,这些AI系统是否违反了版权法是个相当复杂的问题,需要由法官裁决。但AI艺术工具的创建者通常辩称,这种软件利用受版权保护的数据进行培训符合“合理使用”的原则,至少在美国是这样。不过,当涉及到AI艺术生成器时,增加了许多复杂因素。这些因素包括支持这些AI工具的公司所在地,因为欧盟和美国对数据抓取的法律许可略有不同;以及这些公司的目的,例如StableDiffusion利用LAION数据集进行培训,后者由一家总部位于德国的非营利研究机构创建,在合理使用案例中,非营利组织可能比普通公司更容易获得优待。然而,这起诉讼也因措辞不够严谨而受到批评。例如,诉讼称,AI艺术模型“存储了受版权保护的训练图像的压缩副本”,然后将它们“重新组合”,充当了“21世纪的拼贴工具”。然而,AI艺术模型实际上根本不存储图像,而是存储从这些图像中收集的图像的数学表示方式。这类软件也不会以拼贴的形式拼凑图像,而是根据这些数学表示方式从头开始创建图片。...PC版:https://www.cnbeta.com.tw/articles/soft/1339657.htm手机版:https://m.cnbeta.com.tw/view/1339657.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人