研究人员发现AI模型可生成真人照片和受版权保护的图片

研究人员发现AI模型可生成真人照片和受版权保护的图片研究人员从模型中收集了一千多个训练实例,范围从个人照片到电影剧照、受版权保护的新闻图片和有商标的公司标志,并发现人工智能几乎以相同的方式复制了其中的许多内容。来自普林斯顿大学和伯克利大学等高校的研究人员,以及来自科技部门--特别是Google和DeepMind--的研究人员进行了这项研究。研究团队在之前的研究中指出了人工智能语言模型的类似问题,特别是GPT2,即OpenAI大获成功的ChatGPT的前身。在Google大脑研究员尼古拉斯-卡里尼的指导下,团队通过向Google的Imagen和StableDiffusion提供图片的标题,例如一个人的名字后生成了结果。之后,他们验证了生成的图像是否与模型数据库中保存的原件相符。来自稳定扩散的数据集,即被称为LAION的多TB采集图片集,被用来生成下面的图片。它使用了数据集中指定的标题。当研究人员在提示框中输入标题时会产生了相同的图像,尽管因数字噪音而略有扭曲。接下来,研究小组在反复执行相同的提示后,手动验证了该图像是否是训练集的一部分。研究人员指出,非记忆性的回应仍然可以忠实地表现出模型所提示的文字,但不会有相同的像素构成,并且会与其它训练生成的图像不同。苏黎世联邦理工学院计算机科学教授和研究参与者FlorianTramèr观察到了研究结果的重大局限性。研究人员能够提取的照片要么在训练数据中频繁出现,要么在数据集中的其他照片中明显突出。根据弗洛里安-特拉梅尔的说法,那些不常见的名字或外表的人更有可能被"记住"。研究人员表示,扩散式人工智能模型是最不隐私的一种图像生成模型。与生成对抗网络(GANs),一类较早的图片模型相比,它们泄露的训练数据是前者的两倍多。这项研究的目的是提醒开发者注意与扩散模型相关的隐私风险,其中包括各种担忧,如滥用和复制受版权保护的敏感私人数据(包括医疗图像)的可能性,以及在训练数据容易被提取的情况下易受外部攻击。研究人员建议的修复方法是识别训练集中重复生成的照片,并从数据收集中删除它们。...PC版:https://www.cnbeta.com.tw/articles/soft/1342757.htm手机版:https://m.cnbeta.com.tw/view/1342757.htm

相关推荐

封面图片

研究人员测试了热门的大语言模型的版权侵权情况

研究人员测试了热门的大语言模型的版权侵权情况新创AI模型评估公司PatronusAI周三发布了一个API,用于检测大语言模型版权内容的CopyrightCatcher(版权捕手)。同时该公司还展示了热门的AI模型生成受版权保护内容的频率。Patronus仅使用美国受版权保护的书籍来测试模型,并从编目网站Goodreads中选择流行的书籍。研究人员设计了100种不同的提示语,让模型以续写或输出第一页的方式回应。OpenAI的GPT-4表现最差,在44%的提示上生成了受版权保护的内容,Mixtral为22%。Anthropic的Claude2为8%,Meta的Llama-2为10%。总体来说所有模型,无论开源闭源都生成了受版权保护的内容,暗示了其训练数据中可能也使用了这些数据。OpenAI曾在今年早些时候表示,如果没有受版权保护的作品,“不可能”训练顶级人工智能模型。——、

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题AmbientDiffusion是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权--字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5月,Google母公司Alphabet遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器Imagen。StabilityAI、Midjourney和DeviantArt(它们都使用了Stability的StableDiffusion工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受X光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用CelebA-HQ高质量名人图片数据库中的3000张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用3000张高度损坏的图像对模型进行了重新训练,其中多达90%的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(AdamKlivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像AmbientDiffusion这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub上查阅。该研究发表在预印本网站arXiv上。...PC版:https://www.cnbeta.com.tw/articles/soft/1431886.htm手机版:https://m.cnbeta.com.tw/view/1431886.htm

封面图片

MIT研究人员发现深层神经网络并不会像人类一样看待世界

MIT研究人员发现深层神经网络并不会像人类一样看待世界该研究的资深作者麦克德莫特说:“这篇论文表明,你可以使用这些模型来导出非自然信号,这些信号最终可以对模型中的表征进行诊断。这项测试将成为我们这个领域用来评估模型的一系列测试的一部分。”JenelleFeather博士22岁,现任Flatiron研究所计算神经科学研究中心研究员,是这篇开放获取论文的主要作者,该论文今天发表在《自然神经科学》杂志上。麻省理工学院研究生GuillaumeLeclerc和麻省理工学院Cadence设计系统计算教授AleksanderMądry也是该论文的作者。近年来,研究人员训练了深度神经网络,可以分析数百万个输入(声音或图像)并学习共同特征,使他们能够像人类一样准确地对目标单词或物体进行分类。这些模型目前被认为是生物感觉系统的领先模型。人们相信,当人类感觉系统执行这种分类时,它会学会忽略与物体核心身份无关的特征,例如照射在物体上的光线数量或从什么角度观看物体。这被称为不变性,意味着即使对象在那些不太重要的特征上表现出差异,也会被认为是相同的。“传统上,我们对感觉系统的思考方式是,它们为同一事物的不同示例可能具有的所有变异来源建立了不变性,”Feather说。“有机体必须认识到它们是同一件事,即使它们表现为非常不同的感官信号。”研究人员想知道,经过训练来执行分类任务的深度神经网络是否可能会产生类似的不变性。为了尝试回答这个问题,他们使用这些模型来生成刺激,这些刺激在模型内产生与研究人员给予模型的示例刺激相同的反应。当这些神经网络被要求生成图像或单词并将其与特定输入(例如熊的图片)归为同一类别时,它们生成的大部分内容对于人类观察者来说是无法识别的。右侧是模型分类为“熊”的示例。图片来源:麻省理工学院研究人员他们将这些刺激称为“模型同色异体”,复兴了经典感知研究中的一个想法,即系统无法区分的刺激可以用来诊断其不变性。同色异谱的概念最初是在人类感知研究中发展起来的,用于描述看起来相同的颜色,即使它们是由不同波长的光组成的。令他们惊讶的是,研究人员发现,以这种方式产生的大多数图像和声音看起来和听起来都与模型最初给出的例子完全不同。大多数图像都是一堆看起来随机的像素,声音类似于难以理解的噪音。当研究人员向人类观察者展示图像时,在大多数情况下,人类不会将模型合成的图像分类为与原始目标示例相同的类别。“人类根本无法识别它们。它们看起来或听起来都不自然,而且不具有人们可以用来对物体或单词进行分类的可解释特征,”Feather说。研究结果表明,这些模型以某种方式发展出了自己的不变性,与人类感知系统中发现的不变性不同。这导致模型将成对的刺激视为相同,尽管它们与人类截然不同。研究人员在许多不同的视觉和听觉模型中发现了相同的效果。然而,这些模型中的每一个似乎都发展出了自己独特的不变性。当一个模型的同色异谱显示给另一个模型时,第二个模型和人类观察者一样无法识别同色异谱。“从中得出的关键推论是,这些模型似乎具有我们所说的特殊不变性,他们已经学会了对刺激空间中的这些特定维度保持不变,并且它是特定于模型的,因此其他模型不具有相同的不变性。”研究人员还发现,他们可以通过使用一种称为对抗性训练的方法,使模型的同色异聚体更容易被人类识别。这种方法最初是为了克服对象识别模型的另一个限制而开发的,即对图像引入微小的、几乎难以察觉的变化可能会导致模型误识别它。研究人员发现,对抗性训练涉及在训练数据中包含一些稍微改变的图像,产生的模型的同色异体更容易被人类识别,尽管它们仍然不如原始刺激那么容易识别。研究人员表示,这种改进似乎与训练对模型抵抗对抗性攻击的能力的影响无关。“这种特殊形式的训练有很大的效果,但我们真的不知道为什么会产生这种效果,”Feather说。“这是未来研究的一个领域。”研究人员表示,分析计算模型产生的同色异体可能是一个有用的工具,可以帮助评估计算模型对人类感官知觉系统底层组织的模仿程度。“这是一个行为测试,你可以在给定的模型上运行,看看模型和人类观察者之间是否共享不变性,它还可以用来评估给定模型中不变性的特殊性,这可以帮助发现未来改进我们模型的潜在方法。”...PC版:https://www.cnbeta.com.tw/articles/soft/1393463.htm手机版:https://m.cnbeta.com.tw/view/1393463.htm

封面图片

麻省理工学院研究人员开发出对图像质量影响最小的超快速图像生成方法

麻省理工学院研究人员开发出对图像质量影响最小的超快速图像生成方法图像生成人工智能通常采用一种称为扩散的过程,通过几个采样步骤来完善视觉输出,以达到最终希望"逼真"的结果。研究人员表示,扩散模型可以生成高质量的图像,但需要数十次前向传递。Adobe研究中心和麻省理工学院的专家们正在引入一种名为"分布匹配蒸馏"(DMD)的技术。这一程序将多步扩散模型简化为一步图像生成解决方案。由此产生的模型可以生成与StableDiffusion1.5等"传统"扩散模型相当的图像,但速度要快上几个数量级。"我们的核心理念是训练两个扩散模型,不仅能估计目标真实分布的得分函数,还能估计假分布的得分函数。"研究人员称,他们的模型可以在现代GPU硬件上每秒生成20幅图像。上面的视频短片重点介绍了DMD与StableDiffusion1.5相比的图像生成能力。标清每幅图像需要1.4秒,而DMD只需几分之一秒就能生成类似的图像。虽然在质量和性能之间有所权衡,但最终结果仍在普通用户可接受的范围之内。该团队发表的关于新渲染方法的文章展示了使用DMD生成图像结果的更多示例。它比较了稳定扩散和DMD,同时提供了生成图像的重要文字提示。主题包括通过虚拟数码单反相机镜头取景的一只狗、多洛米蒂山脉、森林中一只神奇的鹿、一只鹦鹉宝宝的3D渲染、独角兽、胡须、汽车、猫,甚至更多的狗。分布匹配蒸馏法并不是第一种用于生成人工智能图像的单步方法。StabilityAI公司开发了一种被称为逆向扩散蒸馏(ADD)的技术,用于实时生成100万像素的图像。该公司通过ADD训练其SDXLTurbo模型,在单个NVIDIAA100AIGPU加速器上实现了仅207毫秒的图像生成速度。Stability的ADD采用了与麻省理工学院的DMD类似的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1425166.htm手机版:https://m.cnbeta.com.tw/view/1425166.htm

封面图片

Getty开发的人工智能生成器只对拥有版权图片的进行训练

Getty开发的人工智能生成器只对拥有版权图片的进行训练GettyImages的GenerativeAI仅在庞大的GettyImages图库(包括高级内容)上进行训练,用户可获得完全的版权保护。盖蒂公司承诺,这意味着任何使用该工具并将其创建的图片进行商业发布的人都将受到法律保护。盖蒂公司与NVIDIA合作,使用NVIDIA的生成式人工智能模型库Picasso上的Edify模型。该公司表示,使用该工具创建的任何照片都不会被收录到GettyImages和iStock的内容库中。如果使用创作者的人工智能生成图像来训练当前和未来版本的模型,盖蒂公司将向创作者支付报酬。它将分享该工具产生的收入,"按比例分配每个文件的份额和基于传统许可收入的份额"。盖蒂图片公司首席产品官格兰特-法豪尔(GrantFarhall)在一份声明中说:"我们倾听了客户对生成式人工智能迅猛发展的意见--既有兴奋也有犹豫--并尝试有意识地开发我们自己的工具。"Getty工具限制了用户可以生成的图片类型。它不允许我创建一张乔-拜登在白宫前的照片,或者一只安迪-沃霍尔或杰夫-昆斯风格的猫。任何带有真实人名的提示都被禁止。在要求创建美国总统的图片时,我看到了美国国旗前的男女照片,其中一些还是有色人种。该模型"不知道谁是安迪-沃霍尔(AndyWarhol)、乔-拜登(JoeBiden)或任何其他现实世界中的人",因为它不想操纵或再现现实生活中的事件。用户可以通过GettyImages网站访问GettyImages的GenerativeAI。该公司表示,该工具将与标准的GettyImages订阅分开定价,定价基于提示量。不过,该公司没有具体说明价格。盖蒂图片公司表示,用户将获得他们所创作图片的永久、全球和无限版权。(尽管如此,人工智能生成的图片在技术上的版权地位仍然模糊不清)。盖蒂公司表示,这类似于客户从其资料库中获得内容授权,公司拥有文件所有权,但授权用户使用。用户可以编写自己的提示,也可以使用提示生成器来指导自己。用户还可以通过API将该工具集成到自己的工作流程中。按照惯例,盖蒂公司会在通过该工具创建的照片上打上水印,以识别照片是由人工智能生成的。盖蒂公司涉足人工智能图片领域并不奇怪,毕竟它拥有最大的图片库之一。但该公司曾与其他文本到图像的人工智能生成器开发商交过手,起诉StabilityAI侵犯版权,指控其图像生成器StableDiffusion未经许可使用了Getty的照片。通过建立自己的生成式人工智能图像平台,盖蒂公司可以压制其他希望使用其图像库来训练模型的公司。使用其授权数据建立人工智能图像平台的公司远不止盖蒂一家。Adobe在其创意套件和创意云服务中发布了萤火虫(Firefly)模型,该模型是在其稳定的授权图片上训练出来的。使用受版权保护的资料来训练大型语言模型和文本到图像系统一直是许多创意界人士非常关注的问题。三位艺术家曾起诉StabilityAI、Midjourney和艺术网站DeviantArt,指控它们未经许可使用他们的艺术作品来训练模型。盖蒂表示,客户最终可以添加自己的数据来训练模型,生成具有自己品牌风格的图片。这项功能和其他服务将于今年晚些时候推出。...PC版:https://www.cnbeta.com.tw/articles/soft/1386273.htm手机版:https://m.cnbeta.com.tw/view/1386273.htm

封面图片

Stability AI试图通过新的图像生成人工智能模型保持领先地位

StabilityAI试图通过新的图像生成人工智能模型保持领先地位StableCascade可以生成照片,并对所创建的图片进行修改,或尝试提高现有图片的分辨率。其他文本到图片的编辑功能还包括内画和外画(模型只对图片的特定部分进行填充编辑),以及可视边缘(用户可利用现有图片的边缘制作新照片)。根据提示"一张拟人企鹅坐在咖啡馆里看书喝咖啡的电影照片"生成的StableCascade图像。新模型可在GitHub上供研究人员使用,但不能用于商业用途。在Google甚至苹果等公司发布自己的图像生成模型时,新模型也带来了更多选择。与Stability的旗舰产品StableDiffusion模型不同,StableCascade并不是一个大型语言模型,而是三个不同的模型,它们都依赖于Würstchen架构。StableCascade与其他模型的推理时间比较将请求分解成更小的比特后,请求所需的内存更少(在那些很难找到的GPU上训练的时间也更少),运行速度更快,同时在"提示对齐和美学质量"方面表现更佳。创建一幅图像大约需要10秒,而目前使用的SDXL模型需要22秒。StabilityAI公司帮助普及了StableDiffusion方法,同时也成为了几起诉讼的对象,这些诉讼指控StableDiffusion公司在未经权利人许可的情况下对受版权保护的数据进行了训练-Getty图片公司对StabilityAI公司的诉讼将于12月开庭审理。该公司于12月开始通过订阅的方式提供商业许可,并表示这是帮助其研究获得资金所必需的。...PC版:https://www.cnbeta.com.tw/articles/soft/1418229.htm手机版:https://m.cnbeta.com.tw/view/1418229.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人