研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。——

相关推荐

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

【Adobe发布名为“Firefly”的图像生成人工智能模型】

【Adobe发布名为“Firefly”的图像生成人工智能模型】2023年03月22日11点03分3月22日消息,Adobe公司发布名为“Firefly”的图像生成人工智能模型,目前主要专注于图像生成和文本效果,如文字生成矢量/笔刷/模板、根据自定义风格生成图像、指定纵横比扩展图像、据3D模型生成图像、为黑白图像上色、使用画笔修改图像并用文字描述的风格进行填充等。未来,Firefly将被实装在Adobe全家桶中。该模型的学习数据来源于Adobe旗下AdobeStock数据库、经授权的作品以及版权已过期的公共内容。据Adobe表示,用户的内容不会被用来训练Firefly。

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题AmbientDiffusion是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权--字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5月,Google母公司Alphabet遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器Imagen。StabilityAI、Midjourney和DeviantArt(它们都使用了Stability的StableDiffusion工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受X光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用CelebA-HQ高质量名人图片数据库中的3000张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用3000张高度损坏的图像对模型进行了重新训练,其中多达90%的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(AdamKlivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像AmbientDiffusion这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub上查阅。该研究发表在预印本网站arXiv上。...PC版:https://www.cnbeta.com.tw/articles/soft/1431886.htm手机版:https://m.cnbeta.com.tw/view/1431886.htm

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen3迎来升级Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(DemisHassabis)说,与前代产品Imagen2相比,Imagen3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen3将使用DeepMind开发的SynthID方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册Imagen3的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台VertexAI的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。...PC版:https://www.cnbeta.com.tw/articles/soft/1430907.htm手机版:https://m.cnbeta.com.tw/view/1430907.htm

封面图片

谷歌 DeepMind 推出了人工智能生成图像的水印工具

谷歌DeepMind推出了人工智能生成图像的水印工具谷歌DeepMind推出了一款新的水印工具,可以标记图像是否是由人工智能生成的。该工具名为SynthID,最初仅供Google人工智能图像生成器Imagen的用户使用,该生成器托管在GoogleCloud的机器学习平台Vertex上。用户将能够使用Imagen生成图像,然后选择是否添加水印。希望它可以帮助人们辨别人工智能生成的内容何时被冒充为真实内容,或者帮助保护版权。ViaHuaHua投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

WhatsApp 新增实时人工智能图像生成功能

WhatsApp新增实时人工智能图像生成功能Meta公司正在为美国的WhatsApp用户推出实时人工智能图像生成测试版。在与MetaAI的聊天中,只要在聊天中输入文本到图像的提示,就会看到图像在添加有关要创建的内容的更多详细信息时的变化。此外,Meta公司表示,其MetaLlama3模型现在可以生成“更清晰、更高质量”的图像,并且更擅长显示文本。您还可以让MetaAI为您提供的任何图像制作动画,让您将它们转换为GIF与朋友分享。除了WhatsApp上的功能之外,美国用户还可以通过MetaAI网页版来使用实时图像生成功能。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人