Google新型人工智能可将图像转化为可玩的小游戏

Google新型人工智能可将图像转化为可玩的小游戏 Google DeepMind 最近发布了一款人工智能模型 Genie,它可以利用静态图像制作小型互动游戏。Google表示,这项技术背后的基础可以促进其他应用,比如训练人工智能机器人。Genie是在大约 20 万小时的公开游戏画面(可能来自Google子公司 YouTube)基础上训练出来的。目前还不清楚使用它的人是否会与这些游戏的创作者发生版权纠纷。值得注意的是,人工智能不需要文本或动作标签来解释它所看到的内容,它只需通过视频帧来解读哪些元素应作为地形,哪些元素应作为可控制的头像。Genie还能解读图像中的三维深度,从而在游戏中模拟视差滚动。该工具可以根据绘画、草图、渲染图、照片和其他类型的图像构建小型视频游戏关卡。由于Genie可以处理它以前从未见过的图片,因此它还可以根据人工智能生成的内容构建环境,从而为使用一个人工智能的内容在另一个人工智能中创造新事物开辟了前景。不过,还有改进的余地。与其他人工智能模型一样,Genie也会产生幻觉。此外,最初的迭代版本只能记忆多达 16 个帧,这严重限制了它在保持一致的情况下构建关卡的大小。该模型 1fps 的运行速度也有很大的改进空间。为确保准确性,Genie 的初步演示侧重于复制 2D 平台游戏。不过,Google表示,可以训练它创建其他类型的游戏和虚拟内容。例如,Google表示,Genie 可以帮助更有效地训练某些机器人。使用人工模拟进行的训练只能提供有限的场景,而 Genie 可以构建更广泛的虚拟环境和对象,供机器人学习。通过进一步开发,Genie 可以将交互式布景变成生成式人工智能的下一个主要领域。目前,视频正成为人们关注的焦点,尤其是 OpenAI 在上个月推出了 Sora,它可以制作逼真的 60 秒 1080p 短片。不出所料,人工智能生成的视频并不完美,但它代表了该技术的重大飞跃。 ... PC版: 手机版:

相关推荐

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen 3迎来升级 Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(Demis Hassabis)说,与前代产品Imagen 2相比,Imagen 3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen 3 将使用 DeepMind 开发的SynthID 方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册 Imagen 3 的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台 Vertex AI 的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。 ... PC版: 手机版:

封面图片

Google推出人工智能图像生成工具TextFX

Google推出人工智能图像生成工具TextFX Google在一篇博文中写道:"ImageFX 专为实验和创意而设计,它可以让你通过简单的文字提示来创建图片,然后通过使用表现力芯片的新提示方式轻松修改图片。"Google声称,它已采取措施确保 TextFX 不会被以非预期的方式使用,例如通过添加"技术保障"来限制"有问题的输出",如暴力、攻击性和色情内容。TextFX 还为"指定人物"(可能是公众人物)设置了一个提示级过滤器尽管Google在其新闻材料中并没有特别明确这一点。"我们从一开始就对训练数据的安全性进行了投资,"Google说。"根据我们的人工智能原则,我们还进行了广泛的对抗性测试和红队合作,以识别和减少潜在的有害和有问题的内容"。作为一项额外的安全措施,Google在使用ImageFX制作的图片上标注了SynthID数字水印,据称这种数字水印对图片编辑和裁剪具有很强的抵御能力。Google在博文中继续介绍道:"SynthID 水印肉眼无法察觉,但可用于识别。通过'关于此图片'中增加的洞察力,当你在Google搜索或 Chrome 浏览器中看到一张图片时,你就会知道它是否可能是由Google的人工智能工具生成的。"你可以在Google用于人工智能实验项目的网络应用程序 AI Test Kitchen 中找到 ImageFX。Imagen 2 扩展在今天的相关新闻中,Google表示,从本周开始,它将把 Imagen 2 带到更多的产品和服务中,包括下一代人工智能搜索体验和人工智能托管服务 Vertex AI 系列。现在,Imagen 2 还支持Google广告中的文本到图片功能和Google GenAI 生产力产品套件 Workspace 中的 Duet AI,它已经进入了Google的 SGE(搜索生成体验)。SGE 于去年 10 月开始在Google图片搜索中为用户提供图片生成工具,现在则利用 Imagen 2 生成图片。用户可以输入一个提示,说明他们想要什么样的图片,SGE 会在 SGE 对话体验中直接返回四个结果。Imagen 2 的另一个样本在 Vertex AI 中,Imagen 2 可通过 API 提供给Google云客户。在其他地方,Imagen 2 现在可以通过Google的人工智能聊天机器人 Bard 调用。Google解释说:"有了Imagen 2,Bard可以理解简单或复杂的提示,这样你就可以生成一系列高质量的图像。只需输入一个描述比如'创建一个狗骑冲浪板的图像'Bard就会生成定制的、范围广泛的视觉图像,帮助你把想法变为现实。"Google仍未透露用于训练 Imagen 2 的数据,这并不令人意外。像Google这样的 GenAI 供应商是否可以在公开数据(甚至是受版权保护的数据)上训练模型,然后再将该模型商业化,这是一个未决的法律问题。相关诉讼正在法院审理中,供应商认为他们受到合理使用原则的保护。但尘埃落定尚需时日。与此同时,Google对此事保持沉默,以策安全。 ... PC版: 手机版:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

狡猾的人工智能模型故意破坏训练图像以规避版权问题

狡猾的人工智能模型故意破坏训练图像以规避版权问题 Ambient Diffusion 是一种文本到图像的人工智能模型,它通过使用严重破坏的图像来保护艺术家的版权。文本到图像生成器的一个大问题是,它们能够复制用来训练它们的原创作品,从而侵犯艺术家的版权。根据美国法律,如果你创作了原创作品并将其"固定"为有形的形式,你就拥有了它的版权字面意思是复制它的权利。在大多数情况下,未经创作者授权,不得使用受版权保护的图片。今年5 月,Google母公司 Alphabet 遭到一群艺术家的集体版权诉讼,声称Google未经许可使用了他们的作品来训练其人工智能图像生成器 Imagen。Stability AI、Midjourney 和 DeviantArt(它们都使用了 Stability 的 Stable Diffusion 工具)也面临着类似的诉讼。为了避免这个问题,德克萨斯大学奥斯汀分校和加州大学伯克利分校的研究人员开发了一种基于扩散的生成式人工智能框架,该框架只对已损坏到无法识别的图像进行训练,从而消除了人工智能记忆和复制原创作品的可能性。扩散模型是一种先进的机器学习算法,它通过向数据集逐步添加噪声来生成高质量的数据,然后学习逆转这一过程。最近的研究表明,这些模型可以记忆训练集中的示例。这显然会对隐私、安全和版权产生影响。这里有一个与艺术品无关的例子:人工智能需要接受 X 光扫描训练,但不能记住特定病人的图像,否则就会侵犯病人的隐私。为了避免这种情况,模型制作者可以引入图像损坏。研究人员利用他们的环境扩散框架证明,只需使用高度损坏的样本,就能训练扩散模型生成高质量的图像。根据"干净"(左)和损坏(右)的训练图像生成的环境扩散输出结果上图显示了在使用损坏时图像输出的差异。研究人员首先用 CelebA-HQ 高质量名人图片数据库中的 3000 张"干净"图片对模型进行了训练。根据提示,该模型生成的图像与原图几乎完全相同(左图)。然后,他们使用 3000 张高度损坏的图像对模型进行了重新训练,其中多达 90% 的单个像素被随机屏蔽。虽然模型生成的人脸栩栩如生,但结果却大相径庭(右图)。UT奥斯汀分校计算机科学教授亚当-克里万斯(Adam Klivans)是这项研究的共同作者,他表示:"从黑洞成像到某些类型的核磁共振成像扫描,基本上任何昂贵或不可能拥有全套未损坏数据的研究都会如此。"与现有的文本到图像生成器一样,其结果并非每次都完美无缺。关键是,艺术家们知道像 Ambient Diffusion 这样的模型不会记住并复制他们的原创作品,就可以稍稍放心了。它能阻止其他人工智能模型记住并复制他们的原始图像吗?不会,但这就是法院的职责所在。研究人员已将他们的代码和环境扩散模型开源,以鼓励进一步的研究。可在GitHub 上查阅。该研究发表在预印本网站arXiv 上。 ... PC版: 手机版:

封面图片

Google现在可为YouTube上的学术视频提供人工智能生成的测验

Google现在可为YouTube上的学术视频提供人工智能生成的测验 该公司表示,由于 Gemini 模型的长上下文功能,该功能甚至可以用于较长的教育视频,如讲座或研讨会。这些新功能将在美国部分Android用户中推出。在YouTube开始在其移动应用程序上试验人工智能生成的测验近一年后正式推出了人工智能测验。有了这些新功能,观众可以要求人工智能总结视频内容,或告诉你为什么视频内容很重要。如果你想测试自己的知识水平,可以要求人工智能就相关主题对你进行测验。然后,人工智能会给你出一道选择题。鉴于 YouTube 已成为教育内容的家园,新功能使其能够为学习者提供更加个性化的互动体验。Google是在推出基于 Gemini 微调学习模型的新系列 LearnLM 时宣布这一消息的。 ... PC版: 手机版:

封面图片

Google为购物功能增添更多人工智能元素

Google为购物功能增添更多人工智能元素 这项名为"风格推荐"(Style Recommendations)的最新功能可以让用户在搜索中对商品进行评分,从而了解搜索者的风格和喜好。 这有点像 Tinder,不过对象是衬衫。在找到自己喜欢的衣服后,购物者可以指定自己喜欢的品牌,这样就能立即从这些选择中找到更多服装。Google曾测试过人工智能工具,帮助人们找到更多自己喜欢的商品。11 月,该公司的"搜索生成体验"(Search Generative Experience)用户测试了一种图像生成功能,它能根据提示拼凑出夹克和其他服装。然后,人们可以根据人工智能图像找到类似的商品。该公司还测试了虚拟试穿功能,购物者可以看到品牌服装的穿着效果。这两项功能现已在 Google Shopping 上上线。Google与其他电子商务平台一道,将人工智能生成工具引入购物领域。亚马逊的购物助手"鲁弗斯"(Rufus)可以回答顾客对商品的询问,该公司还提供人工智能驱动的尺码建议。然而,人工智能驱动的购物功能仍是新生事物,可能会导致出现问题商品,有时候人工智能购物体验令人困惑,而且买到的衣服原型并不适合人类。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人