Google新型人工智能可将图像转化为可玩的小游戏

Google新型人工智能可将图像转化为可玩的小游戏 Google DeepMind 最近发布了一款人工智能模型 Genie,它可以利用静态图像制作小型互动游戏。Google表示,这项技术背后的基础可以促进其他应用,比如训练人工智能机器人。Genie是在大约 20 万小时的公开游戏画面(可能来自Google子公司 YouTube)基础上训练出来的。目前还不清楚使用它的人是否会与这些游戏的创作者发生版权纠纷。值得注意的是,人工智能不需要文本或动作标签来解释它所看到的内容,它只需通过视频帧来解读哪些元素应作为地形,哪些元素应作为可控制的头像。Genie还能解读图像中的三维深度,从而在游戏中模拟视差滚动。该工具可以根据绘画、草图、渲染图、照片和其他类型的图像构建小型视频游戏关卡。由于Genie可以处理它以前从未见过的图片,因此它还可以根据人工智能生成的内容构建环境,从而为使用一个人工智能的内容在另一个人工智能中创造新事物开辟了前景。不过,还有改进的余地。与其他人工智能模型一样,Genie也会产生幻觉。此外,最初的迭代版本只能记忆多达 16 个帧,这严重限制了它在保持一致的情况下构建关卡的大小。该模型 1fps 的运行速度也有很大的改进空间。为确保准确性,Genie 的初步演示侧重于复制 2D 平台游戏。不过,Google表示,可以训练它创建其他类型的游戏和虚拟内容。例如,Google表示,Genie 可以帮助更有效地训练某些机器人。使用人工模拟进行的训练只能提供有限的场景,而 Genie 可以构建更广泛的虚拟环境和对象,供机器人学习。通过进一步开发,Genie 可以将交互式布景变成生成式人工智能的下一个主要领域。目前,视频正成为人们关注的焦点,尤其是 OpenAI 在上个月推出了 Sora,它可以制作逼真的 60 秒 1080p 短片。不出所料,人工智能生成的视频并不完美,但它代表了该技术的重大飞跃。 ... PC版: 手机版:

相关推荐

封面图片

Google图像生成人工智能Imagen 3迎来升级

Google图像生成人工智能Imagen 3迎来升级 Google人工智能研究部门DeepMind负责人德米斯-哈萨比斯(Demis Hassabis)说,与前代产品Imagen 2相比,Imagen 3能更准确地理解文字提示,并将其转化为图像,而且在生成图像方面更具"创造性和细节"。此外,该模型产生的"干扰人工智能"和错误也更少。哈萨比斯补充说:"这也是我们目前渲染文本的最佳模型,而渲染文本一直是图像生成模型面临的挑战。"为了消除人们对深度伪造可能性的担忧,Google表示,Imagen 3 将使用 DeepMind 开发的SynthID 方法,在媒体上应用隐形加密水印。在Google的ImageFX工具中可以注册 Imagen 3 的私人预览版,Google表示,该模型将"很快"提供给使用Google企业生成式人工智能开发平台 Vertex AI 的开发人员和企业客户。Google通常不会透露太多用于训练人工智能模型的数据来源,这次也不例外。这是有原因的。大部分训练数据来自网络上的公共网站、资源库和数据集。而其中的一些训练数据,特别是未经内容创作者许可的受版权保护的数据,是知识产权相关诉讼的源头。Google的网站发布者控制功能允许网站管理员阻止搜索引擎与AI爬虫从他们的网站上获取数据,包括照片和视频。但是,Google并没有提供"退出"工具,而且与某些竞争对手不同的是,Google并没有承诺对权利人(在某些情况下是在不知情的情况下)为训练数据集做出的贡献进行补偿。缺乏透明度并不令人惊讶,但令人失望的尤其是像Google这样拥有丰富资源的公司。 ... PC版: 手机版:

封面图片

Google推出人工智能图像生成工具TextFX

Google推出人工智能图像生成工具TextFX Google在一篇博文中写道:"ImageFX 专为实验和创意而设计,它可以让你通过简单的文字提示来创建图片,然后通过使用表现力芯片的新提示方式轻松修改图片。"Google声称,它已采取措施确保 TextFX 不会被以非预期的方式使用,例如通过添加"技术保障"来限制"有问题的输出",如暴力、攻击性和色情内容。TextFX 还为"指定人物"(可能是公众人物)设置了一个提示级过滤器尽管Google在其新闻材料中并没有特别明确这一点。"我们从一开始就对训练数据的安全性进行了投资,"Google说。"根据我们的人工智能原则,我们还进行了广泛的对抗性测试和红队合作,以识别和减少潜在的有害和有问题的内容"。作为一项额外的安全措施,Google在使用ImageFX制作的图片上标注了SynthID数字水印,据称这种数字水印对图片编辑和裁剪具有很强的抵御能力。Google在博文中继续介绍道:"SynthID 水印肉眼无法察觉,但可用于识别。通过'关于此图片'中增加的洞察力,当你在Google搜索或 Chrome 浏览器中看到一张图片时,你就会知道它是否可能是由Google的人工智能工具生成的。"你可以在Google用于人工智能实验项目的网络应用程序 AI Test Kitchen 中找到 ImageFX。Imagen 2 扩展在今天的相关新闻中,Google表示,从本周开始,它将把 Imagen 2 带到更多的产品和服务中,包括下一代人工智能搜索体验和人工智能托管服务 Vertex AI 系列。现在,Imagen 2 还支持Google广告中的文本到图片功能和Google GenAI 生产力产品套件 Workspace 中的 Duet AI,它已经进入了Google的 SGE(搜索生成体验)。SGE 于去年 10 月开始在Google图片搜索中为用户提供图片生成工具,现在则利用 Imagen 2 生成图片。用户可以输入一个提示,说明他们想要什么样的图片,SGE 会在 SGE 对话体验中直接返回四个结果。Imagen 2 的另一个样本在 Vertex AI 中,Imagen 2 可通过 API 提供给Google云客户。在其他地方,Imagen 2 现在可以通过Google的人工智能聊天机器人 Bard 调用。Google解释说:"有了Imagen 2,Bard可以理解简单或复杂的提示,这样你就可以生成一系列高质量的图像。只需输入一个描述比如'创建一个狗骑冲浪板的图像'Bard就会生成定制的、范围广泛的视觉图像,帮助你把想法变为现实。"Google仍未透露用于训练 Imagen 2 的数据,这并不令人意外。像Google这样的 GenAI 供应商是否可以在公开数据(甚至是受版权保护的数据)上训练模型,然后再将该模型商业化,这是一个未决的法律问题。相关诉讼正在法院审理中,供应商认为他们受到合理使用原则的保护。但尘埃落定尚需时日。与此同时,Google对此事保持沉默,以策安全。 ... PC版: 手机版:

封面图片

Google为购物功能增添更多人工智能元素

Google为购物功能增添更多人工智能元素 这项名为"风格推荐"(Style Recommendations)的最新功能可以让用户在搜索中对商品进行评分,从而了解搜索者的风格和喜好。 这有点像 Tinder,不过对象是衬衫。在找到自己喜欢的衣服后,购物者可以指定自己喜欢的品牌,这样就能立即从这些选择中找到更多服装。Google曾测试过人工智能工具,帮助人们找到更多自己喜欢的商品。11 月,该公司的"搜索生成体验"(Search Generative Experience)用户测试了一种图像生成功能,它能根据提示拼凑出夹克和其他服装。然后,人们可以根据人工智能图像找到类似的商品。该公司还测试了虚拟试穿功能,购物者可以看到品牌服装的穿着效果。这两项功能现已在 Google Shopping 上上线。Google与其他电子商务平台一道,将人工智能生成工具引入购物领域。亚马逊的购物助手"鲁弗斯"(Rufus)可以回答顾客对商品的询问,该公司还提供人工智能驱动的尺码建议。然而,人工智能驱动的购物功能仍是新生事物,可能会导致出现问题商品,有时候人工智能购物体验令人困惑,而且买到的衣服原型并不适合人类。 ... PC版: 手机版:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

大型人工智能公司同意打击虐待儿童图像

大型人工智能公司同意打击虐待儿童图像 谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人