NVIDIA展示了完全由人工智能控制的NPC在游戏中的表现

NVIDIA展示了完全由人工智能控制的NPC在游戏中的表现 在 GDC 2024 的主题演讲中,NVIDIA 首席执行官黄仁勋播放了一段《Covert Protocol》的简短预告片/解说,这是与人工智能 SDK 开发商 Inworld AI 合作的技术演示。Covert Protocol 是 Inworld 正在构建的人工智能增强开发平台的代号。它使用虚幻引擎 5 并利用NVIDIA 的多项 AI 技术(包括 Riva 自动语音识别和 Audio2Face)来提供逼真的角色,这些角色可以说话、做出反应并与周围环境实时互动。《Covert Protocol》与 Convair/Unity 在 GDC 上展示的Project Neural Nexus 技术演示相似。主要区别在于,前者比 Neural Nexus 看起来要好得多。从图形上看,它采用了 UE5 和 Epic 的 MetaHuman 技术,效果令人惊叹。Neural Nexus 使用的是 Unity,显得单调乏味。与以往的 MetaHuman Creator 演示相比,《Covert Protocol》的模型看起来更具可塑性。不过,我们必须考虑到,当 Epic展示高度精细、近乎逼真的模型时,并没有复杂的背景来消耗周期。因此,开发人员可以充分利用资源,使 MetaHuman 脸部看起来尽可能细致。隐秘协议》更接近于模型在成品游戏中的样子,这仍然是相当不错的。与康维展示的 FPS 游戏相比,该演示的游戏玩法更像是对话式的神秘冒险。因此,我们没有看到任何激烈的动作,但它确实展示了对话片段,而且人工智能的面部动画和语音语调要好得多。语音仍然无法与人类配音相比,但也不像 Convai 的模型那样完全没有情感。其中有一些情感的暗示。不可否认,这次演示给人留下了深刻印象,但它也像"神经连接项目"(Project Neural Nexus)一样,对游戏的未来提出了一些合理的问题。也就是说,游戏玩家是否真的希望能够与虚拟的 Chat-GTP 头像进行开放式、有时甚至是无意义的对话?还是他们会拒绝这些人工智能驱动的想法,转而选择传统的语音表演和脚本对话?没有成品还很难说。不过,我们已经可以看到人工智能疲劳症的出现,因为公司每天都在向消费者灌输基于人工智能的产品理念。如果目前的趋势继续下去,人工智能很快就会控制一切,从游戏到日常任务。没有经过深思熟虑就开发出来的游戏过于依赖人工智能机制很可能会惹恼玩家,而不是将他们转化为销量。 ... PC版: 手机版:

相关推荐

封面图片

人工智能检测器认为《美国宪法》是由人工智能编写的

人工智能检测器认为《美国宪法》是由人工智能编写的 尽管依靠人工智能工具来检测人工智能生成的作文很有诱惑力,但迄今为止的证据表明,这些工具并不可靠。由于存在假阳性,GPTZero、ZeroGPT 和 OpenAI 自己的文本分类器等人工智能写作检测器无法检测由 ChatGPT 等大型语言模型组成的文本。如果你将美国最重要的法律文件《美国宪法》输入这种检测工具中,它会告诉你该文件几乎肯定是由人工智能撰写的。同样的情况也发生在《圣经》选段中。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

NVIDIA与AMD将为游戏笔记本电脑带来微软Copilot Plus人工智能功能

NVIDIA与AMD将为游戏笔记本电脑带来微软Copilot Plus人工智能功能 "华硕和微星新发布的RTX AI PC笔记本电脑最高配备GeForce RTX 4070 GPU和高能效片上系统,具备Windows 11 AI PC功能,"NVIDIA在一篇博文中表示。NVIDIA 在一份简报中证实,这些笔记本电脑将配备 AMD 最新的 Strix CPU。AMD 还没有正式详细介绍其 AMD Strix 笔记本电脑 CPU,但毫无疑问,它将在今天晚些时候的主题演讲中公布。NVIDIA 还暗示,首批搭载 AMD 处理器的 Copilot Plus PC 可能不会在发布时获得微软的人工智能功能。配备 Copilot Plus 功能的 NVIDIA RTX AI 笔记本电脑即将上市。NVIDIA 在一篇博文中表示:"这些 Windows 11 AI PC 在可用时将获得 Copilot+ PC 体验的免费更新。这表明微软可能还没准备好在 AMD 芯片上推出 Recall 和其他 AI 驱动的 Windows 功能,或者说 6 月 18 日推出的搭载 Arm 高通处理器的 Windows 硬件可能会有一段时间的独占期。"NVIDIA也在为在笔记本电脑上执行人工智能驱动的任务而进行着某种程度的努力,微软正在推动将人工智能模型的计算安排到 NPU 上,而 NVIDIA 则打算在 PC 上的人工智能战场上大显身手。NVIDIA 正在大力宣传其"RTX AI 笔记本电脑"品牌,指出其 GPU 比 NPU 更有能力运行更繁重的 AI 工作负载。RTX 人工智能工具包将于 6 月份推出NVIDIA会在 6 月份推出RTX AI 工具包,其中包括用于模型定制、优化和部署的工具和 SDK。这些工具将采用类似 Meta 的 Llama 2 模型,并对其进行优化,使其运行时对 VRAM 的要求大大降低,性能更高。NVIDIA 还与微软就 Windows 11 中内置的底层人工智能模型展开合作。NVIDIA表示:"此次合作将为应用开发人员提供便捷的应用编程接口(API)访问GPU加速的小语言模型(SLM),从而实现由Windows Copilot Runtime驱动的在设备上运行的检索增强生成(RAG)功能。"微软在上个月的Build大会上发布了Windows Copilot Runtime,而NVIDIA表示,其使用RTX GPU加速AI模型的工作将于今年晚些时候发布开发者预览版。微软的Windows Copilot Runtime旨在让开发者能够轻松地将人工智能功能添加到他们的应用中,同时依靠NPU硬件或NVIDIA的GPU来加速这些功能。由于 NPU 目前的性能约为 40 TOPS,而 NVIDIA 的 PC GPU 可处理超过 1000 TOPS 的 AI 加速,因此开发人员需要考虑的性能差异显然很大。NPU 专为笔记本电脑中运行的较小的模型和针对重要的高能效而设计,但 GPU 可以很好地处理较大的模型,在电池寿命无关紧要的 PC 台式机中具有更高的性能。观察 PC 上的这场人工智能大战将会非常有趣,尤其是微软掌握着在 Windows 中为 NVIDIA、AMD、英特尔、高通及其众多 OEM 合作伙伴原生将带来这些AI体验的钥匙。 ... PC版: 手机版:

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI展示语音克隆人工智能模型 只需15秒样本即可工作

OpenAI展示语音克隆人工智能模型 只需15秒样本即可工作 可以访问的公司包括教育技术公司 Age of Learning、视觉故事平台 HeyGen、前线健康软件制造商 Dimagi、人工智能通信应用开发商 Livox 和健康系统 Lifespan。在 OpenAI 发布的这些样本中,你可以听到Age of Learning利用该技术生成预制画外音内容,以及向学生朗读由 GPT-4 撰写的 "实时、个性化回复"。首先是英文参考音频:下面是人工智能根据该样本生成的三个音频片段:OpenAI 表示,它于 2022 年底开始开发语音引擎,该技术已经为文本到语音 API 和ChatGPT 的朗读功能提供了预设语音。OpenAI 语音引擎产品团队成员杰夫-哈里斯(Jeff Harris)在接受TechCrunch 采访时表示,该模型是在 "授权数据和公开数据的混合 "基础上训练出来的。OpenAI 告诉该刊物,该模型将只向大约 10 名开发者开放。人工智能文本到音频生成是生成式人工智能的一个不断发展的领域。虽然大多数人都专注于乐器或自然声音,但专注于语音生成的人较少,部分原因是 OpenAI 提出的问题。该领域的一些知名公司包括 Podcastle 和 ElevenLabs,它们提供人工智能语音克隆技术和工具。与此同时,美国政府也在努力遏制不道德地使用人工智能语音技术。上个月,美国联邦通信委员会禁止了使用人工智能语音的自动拨叫电话,因为人们收到了由人工智能克隆的乔-拜登总统的声音打来的垃圾电话。据 OpenAI 称,其合作伙伴同意遵守其使用政策,即未经同意不得使用语音生成技术冒充他人或组织。该政策还要求合作伙伴获得原始发言人的 "明确和知情同意",不建立个人用户创建自己声音的方法,并向听众披露声音是人工智能生成的。OpenAI 还为音频片段添加了水印,以追踪其来源,并积极监控音频的使用情况。OpenAI 提出了几项措施,认为这些措施可以限制类似工具的风险,包括逐步淘汰访问银行账户的语音认证,制定政策保护人工智能中对人声的使用,加强人工智能深度伪造方面的教育,以及开发人工智能内容跟踪系统。了解更多: ... PC版: 手机版:

封面图片

由人工智能 Bard 支持的谷歌助手即将登陆 Pixel 手机

由人工智能 Bard 支持的谷歌助手即将登陆 Pixel 手机 “Pixel 使用提示”应用中出现了 Assistant with Bard 的演示视频。Mishaal Rahman 进一步指出,“Pixel 使用提示”应用中的 Assistant with Bard 演示也表明它可能是2024年3月 Pixel Feature Drop 的一部分,预计很快上线。并表示,新的人工智能助手仅限于基于 Tensor 的 Pixel 手机。 、

封面图片

微软展示VASA-1人工智能模型 能将照片变成"会说话的人脸"

微软展示VASA-1人工智能模型 能将照片变成"会说话的人脸" 该模型目前只是研究预览版,微软研究团队以外的任何人都无法试用,但演示视频看起来令人印象深刻。Runway 和 NVIDIA 已经推出了类似的唇部同步和头部运动技术,但这种技术的质量和逼真度似乎要高得多,可以减少嘴部伪影。这种音频驱动动画的方法也与Google研究院最近推出的VLOGGER 人工智能模型类似。VASA-1 如何工作?微软表示,这是一个新的框架,用于创建栩栩如生的会说话的人脸,专门用于虚拟人物的动画制作。示例中的所有人物都是合成的,是用 DALL-E 制作的,但如果它能为逼真的人工智能图像制作动画,那么它也能为真实的照片制作动画。在演示中,我们看到人们说话时就像在被拍摄一样,动作略显生涩,但看起来非常自然。唇语同步令人印象深刻,动作自然,嘴部上下没有其他工具中出现的假象。VASA-1 最令人印象深刻的一点似乎是,它不需要正面朝上的人像图像就能工作。其中有面向不同方向拍摄的例子。该模型似乎还具有很强的控制能力,能够将眼睛注视的方向、头部距离甚至情绪作为输入来引导生成。VASA-1 的意义何在?其中一个最明显的应用案例就是游戏中的高级唇语同步。如果能创造出具有自然唇部动作的人工智能驱动的 NPC,就能改变游戏的沉浸感。它还可用于为社交媒体视频创建虚拟化身,HeyGen 和 Synthesia 等公司已经采用了这种技术。另一个领域是基于人工智能的电影制作。如果能让人工智能歌手看起来像在唱歌,就能制作出更逼真的音乐视频。尽管如此,该团队表示,这只是一次研究演示,并没有公开发布的计划,甚至也不会提供给开发人员在产品中使用。VASA-1 的效果如何?让研究人员感到惊讶的是,VASA-1 能够完美地对歌曲进行歌词嘴型同步,尽管训练数据集中没有使用音乐,但它仍能毫无问题地反映歌手的歌词。它还能处理不同风格的图像,包括蒙娜丽莎。他们让它以每秒 45 帧的速度创建 512x512 像素的图像,使用桌面级 NVIDIA RTX 4090 GPU 可在大约 2 分钟内完成。虽然他们说这只是用于研究,但如果它不能进入公共领域,那就太可惜了,即使只是面向开发者,鉴于微软在OpenAI中拥有巨大的股份,这甚至可能成为未来 Copilot Sora 集成的一部分。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人