育碧探索生成式AI:让未来游戏中的NPC更加栩栩如生

育碧探索生成式AI:让未来游戏中的NPC更加栩栩如生 英伟达表示:“通过NEO NPC,育碧叙事和动画设计师将脚本游戏元素的可靠性,与玩家自发互动的动态性融为一体,将未来游戏开发推向了新的境界。”育碧生产技术副总裁Guillemette Picard表示,生成式AI将让玩家获得前所未有的游戏体验。她说:“通过与英伟达合作,开发我们的NEO NPC原型。英伟达Audio2Face技术将帮助我们通过实时面部动画,创造更深的沉浸感,实现真正的即兴NPC对话。”英伟达技术部门副总裁John Spitzer表示:“AI是一种强大的工具,它可以让游戏更具活力、沉浸感和独特性,从而大大提升玩家体验。我们很高兴能与育碧合作,利用英伟达ACE技术推动数字角色的发展。”在GDC 2024大会上,育碧展示了三个演示场景。每个场景都侧重于NPC行为的不同领域以及“环境和情境意识”。 ... PC版: 手机版:

相关推荐

封面图片

育碧展示可以自由对话的生成式 AI 游戏角色原型

育碧展示可以自由对话的生成式 AI 游戏角色原型 育碧巴黎工作室今日在 GDC 2024 上展示了其最新的生成式 AI 原型项目 NEO NPC,使游戏 NPC 能够以自发的行动和反应进行对话,而非遵循对话树中的设定。NPC 并非由模型直接生成,而是游戏编剧通过对模型进行调节,使其以仓库所设想的背景故事、个性和对话风格为基础进行发展。该项目应用了英伟达的 Audio2Face 与 Inworld 的 大语言模型技术。育碧表示,所有生成式 AI 项目的目标都是为玩家带来价值,开发过程始终以玩家和开发人员的创造力为重点。

封面图片

NEO NPCs:育碧官宣首个驱动角色和玩法的生成式AI原型

NEO NPCs:育碧官宣首个驱动角色和玩法的生成式AI原型 在旧金山举办的全球游戏开发者大会(GDC)期间,育碧 向公众披露了其首个面向玩家开发、生成式 AI 驱动的原型 NEO NPCs。该原型能够改变玩家与游戏中NPC的互动体验方式,并为自带AI功能的游戏玩法拓宽发展边界

封面图片

育碧计划使用AI 打造更有活力和更丰富的游戏

育碧计划使用AI 打造更有活力和更丰富的游戏 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 CEO还讨论了NEO NPC项目,该项目于GDC 2024上公布。根据育碧,NEO NPC项目是育碧首个面向玩家的生成式AI原型,用于设计更有沉浸感的游戏体验,让玩家和NPC之间的互动更强烈。育碧正在和领先的AI公司合作,以进一步了解AI技术。育碧CEO确认公司目前有两支团队正在开发次世代AI,一支团队专注于如何利用AI并且实现一定数量的自动化,而另一个团队则专注于人工智能的质量。育碧CEO还进一步解释说其最近的NPC模型受到了好评,能改进旗下游戏的品质,让它们更有活力和更丰富。虽然育碧正在致力于生成式AI,但这些技术需要几年才能在未来的3A游戏中亮相,因此即将到来的新作《刺客信条:影》并没有受到AI技术的影响。 ... PC版: 手机版:

封面图片

任天堂称未来第一方游戏不会使用生成式AI

任天堂称未来第一方游戏不会使用生成式AI 在公司最近的投资人问答会上,任天堂描绘了公司未来游戏愿景。在谈到AI技术时,社长古川俊太郎说AI确实很厉害,但还没到终结所有的时候。他说:“我们希望继续呈现我们独有的价值,而这是无法仅凭AI技术就能实现的。”可见,任天堂高层在AI技术的看法上和欧美厂商很不同。此前EA和微软等公司高层都盛赞了AI技术能力,能缩减成本和加快游戏开发进程。西方游戏公司正在探索使用AI改进游戏环境,让NPC表现更自然,从而提高游戏的互动和沉浸感。此外,英伟达还在考虑为DLSS 4引入AI生成物体和纹理等新功能。这会让游戏开发更快,成本更低,减少对人工的依赖。然而这样做,许多游戏从业者恐怕要丢掉工作。 ... PC版: 手机版:

封面图片

游戏NPC“活”了 英伟达AI立大功

游戏NPC“活”了 英伟达AI立大功 不仅对话过程流畅、表情动作自然,而且还最新支持了多轮对话。最关键的是,与NPC的对话不再只是闲聊,而是时时刻刻在推进主线的发展。这是育碧在今年CES上宣布跟进英伟达的ACE微服务之后,放出的首个DEMO。话不多说,马上一起来尝尝鲜!智能NPC已“杀”进主线今年CES上亮相的英伟达ACE微服务,与Convai联合打造的技术DEMO,通过让玩家与拉面馆里的NPC对话,从而圈粉无数。在英伟达ACE中的Riva和Audio2Face两项微服务的驱动下,游戏中的人物纷纷“活”了起来,与其他角色甚至真人玩家一起对话交流,并根据对话内容做出相应的表情动作。其中Riva负责处理语音相关的任务,而Audio2Face则根据说话内容实时对角色的口型和面部表情进行渲染,将两者与第三方的大模型进行结合,就塑造出了游戏中的智能角色。从那时起,包括育碧在内的一众游戏厂商就纷纷宣布跟进,如今首个DEMO终于横空出世。整个15分钟的游戏过程当中,玩家唯一需要做的,就是和NPC对话从一进入游戏开始,就被引导和NPC聊天。名为Bloom的一号NPC热情地做了自我介绍,表示自己是玩家在游戏中的伙伴,要带着我们先转一转。而Nelson接到的第一个任务也很简单(通过对话的方式)尽快和Bloom熟络起来。当Nelson表达了犹豫之后,Bloom也附和说,在这种环境下有疑问太正常了,但我们的确需要你。在经历了几轮“拉扯”之后,Nelson终于向Bloom询问了任务的细节,从态度上不再显现出拒绝的姿态,此时Bloom也开始对Nelson建立了信任,游戏的第一个任务目标达成。接着,Bloom带着Nelson走到了电脑屏幕前,开始介绍起了任务的详细情况。跟着Bloom了解完任务情况之后,名为Iron的二号NPC登场了。Iron没有做很多寒暄,而是开门见山地告诉了Nelson有很多重要文档和它们的位置。接着,Nelson和Iron对着一张平面图,对行动的计划进行了详细讨论,最终达成了一致。随着讨论的完成,游戏即将进入下一阶段,DEMO也到此结束了。整段视频看下来,对话流畅,表情神态也很自然,Bloom和Iron也拥有自己鲜明的对话风格,全流程的操作只需要通过说话就能完成,游戏一下子有了更多的新鲜感和真实感。不过,玩家想要体验到ACE带来的完整效果,可能还是需要等到开发者这边拿出成熟的作品;但英伟达的AI技术,在游戏体验上带来的提升,是肉眼看见的。画质帧率,我全都要经常玩游戏的朋友们都知道,画质和帧率是决定游戏体验好与坏的两个重大因素。不过现实则是,总的性能是一定的,有时候需要在二者之间做出取舍或平衡。但对游戏感受要求比较高的玩家,内心的OS一定是这样的:而英伟达全新升级的DLSS 3.5,利用光线重建(Ray Reconstruction)技术,让游戏画面变得更加细腻。与传统的光线追踪降噪器不同,DLSS 3.5没有采用人工设计的降噪机制,而是通过AI模型来提升画面质量。比如一众玩家已经期待了快三年的大作《黑神话:悟空》,就宣布将搭载DLSS 3.5和全景光线追踪。预告片中,波光粼粼的水面上随风泛起阵阵涟漪,只见随着视角的切换,水中的倒影、山的阴影也都随之转动,光的折射与反射效果渲染得十分逼真。光影的处理也很到位,随着叶子在风中轻轻摇曳,石柱上留下的影子也随之摆动。除了《黑神话:悟空》之外,《永劫无间》(NARAKA: BLADEPOINT)也宣布将支持 DLSS 3.5,并且即将在PVP和PVE模式下的三个地图中添加全景光线追踪,之后将逐步扩展至更多地图。另外,结合DLSS 3已有的超分辨率(Super Resolution)、帧生成(Frame Generation)和低延迟(Reflex)功能,可以在游戏中同时实现画质和帧率的提升以及延迟的下降。还有一个好消息是,有越来越多的游戏厂商宣布将增加对DLSS和光追等技术的支持,已有超过500款游戏和应用采用了RTX的一系列技术来实现逼真的图形效果。除了游戏,英伟达也将RTX Video Super Resolution运用到了视频之中,可以让大部分浏览器中或存储在本地的视频,分辨率再上一层楼,没有会员、网速不够也能畅享超清视频了。而且这个功能内置在了NVIDIA控制面板当中,只需修改设置即可启用,无需下载额外的应用程序。One More Thing利用AI技术,英伟达不只带来了娱乐体验的提升,也从生产力上让AI进一步向个人终端普及。比如在4090显卡上用SD生成图像,如果抛开硬盘读写的限制,速度可以达到每秒140张。如果代入到实际工作中,在笔记本4090上用SDXL生图的速度,是苹果最新的M3 Max的6倍。而且从平面设计到视频,甚至是3D,Adobe系列、Autodesk系列、Davinci等我们耳熟能详的软件,英伟达都能为其中的AI功能带来加速。剪映、万兴喵影(原万兴神剪手)等知名国产应用,也在支持列表当中。再加上之前可以让消费级PC运行本地大模型的ChatRTX技术Demo的亮相,可以说英伟达凭借算力和生态优势,在AI PC的战场上,提前走在了前列。 ... PC版: 手机版:

封面图片

NVIDIA ACE for Games:赋予NPC生命

NVIDIA ACE for Games:赋予NPC生命 英伟达与Convai合作,由生成式AI驱动游戏内的NPC,为玩家提供沉浸式、动态互动的游戏体验。 视频的内容是展示了一个沉浸式和动态的交互场景,玩家Kai与一个非玩家角色Jin进行对话。这个引人入胜的场景是由Nvidia使用最新的RTX渲染技术创建的。Nvidia与Convai(一个Nvidia Inception合作伙伴)合作,展示了开发者如何使用Nvidia Riva、Nemo和Audio2Face进行AI驱动的语音、对话和动画。这些模型被集成到Convai服务平台,并输入到Unreal Engine 5和Metahuman中,使Jin变得栩栩如生。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人