中文口译]6/2LIVE19:00黄仁勋主题演讲全程直播

None

相关推荐

封面图片

NVIDIA CEO 黄仁勋 GTC21主题演讲 | 全程回顾============文中提到的主题演讲

封面图片

[视频直播]NVIDIA CEO黄仁勋2024年台北国际电脑展主题演讲实况

[视频直播]NVIDIA CEO黄仁勋2024年台北国际电脑展主题演讲实况 主题演讲预计将持续两个小时,届时将有众多嘉宾出席,英伟达将在包括数据中心和客户端 PC 在内的各条战线进入人工智能征程的下一个篇章。英伟达一直引领着人工智能的发展,因为早在2017年,他们就率先进入了当今最热门的科技领域,推出了Volta GPU及其Tensor架构,后来又在2018年推出了英伟达GeForce RTX 20系列,进入了更主流的领域。NVIDIA随后发布了Hopper,而即将推出的 Blackwell GPU 架构也将颠覆整个行业。邀请函如下:英伟达首席执行官主题演讲英伟达公司创始人兼首席执行官黄仁勋将于台湾时间6月2日晚7点在台大体育中心发表现场主题演讲,分享人工智能时代如何推动全球新一轮工业革命。参加主题演讲不收取任何费用,还将进行现场直播,别忘了保存日期。英伟达至于NVIDIA在 Computex 2024 大会上的主题演讲,我们可能会听到更多关于人工智能方面的内容。去年,英伟达展示了其 GPU 路线图以及新的合作伙伴关系,我们还看到了一些新技术,如首屈一指的 ACE云引擎模型。今年,我们期待绿队在人工智能领域有更多创新,但对于那些期待新游戏卡的人来说,现在还为时尚早。英伟达(NVIDIA)正在准备下一代 GeForce RTX 50"Blackwell"图形处理器,但这些处理器很可能在 2024 年下半年才会正式发布。目前的传言称, GeForce RTX 5090 和 RTX 5080 的发布计划为 2024 年第四季度,因此不要对游戏显卡方面抱太大期望。 ... PC版: 手机版:

封面图片

全程回顾黄仁勋GTC演讲:Blackwell架构B200芯片登场

全程回顾黄仁勋GTC演讲:Blackwell架构B200芯片登场 在这场两个小时的演讲中,黄仁勋公布了搭载B200芯片的GB200 Grace Blackwell超级芯片系统,以及英伟达在AI软件(NIM微服务)、Omiverse云、具身智能方面的最新进展。以下为演讲内容回顾:黄仁勋登台,对观众们强调:我希望你们搞清楚今天这里不是演唱会,而是一场开发者大会。黄仁勋介绍了本届GTC的一些参与者,并强调这些公司不只是来参会,而是有自己的东西要来展示。黄仁勋展示英伟达发展史,又提了将首台DGX One送给OpenAI的故事。黄仁勋:今天我们将讨论这个新行业的许多问题。我们要谈谈如何进行计算、我们要谈谈你所构建的软件类型,你将如何看待这个新软件,新行业中的应用 然后,也许(再谈谈)下一步是什么,我们如何从今天开始做准备,下一步会发生什么。黄仁勋:我们使用仿真工具来创造产品,并不是为了降低计算成本,而是为了扩大计算规模。我们希望能够以完全保真、完全数字化的方式模拟我们所做的整个产品。从本质上讲,我们称之为数字孪生。老黄开始介绍一系列“新加速生态系统”合作伙伴,包括ANSYS、Synopsis、Cadence等。他也提及,台积电和Synopsys将突破性的英伟达计算光刻平台投入生产。随着transformer模型被发明,我们能以惊人的速度扩展大型语言模型,实际上每六个月就能翻一番。而为了训练这些越来越大的模型,我们也需要更强的算力。“非常强大”的Blackwell架构GPU登场老黄现场对比Blackwell架构和Grace Hopper架构的GPU老黄现场展示Grace-Blackwell系统(两个Blackwell GPU、四个die与一个Grace Cpu连接在一起)。GB200将两个B200 Blackwell GPU与一个基于Arm的Grace CPU进行配对。新芯片拥有2080亿个晶体管,所有这些晶体管几乎同时访问与芯片连接的内存。为了处理大规模数据中心的GPU交互问题,也需要更强的连接(NVlink)能力。这个GB200新系统提升在哪里呢?老黄举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用Blackwell GPU,只需要2000张,同样跑90天只要消耗四分之一的电力。当然不只是训练,生成Token的成本也会随之降低。把芯片做大的好处:单GPU每秒Token吞吐量翻了30倍毫无疑问,微软Azure、AWS、Google云等一众科技巨头都是Blackwell架构的首批用户。接下来应该是应用侧的部分,先展示的是生物医药的部分,包括NVIDIA DGX云中的多项更新。黄仁勋宣布新的AI微服务,用于开发和部署企业级生成式AI应用。老黄表示,未来如何开发软件?与现在写一行行代码不同,未来可能就要靠一堆NIMs(NVIDIA inference micro service),用与AI聊天的形式调动一堆NIMS来完成训练、应用的部署。英伟达的愿景是成为AI软件的“晶圆厂”。英伟达的AI微服务NIM网站已经上线。NIM微服务提供了最快、性能最高的AI生产容器,用于部署来自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock的模型,以及来自Google、Hugging Face、Meta、Microsoft、Mistral AI和Stability AI的开放模型。NVIDIA AI Enterprise软件平台更新,包括NIM、构建RAG应用程序的工具等。随后老黄又分享了西门子科技、日产汽车等用如何在工作流中将Omiverse Cloud应用在工作流中。黄仁勋宣布,现在支持将Omniverse云推流至Vision Pro。可能是时间不太够了,老黄开始加速官宣一系列合作。其中提到全球最大电动车公司比亚迪将采用英伟达下一代智能汽车芯片Thor。比亚迪同时将使用英伟达基础设施进行自动驾驶模型训练,以及英伟达Isaac来设计/模拟智能工厂机器人。开始提机器人了。黄仁勋表示,在我们的世界里,类人机器人很有可能会发挥更大的作用,我们设置工作站、制造和物流的方式,并不是为人类设计的,而是为人类设计的。因此,这些人类或机器人的部署可能会更有成效。黄仁勋同时宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。由GR00T驱动的机器人可以理解自然语言,并通过观察人类动作来模拟运动。除了机器人影像外,迪士尼的orange和green机器人也来到现场,这款机器人用的是英伟达为机器人设计的首款AI芯片Jetson。黄仁勋带着机器人下场,现场播放ending影片黄仁勋返场告别,全场发布会结束。 ... PC版: 手机版:

封面图片

NVIDIA CEO黄仁勋将于6月2日在台北电脑展前举办主题演讲会

NVIDIA CEO黄仁勋将于6月2日在台北电脑展前举办主题演讲会 有趣的是,NVIDIA今年决定在 Computex 开幕前举办发表会,相较去年,黄仁勋举办的是 Computex 2023 的开幕主题演讲。今年取而代之的是AMD 的首席执行官苏丽莎博士将主持,英特尔的首席执行官 Pat Gelsinger 也将为其公司发表主题演讲。AMD 的主题演讲将于6月3日举行(9:30-11:00),而英特尔要再晚一天。有关于今年的主题演讲,我们可能会听到更多关于人工智能方面的内容。去年,NVIDIA展示了其 GPU 路线图以及新的合作伙伴关系,我们还看到了一些新技术如ACE(阿凡达云引擎)模型。今年,我们期待NVIDIA在人工智能领域有更多创新,但对于那些期待新游戏卡的人来说,现在还为时过早。NVIDIA正在准备下一代 GeForce RTX 50"Blackwell"图形处理器,但这些处理器很可能在 2024 年下半年才会正式发布。目前的传言称,GeForce RTX 5090 和 RTX 5080的发布计划为 2024 年第四季度,因此不要对游戏方面抱太大期望。 ... PC版: 手机版:

封面图片

黄仁勋COMPUTEX演讲在说什么?想搭上AI趋势

封面图片

黄仁勋COMPUTEX2024演讲1.6万字全程实录:我们正在经历计算通货膨胀

黄仁勋COMPUTEX2024演讲1.6万字全程实录:我们正在经历计算通货膨胀 这场演讲涵盖了从 AI 基础技术到未来机器人和生成式 AI 在各个行业的应用,全面展示了英伟达在推动计算技术变革方面的卓越成就。黄仁勋表示,英伟达位于计算机图形、模拟和 AI 的交汇处,这是英伟达的灵魂。今天展示给我们的一切都是模拟的,它是数学、科学、计算机科学、令人惊叹的计算机架构的结合。这些都不是动画,而是自制的,英伟达把它全部融入了 Omniverse 虚拟世界。加速计算与 AI黄仁勋表示,我们所看到的一切的基础是两项基本技术,加速计算和在 Omniverse 内部运行的AI,这两股计算的基本力量,将重新塑造计算机行业。计算机行业已有 60 年的历史。在很多方面,今天所做的一切都是在 1964 年黄仁勋出生后一年发明的。IBM System 360 引入了中央处理单元、通用计算、通过操作系统实现硬件和软件的分离、多任务处理、IO子系统、DMA以及今天使用的各种技术。架构兼容性、向后兼容性、系列兼容性,所有今天对计算机了解的东西,大部分在1964 年就已经描述出来了。当然,PC 革命使计算民主化,把它放在了每个人的手中和家中。2007 年,iPhone 引入了移动计算,把计算机放进了我们的口袋。从那时起,一切都在连接并随时运行通过移动云。这 60 年来,我们只见证了两三次,确实不多,其实就两三次,主要的技术变革,计算的两三次构造转变,而我们即将再次见证这一切的发生。有两件基本的事情正在发生。首先是处理器,即计算机行业运行的引擎,中央处理单元的性能提升显著放缓。然而,我们需要进行的计算量仍然在迅速增长,呈指数级增长。如果处理需求,数据需要处理的量继续指数级增长但性能没有,计算通货膨胀将会发生。事实上,现在就看到了这一点。全球数据中心使用的电力量正在大幅增长。计算成本也在增长。我们正在经历计算通货膨胀。当然,这种情况不能继续下去。数据量将继续以指数级增长,而 CPU 性能提升将永远不会恢复。我们有更好的方法。近二十年来,英伟达一直在研究加速计算。CUDA 增强了 CPU,卸载并加速了专用处理器可以更好完成的工作。事实上,性能非常出色,现在很明显,随着 CPU 性能提升放缓并最终显著停止,应该加速一切。黄仁勋预测,所有需要大量处理的应用程序都会被加速,当然每个数据中心在不久的将来都会被加速。现在加速计算是非常合理的。如果你看看一个应用程序,这里100t 代表 100 单位时间,它可能是100秒,也可能是 100 小时。在很多情况下,如你所知,现在正在研究运行 100 天的 AI 应用程序。1T 代码是指需要顺序处理的代码,其中单线程CPU是非常关键的。操作系统控制逻辑非常重要,需要一条指令接着一条指令地执行。然而,有很多算法,比如计算机图形处理,可以完全并行操作。计算机图形处理、图像处理、物理模拟、组合优化、图处理、数据库处理,当然还有深度学习中非常著名的线性代数,这些算法都非常适合通过并行处理来加速。因此,发明了一种架构,通过在 CPU 上添加 GPU 来实现。专用处理器可以将耗时很长的任务加速到极快的速度。因为这两个处理器可以并肩工作,它们都是自主的,独立的,可以将原本需要 100 个时间单位的任务加速到 1 个时间单位,速度的提升是难以置信的,效果非常显著,速度提升了 100 倍,但功耗只增加了大约三倍,成本只增加了约 50%。在 PC 行业一直这样做,英伟达在1000 美元 PC 上加一个 500 美元 GeForce GPU,性能会大幅提升。英伟达在数据中心也这样做,一个价值十亿美元的数据中心,加上 5 亿美元的GPU,突然间它就变成了一个 AI 工厂,这种情况正在全球各地发生。节省的成本非常惊人。每花一美元就能获得 60 倍的性能提升,速度提升了 100倍,而功耗只增加了三倍,成本只增加了 1.5倍。这种节省是难以置信的。节省的成本可以用美元来衡量。很明显,许多公司在云端处理数据上花费了数亿美元。如果这些过程被加速,不难想象可以节省数亿美元。这是因为在通用计算上已经经历了很长时间的通货膨胀。现在终于决定加速计算,有大量被捕获的损失可以现在回收,许多被保留的浪费可以从系统中释放出来。这将转化为金钱的节省和能源的节省,这也是为什么黄仁勋常说‘买得越多,省得越多’。黄仁勋还表示,加速计算确实带来了非凡的成果,但它并不容易。为什么它能省这么多钱,但这么长时间以来人们却没有这样做呢?原因是因为这非常难。没有一种软件可以通过C编译器运行,突然间应用程序就快了100倍。这甚至不合逻辑。如果可以做到这一点,他们早就改造 CPU了。事实上,必须重写软件,这是最难的部分。软件必须完全重写,以便能够重新表达在 CPU 上编写的算法,使其能够被加速、卸载并行运行。这种计算机科学的练习极其困难。黄仁勋表示,在过去 20 年里,英伟达让全世界变得更容易。当然,非常著名 cuDNN,即处理神经网络的深度学习库。英伟达有一个 AI 物理库,可以用于流体动力学和许多其他应用中,神经网络必须遵守物理定律。英伟达有一个叫 Arial Ran 新的伟大库,它是一个 CUDA 加速 5G 无线电,能够像定义世界网络互联网一样定义和加速电信网络。加速的能力使我们能够将所有的电信转变为与云计算平台相同类型的平台。cuLITHO 是一个计算光刻平台,能够处理芯片制造中最计算密集的部分制作掩膜。台积电正在使用 cuLITHO 进行生产,节省了大量的能源和金钱。台积电的目标是加速他们的堆栈,以便为进一步的算法和更深入、更窄的晶体管的计算做好准备。Parabricks 是英伟达基因测序库,它是世界上吞吐量最高的基因测序库。cuOpt是一个用于组合优化、路线规划优化的令人难以置信的库,用于解决旅行商问题,非常复杂。科学家们普遍认为需要量子计算机来解决这个问题。英伟达创造了一个在加速计算上运行的算法,运行速度极快,创下了23项世界纪录。cuQuantum是一个量子计算机的模拟系统。如果你想设计一个量子计算机,你需要一个模拟器。如果你想设计量子算法,你需要一个量子模拟器。如果量子计算机不存在,你如何设计这些量子计算机,创建这些量子算法呢?你使用今天世界上最快的计算机,当然就是NVIDIA CUDA。在上面,英伟达有一个模拟器,可以模拟量子计算机。它被全世界数十万研究人员使用,并集成到所有领先的量子计算框架中,广泛用于科学超级计算中心。cuDF是一个令人难以置信的数据处理库。数据处理消耗了今天云端支出的绝大部分,所有这些都应该被加速。cuDF加速了世界上使用的主要库,比如Spark,许多公司可能都在使用Spark,Pandas,一个新的叫做Polars的库,当然还有NetworkX,一个图处理数据库库。这些只是一些例子,还有很多其他的。黄仁勋表示,英伟达必须创建这些库,以便让生态系统能够利用加速计算。如果英伟达没有创建cuDNN,光有 CUDA 是不可能让全世界的深度学习科学家使用的,因为 CUDA、TensorFlow 和 PyTorch中使用的算法之间的距离太远了。这几乎像是在没有OpenGL 情况下做计算机图形处理,或者没有 SQL 的情况下进行数据处理。这些特定领域的库是英伟达的珍宝,总共有350个库。正是这些库使英伟达能够打开如此多的市场。上周,Google 宣布在云端加速 Pandas,这是世界上最流行的数据科学库。你们中的许多人可能已经在使用Pandas,它被全球 1000 万数据科学家使用,每月下载1.7 亿次。 PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人