Sam Altman提出「算力将成未来的新货币」,AI软硬体热潮中,早了解人类科技和社会进步的可能模样。NVIDIA执行长黄仁勋

Sam Altman提出「算力将成未来的新货币」,AI软硬体热潮中,早了解人类科技和社会进步的可能模样。NVIDIA执行长黄仁勋来台掀起炫风,AI软硬体的爆发,让晶片供应链成了全球市场追逐的火热矽潮。#AI #新货币 #算力 #NVIDIA #黄仁勋

相关推荐

封面图片

英伟达继续狂飙 黄仁勋回应Sam Altman

英伟达继续狂飙 黄仁勋回应Sam Altman 媒体指出,上一次英伟达的市值超过亚马逊是在 2002 年,当时两家公司的市值均低于 60 亿美元。因为市场对强劲人工智能需求的押注,推动了英伟达股价的上涨,使其成为所谓的“七巨头”中表现最好的股票,在过去 12 个月内飙升了 223%。今年迄今为止,Nvidia 的股价已上涨 46%。但对于这家可能是有史以来最强的芯片巨头,英伟达的创造历史之路,似乎还远未结束。人工智能改变了数据中心和英伟达Nvidia成立的目的是彻底改变游戏和多媒体领域的 3D 计算机图形技术。该公司最初在各种芯片上取得了成功,随后在 1999 年推出了世界上第一个图形处理单元 (GPU) Nvidia GeForce 256,并取得了重大飞跃。这一里程碑在最新的 GeForce RTX 40 系列中达到了顶峰,该系列可以借助深度学习超级采样 (DLSS)(Nvidia 的一项令人难以置信的创新)为数字内容提供逼真的图形。DLSS 使用人工智能(AI) 在视频游戏场景中创建额外的帧并增强图像质量。直到 2022 财年(截至 2022 年 1 月 30 日),游戏一直是 Nvidia 最大的收入驱动力。该部门当年的销售额为 125 亿美元,占公司总收入的 46%。但后来,一切都变了:数据中心曾经是公司存储有价值信息的地方,但后来发展成为在线操作的集中中心(也称为云计算)。如今,数据中心拥有 Nvidia 设计的强大芯片,用于处理人工智能工作负载。这种转变始于 2016 年,当时 Nvidia 向 OpenAI 交付了第一台 AI 超级计算机,该计算机用于开发早期的生成式 AI模型,最终形成了著名的 ChatGPT 在线聊天机器人。现在,Nvidia 领先的 H100 数据中心 GPU 售价高达 40,000 美元。微软和亚马逊等集中式数据中心运营商订购了数十万个数据中心,为云客户提供开发人工智能所需的计算能力。这使得 Nvidia 的数据中心收入在 2024 财年第三季度(截至 2023 年 10 月 29 日)同比飙升 279%。数据中心业务目前占英伟达总收入的 80%,将游戏业务远远甩在身后。Nvidia 现在是一个价值 1.8 万亿美元的庞然大物,其中 1 万亿美元的价值是在过去 12 个月内创造的。目前看来,英伟达的股价可能仍会走高。每个国家都要AI,数据中心将继续飚NVIDIA 创始人兼首席执行官黄仁勋周一在迪拜举行的世界政府峰会上对与会者表示,每个国家都需要拥有自己的情报生产能力。黄在与阿联酋人工智能部长艾尔·奥拉马(Al Olama)阁下进行炉边谈话时发表讲话,他将主权人工智能(强调一个国家对其数据及其产生的情报的所有权)描述为世界领导人的巨大机遇。“它记录了你的文化、你的社会智慧、你的常识、你的历史你拥有自己的数据,”黄在他们的谈话中告诉 Al Olama,这是来自 150 个国家的 4,000 多名代表参加的活动的亮点。黄敦促领导人不要被人工智能“迷惑”。人工智能具有前所未有的接受普通人类指导的能力,这使得各国拥抱人工智能、为其注入当地语言和专业知识变得至关重要。黄甚至反驳了多年来许多有远见的人提出的建议,他们敦促年轻人学习计算机科学,以便在信息时代竞争。“事实上,情况几乎完全相反,”黄仁勋说。“我们的工作是创造无需任何人编程的计算技术,并且编程语言是人类的:现在世界上的每个人都是程序员,这就是奇迹。”在同一场峰会上,黄仁勋还表示,我们正处于这个新时代的开始,将会发生的是,全球数据中心的安装基础价值将达到一万亿美元,在未来 4-5 年内,我们将拥有价值 2 万亿美元的数据中心,它们这为世界各地的软件提供动力,所有这些都将得到加速,这种加速计算的架构非常适合称为生成式人工智能的下一代软件。对于 NVIDIA 作为一家商业公司而言,Jensen 表示,“通用计算”并不是我们想要快速、高效且经济高效的人工智能的最佳方式,他描述了这一点通过描绘这样一个事实,我们在现代看到的加速计算促进了人工智能的增长甚至进入市场。他表示,该行业过渡到“下一代”状态的唯一途径是升级加速计算,而需要巨大的经济资源和高效的硬件作为关键武器。进军定制芯片设计业务,赢者通吃在英伟达最初的生意规划里,他们是希望用统一的GPU,去拿下所有的客户。但现在他们在看到客户纷纷逃离他们自研芯片之后。如文章开头所说,有传言指出,英伟达正在进军定制芯片业务,希望通过给他们的客户定制芯片,以进一步加固自己在AI市场的低位。据报道,Nvidia 成立的这个小组,负责打造新的商业模式,帮助客户使用 Nvidia IP 甚至小芯片构建自己的解决方案。通过这一举措,英伟达开始打造一个人工智能授权巨头。熟悉芯片行业的读者应该知道,许多自行设计芯片以降低成本或为计算需求提供更定制解决方案的公司已经与 Broadcomm 和 Marvell 等公司进行后端物理设计、SerDes 块或 IP(例如 Marvell 的高性能 Arm CPU 内核)的合作。Cadence 和 Synopsys 等 EDA 解决方案提供商在提供 IP 块方面做得很好,SOC 设计人员可以将这些 IP 块放入他们的芯片中,从而节省资金并加快上市时间。但这并不是什么新消息。例如,Sima.ai 在其边缘 AI 芯片中使用了 Synopsys 的图像处理器。Jim Keller 领导的初创公司 Tenstorrent 看到了这个机会,并将这家总部位于多伦多和奥斯汀的公司从 Nvidia 的潜在竞争对手转变为 IP 和设计商店,为 Kia 和 LG 等公司提供小芯片和知识产权。而在人工智能领域,我们又看到了一种新趋势,电视、汽车或网络设备的设计者希望构建定制解决方案以降低成本或提供包括人工智能在内的差异化解决方案,但他们没有必要或专业知识来构建整个芯片。至于谷歌、亚马逊 AWS、Meta(预计将在今年晚些时候使用自己的芯片)和微软 Azure 等大客户,它们已经拥有自己的用于内部人工智能的定制芯片以及面向云客户的 Nvidia GPU。他们可以与 Nvidia 合作进行未来的设计吗?我们可以假设,这些 Nvidia 定制芯片客户能否利用 Nvidia 的内部和 AWS 超级计算机来加速和优化这些设计工作?这将是一笔不错的额外收入,也是一个令人难以置信的差异化因素。如果是这样,这可能就是为什么 Nvidia 将其最新的“内部”超级计算机 Project Cieba 托管在 AWS 数据中心,那里已经提供了安全云服务的基础设施。Nvidia 可以在 Cieba 上提供芯片设计优化服务。虽然这种猜测可能有点太过分了,但这样做表明英伟达看到了不祥之兆,并且已经准备好再次改变这个行业。虽然这个猜测有点大胆,但是随着时间的推移,所有技术都会商品化,这是必然的。尤其是前几代硅。当 Nvidia 有意收购Arm 时,笔者就认为这次收购将使 Nvidia 有可能通过许可协议将他们不想产品化的产品货币化。看起来这正是 Nvidia 现在正在做的事情。回应Sam Altman,七万亿能买下全部对AI芯片行业而言,最近的热点之一,当然绕不开传言OPEN AI CEO Sam Altman计划募集七万亿美元资金,计划颠覆AI芯片和芯片制造。首先,我们必须说,这是好大一笔钱。其次,这也当然不会是一件容易的事情。姑勿论整个先进芯片制造很难,经过多年发展,全球仅有台积电、三星和英特尔能够进入领先的芯片制造市场。何况,投资一个先进晶圆厂要100亿美元(相对七万亿而言,九牛一毛?)。更重要的是,行业高管表示,寻找工程师来运营大量新工厂、获得机器来填充工厂以及获得足够的订单来证明这些工厂的合理性都存在不确定性。即使建造了大量新的芯片工厂,也不一定能解决 Altman 的近期问题生产 OpenAI 的 ChatGPT 等系统所需的人工智能芯片短缺。英伟达人工智能芯片生产的最... PC版: 手机版:

封面图片

ℹNVIDIA 黄仁勋表示:「现在小孩不应该学习写程式,如何使用 AI 更为重要」#

ℹNVIDIA 黄仁勋表示:「现在小孩不应该学习写程式,如何使用 AI 更为重要」# AI 发展可说越来越快速,很多人都认为未来会取代许多工作,也因此对于父母来说,一定会思考小孩该学习哪方面,10 年以后才更有竞争力。而过去...

封面图片

#本周热读 2006年底,黄仁勋向软件开发者开放了英伟达的GPU,允许他们将英伟达提供的算力应用于图形改善之外的目的,当时这件事

#本周热读 2006年底,黄仁勋向软件开发者开放了英伟达的GPU,允许他们将英伟达提供的算力应用于图形改善之外的目的,当时这件事并没引起太大反响。 软件开发者却很快意识到,这些GPU在支持现代AI系统的复杂计算方面非常出色。它们擅长大量同步计算,传统的CPU则不太适合。

封面图片

NVIDIA业绩再度令全球震撼 以一己之力重振“AI信仰”

NVIDIA业绩再度令全球震撼 以一己之力重振“AI信仰” 在截至1月28日的2024财年第四季度,英伟达总营收规模增加了两倍多,达到221亿美元。扣除某些项目后,NON-GAAP准则下的每股收益为5.16美元,均大幅超过华尔街分析师普遍预测的204亿美美元以及每股收益4.60美元。更重要的是,英伟达预计本季度总营收将再次大幅增长,这有助于证明其股价大涨趋势完全合理,使其继续成为全球最有价值的公司之一。总营收凸显出英伟达业绩连续增长规模:就在2021财年,英伟达一整个财年的总营收也未能达到这一数值。此外,英伟达最核心业务部门,即为全球数据中心提供A100/H100芯片的业务部门数据中心业务部门,Q4营收规模达到约184亿美元,同比激增409%。继2023年股价暴涨240%之后,2024年迄今英伟达股价涨幅高达40%。英伟达市值今年增加了4000多亿美元,使其总市值达到1.67万亿美元,投资者们押注该公司仍将是人工智能计算热潮的最主要受益者。英伟达首席执行官黄仁勋表示:“GPU加速计算和生成人工智能可谓已经达到‘临界点’。”“全球各公司、行业,乃至多数国家的需求都在激增。“在与华尔街分析师的业绩电话会议上,黄仁勋表示,今年剩余时间,英伟达最新产品将继续供不应求。他表示,尽管供应在不断增长,但需求并没有显示出任何程度的放缓迹象。“生成式人工智能开启了一个全新的投资周期。”黄仁勋表示。他预计:“未来数据中心基础设施规模将在五年内翻番,代表着每年数千亿美元的市场机会”。关于中国市场,黄仁勋表示,该公司已开始向中国市场的客户派送符合限制政策的新芯片样品。这应该有助于中国业务再次复苏。“我们将尽最大努力在该市场竞争并取得成功。”黄仁勋强调。英伟达无比炸裂的业绩公布后,盘后股价一度暴涨超11%,美股芯科技股,尤其是芯片股板块盘后集体暴涨,要知道自本周以来,这些与AI相关的科技股与芯片股持续疲软,主要因全球资金在英伟达财报公布前的谨慎情绪。因此,AI芯片领域“最强卖铲人”英伟达可谓以一己之力重振全球科技股投资者们的“AI信仰”,科技股投资者们对于AI的信仰或许将在全球股市再度掀起巨大波浪。来自华尔街知名投资机构Wolfe Research的分析师克里斯·卡索(Chris Caso)在一份报告中表示:“全球股票市场都在关注这份报告,因此预期也有所提高,但是英伟达公布的业绩展望足够强劲,显示股价涨势合理,同时也为下半年的持续上涨留下了空间。”但是毋庸置疑的是,AI芯片领域竞争将变得愈发激烈。英伟达最强竞争对手AMD(AMD.US)最近开始销售MI300系列的AI GPU加速器,AMD预计今年将从该系列产品中获得35亿美元营收,高于此前预测的20亿美元。AI芯片初创企业后续也将是英伟达有力挑战者,近日Groq推出自研LPU,文本生成速度甚至比眨眼还快,推理性能则比英伟达GPU快10倍。但英伟达并未停滞不前,分析师们预计,该公司即将量产性能更强大的AI芯片H200,以及备受瞩目的B100。英伟达当前AI领域最强买铲人最新业绩证明,英伟达仍然为全球AI领域当之无愧的“最强卖铲人”,靠着在AI训练领域高达90%的份额,乘着全球企业布局AI的前所未有热潮疯狂吸金。比如,上述Groq推出的LPU目前更加适用于推理,要想训练大语言模型,仍然需要大批量购买英伟达GPU。英伟达很早就认识到GPU在AI和深度学习领域的潜力,因此投入大量资源进行相关研发,并成功构建了围绕其GPU硬件的强大软硬件生态系统。英伟达在全球高性能计算领域已深耕多年,尤其是其一手打造的CUDA运算平台风靡全球,可谓AI训练/推理等高性能计算领域首选的软硬件协同系统。英伟达当前最火爆的AI芯片H100 GPU加速器则基于英伟达突破性的Hopper GPU架构,提供了前所未有的计算能力,尤其是在浮点运算、张量核心性能和AI特定加速方面。ChatGPT开发者OpenAI、美国科技巨头亚马逊(Amazon.com Inc.)、Facebook与Instagram母公司Meta Platforms、特斯拉、微软以及谷歌母公司Alphabet都是英伟达最大规模客户,占其总营收规模近50%,它们当前正倾尽全力投资与人工智能算力相关的硬件,比如英伟达AI芯片。特斯拉CEO马斯克将科技企业的人工智能军备竞赛比作一场高风险的“扑克游戏”,即企业需要每年在人工智能硬件上投入数十亿美元,才能保持竞争力。这位亿万富翁表示,在2024年,特斯拉仅仅在英伟达的人工智能芯片上就将耗费超过5亿美元,但他警告称,特斯拉未来还需要价值“数十亿美元”的硬件才能赶上一些最大规模的竞争对手。随着全球迈入AI时代,数据中心业务已经成为英伟达最核心业务,而不是此前重度依赖游戏显卡需求的游戏业务。英伟达在细分业务方面,英伟达为全球数据中心提供A100/H100芯片的业务部门数据中心业务部门,曾经可谓是英伟达“副业”(自英伟达创立之处,游戏业务一直是英伟达的最重要业务),已经成为该科技巨头整体营收的最强大贡献力量。英伟达的数据中心业务部门多个季度以来均为所有业务中表现最出色的部门,数据中心业务Q4创造的营收达到184亿美元,较上年同期激增约409%。此外,英伟达预计,未来数据中心基础设施规模将在五年内翻番。与此同时,该公司游戏业务部门受益于全球芯片需求复苏趋势,创造的营收同比增长56%,至29亿美元。英伟达目前正致力于将其人工智能软硬件生态推广到大型数据中心之外。61岁的黄仁勋近期周游世界,认为各国政府均需要主权级别的人工智能系统,既能保护数据,又能获得AI竞争优势。黄仁勋在近期首提“主权AI能力”,暗示国家级人工智能硬件需求激增。黄仁勋表示,当今世界各国都打算在本国国内建立和运行自己的人工智能基础设施,这将全面推高对英伟达硬件产品的需求。黄仁勋近期在接受采访时表示,包括印度、日本、法国和加拿大在内的国家都在谈论投资“主权人工智能能力”的重要性。业绩预期方面,全球市值最高芯片公司英伟达在业绩展望部分表示,该公司2024财年Q4(截至2024年4月底)总营收将达到约240亿美元。这一数据可谓大幅超越219亿美元的华尔街分析师平均预测数据。这一强劲无比的业绩前景凸显出英伟达位列全球企业布局AI热潮的最佳受益者,堪称AI核心基础设施领域的“最强卖铲人”。面对消费者对ChatGPT以及谷歌Bard等生成式人工智能产品,以及其他企业AI软件等日益重要的AI辅助工具的需求激增,来自全球各地的科技巨头以及数据中心运营商正在竭尽全力储备该公司的H100 GPU加速器,H100可谓极度擅长处理人工智能训练/推理所需的繁重工作负载。AI时代最核心基建之一GPU随着全球迈入AI时代以及万物互联进程加速,意味着全球算力需求迎来爆炸式增长,尤其是基于AI训练领域的各项AI细分任务涉及大量的矩阵运算、神经网络的前向和反向传播等对硬件性能要求极高的计算密集型高强度操作。然而,这些难题远非享受摩尔定律红利多年的CPU所能够解决。哪怕大量CPU也无法解决这一问题,毕竟 CPU设计初衷是在多种常规任务之间进行通用型计算,而不是处理天量级别的并行化计算模式以及高计算密度的矩阵运算。更重要的是,随着全球芯片领域的创新与发展步入“后摩尔时代”(Post-Moore Era),作为曾推动人类社会发展主力军的CPU已经无法实现像22nm-10nm那样在不到5年间实现“阔nm”级别的快速突破,后续nm级别突破面临量子隧穿以及巨额投资规模等重重阻碍,这也使得CPU性能升级和优化层面面临极大限制。 PC版: 手机版:

封面图片

黄仁勋:AI是科技行业对社会提升的最大贡献

黄仁勋:AI是科技行业对社会提升的最大贡献 而在这座新的研究设施中,黄仁勋和他的妻子Lori(黄氏夫妇)为此捐赠了5000万美元进行支持。英伟达表示,该综合体将利用美国最强大的NVIDIA超级计算机之一,汇集教师和学生,共同解决未来世界在气候科学、清洁能源和水资源等领域面临的关键挑战。英伟达强调,这次在俄勒冈州举行的活动,凸显了黄氏夫妇对教育的承诺,并反映这对夫妇与两人相识的俄勒冈州深厚的个人联系。而这笔5000万美元的捐赠,将增加俄勒冈州对俄勒冈州及其他地区半导体和科技行业的支持。奠基仪式结束后,黄仁勋与俄勒冈州立大学校长贾亚蒂·穆尔蒂(Jayathi Murthy)进行了一场对话。黄仁勋表示,AI 是科技行业对社会提升的最大贡献。我们正处于新工业革命的开端,且这个时期当中我们正在大量创造 AI 应用。“我相信,AI 是科技行业对社会进步的最大贡献,让所有被落后的人得到越级提升,”黄仁勋强调,AI 有望推动全球数十亿人迎来一场新的“数字革命”。10年间,英伟达GPU让计算能力提升100万倍31年前的1993年,怀着PC有朝一日会成为畅享游戏和多媒体的消费级设备的信念,黄仁勋、Chris Malachowsky 和Curtis Priem 共同创立了NVIDIA(英伟达)。当时,市场上有20多家图形芯片公司,三年后这个数字飙升至70家。黄仁勋和他的英伟达开创了一种新的计算方式“加速计算”,即使用正确的算力工具来完成正确的工作。当时他发现,无论是科学,还是GPU、AI、机器人等技术,其中5%的代码消耗了高达99.9%的时间进行运行,需要计算能力的提升。黄仁勋坦言,在过去十年左右的时间里,英伟达GPU有效降低了计算(边际)成本。GPU以及CUDA共同形成的“英伟达”生态,在过去10年中将 AI 处理性能提高了不低于100万倍,超过了摩尔定律预期。“我们通过提出新处理器、新系统、新互连、新框架和算法,并与数据科学家、AI 研究人员合作开发新模型,在整个跨度中,我们已经使大型语言模型的处理速度提高了一百万倍。”黄仁勋表示。黄仁勋认为,计算机是我们所做的几乎所有事情的基础,也是几乎所有科学领域的重要工具,所以成本和计算性能规模上升100万倍,已经改变了一切。黄仁勋指出,“我们把边际成本下降了100万倍,或者相反,如果完成某件事的速度提高了100万倍,或者问题的规模提高了100万倍,你做事情的方式就会完全改变。事实上,我们观察到,利用 AI,它(加速计算)将彻底改变这个行业,计算将以完全不同的方式进行,软件编程将彻底革新。”黄仁勋预测,有望在未来十年,英伟达将再次提升 AI 计算处理性能高达100万倍。同时,未来可能会有100万倍与现有ChatGPT一样的 AI 模型出现,这些模型将具有更强大的语言理解和生成能力,甚至可能创造出新语言。黄仁勋强调,有了加速计算和生成式 AI,现在,一大堆有趣的行业将被彻底改变,一大堆新的应用程序将被创造出来。“比如气候科学问题,对计算机来说很难解决、很棘手,但对我们来说很容易;再比如机器人技术,有了它(加速计算)可降低成本,改变了我们所知道的行业,它开启了一大堆新的机会。”黄仁勋称。数据是未来 AI 发展的核心黄仁勋认为,对于大学来说,如果现在学习计算机科学的基础,首先要看“数据”。因为未来计算机科学最重要的事情之一,可能就是数据。“数据的整个概念,数据的整个领域,有一大堆简单的数据可以做。事实证明,计算机视觉是所有数据中最简单的。即使 AI 能够达到计算机视觉的超人水平,甚至现在对除法的理解达到超人水平,坦率地说,这一突破只是冰山一角。这是很容易的事。”黄仁勋称。黄仁勋举了个例子,目前最困难的计算机科学问题是“生物学”,因为这是一个多尺度、不断变化的领域,它具有多样化角度,计算机需要解决的是一个“长期存在的纵向问题”,需要大量更贴近生物体的数据进行研究。“所以数据有时是稀疏的。有时一个因果关系的发生需要很长时间。正如你提到的,有时数据并不存在于一个地方。数据有相关的主权属性。可能有保密属性。也许没有机构拥有所有的数据。也许有些机构有,但这种规模、这种分辨率或这种模态的数据在另一个研究机构中有不同的模态。也许它是纵向的。数据空间真的很大,而且非常复杂。比如联邦学习技术,有点类似于我们从自己的信息来源学习,然后聚在一起辩论、合作、讨论、结合知识等。因此,AI 也有这类概念,将通过自我反思为数据合成数据的生成创造条件,基本上,AI 会对未来做出预测,生成一些信息,对其进行反思,这就是我们所做的,这完善了你学习的自我完善、自我学习、反思,来回传递信息和进行辩论,所有不同的社会学习方式,在 AI 的未来以及人们对数据的思考方式中,都将以某种形式表现出来。”黄仁勋称。因此,研究 AI 数据是未来很多学生应该要学习的重要方向,而且对于很多计算机科学家来说,这将是一个非常适合研究的领域。黄仁勋强调,数据是一把“双刃剑”,有利也有害,因此,我们需要确保其有正确价值观的数据,需要用强化学习手段将数据精准化,从而减少自动驾驶汽车或机器人的情境中产生“幻觉”(错误判断)。“这是一个真正有价值和富有成果的研究领域。”黄仁勋称。AI 将改变教育、工作和社会黄仁勋认为,AI 是科技行业对社会提升做出的最大贡献。“它将缩小技术差距,弥合经济鸿沟,使那些过去被认为‘落后’的人能够赶上,而且它将使竞争环境变得公平。”黄仁勋表示。黄仁勋举了个例子。在OpenAI ChatGPT出现之前,计算机是由像工程师(我们这样的人)编程的,我们知道像 C++这样的东西,但大约0.1%的人类不会 C++,而几乎所有会 C++的人都过着相当不错的生活,因为编程太难了。但未来,有了ChatGPT,一夜之间有 1 亿人使用了它。现在几乎每个人都可以给计算机自动编程。“所以你现在只需要学习如何提示,如何告诉计算机你想要什么,计算机就会理解你的意图。想出一个计划,问你这个计划是否好。你可以完善这个计划。你可以在这个计划上迭代,然后去执行它。也许它会为你做一些研究。在你写论文之前,你需要了解特定辩论中各方的优缺点。”黄仁勋指出,这些例子说明以前的技术对他们来说是不可用的。但现在,由于人类随时可以使用 AI,它促使我们已经创造了公平的竞争环境。黄仁勋强调,“我认为这可能是最伟大的成就之一。”而未来,AI将改变教育、改变课程。“我敢肯定,将来你会参加考试,而这些考试甚至可能不需要你来课堂参加。但这些测试可能需要你与 AI 一起进行学习、工作、考试。”黄仁勋指出,毫无疑问,AI 技术改变教育、将改变人们的学习方式。同时,甚至也许是第一次,计算机技术可应用于环境科学中一些真正有影响力的领域,使得大量计算机科学家从中受益。黄仁勋表示,AI 技术的提升,让所有因缺乏对计算理解而被抛在后面的人的能力得到提升,AI 技术对社会的影响是“非凡”的。未来,AI 可能会被注入到几乎所有的产品中,从医疗成像产品到运输产品、制造机械手等。但同时,AI 也面临偏见、幻觉或虚假信息等社会伦理话题。对此,黄仁勋认为,人类应当遵守 AI 技术合规,保证产品安全。同时,不管是美国农业部、美国联邦航空局或NITSA,所有不同的机构都需要参与AI,以确保新的政策落实到位,或政策需要加强,并考虑 AI 在每一... PC版: 手机版:

封面图片

现场直击GTC:性能翻30倍的Blackwell芯片 黄仁勋宣告“新工业革命”来了

现场直击GTC:性能翻30倍的Blackwell芯片 黄仁勋宣告“新工业革命”来了 这里是硅谷很多演唱会和演出的举办地,占地4.2万平方米,曾举办过滚石和Bon Jovi 演唱会、美国NHL全明星赛,而现在站在舞台中央的是黄仁勋,他让现场的许多开发者想到了乔布斯。在一段预热片后,黄仁勋上台。背景停留在“我是AI”的界面。“希望大家意识到这不是一场演唱会。你来到的是个开发者大会。”黄仁勋说。这是一场只有模拟而没有动画的发布会。他说。这也让后来整场发布会越来越像科幻片。可能是人类历史上最科幻的一场发布会。“今天抵达GTC现场的公司们价值1 trillion。这么多伙伴,需要这么多的算力,怎么办?我们需要大得多的GPU。把所有GPU 连接起来,成千上万个大的GPU里是成千上万小的GPU, 百万个GPU让你的效率提升!”然后他简单回顾了一下AI的发展历史,“20年前我们就看到了它会到来”。“然后CUDA和AI做了第一次亲密接触。”他说。“06年推出CUDA的时候,我们以为这是革命性的,会一夜成功,结果一等就等了二十年!”“今天的一切都是homemade。”在一个个通过AI模拟出来的酷炫的视频后,一切铺垫就绪了英伟达就是这一切进步的基石。是时候该发布重要芯片了。人们对此有预期,但当B200出现的时候,现场(可能包括全世界围观者)都还是忍不住惊呼。这是Hooper后的新一代架构,以数学家Blackwell命名。在性能上,它就是黄仁勋“黄氏定律”的集大成者和奠基者。以下是我用AI总结的Blackwell GPU的性能特点:高AI性能:B200 GPU提供高达20 petaflops的FP4计算能力,这是由其2080亿个晶体管提供的。高效推理:当与Grace CPU结合形成GB200超级芯片时,它能在LLM推理工作负载上提供比单个GPU高出30倍的性能,同时在成本和能源消耗上比H100 GPU高出25倍。训练能力:使用Blackwell GPU,训练一个1.8万亿参数的模型所需的GPU数量从8000个减少到2000个,同时电力消耗从15兆瓦降低到仅四兆瓦。GPT-3性能:在GPT-3 LLM基准测试中,GB200的性能是H100的七倍,训练速度提高了4倍。改进的Transformer引擎:第二代Transformer引擎通过使用每个神经元的四位而不是八位,实现了计算、带宽和模型大小的翻倍。下一代NVLink开关:允许多达576个GPU之间进行通信,提供每秒1.8太比特的双向带宽。新的网络交换芯片:拥有500亿晶体管和3.6 teraflops的FP8计算能力,用于支持大规模GPU集群的通信。扩展性:NVIDIA的系统可以扩展到数万个GB200超级芯片,通过800Gbps的Quantum-X800 InfiniBand或Spectrum-X800以太网连接。大规模部署:GB200 NVL72设计可以将36个CPU和72个GPU集成到一个液冷机架中,提供总共720 petaflops的AI训练性能或1.4 exaflops的推理性能。支持大型模型:单个NVL72机架可以支持高达27万亿参数的模型,而且有意思的是,黄仁勋似乎透露了一下GPT-4的参数,它可能是一个约1.7万亿参数的模型。(更多关于B200的解读我们会在今天稍晚带来,欢迎关注硅星人GTC后续报道)黄仁勋回顾了自己送给OpenAI的第一个DGX,它只有0.17Peataflops,而今天的DGX Grace-Blackwell GB200已经超过1 Exaflop的算力。老黄站在这张图前讲了半天,这画面让你觉得摩尔定律可能真的死了,黄氏定律正式登基。在B200的发布后,黄仁勋用一个AI生成的模拟短片介绍了“配套”的一系列产品,从集群到数据中心的交换机等。基本都是性能怪兽。GB200超级芯片就是将两个B200 GPU与一个Grace CPU结合在一起,它能将成本和能源消耗比 H100降低多达25倍”。黄仁勋表示自己可得拿稳了,“这块很贵,可能100亿?不过以后会便宜的。”现场爆笑。与此同时,他也强调了新一代芯片和相关产品在能耗上的改进。之前训练一个1.8万亿参数的模型需要使用8000个Hopper GPU和15兆瓦的电力。如今,使用2000个Blackwell GPU就可以完成相同的任务,同时仅消耗4兆瓦的电力。黄仁勋说,英伟达还正在将它们打包成更大的设计,比如GB200 NVL72,把36个CPU和72个GPU集成到一个单一的液冷机架中,提供总共720 petaflops 的AI训练性能或1440petaflops的推理性能。它内部有近乎两英里的电缆,包括5000条独立电缆。此外他也特意强调了推理性能的提升,毕竟英伟达最新的财报已经显示,它的收入越来越多的来自客户们在AI推理部分的支出。主要的云厂商也都被点名表扬了一下,他们和英伟达越来越不可分离。软件方面, 黄仁勋介绍到,英伟达正在打包预训练模型及其附属延伸,并简化了称为NVIDIA推理微服务(NIMS)的微服务部署。这不仅仅是之前的CUDA,而是让模型更易于实施和管理的平台。“你现在就可以下载,带走,安装在你自己的数据中心”,他说道。并且NVIDIA提供服务帮助企业和应用程序对模型进行微调或定制。在罗列了一系列在气象和科学上的合作后,黄仁勋开始进入关于机器人技术的部分,这场发布会开始变得更加科幻。黄仁勋说,英伟达正在押注的下一代产品是能够控制人形机器人。Jetson Thor 就是接替NVIDIA Jetson Orin,为机器人技术推出的更新产品。“确实,世界是为人类设计的,所以我们希望使用英伟达Thor芯片和GR00T软件来训练和管理新一代的人形机器人。这样的机器人将能更好地适应人类设计的环境和工作流程,从而在多样的任务和场景中提供帮助。”机器人展示视频过后,舞台灯光再次亮起时,黄仁勋与身后所有由公司提供动力的人形机器人站在一起,向观众致意。不知为什么有种钢铁侠的意思~还领上来两个在NVIDIA Isaac SIM中学会走路的迪士尼小型机器人。黄仁勋说话时它们一直扭扭捏捏,让老黄不得不低头怜爱地低声说:“Orange(小机器人的名字),我在努力专心!不要再拖延时间了”超级可爱,把现场气氛推向高潮。而在黄仁勋和这两个小机器人一起“打开”的谢幕视频里,一架微型小飞船飞过英伟达历代GPU产品、架构,在光缆中完成了技术巡礼,最后飞机舱门不经意的打开,驾驶员正是黄仁勋的卡通虚拟数字人。主题演讲结束前,黄仁勋又总结了一遍今天的发布会,而近距离镜头可以看到,黄仁勋似乎有些带着泪光。“如果你问我,心目中的GPU是什么样子,今天的发布就是我的答案。”他说今天他展示了什么是英伟达的灵魂。“我们站在计算科学和物理等其他一切科学的交叉点”。这是他心里英伟达的定位。“新的工业革命来了。”而他没说的,是藏在今天一堆PPT里某一张的那行小字英伟达,新工业革命的引擎。这是黄仁勋的时代了。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人