英伟达称一年推出一款芯片 Blackwell下一代已在准备中

英伟达称一年推出一款芯片Blackwell下一代已在准备中此前英伟达的芯片设计频率稳定在两年一次,从一开始2020年发布的Ampere,到2022年的业界宠儿H100芯片(Hopper系列),再到2024年备受期待的Blackwell。但显然,两年对于英伟达来说似乎是太久了。本月早些时候,知名分析师郭明𫓹就透露,英伟达的下一代AI芯片架构Rubin将于2025年问世,最早明年市场就能获得R100AIGPU。而这条消息目前看来可信度直线上升。黄仁勋表示,英伟达将以非常快的速度前进,新的CPU、新的GPU、新的网络网卡、新的交换机……大量芯片即将到来。换得快所以卖得也快本周早些时候,亚马逊被曝因为AI芯片迭代速度太快而暂停了向英伟达采购的订单,以等待即将发布的Blackwell芯片。后来,亚马逊否认暂停合同之说,但承认将在超级计算机项目中转向采购Blackwell芯片。这也引发了市场对于英伟达芯片更新速度可能导致该公司当代产品滞销的担忧。对此,黄仁勋回应,英伟达新一代GPU在电气和机械上都能向后兼容,并运行相同的软件,客户可以在现有数据中心中轻松从H100过渡到H200再到B100。他认为,随着市场向H200和Blackwell过渡,我们预计一段时间内需求将超过供应。每个人都急于让其基础设施上线,以尽快盈利,因此其对英伟达GPU的订购并不会停滞。黄仁勋提出了一个有趣的问题:企业是想做发布人工智能竞赛下一阶段重大里程碑的首家公司,还是紧隔几天后宣布将效果提升0.3%的第二家公司呢?除此之外,英伟达的首席财务官ColetteKress透露,汽车将成为今年英伟达数据中心最大的垂类行业,并举例称特斯拉已经购买了3.5万个H100芯片来训练其全自动驾驶系统。汽车之外,Meta之类的消费互联网公司也在强劲增长。...PC版:https://www.cnbeta.com.tw/articles/soft/1432031.htm手机版:https://m.cnbeta.com.tw/view/1432031.htm

相关推荐

封面图片

英伟达发布新一代 AI 芯片 H200

英伟达发布新一代AI芯片H200H200利用了美光等公司推出的HBM3e内存,提供了141GB内存容量(H100的1.8倍)和4.8TB/s内存带宽(H100的1.4倍)。大型语言模型推理速度方面,GPT-3175B是H100的1.6倍(A100的18倍),LLaMA270B是H100的1.9倍。英伟达同时宣布2024年的H100产量翻倍,2024年第4季度发布基于新一代Blackwell架构的B100。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

英伟达推出最强 AI 芯片 GB200

英伟达推出最强AI芯片GB200英伟达CEO黄仁勋在GTC宣布推出新一代GPUBlackwell,第一款Blackwell芯片名为GB200,将于今年晚些时候上市。Blackwell拥有2080亿个晶体管,采用台积电4nm制程。前一代GPU“Hopper”H100采用4nm工艺,集成晶体管800亿。黄仁勋表示:“Hopper很棒,但我们需要更大的GPU。Blackwell不是一个芯片,它是一个平台的名字。”英伟达表示,基于Blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级,其AI性能为每秒20千万亿次浮点运算,而H100为每秒4千万亿次浮点运算。该系统可以部署一个27万亿参数的模型。据称GPT-4使用了约1.76万亿个参数来训练系统。

封面图片

英伟达首次宣布下一代 GPU 架构 “Rubin”

英伟达首次宣布下一代GPU架构“Rubin”6月2日晚间,英伟达创始人兼首席执行官黄仁勋在台北国际电脑展(COMPUTEX)开幕前发表主题演讲。黄仁勋分享了新半导体技术路线图,该路线图将每年更新。他首次宣布了Rubin平台,它将配备新GPU、基于Arm的新CPU—Vera,以及采用NVLink6、CX9SuperNIC和X1600、并融合InfiniBand/以太网交换机的高级网络平台。Rubin将作为Blackwell的下一代平台。黄仁勋透露,将于2026推出的Rubin平台采用HBM4高带宽内存产品。

封面图片

黄仁勋:英伟达 Blackwell 芯片现已开始投产

黄仁勋:英伟达Blackwell芯片现已开始投产6月2日,英伟达创始人兼CEO黄仁勋宣布,英伟达Blackwell芯片现已开始投产。演讲中,黄仁勋宣布,英伟达将在2025年推出BlackwellUltraAI芯片。下一代AI平台名称为Rubin,该平台将采用HBM4内存。Rubin下一代平台正在开发之中,将于2026年发布,RubinAI平台将采用HBM4记忆芯片。

封面图片

NVIDIA“最强AI芯片”Blackwell B200 GPU令业内惊呼新的摩尔定律诞生

NVIDIA“最强AI芯片”BlackwellB200GPU令业内惊呼新的摩尔定律诞生在GTC直播中,黄仁勋左手举着B200GPU,右手举着H100此外,将两个B200GPU与单个GraceCPU结合在一起的GB200,可以为LLM推理工作负载提供30倍的性能,并且显著提高效率。黄仁勋还强调称:“与H100相比,GB200的成本和能耗降低了25倍!关于市场近期颇为关注的能源消耗问题,B200GPU也交出了最新的答卷。黄仁勋表示,此前训练一个1.8万亿参数模型,需要8000个HopperGPU并消耗15MW电力。但如今,2000个BlackwellGPU就可以实现这一目标,耗电量仅为4MW。在拥有1750亿参数的GPT-3大模型基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。值得一提的是,B200GPU的重要进步之一,是采用了第二代Transformer引擎。它通过对每个神经元使用4位(20petaflopsFP4)而不是8位,直接将计算能力、带宽和模型参数规模翻了一倍。而只有当这些大量的GPU连接在一起时,第二个重要区别才会显现,那就是新一代NVLink交换机可以让576个GPU相互通信,双向带宽高达1.8TB/秒。而这就需要英伟达构建一个全新的网络交换芯片,其中包括500亿个晶体管和一些自己的板载计算:拥有3.6teraflopsFP8处理能力。在此之前,仅16个GPU组成的集群,就会耗费60%的时间用于相互通信,只有40%的时间能用于实际计算。一石激起千层浪,“最强AI芯片”的推出让网友纷纷赞叹。其中英伟达高级科学家JimFan直呼:Blackwell新王诞生,新的摩尔定律已经应运而生。DGXGrace-BlackwellGB200:单个机架的计算能力超过1Exaflop。黄仁勋交付给OpenAI的第一台DGX是0.17Petaflops。GPT-4的1.8T参数可在2000个Blackwell上完成90天的训练。还有网友感叹:1000倍成就达成!Blackwell标志着在短短8年内,NVIDIAAI芯片的计算能力实现了提升1000倍的历史性成就。2016年,“Pascal”芯片的计算能力仅为19teraflops,而今天Blackwell的计算能力已经达到了20000teraflops。相关文章:全程回顾黄仁勋GTC演讲:Blackwell架构B200芯片登场英伟达扩大与中国车企合作为比亚迪提供下一代车载芯片英伟达进军机器人领域发布世界首款人形机器人通用基础模型台积电、新思科技首次采用NVIDIA计算光刻平台:最快加速60倍NVIDIA共享虚拟现实环境技术将应用于苹果VisionPro黄仁勋GTC演讲全文:最强AI芯片Blackwell问世推理能力提升30倍...PC版:https://www.cnbeta.com.tw/articles/soft/1424217.htm手机版:https://m.cnbeta.com.tw/view/1424217.htm

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”BlackwellB200GPU英伟达的H100AI芯片使其成为价值数亿美元的公司,其价值可能超过Alphabet和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的BlackwellB200GPU和GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的GTC大会上表示,新的B200GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和单个GraceCPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有1750亿个参数的GPT-3LLM基准测试中,GB200的性能是H100的7倍,而英伟达称其训练速度是H100的4倍。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人