英伟达称一年推出一款芯片 Blackwell下一代已在准备中

英伟达称一年推出一款芯片 Blackwell下一代已在准备中 此前英伟达的芯片设计频率稳定在两年一次,从一开始2020年发布的Ampere,到2022年的业界宠儿H100芯片(Hopper系列),再到2024年备受期待的Blackwell。但显然,两年对于英伟达来说似乎是太久了。本月早些时候,知名分析师郭明𫓹就透露,英伟达的下一代AI芯片架构Rubin将于2025年问世,最早明年市场就能获得R100 AI GPU。而这条消息目前看来可信度直线上升。黄仁勋表示,英伟达将以非常快的速度前进,新的CPU、新的GPU、新的网络网卡、新的交换机……大量芯片即将到来。换得快所以卖得也快本周早些时候,亚马逊被曝因为AI芯片迭代速度太快而暂停了向英伟达采购的订单,以等待即将发布的Blackwell芯片。后来,亚马逊否认暂停合同之说,但承认将在超级计算机项目中转向采购Blackwell芯片。这也引发了市场对于英伟达芯片更新速度可能导致该公司当代产品滞销的担忧。对此,黄仁勋回应,英伟达新一代GPU在电气和机械上都能向后兼容,并运行相同的软件,客户可以在现有数据中心中轻松从H100过渡到H200再到B100。他认为,随着市场向H200和Blackwell过渡,我们预计一段时间内需求将超过供应。每个人都急于让其基础设施上线,以尽快盈利,因此其对英伟达GPU的订购并不会停滞。黄仁勋提出了一个有趣的问题:企业是想做发布人工智能竞赛下一阶段重大里程碑的首家公司,还是紧隔几天后宣布将效果提升0.3%的第二家公司呢?除此之外,英伟达的首席财务官Colette Kress透露,汽车将成为今年英伟达数据中心最大的垂类行业,并举例称特斯拉已经购买了3.5万个H100芯片来训练其全自动驾驶系统。汽车之外,Meta之类的消费互联网公司也在强劲增长。 ... PC版: 手机版:

相关推荐

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU 英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

封面图片

英伟达宣布2026年推出下一代Rubin AI平台

英伟达宣布2026年推出下一代Rubin AI平台 英伟达公司首席执行官黄仁勋表示,英伟达计划每年升级其人工智能加速器,并宣布将在明年推出 Blackwell Ultra AI 芯片。他还表示,下一代人工智能平台名称为 Rubin,将在2026推出,该平台将采用 HBM4 内存。英伟达在台湾国际电脑展上还宣布推出 一项人工智能模型推理服务 NVIDIA NIM。全球2800万英伟达开发者可以通过 NIM 将人工智能模型部署在云、数据中心或工作站上,轻松地构建 copilots、ChatGPT 聊天机器人等生成式人工智能应用,所需时间从数周缩短至几分钟。

封面图片

Meta将率先使用英伟达最新人工智能芯片

Meta将率先使用英伟达最新人工智能芯片 英伟达首席财务官科莱特·克雷斯(Colette Kress)周二告诉金融分析师,“我们将在今年晚些时候上市”,但也表示,新GPU的出货量要到2025年才会增加。而社交媒体巨头 Meta 是英伟达最大的客户之一,此前该公司购买了英伟达公司数十万上一代芯片。Meta 首席执行官马克·扎克伯格 在 1 月份就曾透露,该公司计划会在今年年底前将大约 350,000 个早期芯片(称为 H100)储存在库存中。本次Meta社交平台的发言人向外媒公布的最新消息显示,在今年晚些时候,会收到英伟达推出的全新的人工智能芯片,而且还透露,收到的将是英伟达的首批出货。此前,扎克伯格在周一的一份声明中表示,Meta 计划使用 Blackwell 来训练该公司的骆驼模型。该公司目前正在上周宣布的两个GPU集群上训练第三代模型,每个集群包含约24,000个H100 GPU。Meta 发言人表示,Meta 计划继续使用这些集群来训练 Llama 3,并将 Blackwell 用于该模型的未来几代。 ... PC版: 手机版:

封面图片

英伟达计划推出采用 ARM 和 Blackwell 内核的 AI PC 芯片

英伟达计划推出采用 ARM 和 Blackwell 内核的 AI PC 芯片 业内有传言称,英伟达正在准备推出一款将下一代 Arm 内核与其 Blackwell GPU 架构相结合的芯片,Windows on ARM 领域的竞争可能会愈演愈烈。高通一直是推动基于 Arm 的 Windows 系统的主要芯片制造商。但高通与微软独占协议将于今年到期,微软将会向联发科等其他厂商开放授权。据悉,英伟达正在准备一款片上系统,将 Arm 的 Cortex-X5 核心设计与基于其最近推出的 Blackwell 架构的 GPU 相结合。Arm 没有回应置评请求,英伟达称“没有什么可宣布的”。

封面图片

NVIDIA“最强AI芯片”Blackwell B200 GPU令业内惊呼新的摩尔定律诞生

NVIDIA“最强AI芯片”Blackwell B200 GPU令业内惊呼新的摩尔定律诞生 在GTC直播中,黄仁勋左手举着 B200 GPU,右手举着 H100此外,将两个B200 GPU与单个Grace CPU 结合在一起的 GB200,可以为LLM推理工作负载提供30倍的性能,并且显著提高效率。黄仁勋还强调称:“与H100相比,GB200的成本和能耗降低了25倍!关于市场近期颇为关注的能源消耗问题,B200 GPU也交出了最新的答卷。黄仁勋表示,此前训练一个1.8 万亿参数模型,需要8000 个 Hopper GPU 并消耗15 MW电力。但如今,2000 个 Blackwell GPU就可以实现这一目标,耗电量仅为4MW。在拥有1750亿参数的GPT-3大模型基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍。值得一提的是,B200 GPU的重要进步之一,是采用了第二代Transformer引擎。它通过对每个神经元使用4位(20 petaflops FP4)而不是8位,直接将计算能力、带宽和模型参数规模翻了一倍。而只有当这些大量的GPU连接在一起时,第二个重要区别才会显现,那就是新一代NVLink交换机可以让576个GPU相互通信,双向带宽高达1.8TB/秒。而这就需要英伟达构建一个全新的网络交换芯片,其中包括500亿个晶体管和一些自己的板载计算:拥有3.6 teraflops FP8处理能力。在此之前,仅16个GPU组成的集群,就会耗费60%的时间用于相互通信,只有40%的时间能用于实际计算。一石激起千层浪,“最强AI芯片”的推出让网友纷纷赞叹。其中英伟达高级科学家Jim Fan直呼:Blackwell新王诞生,新的摩尔定律已经应运而生。DGX Grace-Blackwell GB200:单个机架的计算能力超过1 Exaflop。黄仁勋交付给OpenAI的第一台DGX是0.17 Petaflops。GPT-4的1.8T参数可在2000个Blackwell上完成90天的训练。还有网友感叹:1000倍成就达成!Blackwell标志着在短短8年内,NVIDIA AI 芯片的计算能力实现了提升1000倍的历史性成就。2016 年,“Pascal”芯片的计算能力仅为19 teraflops,而今天Blackwell的计算能力已经达到了 20000 teraflops。相关文章:全程回顾黄仁勋GTC演讲:Blackwell架构B200芯片登场英伟达扩大与中国车企合作 为比亚迪提供下一代车载芯片英伟达进军机器人领域 发布世界首款人形机器人通用基础模型台积电、新思科技首次采用NVIDIA计算光刻平台:最快加速60倍NVIDIA共享虚拟现实环境技术将应用于苹果Vision Pro黄仁勋GTC演讲全文:最强AI芯片Blackwell问世 推理能力提升30倍 ... PC版: 手机版:

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人