戴尔在一个机架服务器内塞了72块NVIDIA B200 GPU加速卡

戴尔在一个机架服务器内塞了72块NVIDIAB200GPU加速卡即便如此,戴尔依然宣称GPU密度提高了33%,PCIe5.0通道多了20%,网络扩展能力翻倍。B200加速卡单个功耗达1000W,八卡就是8000W,再加上处理器、内存、硬盘、网卡等其他硬件,风冷自然是无法压制的,而是上了高效水冷,CPU、GPU全覆盖。针对更大规模的GPU计算部署需求,戴尔还支持在单个机架内配备多达72块B200加速卡,依然是水冷。戴尔PowerEdgeXE9680L服务器将在下半年上市。...PC版:https://www.cnbeta.com.tw/articles/soft/1431941.htm手机版:https://m.cnbeta.com.tw/view/1431941.htm

相关推荐

封面图片

戴尔透露 NVIDIA B100 将于今年推出,2025年将升级到 B200

戴尔透露NVIDIAB100将于今年推出,2025年将升级到B200在最近的财报电话会议上,戴尔透露了NVIDIA的下一代Blackwell系列不仅将拥有B100AI加速卡,而且稍后将提供升级版本B200。看起来NVIDIA似乎已经向戴尔等最大的合作伙伴披露了这些信息,戴尔将使用NVIDIA最新的AI和计算硬件来运营服务器和数据中心。戴尔高级副总裁还指出,NVIDIAB100和B200等下一代GPU的功率密度将达到1000W。当前NVIDIAH200和AMDMI300X加速卡的峰值功率已经达到800W,因此考虑到Blackwell预计将带来的性能提升,考虑到其效率的提高,功率增加200W将是相当正常的。——

封面图片

NVIDIA B200 GPU加速器明年到来 功耗高达1000W

NVIDIAB200GPU加速器明年到来功耗高达1000WB100之后,还有更强大的升级版B200,一如现在H100、H200的关系。戴尔首席运营官兼副董事长在最近的一次会议中确认了B200的存在,发布时间在明年。他没有披露更具体的规格,比如升级之处,但声称戴尔有能力搞定单颗GPU1000W的功耗,甚至不需要液冷,这无疑是在暗示B200的功耗将大幅提高。相比之下,H100SMX版本的峰值功耗为700W。NVIDIAGTC2024图形技术大会将于3月18-21日举行,必然会披露新一代GPU加速器的情况,甚至有可能正式宣布。...PC版:https://www.cnbeta.com.tw/articles/soft/1422180.htm手机版:https://m.cnbeta.com.tw/view/1422180.htm

封面图片

英伟达新一代 AI 芯片 B200 功耗将达 1000W 预计 2025 年问世

英伟达新一代AI芯片B200功耗将达1000W预计2025年问世服务器制造商戴尔透露了英伟达即将推出的人工智能(AI)GPU,代号为Blackwell。这些芯片的功耗高达1000W,比上一代芯片的功耗增加40%。戴尔首席运营官JeffClarke表示,戴尔为配合B200服务器GPU的推出,届时也将提供旗舰级的PowerEdgeXE9680机架服务器。另外,采用Blackwell架构B100与B200最快要到2025年才会推出,与先前预期推出的时间有所落差。

封面图片

NVIDIA找到新摇钱树:加速卡靠ChatGPT轻松稳赚50亿

NVIDIA找到新摇钱树:加速卡靠ChatGPT轻松稳赚50亿集邦咨询估计,生成式AI对于GPU计算卡的需求量在2万块左右,未来将达到3万块。这其中受益最多的,自然是NVIDIA,其旗舰级计算卡A100已经在为ChatGPT默默服务,有估算需要3万块才能满足ChatGPT当前的访问量。A100计算卡单块售价8-9万元左右,3万块就是大约25个亿。但它往往不是单卖的,而是以DGXA100服务器整套方案的方式销售,每套八块计算卡,算力高达5PFlops(每秒5千万亿次浮点计算),相当于前几年的一套大型超级计算机,是大规模数据分析、AI加速计算的几乎不二之选。DGXA100服务器单套售价约20万美元,3万块卡下来就是大约7.5亿美元,相当于人民币超过50亿元。当然,AMD也有MI100、MI200系列加速卡,今年还会推出CPU+GPU融合的全新MI300,算力也很强,但市场份额远不如NVIDIA。另外,有数据显示,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。DGXA100服务器...PC版:https://www.cnbeta.com.tw/articles/soft/1347371.htm手机版:https://m.cnbeta.com.tw/view/1347371.htm

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIABlackwellGPU预计售价3.5万美元AI服务器售价高达300万美元NVIDIA的Blackwell产品包括GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的BlackwellAI服务器机架这次的价格不菲,将超过300万美元大关,B100GPU等AI加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达GB200NVL36服务器机架的单台售价预计为180万美元,而更高级的NVL72对应产品的售价则高达300万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个B100人工智能GPU的售价预计约为3万至3.5万美元,而GB200超级芯片的单价约为6万至7万美元。这些超级芯片包含两个GB100GPU和一个GraceHopper芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell价格肯定要比Hopper高。如果BlackwellAIGPU架构能够复制HopperGPU的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta等公司下达了Blackwell订单,微软和OpenAI也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(JensenHuang)早早识别出人工智能热潮的大手笔确实收到了成效。...PC版:https://www.cnbeta.com.tw/articles/soft/1430999.htm手机版:https://m.cnbeta.com.tw/view/1430999.htm

封面图片

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新 2025年就出CDNA4架构

AMD公布AI加速卡路线图:紧随NVIDIA每年一更新2025年就出CDNA4架构这款加速卡将配备高达288GB的HBM3E内存和6TB/s的内存带宽,提供1.3PFLOPs的FP16和2.6PFLOPs的FP8计算性能,能够处理高达1万亿参数的服务器。AMD还将在2025年推出的MI350系列,该系列将基于下一代CDNA4架构,并与OAM兼容。MI350系列将基于3nm工艺技术,同样提供高达288GB的HBM3E内存,并支持FP4/FP6数据类型。2026年,AMD计划推出基于全新CDNA架构,简称为"CDNANext"的MI400系列。在性能方面,CDNA3架构预计将比CDNA2提高8倍,而CDNA4架构预计将比CDNA3提供大约35倍的AI推理性能提升。AMD还分享了与NVIDIABlackwellB200GPU的比较数据,MI350系列预计将提供比B200多50%的内存和多20%的计算TFLOPs。AMD还重申了上周公布的UALink(UltraAcceleratorLink)的最新消息,这是一个由多家厂商包括微软、英特尔、思科、博通、Meta、惠普等共同开发的新型高性能、开放和可扩展的AI互连基础设施。...PC版:https://www.cnbeta.com.tw/articles/soft/1433341.htm手机版:https://m.cnbeta.com.tw/view/1433341.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人