英伟达最新人工智能芯片H200开始供货

英伟达最新人工智能芯片H200开始供货3月27日,英伟达宣布,开始供货尖端图像处理半导体(GPU)“H200”。H200是面向人工智能的半导体,性能超过现在的主打GPU“H100”。英伟达相继推出最新的人工智能半导体,目的是保持较高的市场份额。英伟达3月27日公布了H200的性能评测结果。用Meta的大规模语言模型(LLM)“Llama2”进行了比较,结果显示,与H100相比,H200使生成式人工智能导出答案的处理速度最高提高了45%。——

相关推荐

封面图片

Nvidia将推出一款新的必备人工智能芯片-H200

Nvidia正在推出一款用于人工智能工作的新一代顶级芯片,即HGXH200。这款新的GPU在广受需求的H100的基础上进行了升级,内存带宽提升了1.4倍,内存容量提升了1.8倍,提高了处理密集生成式人工智能工作的能力。重要的问题是公司是否能够获得这些新芯片,或者它们是否会像H100一样供应不足,对此Nvidia并没有确切的答案。首批H200芯片将于2024年第二季度发布,Nvidia表示正在与“全球系统制造商和云服务提供商”合作,以使其可用。H200在外观上与H100基本相同,除了内存方面有所改变。但是对内存的改变使其升级更有意义。新的GPU是第一个使用名为HBM3e的新型更快内存规格的GPU。这使得GPU的内存带宽从H100的每秒3.35TB提升到每秒4.8TB,并且总内存容量从80GB增加到141GB。H200也被设计为与已经支持H100s的系统兼容。Nvidia表示,云服务提供商在添加H200时不需要进行任何更改。亚马逊、谷歌、微软和甲骨文等云计算服务提供商将是明年首批提供新型GPU的公司。标签:#Nvidia#英伟达频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

发布H200芯片之际 英伟达股价已连涨十日

发布H200芯片之际英伟达股价已连涨十日作为全球市值最高的芯片制造商,英伟达股票今年已累计上涨超过240%,成为纳斯达克100指数和标准普尔500指数上表现最佳的成分股,人工智能热潮推动了股价上涨。最新的涨势正值科技股反弹,人们对美联储的利率已经达到顶峰抱有希望。英伟达刚刚宣布推出名为H200的新芯片,该芯片将能够利用高带宽内存(HBM3e),更好地处理开发和实施人工智能所需的大型数据集。沃尔夫研究公司分析师克里斯·卡索在(ChrisCaso)一份报告中写道:“过去,英伟达并未更新过之前的数据中心GPU。因此,这进一步证明了英伟达在应对人工智能市场增长和性能需求方面加快产品发布的能力,从而扩大了其竞争优势。”目前的英伟达H100处理器已经受到高度需求。“该公司加快发布H200等产品的步伐,预计将有助于保护其市场份额,”彭博行业研究分析师库简·索哈尼(KunjanSobhani)表示。“这款新的人工智能处理器配备了高带宽内存,可能成为市场上性能最出色的GPU,提高了竞争门槛。”英伟达将于11月21日公布财报。上个月,由于美国新规禁止向中国销售其尖端人工智能芯片,英伟达承受了一定压力。...PC版:https://www.cnbeta.com.tw/articles/soft/1397011.htm手机版:https://m.cnbeta.com.tw/view/1397011.htm

封面图片

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一

英伟达最新AI芯片H200或将成为其史上最赚钱产品之一根据英伟达官网的消息,基于英伟达的“Hopper”架构,H200是该公司首款采用HBM3e内存的芯片。这种内存速度更快,容量更大,使其更适用于大型语言模型。英伟达表示,H200使用HBM3e内存能够以每秒4.8TB的速度提供141GB的容量,相比于A100,其容量几乎翻了一倍,带宽提高了2.4倍。预计H200将于2024年第二季度上市,届时将与AMD的MI300XGPU展开竞争。与H200相似,AMD的新芯片相比前代产品拥有更多内存,这对运行大型语言模型的推理计算有帮助。英伟达还表示,H200将与H100兼容,这意味着那些已经在使用H100进行训练的AI公司无需更改他们的服务器系统或软件即可适应H200。英伟达副总裁IanBuck称:“为了训练生成式AI和高性能计算应用,必须使用高性能GPU。有了H200,行业领先的AI超级计算平台可以更快地解决一些世界上最重要的挑战。”英伟达的加速计算首席产品经理DionHarris表示:“观察市场上的动态,可以看到大型模型的尺寸正在迅速扩大。这是我们继续引领最新、最伟大技术的又一例证。”据美国金融机构RaymondJames透露,H100芯片的成本仅为3320美元,但英伟达对其客户的批量价格却高达2.5万至4万美元。这使得H100的利润率可能高达1000%,成为有史以来最赚钱的芯片之一。在训练大型语言模型时,通常需要数千个H100集群协同工作,因此科技巨头、初创公司和政府机构都在争夺英伟达有限的芯片供应。由于对其产品的需求看似无穷无尽,英伟达今年的销售额大幅增长,股价上涨了230%,市值突破了1.2万亿美元大关。截至周一收盘,该股收涨0.59%,报486.2美元。相关文章:NVIDIA发布HopperH200GPU与基于GraceHopper的Jupiter超算项目...PC版:https://www.cnbeta.com.tw/articles/soft/1396697.htm手机版:https://m.cnbeta.com.tw/view/1396697.htm

封面图片

英伟达H200订单Q3开始交付,预计B100明年上半年出货

英伟达H200订单Q3开始交付,预计B100明年上半年出货英伟达AIGPUH200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。供应链指出,目前待出货的客户端订单仍多集中于HGX架构的H100,H200比重有限,Q3将量产交货的H200主要为英伟达DGXH200;至于B100则已有部分能见度,预计出货时程落在明年上半年。——

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”BlackwellB200GPU英伟达的H100AI芯片使其成为价值数亿美元的公司,其价值可能超过Alphabet和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的BlackwellB200GPU和GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的GTC大会上表示,新的B200GPU拥有2080亿个晶体管,可提供高达20petaflops的FP4算力,而GB200将两个GPU和单个GraceCPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有1750亿个参数的GPT-3LLM基准测试中,GB200的性能是H100的7倍,而英伟达称其训练速度是H100的4倍。——

封面图片

英伟达发布新一代 AI 芯片 H200

英伟达发布新一代AI芯片H200H200利用了美光等公司推出的HBM3e内存,提供了141GB内存容量(H100的1.8倍)和4.8TB/s内存带宽(H100的1.4倍)。大型语言模型推理速度方面,GPT-3175B是H100的1.6倍(A100的18倍),LLaMA270B是H100的1.9倍。英伟达同时宣布2024年的H100产量翻倍,2024年第4季度发布基于新一代Blackwell架构的B100。投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人