Nvidia将推出一款新的必备人工智能芯片-H200
Nvidia正在推出一款用于人工智能工作的新一代顶级芯片,即HGXH200。这款新的GPU在广受需求的H100的基础上进行了升级,内存带宽提升了1.4倍,内存容量提升了1.8倍,提高了处理密集生成式人工智能工作的能力。重要的问题是公司是否能够获得这些新芯片,或者它们是否会像H100一样供应不足,对此Nvidia并没有确切的答案。首批H200芯片将于2024年第二季度发布,Nvidia表示正在与“全球系统制造商和云服务提供商”合作,以使其可用。H200在外观上与H100基本相同,除了内存方面有所改变。但是对内存的改变使其升级更有意义。新的GPU是第一个使用名为HBM3e的新型更快内存规格的GPU。这使得GPU的内存带宽从H100的每秒3.35TB提升到每秒4.8TB,并且总内存容量从80GB增加到141GB。H200也被设计为与已经支持H100s的系统兼容。Nvidia表示,云服务提供商在添加H200时不需要进行任何更改。亚马逊、谷歌、微软和甲骨文等云计算服务提供商将是明年首批提供新型GPU的公司。标签:#Nvidia#英伟达频道:@GodlyNews1投稿:@GodlyNewsBot
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人