英伟达最新人工智能芯片H200开始供货

英伟达最新人工智能芯片H200开始供货 3月27日,英伟达宣布,开始供货尖端图像处理半导体 (GPU) “H200”。H200 是面向人工智能的半导体,性能超过现在的主打 GPU “H100”。英伟达相继推出最新的人工智能半导体,目的是保持较高的市场份额。英伟达3月27日公布了 H200 的性能评测结果。用 Meta 的大规模语言模型 (LLM) “Llama 2”进行了比较,结果显示,与 H100 相比,H200 使生成式人工智能导出答案的处理速度最高提高了45%。

相关推荐

封面图片

Meta将率先使用英伟达最新人工智能芯片

Meta将率先使用英伟达最新人工智能芯片 英伟达首席财务官科莱特·克雷斯(Colette Kress)周二告诉金融分析师,“我们将在今年晚些时候上市”,但也表示,新GPU的出货量要到2025年才会增加。而社交媒体巨头 Meta 是英伟达最大的客户之一,此前该公司购买了英伟达公司数十万上一代芯片。Meta 首席执行官马克·扎克伯格 在 1 月份就曾透露,该公司计划会在今年年底前将大约 350,000 个早期芯片(称为 H100)储存在库存中。本次Meta社交平台的发言人向外媒公布的最新消息显示,在今年晚些时候,会收到英伟达推出的全新的人工智能芯片,而且还透露,收到的将是英伟达的首批出货。此前,扎克伯格在周一的一份声明中表示,Meta 计划使用 Blackwell 来训练该公司的骆驼模型。该公司目前正在上周宣布的两个GPU集群上训练第三代模型,每个集群包含约24,000个H100 GPU。Meta 发言人表示,Meta 计划继续使用这些集群来训练 Llama 3,并将 Blackwell 用于该模型的未来几代。 ... PC版: 手机版:

封面图片

英伟达削弱版人工智能芯片在中国遇冷

英伟达削弱版人工智能芯片在中国遇冷 美国在去年 10 月发布新规禁止英伟达向中国出售尖端人工智能芯片,英伟达迅速为中国开发了特供芯片,以符合收紧的规定。然而,英伟达面临一个更大的问题:中国的云计算大客户对购买英伟达低性能人工智能芯片并不那么热衷。 阿里巴巴集团和腾讯是中国最大的云计算公司,自去年11月以来一直在测试英伟达的样品。知情人士表示,他们已向英伟达表示,今年将从该公司订购的芯片数量将远少于原计划购买其被禁止的前一代芯片的数量。 知情人士表示,阿里巴巴集团和腾讯正在将一些先进半导体订单转移给华为等本土公司,并且更多地依赖公司内部开发的芯片。人工智能领军企业百度和字节跳动也在采取类似的做法。

封面图片

美国与英伟达就向中国销售人工智能芯片进行谈判

美国与英伟达就向中国销售人工智能芯片进行谈判 美国正在与英伟达公司就向中国出售人工智能芯片的事宜进行讨论,但强调不能向中国公司出售其最先进的半导体。 美国商务部长吉娜·雷蒙多在周一接受路透社采访时表示,英伟达“可以、将会、也应该向中国出售人工智能芯片,因为大多数人工智能芯片将用于商业应用。” 雷蒙多补充道:“我们不能允许他们出口的是最尖端、处理能力最强的人工智能芯片,这将使中国能够训练其前沿模型。”

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU 英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

封面图片

人工智能公司MosaicML称不要迷信英伟达芯片 AMD芯片提供类似性能

人工智能公司MosaicML称不要迷信英伟达芯片 AMD芯片提供类似性能 目前在人工智能热潮下英伟达股价水涨船高,之前业内基本都认同英伟达的 A100/H100 加速卡提供最佳的性能,所以英伟达的这些专用加速卡被各大公司哄抢。 人工智能初创公司MosaicML在后称大家不应该迷信英伟达芯片 , 因为AMD米兰芯片的性能并不差。该公司使用多种工具对英伟达A100加速卡和AMD MI250加速卡进行测试,测试显示MI250加速卡也足够用。 MosaicML称在基于实际工作负载测试中,AMD MI250加速卡的每GPU数据吞吐量相当于英伟达A100 40GB版的 80%,是A100 80GB版的73%。因此确实有差距但差距并不算大,对人工智能公司来说并不是非得高价抢购英伟达显卡,其他加速卡也能用。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门”

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门” H200基于英伟达Hopper架构打造,并配备英伟达H200 Tensor Core GPU,处理速度为4.8TB/秒。H200拥有141GB的内存,与前代产品H100相比,H200的容量几乎翻了一番,运行大模型的综合性能相比前代H100提升了60%到90%。英伟达此前表示,H200在运行GPT-3时的性能,将比原始A100高出18倍,同时也比H100快11倍左右。值得一提的是,H200还将与H100兼容,使用H100训练/推理模型的AI企业,可以无缝更换成最新的H200芯片。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人