全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门”

全球首块英伟达H200 AI超级芯片交付 黄仁勋给OpenAI“送货上门” H200基于英伟达Hopper架构打造,并配备英伟达H200 Tensor Core GPU,处理速度为4.8TB/秒。H200拥有141GB的内存,与前代产品H100相比,H200的容量几乎翻了一番,运行大模型的综合性能相比前代H100提升了60%到90%。英伟达此前表示,H200在运行GPT-3时的性能,将比原始A100高出18倍,同时也比H100快11倍左右。值得一提的是,H200还将与H100兼容,使用H100训练/推理模型的AI企业,可以无缝更换成最新的H200芯片。 ... PC版: 手机版:

相关推荐

封面图片

英伟达最新人工智能芯片H200开始供货

英伟达最新人工智能芯片H200开始供货 3月27日,英伟达宣布,开始供货尖端图像处理半导体 (GPU) “H200”。H200 是面向人工智能的半导体,性能超过现在的主打 GPU “H100”。英伟达相继推出最新的人工智能半导体,目的是保持较高的市场份额。英伟达3月27日公布了 H200 的性能评测结果。用 Meta 的大规模语言模型 (LLM) “Llama 2”进行了比较,结果显示,与 H100 相比,H200 使生成式人工智能导出答案的处理速度最高提高了45%。

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

英伟达推出新款AI处理器H200

英伟达推出新款AI处理器H200 英伟达升级H100 AI处理器,以巩固在AI计算市场的主导地位。英伟达推出名为H200的新款图形处理器(GPU),具备使用HBM3e高带宽内存的能力,H200集成141 GB内存,在推理或生成问题答案时,性能较H100提高60%-90%。英伟达一度上涨将近1.4%,处于连续第九个交易日上涨之中。 来源:

封面图片

消息称英伟达“特供版”H20芯片2024年GTC大会后全面接受预订

消息称英伟达“特供版”H20芯片2024年GTC大会后全面接受预订 今年1月有消息称,英伟达已开始接受经销商预订一款新的中国专用人工智能(AI)芯片H20,这些芯片的定价与中国等竞争对手产品相当。H20显卡是英伟达为中国市场开发的三款显卡中最强大的一款。但H20的计算能力自然会低于英伟达的旗舰H100 AI芯片和此前英伟达针对中国市场的H800。据三位消息人士透露,H20的规格似乎也表明,它在某些关键领域的性能不如中国竞争对手,例如衡量芯片处理常见任务速度的FP32性能方面,但在互连速度方面H20似乎更具优势。英伟达对中国H20分销商的订单定价为每张卡12000美元~15000美元。根据此前曝光的参数信息,英伟达H20与H100、H200同系列,均采用英伟达Hopper架构,但显存容量增大至96GB HBM3,GPU显存带宽4.0TB/s。算力方面,该产品的FP8算力为296 TFLOPS,FP16算力为148 TFLOPS,仅为当今“最强”AI芯片H200的1/13。 ... PC版: 手机版:

封面图片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片 英特尔 Vision 2024 大会的第二天,英特尔正式推出了 Gaudi 3 加速芯片。Gaudi 3 使用台积电 5nm 工艺制造,热设计功耗为 900W ,FP8 精度下的峰值性能为 1835 TFLOPS。英特尔称 Gaudi 3 在 16 个芯片组成的加速集群中以 FP8 精度训练 Llama2-13B 时比性能 H100 高出 1.7 倍。同时,英特尔预计 Gaudi 3 的推理性能将比 H200/H100 提高 1.3 倍到 1.5 倍,能效比将高 2.3 倍。英特尔已经向客户提供了样片,并将在第三季度正式批量交付。

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU 英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人