最近,有行业人士估计,英伟达每售出一块H100 GPU加速器,其对应的利润率可以到大约823%:根据财务咨询公司Raymond

最近,有行业人士估计,英伟达每售出一块H100 GPU加速器,其对应的利润率可以到大约823%:根据财务咨询公司Raymond James的数据,目前,作为英伟达这款高性能计算加速器售价最便宜的PCIe版本,其市场价现在也已经达到了25,000至30,000美元,而作为对比,这款加速器在包括芯片和其他组件在内的成本价为3,320美元。 更关键的是,即使价格已经来到了如此高的位置,英伟达的芯片仍然是供不应求:目前,英伟达GPU的销量已经大到每次出货都不怎么会有剩余,甚至其与AI相关的产品的订单都已经排到了2024年。 在英伟达排起长队的买家里,除了诸如微软,Meta等市面上耳熟能详的的科技巨头外,甚至包括了一些来自中东的主权基金:据报道,沙特阿拉伯和阿联酋已经各自从英伟达购买了数千块高性能GPU,以帮助自己实现”成为人工智能领域领导者“的梦想。其中,在沙特的订单中英伟达H100的单个价格已经达到了4万美元一块。 另外,有分析师认为,随着芯片需求的持续“爆表”,2024年英伟达数据中心和AI芯片收入或达750亿至900亿,而到2027年,随着AI加速器市场的规模可能达到1500亿美元,英伟达的市值也将随着其收入进一步走高。 值得注意的是,本次对英伟达芯片成本分析的深度尚不清楚,因为除了纯制造成本之外,通常来说这些芯片的制作还包括了大量的“隐形”费用产品开发需要的时间和资源。考虑到像H100这样的产品的产品开发周期中的工程师和其他参与者,英伟达的研发成本很可能将拉高最终的开发成本:跟据美国招聘网站Glassdoor的数据显示,英伟达电子硬件工程师的平均年薪约为20万美元左右,而在开发像H100这样的芯片往往需要大量包括工程师在内的专业工作人员数千小时的工作,因此,在考虑H100这类芯片背后的成本时,需要考虑和计算的不单单是所需物料的制造成本。 英伟达将在本周四发布自己上一季度的财报,或许届时我们将从中窥见老黄和他的公司到底“赚” 了多少钱。 标签: #显卡 #英伟达 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

机构:部署 Sora 需要72万片英伟达加速卡 价值216亿美元

机构:部署 Sora 需要72万片英伟达加速卡 价值216亿美元 3月27日消息,市场调查机构 Factorial Funds 近日发布报告,认为 OpenAI 部署文本转视频模型 Sora,在峰值期需要72万片英伟达 H100 AI 加速卡。 如果按照每片英伟达 H100 AI 加速卡3万美元成本计算,72万片需要216亿美元。而这仅仅只是 H100 加速卡的成本。Factorial Funds 预估训练 Sora 1个月,需要使用4200到10500片英伟达 H100 AI 加速卡,如果使用单片 H100 加速卡,生成1分钟视频需要渲染12分钟。 、

封面图片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片

英特尔推出性能超越英伟达 H100 的 Gaudi 3 AI 加速芯片 英特尔 Vision 2024 大会的第二天,英特尔正式推出了 Gaudi 3 加速芯片。Gaudi 3 使用台积电 5nm 工艺制造,热设计功耗为 900W ,FP8 精度下的峰值性能为 1835 TFLOPS。英特尔称 Gaudi 3 在 16 个芯片组成的加速集群中以 FP8 精度训练 Llama2-13B 时比性能 H100 高出 1.7 倍。同时,英特尔预计 Gaudi 3 的推理性能将比 H200/H100 提高 1.3 倍到 1.5 倍,能效比将高 2.3 倍。英特尔已经向客户提供了样片,并将在第三季度正式批量交付。

封面图片

AI芯片供应问题有所缓解 一些公司已开始转售英伟达H100 GPU

AI芯片供应问题有所缓解 一些公司已开始转售英伟达H100 GPU 该报道还称,尽管芯片可用性提高,交货期显著缩短,但仍供不应求,尤其是对于那些培训自家大语言模型的公司,如OpenAI。AI处理器短缺的缓解,在一定程度上是由于AWS等云服务提供商让租用英伟达H100 GPU变得更容易。这导致了对AI芯片的需求和等待时间的减少。尽管H100的可用性总体上有所改善,但对于开发自家大语言模型的公司,仍在为供应紧张而苦苦挣扎。这主要是因为它们需要数万乃至数十万个GPU,一些公司在获得所需的处理器或容量方面面临着数月的延误。为此,英伟达H100和其他处理器的价格并没有下降,继续享受着高利润率。英伟达AI处理器可用性的提高也导致了买家行为的转变。一些公司在购买或租赁时变得更加注重价格和选择性,并专注于其业务的经济可行性。此外,再加上替代方案在性能和软件支持方面的不断完善,如AMD或AWS的处理器,市场可能会迎来更加平衡的局面。但不管怎样,当前AI芯片的需求依然强劲。随着大语言模型变得更大,对计算性能的需求也越来越高,这也促使OpenAI CEO山姆·奥特曼(Sam Altman)正试图筹集大量资金,以建造更多的晶圆厂来生产AI处理器。 ... PC版: 手机版:

封面图片

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备 X 帐户"技术兄弟"最近发布消息称,马克-扎克伯格的 Meta 公司目前已拥有全球最大的 H100 GPU “武器库”之一,数量约为 35 万个。不过,马斯克对该表格中特斯拉和 xAI 的排名不以为然,他指出:"如果衡量正确的话,特斯拉会排在第二位,X/xAI 会排在第三位。"假设其他条件不变,这意味着特斯拉现在拥有 3 万到 35 万块英伟达 H100 GPU。另一方面,xAI 现在可能拥有 2.6 万到 3 万块英伟达AI计算卡。早在今年 1 月,埃隆-马斯克(Elon Musk)在确认对特斯拉 Dojo 超级计算机投资 5 亿美元(相当于约 1 万个 H100 GPU)的同时,还宣布这家电动汽车巨头"今年在英伟达硬件上的花费将超过这个数字",因为"在人工智能领域具有竞争力的赌注目前每年至少有几十亿美元"。在马斯克从DeepMind、OpenAI、Google研究院、微软研究院、特斯拉和多伦多大学聘请人才,从头开始建立自己的人工智能企业时,xAI曾在2023年购买了大约1万台英伟达的GPU。不过,可以合理推断,这些采购很可能与 A100 GPU 有关。此后,从马斯克最新发布的 X 帖子中可以推断,xAI 似乎还积累了大量的 H100 GPU。当然,考虑到人工智能领域的创新速度,这些 H100 GPU 很快就会过时。早在今年 3 月,英伟达就发布了GB200 Grace Blackwell 超级芯片,将一个基于 Arms 的 Grace CPU 与两个 Blackwell B100 GPU 结合在一起。该系统可以部署一个包含27 万亿个参数的人工智能模型,在执行聊天机器人提供答案等任务时,速度有望提高30 倍。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人