【GPU的“庞氏游戏”?】借钱买英伟达芯片,还拿这些芯片做抵押,这种“豪赌”能赚钱吗?曾是加密货币“矿商”的Crusoe Ene

【GPU的“庞氏游戏”?】借钱买英伟达芯片,还拿这些芯片做抵押,这种“豪赌”能赚钱吗?曾是加密货币“矿商”的Crusoe Energy就是这么做的。H100成新型“抵押资产”,只要英伟达的芯片在市场仍“称霸”,云服务商就有利可图。 #抽屉IT

相关推荐

封面图片

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU 英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60% 在美国加州圣何塞举行的 AI 特别活动中,AMD 宣布正式推出其旗舰 AI GPU 加速器 MI300X,并称其性能比英伟达的 H100 芯片提高了 60%。 据 AMD 介绍,新芯片为性能最高的芯片,拥有超过 1500 亿个晶体管。与英伟达 H100 芯片相比,AMD 新芯片的内存为其 2.4 倍,内存带宽为其 1.6 倍,训练性能与 H100 芯片相当,在运行 AI 模型方面则比英伟达快得多。 、

封面图片

AI芯片供应问题有所缓解 一些公司已开始转售英伟达H100 GPU

AI芯片供应问题有所缓解 一些公司已开始转售英伟达H100 GPU 该报道还称,尽管芯片可用性提高,交货期显著缩短,但仍供不应求,尤其是对于那些培训自家大语言模型的公司,如OpenAI。AI处理器短缺的缓解,在一定程度上是由于AWS等云服务提供商让租用英伟达H100 GPU变得更容易。这导致了对AI芯片的需求和等待时间的减少。尽管H100的可用性总体上有所改善,但对于开发自家大语言模型的公司,仍在为供应紧张而苦苦挣扎。这主要是因为它们需要数万乃至数十万个GPU,一些公司在获得所需的处理器或容量方面面临着数月的延误。为此,英伟达H100和其他处理器的价格并没有下降,继续享受着高利润率。英伟达AI处理器可用性的提高也导致了买家行为的转变。一些公司在购买或租赁时变得更加注重价格和选择性,并专注于其业务的经济可行性。此外,再加上替代方案在性能和软件支持方面的不断完善,如AMD或AWS的处理器,市场可能会迎来更加平衡的局面。但不管怎样,当前AI芯片的需求依然强劲。随着大语言模型变得更大,对计算性能的需求也越来越高,这也促使OpenAI CEO山姆·奥特曼(Sam Altman)正试图筹集大量资金,以建造更多的晶圆厂来生产AI处理器。 ... PC版: 手机版:

封面图片

美国限制向中东地区出口英伟达的 H100 和 A100 GPU

美国限制向中东地区出口英伟达的 H100 和 A100 GPU 美国限制英伟达向中东地区出口的其旗舰 AI 芯片 H100 和 A100 GPU,原因是为了防止这些芯片转售到中国。美国已经限制英伟达向中国出售 H100 和 A100 GPU,英伟达为此专门开发了降低性能的型号 H800 和 A800。中东的阿联酋和沙特都是英伟达的大客户,而这两个国家同时也与中国关系密切,其中沙特还与中国在 AI 项目上展开合作。美国担心英伟达的 H100 和 A100 GPU 可能会从中东国家转手到中国,或者中国会在中东国家训练 AI 模型然后将技术带回中国。来源 , 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

消息称英伟达“特供版”H20芯片2024年GTC大会后全面接受预订

消息称英伟达“特供版”H20芯片2024年GTC大会后全面接受预订 今年1月有消息称,英伟达已开始接受经销商预订一款新的中国专用人工智能(AI)芯片H20,这些芯片的定价与中国等竞争对手产品相当。H20显卡是英伟达为中国市场开发的三款显卡中最强大的一款。但H20的计算能力自然会低于英伟达的旗舰H100 AI芯片和此前英伟达针对中国市场的H800。据三位消息人士透露,H20的规格似乎也表明,它在某些关键领域的性能不如中国竞争对手,例如衡量芯片处理常见任务速度的FP32性能方面,但在互连速度方面H20似乎更具优势。英伟达对中国H20分销商的订单定价为每张卡12000美元~15000美元。根据此前曝光的参数信息,英伟达H20与H100、H200同系列,均采用英伟达Hopper架构,但显存容量增大至96GB HBM3,GPU显存带宽4.0TB/s。算力方面,该产品的FP8算力为296 TFLOPS,FP16算力为148 TFLOPS,仅为当今“最强”AI芯片H200的1/13。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人