英伟达探索COPA多芯片GPU模块架构 以满足不断变化的数据需求 - nVIDIA -

None

相关推荐

封面图片

英伟达全面转向开源 GPU 内核模块

英伟达全面转向开源 GPU 内核模块 英伟达在 2022 年宣布开源其 Linux GPU 内核驱动模块,最初针对的是工作站/数据中心 GPU,随着开源内核驱动的改进,开源驱动模块与闭源驱动的性能相差无几。英伟达通过官方博客现在正式宣布,其开源内核模块最终将取代闭源驱动。英伟达称,对于 Grace Hopper 或 Blackwell 等平台,必须使用开源 GPU 内核模块,因为这些平台不支持私有驱动;对于来自 Turing、Ampere、Ada Lovelace 或 Hopper 架构的较新 GPU,它建议切换到开源的 GPU 内核模块;对于 Maxwell、Pascal 或 Volta 架构中的旧版 GPU,开源 GPU 内核模块不兼容,只能继续使用私有驱动。英伟达没有开源其用户空间驱动。 via Solidot

封面图片

英伟达预计 Blackwell 架构 GPU 供应依然受限:市场需求远远超过供应量预计还能捞钱

封面图片

白皮书揭示了英伟达Hopper大芯片的关键规格 - nVIDIA -

封面图片

亚马逊暂停订购英伟达Hopper芯片 投资者担心需求中断

亚马逊暂停订购英伟达Hopper芯片 投资者担心需求中断 今年3月,英伟达发布了名为Blackwell的新一代处理器,距离其前身Hopper开始向客户发货不到一年。英伟达CEO黄仁勋表示,新产品在训练大型语言模型方面的能力将提高一倍。Grace Hopper于今年8月正式推出。AWS也向媒体证实了该消息,称两款产品之间的时间间隔很短,等待新产品合情合理。对此,英伟达以静默期规定为由,拒绝在周三发布季度财报前发表评论。在周二早盘交易中,英伟达的股价下跌约1%。分析人士预计,在大型科技公司大举投资AI技术的推动下,英伟达该季度的销售额将增长两倍。但一些投资者已经开始质疑,这种超乎寻常的增长势头还能持续多久。摩根士丹利分析师本周在致客户的一份报告中称,尽管大型科技公司承诺今年将继续投资数百亿美元为AI建设数据中心基础设施,但华尔街对英伟达在推出Blackwell之前的停顿感到焦虑。新的Blackwell芯片的产量将在今年逐渐提高。分析人士预计,它们将在第四季度交付。花旗分析师认为,在此期间,英伟达AI芯片的需求将出现断层。亚马逊和英伟达均不愿透露订单的价值。汇丰银行的分析师估计,一块GB200芯片的价格将高达7万美元,而搭载这项新技术的整个服务器的价格最高可达300万美元。AWS将继续向其云客户提供包括H100在内的其他英伟达芯片。但是,作为英伟达最大的客户之一,AWS此举可能会让投资者感到担忧,他们之前已经担心科技公司在等待Blackwell上市的过程中会推迟购买。在去年的大部分时间里,随着OpenAI突破性的ChatGPT的推出,引发了云和互联网公司、初创企业和企业买家对AI基础设施的一波投资,导致英伟达的H100 AI芯片远远供不应求。但自2024年初以来,对H100芯片的漫长等待已经缓解。由于投资者对AI芯片需求充满信心,英伟达股价自今年年初以来几乎翻了一番。但自3月份发布Blackwell以来,英伟达股价一直难以显示出持续的上涨。 ... PC版: 手机版:

封面图片

绕过CPU:英伟达与IBM致力推动GPU直连SSD以大幅提升性能 - nVIDIA -

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人