英伟达探索COPA多芯片GPU模块架构 以满足不断变化的数据需求 - nVIDIA -

None

相关推荐

封面图片

英伟达预计 Blackwell 架构 GPU 供应依然受限:市场需求远远超过供应量预计还能捞钱

封面图片

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU?

Meta号称自研AI芯片 为何转身买了英伟达35万个GPU? 高调自研的Meta转身狂购英伟达芯片Meta首席科学家杨立昆(Yann LeCun)上个月在旧金山举行的一次活动中强调了GPU对于构建通用人工智能(AGI)的重要性。他说:“如果你认为AGI时代正在到来,你就必须购买更多的GPU。这是一场人工智能战争,而英伟达正在提供武器。”Meta第三季度财报显示,2024财年的总支出将在940亿美元至990亿美元之间,部分原因是在算力方面的扩张。矛盾的是:之前,Meta的打算是自研芯片,不依赖英伟达。2023年,Meta公司首度曾公开其自研芯片的进展,表示开始计划开发一种用于训练人工智能模型的内部芯片,他们将这款新型芯片取名Meta训练和推理加速器,简称MTIA(MTIA v1),将其归类为加速人工智能训练和推理工作负载的“芯片家族”,并定计划于2025年推出。这种定制芯片采用开源芯片架构RISC-V,在类型上属于ASIC专用集成电路。巨头自研芯片不顺利2023年OpenAI 大模型爆火以来,互联网巨头对AI芯片的需求一夜爆发,一时间重金难求一卡。为了避免受制于人,节省费用,各大巨头纷纷宣布自研AI芯片。亚马逊似乎占据了先机,已拥有两款AI专用芯片训练芯片Trainium和推理芯片Inferentia;谷歌则拥有第四代张量处理单元(TPU)。相比之下,微软、Meta等还在很大程度上依赖于英伟达、AMD和英特尔等芯片制造商的现成或定制硬件。报道称,微软一直在秘密研发自己的AI芯片,代号雅典娜(Athena)。该芯片由台积电代工,采用5nm先进制程,计划最早于2024年推出。MTIA的 v1,字面性能也很强,采用台积电7nm制程工艺,运行频率800MHz,TDP仅为25W,INT8整数运算能力为102.4 TOPS,FP16浮点运算能力为51.2 TFLOPS。但从目前的进度上看,微软、Meta的进度并不算快,微软一直在订购英伟达的芯片,Meta此次高调宣布购入35万个H100,也表明,自身研发并不顺利。AI算力竞争是否再次展开据OpenAI测算,从2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍。2023年,各巨头对AI芯片的抢购,一度让英伟达H100持续涨价缺货。根据研究机构Raymond James的分析师预测,每个英伟达H100芯片售价为25000至30000美元。按此价格范围计算,Meta在这些芯片上的支出将至少接近百亿美元。Meta为何不吝于成本,斥巨资买入英伟达芯片。扎克伯格在周四的文章中还表示,将把人工智能投资与AR/VR驱动的元宇宙愿景联系起来,并计划推出Llama大型语言模型的下一个版本。从上述表态中可以看出,Meta的自身业务深入发展,需要算力的支持,这是根本原因。对于全球互联网巨头、科技公司来说,2024年的竞争已经开始,新的一轮算力竞争是否就此拉开序幕。 ... PC版: 手机版:

封面图片

绕过CPU:英伟达与IBM致力推动GPU直连SSD以大幅提升性能 - nVIDIA -

封面图片

英伟达全面转向开源 GPU 内核模块

英伟达全面转向开源 GPU 内核模块 英伟达在 2022 年宣布开源其 Linux GPU 内核驱动模块,最初针对的是工作站/数据中心 GPU,随着开源内核驱动的改进,开源驱动模块与闭源驱动的性能相差无几。英伟达通过官方博客现在正式宣布,其开源内核模块最终将取代闭源驱动。英伟达称,对于 Grace Hopper 或 Blackwell 等平台,必须使用开源 GPU 内核模块,因为这些平台不支持私有驱动;对于来自 Turing、Ampere、Ada Lovelace 或 Hopper 架构的较新 GPU,它建议切换到开源的 GPU 内核模块;对于 Maxwell、Pascal 或 Volta 架构中的旧版 GPU,开源 GPU 内核模块不兼容,只能继续使用私有驱动。英伟达没有开源其用户空间驱动。 via Solidot

封面图片

英伟达发布了开源 GPU 内核模块

英伟达发布了开源 GPU 内核模块 NVIDIA is now publishing Linux GPU kernel modules as open source with dual GPL/MIT license, starting with the R515 driver release. You can find the source code for these kernel modules in the NVIDIA Open GPU Kernel Modules repo on . …… Along with the source code, fully-built and packaged versions of the drivers are provided. For data center GPUs in the NVIDIA Turing and NVIDIA Ampere architecture families, this code is production ready. …… In this open-source release, support for GeForce and Workstation GPUs is alpha quality. GeForce and Workstation users can use this driver on Turing and NVIDIA Ampere architecture GPUs to run Linux desktops. More robust and fully featured GeForce and Workstation support will follow in subsequent releases and the NVIDIA Open Kernel Modules will eventually supplant the closed-source driver. Customers with Turing and Ampere GPUs can choose which modules to install. Pre-Turing customers will continue to run the closed source modules.

封面图片

亚马逊暂停订购英伟达Hopper芯片 投资者担心需求中断

亚马逊暂停订购英伟达Hopper芯片 投资者担心需求中断 今年3月,英伟达发布了名为Blackwell的新一代处理器,距离其前身Hopper开始向客户发货不到一年。英伟达CEO黄仁勋表示,新产品在训练大型语言模型方面的能力将提高一倍。Grace Hopper于今年8月正式推出。AWS也向媒体证实了该消息,称两款产品之间的时间间隔很短,等待新产品合情合理。对此,英伟达以静默期规定为由,拒绝在周三发布季度财报前发表评论。在周二早盘交易中,英伟达的股价下跌约1%。分析人士预计,在大型科技公司大举投资AI技术的推动下,英伟达该季度的销售额将增长两倍。但一些投资者已经开始质疑,这种超乎寻常的增长势头还能持续多久。摩根士丹利分析师本周在致客户的一份报告中称,尽管大型科技公司承诺今年将继续投资数百亿美元为AI建设数据中心基础设施,但华尔街对英伟达在推出Blackwell之前的停顿感到焦虑。新的Blackwell芯片的产量将在今年逐渐提高。分析人士预计,它们将在第四季度交付。花旗分析师认为,在此期间,英伟达AI芯片的需求将出现断层。亚马逊和英伟达均不愿透露订单的价值。汇丰银行的分析师估计,一块GB200芯片的价格将高达7万美元,而搭载这项新技术的整个服务器的价格最高可达300万美元。AWS将继续向其云客户提供包括H100在内的其他英伟达芯片。但是,作为英伟达最大的客户之一,AWS此举可能会让投资者感到担忧,他们之前已经担心科技公司在等待Blackwell上市的过程中会推迟购买。在去年的大部分时间里,随着OpenAI突破性的ChatGPT的推出,引发了云和互联网公司、初创企业和企业买家对AI基础设施的一波投资,导致英伟达的H100 AI芯片远远供不应求。但自2024年初以来,对H100芯片的漫长等待已经缓解。由于投资者对AI芯片需求充满信心,英伟达股价自今年年初以来几乎翻了一番。但自3月份发布Blackwell以来,英伟达股价一直难以显示出持续的上涨。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人