NVIDIA英伟达推出Grace Hopper 超级芯片 ,应该是为了纪念Grace Hopper。可能很多人不知道,Bug这个

NVIDIA英伟达推出Grace Hopper 超级芯片 ,应该是为了纪念Grace Hopper。可能很多人不知道,Bug这个词就是Grace Hopper创造的。 Grace Hopper,1906年出生在纽约,是一位性格坚毅,有着深厚数学和物理背景的女性。她在耶鲁大学获得了数学和物理学博士学位,然后投身于美国海军,成为一名海军后备军官。这样的经历使她具备了扎实的理论基础,也培养了她坚韧不拔的军人品质。耶鲁有个本科生院在2017年改以她命名;以及GHC,一个服务于计算机领域的女性的会议。现在很多大公司都会赞助并参加。 在二战后期,Hopper博士开始研究自动计算机。她曾在哈佛大学的计算实验室工作,参与了世界上第一台大型计算机“哈佛马克一号”的研制工作。她的工作成果不仅使得计算机程序更易于编写和理解,还促使了编程语言的发展。其中,最具影响力的贡献无疑是她发明了第一款编译器,从而推动了第一种高级编程语言COBOL的诞生。 讲到“Bug”,这个词在计算机领域中的用法,是由Hopper首创的。故事是这样的在1947年9月9日,当时Hopper和她的团队在检查“哈佛马克二号”计算机出现问题的时候,发现了一只飞蛾堵塞在其中一个继电器里。因此,她们把这只飞蛾从机器中移除,并记录下了这个事件,从而把导致计算机出现问题的因素称为“Bug”。这个词后来在计算机科学中广为流传,成为了我们今天常说的软件或硬件错误的代名词。

相关推荐

封面图片

亚马逊叫停英伟达芯片订单以等待新产品

亚马逊叫停英伟达芯片订单以等待新产品 亚马逊的云计算部门叫停了英伟达最先进的“超级芯片”的订单,以等待更强大的新型号芯片。英伟达在今年3月公布新一代处理器架构 Blackwell,距离上一代产品 Hopper 开始向客户发货仅一年。云计算提供商 AWS 表示已将之前下的 Grace Hopper 超级芯片订单“完全转换为”新一代产品 Grace Blackwell 的订单。Grace Hopper 是去年8月推出的。该公司表示,鉴于“Grace Hopper 与 Grace Blackwell 之间的间隔很短”,此举“合乎逻辑”。

封面图片

Linux 6.9 VFIO更新为NVIDIA的Grace-Hopper芯片带来新版驱动程序

Linux 6.9 VFIO更新为NVIDIA的Grace-Hopper芯片带来新版驱动程序 NVIDIA公司为 Grace Hopper 超级芯片提供了一个 VFIO PCI 变体模块,以应对该大型芯片的特殊性。Linux 6.9 的VFIO 拉取请求解释了英伟达的新代码:"为NVIDIA的 Grace-Hopper 超级芯片的 GPU 添加新的 vfio-pci 变体驱动程序。  在该硬件模块的芯片到芯片互连初始化过程中,设备的 PCI BAR 将被闲置,转而使用更快、更连贯的机制来显示设备内存。 该驱动程序主要改变了设备的 VFIO 表示法取代用户空间驱动程序的物理 PCI BAR。此外,它还使用了新的 vma 标志,允许 KVM 对未缓存的设备内存使用写入结合属性。该补丁信息进一步描述了NVIDIA Grace Hopper 的新 VFIO 驱动程序代码。很高兴看到英伟达继续根据业务需要向 Linux 内核上游扩展。 ... PC版: 手机版:

封面图片

根据 Phoronix 对 GH100(包含单个 Grace 芯片)的评测,英伟达 Grace 服务器 CPU(72 核 Arm

根据 Phoronix 对 GH100(包含单个 Grace 芯片)的评测,英伟达 Grace 服务器 CPU(72 核 Arm 架构)相比 AMD 和英特尔的产品似乎显得非常具有竞争力,在很多测试项目中都胜过了最顶级的 EPYC 9754 或 Xeon Platinum 8592+ 处理器(但整体性能依然落后于 X86 产品)。 值得一提的是,英伟达不单独销售 Grace 芯片,所以最基础的 GH100 和 GH200(包括一个 Hopper GPU 和一个 72 核的 Grace CPU,配备 480GB LPDDR5X 内存)就是唯一可以测试 Grace CPU 性能的产品。 标签: #英伟达 #Grace #CPU 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

NVIDIA开源HPCG AI基准 支持Grace CPU以及Ampere和Hopper GPU

NVIDIA开源HPCG AI基准 支持Grace CPU以及Ampere和Hopper GPU 自英伟达之前宣布为 GeForce RTX 20 系列及以后的产品使用开源 GPU 内核以来,英伟达一直在寻求向更开源的方向转变,以促进其平台的开发,并在 Linux 方面大步迈进。这一次,该公司决定通过开源英伟达 HPCG 来帮助人工智能行业,该 HPCG 面向 Grace Superchips 和 Hopper 系列架构等人工智能硬件。NVIDIA的HPCG是一个专为高性能计算应用设计的基准测试,主要通过多种数学运算来测试特定硬件在不同场景下的性能。这不仅能让NVIDIA展示其GPU的能力,而且该软件包在优化HPC系统方面发挥了重要作用。在人工智能和高性能计算应用大幅增长的时代,NVIDIAHPCG 的开源意味着该公司决心看到资源的发展。以下是该公司自己详细介绍的主要功能:GitHub: HPCG 基准利用 NVIDIA 高性能数学库:cuSPARSE 和 NVPL Sparse,在 NVIDIA GPU 和 Grace CPU 上实现稀疏矩阵向量乘法 (SpMV) 和稀疏矩阵三角求解器 (SpSV) 的最高性能。NVIDIA HPCG 基准支持高度可配置的命令行参数,以决定:GPU 和 Grace CPU 的问题大小三维等级网格形状执行模式: 纯 CPU、纯 GPU 和异构点对点通信: MPI_Host(发送/回传)、MPI_Host_Alltoallv、MPI_CUDA_Aware、MPI_CUDA_Aware_Alltoallv 和 NCCLNUMA 相关配置在兼容性方面,NVIDIA HPCG 支持 Grace CPU 系统以及 Ampere 和 Hopper GPU 架构。该软件也只能在 Linux 下运行,这限制了它的使用范围。不过,这仍然是一个有趣举动,它表明了NVIDIA公司对资产开源的承诺。 ... PC版: 手机版:

封面图片

英伟达发布新一代数据中心超级芯片

英伟达发布新一代数据中心超级芯片 在周二的主题演讲中,黄仁勋介绍了下一代 DGX GH200 Grace Hopper 超级芯片,专为 OpenAI 的 ChatGPT 等大内存生成性人工智能模型设计,以扩展全球的数据中心。 在发布会前的新闻发布会上,英伟达的超大规模和高性能计算部门主管 Ian Buck 告诉记者,GH200 比该公司的 H100 数据中心系统容纳了更多的内存和更大的带宽。GH200 采用了英伟达的 Hopper GPU 架构,并将其与 Arm Ltd. 的 Grace CPU 架构结合起来。该芯片拥有 141 GB 的 HBM3 内存,以及每秒 5 TB 的带宽。 GH200 可以在 NVLink 的双 GH200 系统中叠加使用,使内存增加 3.5 倍,带宽增加两倍。这两种产品都将在 2024 年第二季度上市,但英伟达没有透露定价。

封面图片

黄仁勋公布NVIDIA路线图:明年升级Blackwell芯片 后年推出新一代AI平台

黄仁勋公布NVIDIA路线图:明年升级Blackwell芯片 后年推出新一代AI平台 在演讲开头,黄仁勋称自己很想用中文进行本次演讲,但因为要说的内容太多,对他而言难度过高。黄仁勋表示,自己的演讲有两个重点,即加速计算和AI,这两个要素“将能够重启电脑产业”。随后,黄仁勋花了较大篇幅来强调英伟达运算平台CUDA的重要性。黄仁勋表示,作为使用神经网络来进行深度学习的平台,CUDA显著推动了计算机科学在近20年内的进展。现在,全球已有500万名CUDA开发者。黄仁勋指出,CUDA已经实现了“良性循环”,能够在运算基础不断增长的情况下,扩大生态系统,令成本不断下降:“这将促使更多的开发人员提出更多的想法,带来更多的需求实验,成为伟大事业的开端。”黄仁勋称CUDA平台已实现良性循环。来源:英伟达直播此外,黄仁勋还重点介绍了英伟达仿真平台Omniverse。据介绍,Omniverse已经帮助众多大厂实现了数字孪生。例如,通过运用Omniverse,工厂可以事先规划流水线,气象学家可以预测极端气候等等。谈到英伟达的核心产品芯片,黄仁勋再次重申“买越多、省越多”。黄仁勋表示,计算机行业在中央处理器(CPU)上运行的引擎,其性能扩展速度已经大大降低。然而,需要处理的数据“继续呈指数级增长”,如果保持原状,人们将不得不经历计算膨胀和计算成本的提升。而在这种情况下,有一种更好的方法增强计算机的处理性能,那就是通过计算机增强CPU来提供加速计算:“现在,CPU的扩展速度逐渐放缓,最终会基本走向停止。我们应该让每一个处理密集型应用程序都得到加速,每个数据中心也就会得到加速。加速计算是非常明智的,这是普通常识。”黄仁勋宣传CPU和GPU相结合的加速计算。来源:英伟达直播在台上,黄仁勋又一次展示了英伟达在今年3月GTC大会上推出的最新Blackwell芯片,以及由其组装而成的机箱,乃至规模庞大的数据中心示意图。黄仁勋自豪地表示:“只有英伟达能做到,只有我们能做到。”更重要的是,黄仁勋透露,随着Blackwell芯片开始生产,英伟达计划每年升级AI加速器和AI芯片,预计将于2025年推出Blackwell Ultra,在2026年推出名为“Rubin”的下一代AI平台,该平台将采用HBM4内存。此前,天风国际分析师郭明𫓹预测,英伟达的下一代AI芯片“Rubin”系列/R100将在2025年第四季度开始量产。黄仁勋“剧透”英伟达此后的芯片规划。来源:英伟达直播就在半个月前,在发布2025财年第一财季财报后的英伟达业绩会上,黄仁勋曾表示,Blackwell芯片已经在“满负荷生产”,预计年内为公司“带来大量收入”。黄仁勋还屡次强调“我们正在加速”,称将在AI芯片上实现“一年一上新”。本次演讲的最后,话题又回到了机器人身上。据介绍,比亚迪、西门子、泰瑞达和Alphabet 旗下公司Intrinsic等全球十多家机器人行业领先企业已经在研究、开发和生产中采用NVIDIA Isaac机器人平台。黄仁勋表示:“机器人时代已经到来。有朝一日,移动的物体都将实现自主运行。”在截至4月28日的2025财年第一财季,英伟达期内实现营收260.44亿美元,同比上涨262%;净利润148.81亿美元,同比上涨628%。同时,该公司对下一季度的业绩做出指引,预测2025财年第二财季的销售额将达到280亿美元,上下浮动2%,高于市场预期的266亿美元。发布第一财季财报后,英伟达股价一度迅速飙升,助公司股价突破1000美元。当地时间5月31日,英伟达(Nasdaq:NVDA)股价收于每股1095.95美元,跌0.82%,总市值2.70万亿美元。据Wind数据,在过去的2023年中,英伟达股价涨幅超230%,今年以来涨幅已达到121.39%。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人