AMD将搭建由120万颗GPU驱动的全球最强AI超级计算机

AMD将搭建由120万颗GPU驱动的全球最强AI超级计算机 AMD 数据中心解决方案总经理 Forrest Norrod 在接受The Next Platform 采访时透露,他们收到了客户关于使用 120 万个 GPU 构建人工智能训练集群的真实询问。从这个角度来看,目前的人工智能训练集群通常使用数千个 GPU,通过高速互连连接到多个本地服务器机架上。目前正在考虑的人工智能开发规模是前所未有的。诺罗德说:"正在筹建的一些训练集群确实强大得令人匪夷所思。事实上,目前已知用于训练人工智能模型的最大超级计算机是Frontier,它拥有37888个Radeon GPU,这使得AMD潜在的超级计算机比Frontier强大30倍。"当然,事情没那么简单。即使以目前的功率水平,在创建人工智能训练集群时也有大量隐患需要考虑。人工智能训练需要较低的延迟来提供及时的结果,需要消耗大量的电能,而且必须考虑到硬件故障,即使只有几千个 GPU 也不例外。大多数服务器的利用率在20%左右,并在远程机器上处理数千个小型异步作业。然而,人工智能培训的兴起正在导致服务器结构发生重大变化。为了跟上机器学习模型和算法的发展,人工智能数据中心必须配备专门为这项工作设计的大量计算能力。人工智能训练本质上是一项大型同步作业,需要集群中的每个节点尽可能快地来回传递信息。最有趣的是,这些数据来自 AMD,而 AMD 在 2023 年的数据中心 GPU 出货量中只占不到 2%。而占据另外 98% 市场份额的 NVIDIA 则对客户要求其开发的产品守口如瓶。作为市场领导者,我们只能想象他们正在开发什么。虽然拟议中的 120 万 GPU 超级计算机可能看起来有些离谱,但诺罗德称,"非常清醒的人"正在考虑在人工智能训练集群上花费多达千亿美元。这并不令人震惊,因为在过去几年里,人工智能在科技界的发展可谓突飞猛进。看来,企业已经准备好在人工智能和机器学习上投入巨资,以保持竞争力。 ... PC版: 手机版:

相关推荐

封面图片

NVIDIA展示数据中心级超级计算机Eos 在TOP 500榜单中名列第9位

NVIDIA展示数据中心级超级计算机Eos 在TOP 500榜单中名列第9位 Eos由576套英伟达DGX H100系统、NVIDIA Quantum-2 InfiniBand网络和软件组成,可提供总计18.4 exaflops的FP8人工智能性能。Eos超级计算机于11月在2023年超级计算贸易展上亮相,Eos以希腊神话中每天打开黎明之门的女神命名,体现了英伟达致力于推动人工智能技术发展的承诺。每台DGX H100系统都配备了8颗英伟达H100 Tensor Core GPU。Eos总共配备了4,608个H100 GPU。因此,Eos 可以处理最大的人工智能工作负载,以训练大型语言模型、推荐系统、量子模拟等。它展示了NVIDIA技术在大规模工作时的能力。Eos的诞生恰逢人们正在利用生成式人工智能改变世界,从药物发现到聊天机器人再到自主机器等等。为了实现这些突破,他们需要的不仅仅是人工智能专业知识和开发技能。他们需要一个人工智能工厂一个随时可用的专用人工智能引擎,它可以帮助提高他们大规模构建人工智能模型的能力。Eos在全球最快超级计算机TOP 500 榜单中名列第 9 位,推动了人工智能技术和基础设施的发展。它包括NVIDIA先进的加速计算和网络,以及先进的软件产品,如NVIDIA Base Command和NVIDIA AI Enterprise。Eos的架构针对需要在大型加速计算节点集群中实现超低延迟和高吞吐量互联的人工智能工作负载进行了优化,使其成为希望扩展人工智能能力的企业的理想解决方案。基于英伟达Quantum-2 InfiniBand与网内计算技术,其网络架构支持400 Gb/s的数据传输速度,促进了训练复杂人工智能模型所必需的大型数据集的快速移动。Eos的核心是由英伟达DGX H100系统支持的开创性DGX SuperPOD架构。该架构旨在为人工智能和计算领域提供能够进行大规模计算的紧密集成的全栈系统。随着全球企业和开发人员都在寻求利用人工智能的力量,Eos作为一种关键资源,有望加速人工智能应用的发展。 ... PC版: 手机版:

封面图片

戴尔、超微为 xAI 超级计算机提供服务器机架

戴尔、超微为 xAI 超级计算机提供服务器机架 总部位于旧金山的超微证实了与 xAI 的合作,该公司以与 Nvidia 等芯片公司关系密切及其液冷技术而闻名。戴尔首席执行官迈克尔·戴尔也在 X 上的另一篇帖子中表示,该公司正在与人工智能巨头 Nvidia 合作建立一个“AI 工厂”,为 xAI 的下一个版本的聊天机器人 Grok 提供动力。据5 月份报道,马斯克告诉投资者,他的人工智能初创公司 xAI 计划建造一台超级计算机,为其下一代人工智能聊天机器人 Grok 提供动力。训练 xAI 的 Grok 等人工智能模型需要数万块芯片,而这些芯片供不应求。今年早些时候,马斯克表示,训练 Grok 2 模型需要大约 20000 个 Nvidia H100 图形处理单元 (GPU),并补充说,Grok 3 模型及以后的模型将需要 100000 个 Nvidia H100 芯片。据《Information》报道,马斯克表示,他希望在 2025 年秋季之前让这台计划中的超级计算机投入运行。马斯克去年创立了 xAI,作为微软支持的 OpenAI 和 Alphabet 旗下谷歌的挑战者。马斯克也是 OpenAI 的联合创始人。 ... PC版: 手机版:

封面图片

《计算机技术专题书籍1920册 计算机 网络 物联网 操作系统 人工智能[pdf] 》

《计算机技术专题书籍1920册 计算机 网络 物联网 操作系统 人工智能[pdf] 》 简介:计算机技术专题书籍1920册 计算机 网络 物联网 操作系统 人工智能[pdf]是一本深入探讨其核心主题的著作,作者通过大量案例分析与深入研究,提供了对相关问题的独特见解。书中详细介绍了该领域中的关键点,帮助读者更好地理解和掌握相关知识,适合各类读者阅读。更多详情请访问相关链接。 标签: #计算#计算机技术专题书籍1920册 计算机 网络 物联网 操作系统 人工智能[pdf]#书籍 文件大小:NG 链接:https://pan.quark.cn/s/7c8fb27238e9

封面图片

印度将开发建造内置10000颗GPU的超级计算机 用于建立该国AI生态系统

印度将开发建造内置10000颗GPU的超级计算机 用于建立该国AI生态系统 印度总理纳伦德拉-莫迪(Shri Narendra Modi)领导的印度政府已批准为印度人工智能计划(IndiaAI mission)投资 12.4 亿美元,这是一项旨在从零开始创建全印度人工智能生态系统的"国家级"计划。拟议资金的大部分可能将分配用于建立一个新的、功能强大的高性能计算(HPC)系统,该系统将成为印度公共和私营部门的中央人工智能基础设施。印度电子与信息技术部解释说,IndiaAI 的超级计算机预计将配备 10,000 个"或更多"GPU 作为人工智能加速器,并将通过公私合作伙伴关系进行开发。虽然没有提供更多技术规格,但该高性能计算系统旨在为印度新兴人工智能生态系统中的初创公司和研究机构提供支持。IndiaAI 任务的另一个组成部分是 IndiaAI 创新中心,其任务是开发和部署本地大型多模态模型(LMM)和特定领域的基础模型。印度共有 23 种官方语言,预计将受益于本地开发的模型,为该国丰富的语言遗产提供支持。IndiaAI 还将通过 IndiaAI 数据集平台建立本地数据集,通过统一的数据平台提供对"非个人"高质量数据库的简化访问。通过 IndiaAI FutureSkills 计划,新德里旨在为日益增长的人工智能就业市场培养新的技术工人。该计划旨在加强对研究生和研究生人工智能项目的访问,并在全国各地新建"数据和人工智能实验室",提供基础模型课程。印度还打算通过 IndiaAI 初创企业融资计划支持初创企业,促进人工智能私营部门的发展,并在理想情况下催生"未来派"人工智能项目。此外,IndiaAI 还将通过本土软件框架、政府指导方针和适当的防护措施,重点发展安全、"负责任"的人工智能计划,以防止非法数据利用或侵犯隐私。印度政府将 IndiaAI 视为一项变革性任务,它将在多个层面发挥作用,增强国内的人工智能能力,并为技术人才创造新的就业机会。莫迪政府还希望向世界证明,机器学习技术可以用于社会公益,而不是像 OpenAI 的 ChatGPT 和其他商业人工智能服务那样以利润为中心。 ... PC版: 手机版:

封面图片

英特尔"Aurora"突破Exaflops障碍 成为AI领域速度最快的超级计算机

英特尔"Aurora"突破Exaflops障碍 成为AI领域速度最快的超级计算机 由英特尔、阿贡国家实验室(Argonne National Laboratory)和HPE合作研发的Aurora超级计算机以585.34 petaflops的部分系统运行速度排名第二。阿贡的早期科学计划取得了重大进展,该计划重点关注科学研究中的高性能计算和人工智能应用。图为安装团队成员在阿贡国家实验室的众多机架中穿行。(图片来源:阿贡国家实验室)Aurora超级计算机部署在阿贡国家实验室,由惠普企业公司(HPE)合作建造,有望成为高性能计算和人工智能领域表现最出色的产品之一。该平台由英特尔至强 CPU Max 和数据中心 GPU Max 系列提供支持,与AMD 展开了激烈的竞争,后者成功地率先突破了Exaflops关卡。与此同时,尽管早在 2019 年就宣布了 Aurora 超级计算机,但它几乎没能达到预期目标,但如今,该系统的运行能力已达到 87%,即总共 9234 个节点。在规格方面,Aurora 超级计算机由 166 个机架组成,其中包括 10624 个刀片服务器、21248 个英特尔至强 CPU Max 芯片(第四代)和 63744 个英特尔数据中心 GPU Max 系列单元(Ponte Vecchio)。它基于 HPE slingshot 光纤架构进行互连,使用 84992 个端点。在性能指标方面,Aurora 超级计算机在 HPL LINPACK 基准测试中名列第二,但仅用了总节点容量的 87%(9234 个节点对 10624 个节点)就达到了 1.012 exaflops,成功突破了1 Exaflops障碍。在 HPCG 测试中,该系统也以 5612 TFLOPs/second 的成绩排名第三,仅使用了系统的 39%。利用 Xe 核心架构及其多个人工智能硬件模块,曙光超级计算机目前在人工智能性能排行榜上名列第一,额定总性能为 10.6 AI Exaflops。该性能使用 LINPACK 混合精度(HPL-MxP)基准进行测量。采用英特尔至强CPU Max系列和英特尔数据中心GPU Max系列技术部署的新型超级计算机彰显了英特尔推进高性能计算和人工智能的目标。这些系统包括欧洲-地中海气候变化中心(CMCC)的Cassandra,用于加速气候变化建模;意大利国家新技术、能源和可持续经济发展局(ENEA)的CRESCO 8,用于实现核聚变能源的突破;德克萨斯高级计算中心 (TACC),该中心已全面投入使用,可对超音速湍流进行生物数据分析,并对多种材料进行原子模拟;以及英国原子能管理局 (UKAEA),用于解决未来核聚变发电厂设计中的内存约束问题。混合精度人工智能基准测试的结果将为英特尔面向人工智能和高性能计算的下一代 GPU(代号为 Falcon Shores)奠定基础。Falcon Shores将利用下一代英特尔Xe架构和英特尔高迪的最佳性能。这种集成实现了统一的编程接口。英特尔至强6的早期性能结果显示,与上一代产品相比, 配备P核和多路复用器组合级(MCR)内存(8800 MT/s)的实际高性能计算应用(如欧洲海洋建模核心(NEMO))的性能提高了2.3倍,为成为高性能计算解决方案的首选主机CPU奠定了坚实的基础。 ... PC版: 手机版:

封面图片

计算机科学家认为不应神化 AI

计算机科学家认为不应神化 AI 计算机科学家 Jaron Lanier 在《纽约客》发表文章《There Is No AI》,提出应停止对人工智能的神化,而将其作为一种创新的社会协作形式来看待。他反对最近呼吁停止训练更高级人工智能的联署信,并再次提出“数据尊严”概念:结束人工智能黑箱,记录比特的来源,“人们可以为他们创造的东西获得报酬,即使这些东西是通过大模型过滤和重新组合的”,“当一个大模型提供有价值的输出时,数据尊严的方法将追踪最独特和有影响力的贡献者。” 频道 @WidgetChannel 投稿 @WidgetPlusBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人