联想首台国产AI服务器问天WA5480 G3交付 可搭载AI算力芯片

联想首台国产AI服务器问天WA5480 G3交付 可搭载国产AI算力芯片 据了解,问天WA5480 G3 AI训推一体服务器可灵活应用于AI通用模型训练,大模型推理、AI生成、云游戏、科学计算等多种应用场景。问天WA5480 G3采用2颗第四代英特尔至强可扩展处理器,支持最新PCIE5.0。通过PCIE扩展,最多可以支持10张包括最新NVIDIA H800 GPU在内的,多类型、多品牌AI加速卡。同时,提供包括直通、Balance、Common多种CPU-GPU互联方式,避免了因为CPU-GPU数据通信方式单一与工作负载不匹配,带来的潜在性能瓶颈和系统效率下降。可靠性上,问天WA5480 G3支持电源N+N冗余,节点内电源间互为备份,对外可以连接双路市电,保障服务器24小时在线运行。 ... PC版: 手机版:

相关推荐

封面图片

中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级

中金公司:随着 AI 算力提升,先进 AI 服务器电源重要性持续升级 中金公司研报表示,服务器电源是数据中心供电系统建设的核心,随着 AI 算力提升,先进 AI 服务器电源的重要性持续升级。先进 GPU 也对 AI 服务器电源功率和功率密度提出了更高要求,例如功率约为 10.2kw 的 H100 服务器机架需配置 19.8kw 电源,而功率约为 120kw 的 NVL72 机架需配置 198kw 电源。但服务器电源本身需在有限空间实现功率扩容,传统服务器电源功率密度大多不到 50w / 立方英寸,而 AI 服务器电源功率密度可达 100w / 立方英寸。这同步对服务器电源拓扑结构设计、元器件应用等提出了更高要求,未来先进 AI 电源需求有望持续升级。

封面图片

【中国移动与联想集团将在5G+AI方面展开深度合作】

【中国移动与联想集团将在5G+AI方面展开深度合作】 据10 月 12 日报道,在 2023 中国移动全球合作伙伴大会上,联想集团与中国移动宣布,在夯实行业数字底座、深化 5G+AI 赋能数实融合以及加速科技创新三方面达成深度合作共识。在 AI 导向的基础设施方面,联想集团推出了问天 WA7780G3 AI 大模型训练服务器和联想问天 WA5480G3 AI 训推一体服务器。联想希望通过基于智算、超算、通算三大算力场景,助力运营商加快提升自身数字底座建设步伐,实现算力升级。 快讯/广告 联系 @xingkong888885

封面图片

最强AI芯片WSE-3发布:4万亿个晶体管,90万核,125 PetaFLOPS算力

最强AI芯片WSE-3发布:4万亿个晶体管,90万核,125 PetaFLOPS算力 基于 5nm 的4万亿晶体管WSE-3专为训练业界最大的 AI 模型而构建,为Cerebras CS-3 AI 超级计算机提供动力,通过900,000 个 AI优化计算核心提供 125 petaflops 的峰值 AI性能。一颗惊人的芯片,约等于62颗H100Cerebras Systems表示,这款新器件使用台积电的5nm工艺打造,包含 4 万亿个晶体管;90万个AI核心;44GB 片上 SRAM;;外部存储器为1.5TB、12TB或1.2PB;峰值性能为 125 FP16 PetaFLOPS。Ceberas 的 WSE-3 将用于训练一些业界最大的人工智能模型,能训练多达 24 万亿个参数的 AI 模型;其打造的集群规模高达 2048 个 CS-3 系统。值得一提的是,当 Cerebras 提到内存时,他们谈论的更多是 SRAM,而不是片外 HBM3E 或 DDR5。内存与核心一起分布,目的是使数据和计算尽可能接近。为了展示这颗新芯片的规模,Cerebras 还将其与英伟达的H100进行了对比。除了将这款巨型芯片推向市场之外,Cerebras 取得成功的原因之一是它所做的事情与 NVIDIA 不同。NVIDIA、AMD、英特尔等公司采用大型台积电晶圆并将其切成更小的部分来制造芯片,而 Cerebras 将晶圆保留在一起。在当今的集群中,可能有数以万计的 GPU 或 AI 加速器来处理一个问题,将芯片数量减少 50 倍以上可以降低互连和网络成本以及功耗。在具有 Infiniband、以太网、PCIe 和 NVLink 交换机的 NVIDIA GPU 集群中,大量的电力和成本花费在重新链接芯片上。Cerebras 通过将整个芯片保持在一起来解决这个问题。凭借 WSE-3,Cerebras 可以继续生产世界上最大的单芯片。它呈正方形,边长为 21.5 厘米,几乎使用整个 300 毫米硅片来制造一个芯片。你可以在WSE芯片的相继推出中看到摩尔定律的作用。第一个于 2019 年首次亮相,采用台积电的 16 纳米技术制造。对于 2021 年推出的 WSE-2,Cerebras 转而采用台积电的 7 纳米工艺。WSE-3 采用这家代工巨头的 5 纳米技术制造。自第一个巨型芯片问世以来,晶体管的数量增加了两倍多。与此同时,它们的用途也发生了变化。例如,芯片上的人工智能核心数量已显着趋于平稳,内存量和内部带宽也是如此。尽管如此,每秒浮点运算(flops)方面的性能改进已经超过了所有其他指标。需要注意的一点是,Cerebras 使用片上内存,而不是 NVIDIA 的封装内存,因此我们不会以 H100 上的 80GB HBM3 为例。最新的 Cerebras 软件框架为PyTorch 2.0 和最新的 AI 模型和技术(如多模态模型、视觉转换器、专家混合和扩散)提供原生支持。Cerebras 仍然是唯一为动态和非结构化稀疏性提供本机硬件加速的平台,将训练速度提高了8 倍。您可能已经看到 Cerebras 表示其平台比 NVIDIA 的平台更易于使用。造成这种情况的一个重要原因是 Cerebras 存储权重和激活的方式,并且它不必扩展到系统中的多个 GPU,然后扩展到集群中的多个 GPU 服务器。除了代码更改很容易之外,Cerebras 表示它的训练速度比 Meta GPU 集群更快。当然,目前这似乎是理论上的 Cerebras CS-3 集群,因为我们没有听说有任何 2048 个 CS-3 集群启动并运行,而 Meta 已经有了 AI GPU 集群。总体而言,这里发生了很多事情,但我们知道的一件事是,如今越来越多的人使用基于 NVIDIA 的集群。Cerebras Systems进一步指出,由于每个组件都针对 AI 工作进行了优化,CS-3 比任何其他系统都能以更小的空间和更低的功耗提供更高的计算性能。虽然 GPU 功耗逐代翻倍,但 CS-3 的性能翻倍,功耗却保持不变。CS-3具有卓越的易用性,与适用于大模型的GPU 相比, CS-3需要的代码减少 97% ,并且能够在纯数据并行模式下训练从 1B 到24T 参数的模型。GPT -3大小的模型的标准实现在 Cerebras 上只需要 565 行代码这同样也是行业记录。一个庞大的系统,冷却超乎想象Cerebras CS-3 是第三代 Wafer Scale 系统。其顶部具有 MTP/MPO 光纤连接,以及用于冷却的电源、风扇和冗余泵。Cerebras Systems在新闻稿中指出,如上所述,CS-3拥有高达 1.2 PB的巨大内存系统,旨在训练比 GPT-4 和 Gemini 大 10 倍的下一代前沿模型。24 万亿参数模型可以存储在单个逻辑内存空间中,无需分区或重构,从而极大地简化了训练工作流程并提高了开发人员的工作效率。在 CS-3 上训练一万亿参数模型就像在 GPU 上训练十亿参数模型一样简单。CS-3专为满足企业和超大规模需求而打造。紧凑的四系统配置可以在一天内微调 70B 模型,而使用 2048 个系统进行全面调整,Llama 70B 可以在一天内从头开始训练这对于生成 AI 来说是前所未有的壮举。Cerebras 需要为巨型芯片提供电力、数据和冷却,同时还要管理相对较大区域的热膨胀等问题。这是该公司的另一项重大工程胜利。芯片内部采用液体冷却,热量可以通过风扇或设施水排出。该系统及其新芯片在相同的功耗和价格下实现了大约 2 倍的性能飞跃。从第一代的 16 纳米到如今的 5 纳米,Cerebras 从每个工艺步骤中都获得了巨大的优势。与具有八个 NVIDIA H100 GPU 以及内部 NVSwitch 和 PCIe 交换机的 NVIDIA DGX H100 系统相比,它只是一个更大的构建块。这是带有 Supermicro 1U 服务器的 CS-3。这是另一个使用 Supermciro 1U 服务器拍摄的 Cerebras 集群。Cerebras 通常使用 AMD EPYC 来获得更高的核心数量,这可能是因为 Cerebras 团队的很多成员来自被 AMD 收购的 SeaMicro。我们在这次迭代中注意到的一点是,Cerebras 也有 HPE 服务器的解决方案。这有点奇怪,因为一般来说,Supermicro BigTwin 比 HPE 的 2U 4 节点产品领先一步。看待 Cerebras CS-2/CS-3 的一种方式是,它们是巨大的计算机器,但许多数据预处理、集群级任务等都发生在传统的 x86 计算上,以提供优化的人工智能芯片。由于这是一个液冷数据中心,因此风冷 HPE 服务器配备了来自 Legrand 子品牌 ColdLogik 的后门热交换器设置。这是 Cerebras 如何利用液冷设施的一个很好的例子,但它不必为每个服务器节点配备冷板。这一代的一大特点是更大的集群,多达 2048 个 CS-3,可实现高达 256 exaFLOPs 的 AI 计算。12PB 内存是一款高端超大规模 SKU,专为快速训练 GPT-5 尺寸模型而设计。Cerebras 还可以缩小到类似于单个 CS-2 的规模,并支持服务器和网络。部分内存不仅是片上内存(44GB),还包括支持服务器中的内存。因此,Cerebras 集群可以训练比以前更大的模型。关于整个系统,在SC22的时候,该公司就曾基于 Cerebras CS-2 的系统展示了看起来像一堆金属的东西,其中有一些印刷电路板伸出来。该公司称其为发动机组(Engine Block)。在 Cerebras 看来,这是一项巨大的工程壮举。弄清楚如何封装、供电和冷却大型芯片是一个关键的工程挑战。让代工厂制造特殊的晶圆是一回事,让晶圆开机、不过热并做有用的工作是另一回事。这是另一边的样子。当我们谈论由于密度而必须转向液体冷却的服务器时,我们谈论的是 2kW/U 服务器或可能具有 8x800W 或 8x1kW 部件的加速器托盘。对于 WSE/WSE-2,所有电力和冷却都需要传输到单个大晶圆上,这意味着即使是不同材料的热膨胀率等因素也很重要。另一个含义是,实际上该组件上的所有部件都采用液冷方式。最上面一排木板非常密集。展位上的 Cerebras 代表告诉我,这些是电源,这是有道理的,因为我们看到它们的连接器密度相对较低。Cerebras Condor Galaxy 的更新在去年七月,Cerebras 宣布其 CS-2 系统取得重大胜利。它拥有一台价值 1 亿美元的人工智能超级计算机,正在与阿布扎比的 G42 一起使用。这里的关键是,这不仅仅是一个 IT 合作伙伴,也是一个客户。当前的第一阶段有 32 个 CS-2 和超过 550 个 AMD EPYC 7003“Milan”CPU(注:Cerebras 首席执行官 Andrew... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

64核心轻松拿捏:兆芯开胜x86 CPU服务器集中展示

64核心轻松拿捏:兆芯开胜x86 CPU服务器集中展示 开胜KH-40000系列服务器处理器具备高核心性能、高集成度、高效扩展、丰富IO等特点,支持安全启动技术、国密算法、国标可信计算,兼容主流服务器操作系统。兆芯开胜已经与国内主流数据库、中间件、云平台、开发平台、数据信息安全应用,以及AI算力卡、DPU等软硬件产品完成了适配,可有力支撑云计算、大数据、高性能存储、超融合等应用的融合创新。64核通用服务器系列联想开天KR722z G2搭载双路开胜KH-40000/32处理器,支持12个前置3.5寸或者24个2.5寸热插拔硬盘,以及4个后置热插拔硬盘,内存容量最高可支持2TB,同时整机采用冗余的散热功能和可选的电源功能设计。联和东海XRS 302载双路开胜KH-40000/32处理器,提供32个内存槽位,最大支持2TB,提供多种规格PCIe接口,可支持GPU算力卡等硬件扩展。适用于OA/邮件服务、数据库服务、存储服务、云平台计算节点,AI算力服务、推理服务等应用场景。雷神博睿FX2-Z1UC12U双路机架式服务器,支持主流服务器操作系统,适配国产数据库、中间件、应用软件及硬件,具备绿色节能、易于管理、生态成熟完善、应用平台迁移便利、性价比高等特点。超云R3210 Z11服务器2U双路机架式服务器,支持前置12个3.5英寸热插拔硬盘、后置2个2.5 英寸热插拔硬盘,最高可配置32个内存条、6个PCle插槽,具备高可扩展性。支持模块化管理远程管理、具有易用、易管理等特性,适用于分布式存储、数据库、虚拟化和云计算等场景。升腾CF9200支持12个前置3.5寸、2个后置2.5寸热插拔SATA硬盘,以及2个内置M.2硬盘,并最高支持2个PCIe x16、4个PCIe x8扩展插槽。提供远程虚拟介质,支持紧急软件诊断、升级补丁等功能,算力强大的同时,可保障业务连续稳定运行。32核通用服务器系列黄河Huanghe 2250 V4均衡型2U机架式服务器,具有高性能、高扩展、高可靠、易于管理、绿色节能等特点。最多支持16条DDR4内存,支持16块3.5寸硬盘及6块NVMe硬盘,提供8个PCIe 3.0扩展槽位。具备软硬件结合的高可靠设计、智能BMC模块监控管理功能,主要面向互联网、云计算、大数据等领域。联和东海XRS 3022U 12盘16核,经典的商用通用服务器,搭载2颗兆芯开胜KH-40000/16处理器。响应快速、性能强劲、功耗低、可灵活拓展存储容量和对外接口,普遍适用于构建OA应用服务、数据库服务、存储服务、云平台计算节点等业务场景。雷神博睿FX2-Z1UA12U双路机架式服务器,支持DDR4-3200 RDIMM内存,最高容量1TB,性能强劲,稳定高效,性价比突出。广泛支持各类服务器操作系统,适配各类国产数据库、中间件、应用软件,兼容各类软硬件,生态成熟,易于管理,应用迁移便利高效。 ... PC版: 手机版:

封面图片

联想Tech World发大招:小天个人智能体亮相 多款AI PC发布

联想Tech World发大招:小天个人智能体亮相 多款AI PC发布 本次发布的AI PC产品包括联想YOGA Book 9i AI元启、YOGA Pro 16s AI元启、YOGA Air 14 AI元启和小新Pro 16 AI元启,售价从5999元起。它们具备了AI PC产品的五大特征,即内嵌个人大模型与用户自然交互的智能体,具有个人知识库,拥有本地异构AI算力(CPU/GPU/NPU),开放的人工智能应用生态,以及个人数据和隐私安全保护。搭载了个人智能体联想小天的AI PC,能为用户提供主动服务,像助理,像伙伴,全天候陪伴,把PC变成用户的CP,内置了联想小天个人智能体的AI PC将以新物种的身份,开辟更多全新的智能场景应用。该笔记本配有两块13.3英寸OLED屏,支持双屏形态、瀑布形态、双面形态、竖屏形态等,满足更多场景下需求。全新的YOGA Book 9i AI元启瀑布形态玩法升级,横屏模式也能开启,立享全新跨屏体验。YOGA Book 9i AI元启的屏幕分辨率高达2880x1800,亮度为400尼特,100% DCI-P3 广色域,显示细腻生动。而且采用16:10长宽比,办公时可显示更多内容,全新user center,双屏软件更新,更多键盘自定义皮肤供你选择。YOGA Book 9i AI元启还升级到了酷睿Ultra 7 155U处理器,搭配32GB LDRR5x 7467MT/s超高频内存,配备1TB PCIe 4.0超大高速固态硬盘,轻松满足日常办公娱乐需求。YOGA Pro 16s AI元启则以性能著称,其搭配酷睿Ultra 9 185H处理器以及RTX 4060独显,100w高性能释放,再搭配16英寸专业超感屏,分辨率3200x2000,刷新率165Hz,最高亮度400尼特,支持100% Adobe RGB色域。后续还将结合更多场景应用,AI自动生成个性化内容。除此以外还有主打轻薄高颜值的YOGA Air 14 AI元启,采用了PureBright珍宝工艺,厚度只有14.9mm,重量仅1.4kg,非常方便易携带。其性能也不俗,搭载最新的英特尔酷睿 Ultra 7 处理器,配备32GB大内存/1TB固态硬盘,还采用了120Hz高刷新率的超感OLED屏。除了YOGA系列以外,这一次小新AI PC产品同步亮相。联想小新Pro 16搭载锐龙7系列处理器,32GB内存,1TB SSD,2.5k的16英寸屏幕,同样预装了联想小天个人智能体,定位于入门款AI PC产品。首批联想YOGA AIPC 2024全家族新品已经上线,YOGA Book 9i AI元启官方售价17999元,YOGA Pro 16s AI元启官方售价13999元,YOGA Air 14 AI元启官方售价8499元,联想小新Pro16 AI元启仅需5999元,现在预约5月20日正式开售! ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人