味精大王莲花控股转型算力业务 320台GPU服务器已到货 价值7800万

味精大王莲花控股转型算力业务 320台GPU服务器已到货 价值7800万 目前,公司已支付全部货款7800万元,320台GPU服务器已全部到货并验收完毕。在算力服务器及相关设备采购方面,2023年9月杭州莲花科技创新有限公司(简称“莲花科创”)与新华三信息技术有限公司(简称“新华三信息”)签订330台GPU系列服务器采购合同,合同金额为6.93亿元。除2023年11月,新华三信息已向公司交付12台GPU系列服务器之外,截至目前,剩余318台GPU系列服务器尚未交付,交付期限存在不明确的风险。公告显示,今年5月莲花紫星与V公司和Z公司分别签订了算力租赁服务补充协议和AI算力技术服务协议。根据协议,莲花紫星将向V公司提供2台租赁服务器硬件资源,向Z公司提供5台租赁服务器硬件资源,合同金额分别为18.7万元和1656万元。目前,这些服务器已经交付并验收完毕。据了解,去年6月,莲花控股设立全资子公司莲花科创,同年9月28日,莲花控股披露拟出资近7亿元,向新华三信息采购330台英伟达H800GPU系列算力服务器(每台服务器含8张GPU)。该公告公布后,上交所发出问询函,指出新业务与主营业务具有不协同性外,原主营业务食品与调味品与算力服务器无关、不具有协同性,并且重点提及莲花健康(现莲花控股)的资金问题,要求公司作进一步披露。对此,莲花控股回应称基于算力租赁业务的发展前景和供不应求的市场状况,公司经充分调研、分析后,审慎决定布局智能算力业务。将以莲花科创为项目实施主体,积极引入行业实力战略合作伙伴,开展智能计算中心项目合作,在国内主要的算力节点,建设智算中心,高效推动算力租赁业务落地。资料显示,莲花控股股份有限公司(简称“莲花控股”或“公司”,曾用名“莲花健康产业集团股份有限公司”)创建于1983年,于1998年在上海证券交易所挂牌上市,前身为河南莲花味精股份有限公司,是一家以调味品和健康食品研发、生产和销售为主营业务的上市企业。 ... PC版: 手机版:

相关推荐

封面图片

【算力军备竞赛重启:低配版英伟达GPU国内炒至10万元】“一台通用计算服务器的成本大约在5万块钱左右,现在符合美国技术出口规范的

【算力军备竞赛重启:低配版英伟达GPU国内炒至10万元】“一台通用计算服务器的成本大约在5万块钱左右,现在符合美国技术出口规范的A800一块价格已经涨到10万块钱,对于投入算力基础设施的公司来说,整个采购成本都在增加。” #抽屉IT

封面图片

联想首台国产AI服务器问天WA5480 G3交付 可搭载AI算力芯片

联想首台国产AI服务器问天WA5480 G3交付 可搭载国产AI算力芯片 据了解,问天WA5480 G3 AI训推一体服务器可灵活应用于AI通用模型训练,大模型推理、AI生成、云游戏、科学计算等多种应用场景。问天WA5480 G3采用2颗第四代英特尔至强可扩展处理器,支持最新PCIE5.0。通过PCIE扩展,最多可以支持10张包括最新NVIDIA H800 GPU在内的,多类型、多品牌AI加速卡。同时,提供包括直通、Balance、Common多种CPU-GPU互联方式,避免了因为CPU-GPU数据通信方式单一与工作负载不匹配,带来的潜在性能瓶颈和系统效率下降。可靠性上,问天WA5480 G3支持电源N+N冗余,节点内电源间互为备份,对外可以连接双路市电,保障服务器24小时在线运行。 ... PC版: 手机版:

封面图片

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元

NVIDIA Blackwell GPU预计售价3.5万美元 AI服务器售价高达300万美元 NVIDIA 的 Blackwell 产品包括 GPU、超级芯片平台和服务器,是每一家热衷于人工智能的大型科技公司所梦寐以求的。来自汇丰银行的分析师披露了即将推出的组件的预期定价,英伟达的 Blackwell AI 服务器机架这次的价格不菲,将超过 300 万美元大关,B100 GPU 等 AI 加速器单卖的标价也很高。这一消息来自《巴伦周刊》(Barron's)的资深撰稿人@firstadopter引用了汇丰银行(HSBC)对英伟达(NVIDIA)Blackwell产品的分析。从人工智能服务器开始,英伟达 GB200 NVL36 服务器机架的单台售价预计为 180 万美元,而更高级的 NVL72 对应产品的售价则高达 300 万美元。我们在之前的报道中也透露了这一具体数额,因此实际数字可能不会太远。关于单卖的人工智能加速卡,汇丰银行表示,单个 B100 人工智能 GPU 的售价预计约为 3 万至 3.5 万美元,而GB200 超级芯片的单价约为 6 万至 7 万美元。这些超级芯片包含两个 GB100 GPU 和一个 Grace Hopper 芯片,以及一个大型系统内存池(HBM3E)。这些估价也与詹森本人透露的价格基本一致。分析师的估算可能没有考虑实时市场情况、采购量和许多其他因素。因此,根据买家类型和订单的严重程度,实际数字可能会更低甚至更高。现在,如果我们从代际上进行比较,Blackwell 价格肯定要比 Hopper 高。如果 Blackwell AI GPU 架构能够复制 Hopper GPU 的成功应用,那么英伟达的市场份额和主导地位又将会有质的飞跃。谁知道呢,也许它将超越苹果和微软等公司,成为全球最有价值的公司之一。到目前为止,我们已经看到Meta 等公司下达了 Blackwell 订单,微软和 OpenAI 也在其中,而这仅仅是首批订单。NVIDIA公司首席执行官黄仁勋(Jensen Huang)早早识别出人工智能热潮的大手笔确实收到了成效。 ... PC版: 手机版:

封面图片

摩尔线程千卡GPU集群完成700亿参数大模型训练

摩尔线程千卡GPU集群完成700亿参数大模型训练 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 这充分验证了夸娥智算集群作为国产全功能GPU千卡千亿大模型预训练平台,在稳定性、高效能、易用性和高算力利用率的先进性。这也是憨猴集团首次使用国产AI算力完成大模型训练测试,后续可为其服务的国有企业与运营商等关键领域,提供更加坚实可靠的国产AI训练平台,以及成本效益更优的国产算力解决方案。同时,摩尔线程与憨猴集团签署了战略合作协议。双方将聚焦AI大模型和算力领域,通过摩尔线程夸娥千卡智算集群与憨猴集团AI智算产品及数字化解决方案的深度融合,共同探索国产AI算力的新应用场景与落地实践,加速数智化产业的全面升级。在此之前,摩尔线程已成为第一家接入无问芯穹,并成功完成千卡级别大模型训练的国产GPU公司,夸娥千卡集群与无穹Infini-AI顺利完成了系统级融合适配,并完成了LLama2 700亿参数大模型的训练测试。“夸娥”集群基于双路八卡GPU服务器MCCX D800,每个节点有八块MTT S4000 GPU加速卡、两颗Intel第四代至强处理器、16 x 64GB内存、4 x 3.84TB NVMe SSD,以及双路400Gb IB、四路25Gb以太网网络,一体化交付解决大规模GPU算力的建设和运营管理问题。夸娥氏是我国神话传说中的大力神,出自《愚公移山》:“帝感其诚,命夸娥氏二子负二山,一厝朔东,一厝雍南。自此,冀之南,汉之阴,无陇断焉。” ... PC版: 手机版:

封面图片

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25%

超微获得NVIDIA Blackwell AI服务器巨额订单 占总供应量的25% 在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统包含 10 个 GPU 的 5U/4U PCIe GPU 系统SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU2U Hyper 最多可配备 3 个 B100 GPU配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。超微最畅销的人工智能训练系统配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。 ... PC版: 手机版:

封面图片

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单

广达收到来自谷歌、亚马逊和Meta的NVIDIA GB200 AI GPU的大额订单 广达是服务器市场上的大名鼎鼎的公司,这家台湾公司在为全球多家科技巨头提供人工智能服务器方面走在了前列。去年,该公司对其基于NVIDIA Hopper 的人工智能服务器产生了巨大的兴趣,现在,随着新的 Blackwell GB200 人工智能平台的发布,似乎巨大的需求正在向该公司涌来,而这一次,广达将获得更大的利润,因为基于 Blackwell 的服务器预计将变得更加昂贵,利润率肯定会更高。据台湾《经济日报》报道,广达已收到来自Google、亚马逊AWS和Meta等公司的大量英伟达Blackwell GB200人工智能服务器订单。据悉,Blackwell AI产品将于7月或8月进入测试阶段,预计9月左右量产,由此可以预计首批产品将于2024年底或2025年初上市。此外,据说英伟达单台 GB200 AI 服务器的生产成本约为 200 万至 300 万美元/台,这是一个惊人的数字,有可能为整个行业的服务器收入做出巨大贡献。广达并不满足于服务器产品组合的进步,因为除了采用NVIDIA Blackwell GB200 AI 阵容之外,广达还计划在其 AI 服务器中集成各种新技术,其中之一就是液冷能力,因为正如英伟达首席执行官黄仁勋(Jensen Huang)本人强调的那样,NVIDIA新芯片的功耗数字已经突破了天花板,因此有必要摒弃传统的冷却系统。因此,我们可以期待英伟达的 Blackwell AI GPU 和服务器在明年的某个时候面世,届时我们就能清楚地看到该产品线为市场带来了什么。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人