摩尔线程千卡GPU集群完成700亿参数大模型训练

摩尔线程千卡GPU集群完成700亿参数大模型训练访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器这充分验证了夸娥智算集群作为国产全功能GPU千卡千亿大模型预训练平台,在稳定性、高效能、易用性和高算力利用率的先进性。这也是憨猴集团首次使用国产AI算力完成大模型训练测试,后续可为其服务的国有企业与运营商等关键领域,提供更加坚实可靠的国产AI训练平台,以及成本效益更优的国产算力解决方案。同时,摩尔线程与憨猴集团签署了战略合作协议。双方将聚焦AI大模型和算力领域,通过摩尔线程夸娥千卡智算集群与憨猴集团AI智算产品及数字化解决方案的深度融合,共同探索国产AI算力的新应用场景与落地实践,加速数智化产业的全面升级。在此之前,摩尔线程已成为第一家接入无问芯穹,并成功完成千卡级别大模型训练的国产GPU公司,夸娥千卡集群与无穹Infini-AI顺利完成了系统级融合适配,并完成了LLama2700亿参数大模型的训练测试。“夸娥”集群基于双路八卡GPU服务器MCCXD800,每个节点有八块MTTS4000GPU加速卡、两颗Intel第四代至强处理器、16x64GB内存、4x3.84TBNVMeSSD,以及双路400GbIB、四路25Gb以太网网络,一体化交付解决大规模GPU算力的建设和运营管理问题。夸娥氏是我国神话传说中的大力神,出自《愚公移山》:“帝感其诚,命夸娥氏二子负二山,一厝朔东,一厝雍南。自此,冀之南,汉之阴,无陇断焉。”...PC版:https://www.cnbeta.com.tw/articles/soft/1431309.htm手机版:https://m.cnbeta.com.tw/view/1431309.htm

相关推荐

封面图片

摩尔线程国产GPU千卡集群完成30亿参数大模型实训

摩尔线程国产GPU千卡集群完成30亿参数大模型实训本次实训充分验证了夸娥千卡智算集群在大模型训练场景下的可靠性,同时也在行业内率先开启了国产大语言模型与国产GPU千卡智算集群深度合作的新范式。据悉,这次的MT-infini-3B模型训练总共用时13.2天,全程稳定无中断,集群训练稳定性达到100%,千卡训练和单机相比扩展效率超过90%。目前,实训出来的MT-infini-3B性能在同规模模型中跻身前列,相比在国际主流硬件上(尤其是NVIDIA)训练而成的其他模型,在C-Eval、MMLU、CMMLU等3个测试集上均实现性能领先。无问芯穹正在打造“M种模型”和“N种芯片”之间的“MxN”中间层产品,实现多种大模型算法在多元芯片上的高效、统一部署,已与摩尔线程达成深度战略合作。摩尔线程是第一家接入无问芯穹并进行千卡级别大模型训练的国产GPU公司,夸娥千卡集群已与无穹Infini-AI顺利完成系统级融合适配,完成LLama2700亿参数大模型的训练测试。T-infini-3B的训练,则是行业内首次实现基于国产GPU芯片从0到1的端到端大模型实训案例。就在日前,基于摩尔线程的夸娥千卡集群,憨猴集团也成功完成了7B、34B、70B不同参数量级的大模型分布式训练,双方还达成战略合作。经双方共同严苛测试,兼容适配程度高,训练效率达到预期,精度符合要求,整个训练过程持续稳定。...PC版:https://www.cnbeta.com.tw/articles/soft/1432478.htm手机版:https://m.cnbeta.com.tw/view/1432478.htm

封面图片

摩尔线程MTT S4000组成千卡集群“夸娥” 可训练千亿参数大模型

摩尔线程MTTS4000组成千卡集群“夸娥”可训练千亿参数大模型目前,无穹Infini-AI已经支持百川Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen、Qwen1.5等系列模型共20多个模型。摩尔线程是第一家接入无问芯穹并成功完成千卡级别大模型训练的国产GPU公司,“夸娥”(KUAE)集群已经与无穹Infini-AI顺利完成了系统级融合适配,并完成了LLama2700亿参数大模型的训练测试。“夸娥”集群基于双路八卡GPU服务器MCCXD800,每个节点有八块MTTS4000GPU加速卡、两颗Intel第四代至强处理器、16x64GB内存、4×3.84TBNVMeSSD,以及双路400GbIB、四路25Gb以太网网络,一体化交付解决大规模GPU算力的建设和运营管理问题。夸娥氏是我国神话传说中的大力神,出自《愚公移山》:“帝感其诚,命夸娥氏二子负二山,一厝朔东,一厝雍南。自此,冀之南,汉之阴,无陇断焉。”摩尔线程联合创始人兼执行总裁王东表示,基于先进的MUSA架构,摩尔线程已建立了从芯片、板卡、集群到软件的全栈AI产品线。摩尔线程夸娥智算集群是以全功能GPU为底座、软硬一体化的全栈解决方案,拥有高兼容性、高稳定性、高扩展性等综合优势,可作为大模型训练坚实可靠的先进基础设施。...PC版:https://www.cnbeta.com.tw/articles/soft/1425776.htm手机版:https://m.cnbeta.com.tw/view/1425776.htm

封面图片

摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程KUAE智算中心正式揭牌,这也是国内首个以全功能GPU为底座的大规模算力集

摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程KUAE智算中心正式揭牌,这也是国内首个以国产全功能GPU为底座的大规模算力集群正式落地。据介绍,此次发布的摩尔线程KUAE千卡模型训练平台,支持千亿参数模型的预训练、微调和推理。以2000亿训练数据量为例,智源研究院700亿参数Aquila2可在33天完成训练;1300亿参数规模的模型可在56天完成训练。(澎湃)

封面图片

NVIDIA封杀转译兼容CUDA 摩尔线程官方:MUSA、MUSIFY不受影响

NVIDIA封杀转译兼容CUDA摩尔线程官方:MUSA、MUSIFY不受影响3月5日晚间,摩尔线程发表官方声明回应称,旗下的MUSA、MUSIFY技术均未受影响!摩尔线程强调,MUSA、MUSIFY不涉及NVIDIAEULA相关条款,开发者可放心使用。据介绍,MUSA是摩尔线程自主研发、拥有全部知识产权、软硬一体的全功能GPU先进计算统一系统架构,与CUDA无任何依赖关系。MUSIFY是摩尔线程面向MUSA开发者提供的开发工具,方便在MUSA计算平台上进行应用移植与开发。它可以让开发者将自己的C++源代码,转换成MUSAC++源代码,再通过MUSA编译器MCC编译生成基于MUSA指令集的二进制代码,最终运行在摩尔线程的全功能GPU上。摩尔线程还向开发者提供MUSASDK,这是摩尔线程GPU并行计算开发SDK的集合,包含了MUSAToolkits(内置运行时/编译器/GPU加速计算库/迁移/优化工具)及计算库、神经网络加速库、通信库等一系列开发工具,可让开发者快速开发出针对摩尔线程GPU优化的并行计算应用。摩尔线程强调,将充分发挥从芯片到显卡到集群的智算产品优势,继续打磨MUSA,持续为大模型训练与推理提供高性能算力支撑。...PC版:https://www.cnbeta.com.tw/articles/soft/1422488.htm手机版:https://m.cnbeta.com.tw/view/1422488.htm

封面图片

摩尔线程发布48G显存计算卡

摩尔线程发布48G显存计算卡摩尔线程发布了新款大模型智算加速卡产品:「MTTS4000」。根据介绍,「MTTS4000」采用第三代MUSA内核,单卡配备带宽达768GB/s的48GB显存,并支持通过其MTLink1.0技术实现多卡互联。对于开发者而言,「MTTS4000」可利用现有的CUDA生态,零成本将CUDA代码迁移到MUSA平台。标签:#摩尔线程#显卡频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

【华为推出全新架构升腾AI计算集群 可支持超万亿参数大模型训练】

【华为推出全新架构升腾AI计算集群可支持超万亿参数大模型训练】在华为全联接大会2023期间,华为常务董事、ICT基础设施业务管理委员会主任、企业BG总裁汪涛正式发布全新架构的升腾AI计算集群——Atlas900SuperCluster,可支持超万亿参数的大模型训练。此外,华为还升级了AscendC编程语言,以更高效的编程方式,简化算子实现逻辑,大幅缩短融合算子的开发周期,为AI模型与应用的快速开发赋能。(#上证报)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人