国家数据局:中国 10 亿参数规模以上大模型数量已超 100 个

国家数据局:中国10亿参数规模以上大模型数量已超100个中国发展高层论坛2024年年会昨天(3月25日)落下帷幕。国家数据局局长刘烈宏昨天(25日)表示,生成式人工智能的快速发展对算力提出了更高、更迫切的需求,全国一体化算力体系建设的必要性愈益突出。中国10亿参数规模以上的大模型数量已超100个,行业大模型深度赋能电子信息、医疗、交通等领域,形成上百种应用模式,赋能千行百业。(央视新闻)

相关推荐

封面图片

中国发展高层论坛2024年年会昨天(3月25日)落下帷幕。国家数据局局长刘烈宏昨天(25日)表示,生成式人工智能的快速发展对算力

中国发展高层论坛2024年年会昨天(3月25日)落下帷幕。国家数据局局长刘烈宏昨天(25日)表示,生成式人工智能的快速发展对算力提出了更高、更迫切的需求,全国一体化算力体系建设的必要性愈益突出。目前,国家正在加快构建联网调度、普惠易用、绿色安全的全国一体化算力体系。刘烈宏表示,我国数据生产量和存储量快速增长,为智慧城市建设运行、工业互联网利用等数智化应用提供了丰富的“原料”。以人工智能为例,中国10亿参数规模以上的大模型数量已超100个,行业大模型深度赋能电子信息、医疗、交通等领域,形成上百种应用模式,赋能千行百业。(央视新闻)

封面图片

北京:规划建设支撑万亿级参数大模型训练需求的超大规模智算集群

北京:规划建设支撑万亿级参数大模型训练需求的超大规模智算集群北京市经济和信息化局和北京市通信管理局联合发布《北京市算力基础设施建设实施方案(2024—2027年)》。其中提到,按照全国一体化算力网络国家枢纽节点布局,构建京津冀蒙算力一体化协同发展格局,打造内蒙古(和林格尔、乌兰察布)-河北(张家口、廊坊)-北京-天津(武清)为主轴的京津冀蒙算力供给走廊,支持本市企业在以上地区建设算力基础设施,规划建设支撑万亿级参数大模型训练需求的超大规模智算集群,逐步形成梯度分布、布局合理、功能完善的区域协同算力供给体系。

封面图片

摩尔线程千卡GPU集群完成700亿参数大模型训练

摩尔线程千卡GPU集群完成700亿参数大模型训练访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器这充分验证了夸娥智算集群作为国产全功能GPU千卡千亿大模型预训练平台,在稳定性、高效能、易用性和高算力利用率的先进性。这也是憨猴集团首次使用国产AI算力完成大模型训练测试,后续可为其服务的国有企业与运营商等关键领域,提供更加坚实可靠的国产AI训练平台,以及成本效益更优的国产算力解决方案。同时,摩尔线程与憨猴集团签署了战略合作协议。双方将聚焦AI大模型和算力领域,通过摩尔线程夸娥千卡智算集群与憨猴集团AI智算产品及数字化解决方案的深度融合,共同探索国产AI算力的新应用场景与落地实践,加速数智化产业的全面升级。在此之前,摩尔线程已成为第一家接入无问芯穹,并成功完成千卡级别大模型训练的国产GPU公司,夸娥千卡集群与无穹Infini-AI顺利完成了系统级融合适配,并完成了LLama2700亿参数大模型的训练测试。“夸娥”集群基于双路八卡GPU服务器MCCXD800,每个节点有八块MTTS4000GPU加速卡、两颗Intel第四代至强处理器、16x64GB内存、4x3.84TBNVMeSSD,以及双路400GbIB、四路25Gb以太网网络,一体化交付解决大规模GPU算力的建设和运营管理问题。夸娥氏是我国神话传说中的大力神,出自《愚公移山》:“帝感其诚,命夸娥氏二子负二山,一厝朔东,一厝雍南。自此,冀之南,汉之阴,无陇断焉。”...PC版:https://www.cnbeta.com.tw/articles/soft/1431309.htm手机版:https://m.cnbeta.com.tw/view/1431309.htm

封面图片

中国电信发布单体稠密万亿参数语义模型 用了普通训练方案 9% 的算力资源

中国电信发布单体稠密万亿参数语义模型用了普通训练方案9%的算力资源6月19日,记者从中国电信处获悉,近日,中国电信人工智能研究院(TeleAI)联合北京智源人工智能研究院发布了全球首个单体稠密万亿参数语义模型Tele-FLM-1T,成为国内首批发布稠密万亿参数大模型的机构。记者了解到,针对大模型训练算力消耗高的问题,TeleAI与智源基于模型生长和损失预测等关键技术联合研发出的Tele-FLM系列模型,仅使用了业界普通训练方案9%的算力资源,基于112台A800服务器,用时4个月完成了3个模型总计2.3Ttokens的训练。(每经)

封面图片

阶跃星辰发布 Step-2 万亿参数 MoE 语言大模型预览版

阶跃星辰发布Step-2万亿参数MoE语言大模型预览版在今日上海开幕的2024全球开发者先锋大会上,通用大模型创业公司阶跃星辰正式对外亮相。阶跃星辰研发的Step-1V千亿参数多模态大模型,在中国权威的大型模型评估平台“司南”(OpenCompass)多模态模型评测榜单中位列第一,性能比肩GPT-4V。阶跃星辰创始人、CEO姜大昕博士在大会上正式对外发布了Step-2万亿参数MoE语言大模型预览版。模型采用MoE架构,聚焦深度智能的探索,并提供API接口给部分合作伙伴试用。据了解,参数量从千亿到万亿,对算力、系统、数据、算法四个方面都提出了极高的要求,业内只有极少数公司能做到。训练万亿参数模型体现了阶跃星辰的核心技术能力,也表明阶跃星辰在通用人工智能领域追赶OpenAI的实力和决心。

封面图片

Mistral AI发布了新的开源模型Mixtral 8x22B。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模

MistralAI发布了新的开源模型。该模型以39B活跃参数实现141B参数规模,极大提升了模型规模与成本效率。Mixtral8x22B支持英语、法语、意大利语、德语和西班牙语,并具有强大的数学和编程能力。其支持函数调用,可大规模实现应用开发和技术栈现代化。MistralAI坚信开源的力量,Mixtral8x22B以最宽松的Apache2.0许可证发布。MistralAIModels追求卓越的成本效率。Mixtral8x22B相较同规模模型,提供最佳的性能价格比。其稀疏激活可提升速度。Mixtral8x22B在推理、知识、多语言、编程、数学等多个基准测试上,表现优于其他开源模型。后续会发布指导版本,数学表现更佳。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人