None
中国电信发布单体稠密万亿参数语义模型用了普通训练方案9%的算力资源6月19日,记者从中国电信处获悉,近日,中国电信人工智能研究院(TeleAI)联合北京智源人工智能研究院发布了全球首个单体稠密万亿参数语义模型Tele-FLM-1T,成为国内首批发布稠密万亿参数大模型的机构。记者了解到,针对大模型训练算力消耗高的问题,TeleAI与智源基于模型生长和损失预测等关键技术联合研发出的Tele-FLM系列模型,仅使用了业界普通训练方案9%的算力资源,基于112台A800服务器,用时4个月完成了3个模型总计2.3Ttokens的训练。(每经)
中国电信智算规模达到13EFLOPS中国电信总经理邵广禄17日在2024世界电信和信息社会日大会上介绍,中国电信重点规划“2+3+7+N+M”的智算布局,智算规模达到13EFLOPS(每秒一百京(=10^18)次的浮点运算)。目前,已在上海已建成单集群的万卡智算资源池。在智算云能力方面,现已初步具备云骁、慧聚和息壤的三大能力平台,实现了智算算力的统一纳管、一站提供和异构调度的能力,智算云能力初步成型。在前一日,中国电信发布了中国电信AI+产品升级计划和中国电信AI品牌标识,并推出面向个人、家庭、行业客户的首批AI+产品。
北京:规划建设支撑万亿级参数大模型训练需求的超大规模智算集群北京市经济和信息化局和北京市通信管理局联合发布《北京市算力基础设施建设实施方案(2024—2027年)》。其中提到,按照全国一体化算力网络国家枢纽节点布局,构建京津冀蒙算力一体化协同发展格局,打造内蒙古(和林格尔、乌兰察布)-河北(张家口、廊坊)-北京-天津(武清)为主轴的京津冀蒙算力供给走廊,支持本市企业在以上地区建设算力基础设施,规划建设支撑万亿级参数大模型训练需求的超大规模智算集群,逐步形成梯度分布、布局合理、功能完善的区域协同算力供给体系。
🔍 发送关键词来寻找群组、频道或视频。