中国气象局发布三个人工智能气象大模型系统:风清、风雷、风顺

中国气象局发布三个人工智能气象大模型系统:风清、风雷、风顺 综合国内气象大模型发展并对标国际前沿进展,中国气象局联合清华大学组建攻关团队,在大模型预报核心技术、预报精准程度上寻求突破,构建了“风清”大模型。该模型具有大气强物理融入和可解释性,在实现高效计算的同时,可为预测结果提供物理可解释性依据,自动挖掘包括天气系统内在的物理演变。该模型的训练过程紧密结合物理守恒特性,可有效提升长时效预报结果的活跃度。该模型采用可扩展的多时效优化策略,可综合考虑未来多天预报的效果,有效延长预报时效,不断提升短中期预报效果。检验结果表明,该模型全球可用预报天数达到10.5天,超过欧美主流气象预报大模型,尤其是在较长预报时效,具有更为明显的优势。聚焦临近预报中的核心难题,中国气象局与清华大学联合攻关团队构建“风雷”大模型。该模型将数据驱动与物理驱动两大科学范式紧密结合,显著提高了公里尺度下0至3小时雷达回波的预报能力,并实现深度学习与物理规律的无缝隙融合。同时,“风雷”大模型将物理模型的中尺度预报和人工智能的对流尺度预报有机融合,在预报准确性和细节丰富性上实现突破。同时,构建了一套“数据算力平台”全流程短临预报系统,能够在3分钟内生成0至3小时逐6分钟的雷达回波外推产品,实现强回波预报技巧提升25%。面向15天以上更大不确定性的气候预测难题,中国气象局联合复旦大学和上海科学智能研究院基于人工智能方法构建了“风顺”大模型。“风顺”大模型创新地引入基于流依赖的集合扰动智能生成技术,从而更加合理地抓住了未来气候系统演变的不确定性,同时“风顺”还纳入了海气相互作用关键过程,进而提升了对热带大气季节内振荡MJO的预测技巧。该系统在中国气象局智算平台上完成了业务部署,逐日滚动开展100个集合成员的大样本预测,形成了面向未来60天全球基本要素和极端事件的确定性和概率预报测试产品,对全球降水的预测技巧展示出一定的优势。值得一提的是,“风清”“风雷”“风顺”三个大模型,完成了基于国产全球大气再分析资料CRA-40、雷达观测资料、风云卫星遥感资料的训练和检验评估,有效降低了目前主流气象预报大模型对国际再分析资料的依赖度。据悉,5月24日,中国气象局在第七届数字中国建设峰会·数字气象分论坛上发布了人工智能天气预报大模型示范计划,调动和激励社会各界力量,共同打造人工智能技术研发和气象应用的创新生态。同时发布了第五批气象数据开放共享目录,旨在支撑各行业开展人工智能大模型的训练评估。 ... PC版: 手机版:

相关推荐

封面图片

地球物理暨气象局于10月5至7日服务安排

地球物理暨气象局于10月5至7日服务安排 #地球物理暨气象局 地球物理暨气象局为配合特区政府最新的防疫措施,将在本月5日至7日仅维持气象及空气质量等监测、预报和预警服务。 气象局网站()、手机应用程式及语音热线1311将继续提供各类气象、空气质量及地球物理的服务讯息。天气咨询可致电 28850530。 ...

封面图片

中国已备案近120款人工智能大模型

中国已备案近120款人工智能大模型 4月12日,中国国家互联网信息办公室副主任王嵩在2024数字经济峰会致辞表示,截至2024年3月底,中国内地已备案上线近120款大模型,深层次人工智能技术正在赋能千行百业显示,完成生成式人工智能服务备案的大模型包括中国移动九天、百度文心一言、阿里巴巴通义千问、华为云盘古、腾讯混元助手、OPPO安第斯、vivo蓝心等。

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

人工智能公司正在转向“小型”语言模型以获利

人工智能公司正在转向“小型”语言模型以获利 投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta 和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。 通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的 OpenAI 的最新模型 GPT-4o 和谷歌的 Gemini 1.5 Pro,据估计都拥有超过1万亿个参数。而 Meta 正在训练其开源 Llama 模型的4000亿参数版本。 除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像 Meta 和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。

封面图片

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平

Meta人工智能主管杨立昆:大型语言模型不会达到人类智能水平 Meta 的人工智能主管表示,为 ChatGPT 等生成式人工智能产品提供动力的大型语言模型永远无法实现像人类一样的推理和计划能力,他专注于一种激进的替代方法,即在机器中创造“超级智能”。该公司首席人工智能科学家杨立昆表示,LLM“对逻辑的理解非常有限……不理解物理世界,没有持久的记忆,不能按照任何合理的定义进行推理,也不能进行层次化的规划”。杨立昆说,LLMs的这种进化是肤浅和有限的,只有当人类工程师介入并根据这些信息进行训练时,模型才会学习,而不是像人类那样自然地得出结论。“在大多数人看来,这当然是推理,但主要是利用从大量训练数据中积累的知识。(LLM)尽管有局限性,但非常有用。” ( )

封面图片

OpenAI 表示已开始训练新的旗舰人工智能模型

OpenAI 表示已开始训练新的旗舰人工智能模型 OpenAI 周二表示,它已开始训练一种新的旗舰人工智能模型,该模型将取代驱动其流行在线聊天机器人 ChatGPT 的 GPT-4 技术。 OpenAI 在一篇博客文章中表示,希望新模型能够带来“更高水平的能力”,因为该公司致力于打造“通用人工智能”,即能够做任何人类大脑能做的事情的机器。新模型将成为人工智能产品的引擎,包括聊天机器人、类似于苹果 Siri 的数字助理、搜索引擎和图像生成器。 ,

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人