谷歌使用人工智能在全球范围内进行可靠的洪水预报

谷歌使用人工智能在全球范围内进行可靠的洪水预报 来自 Google Research 洪水预测团队的 Grey Nearing 及其同事开发的人工智能模型,通过利用现有的 5680 个测量仪进行训练,可预测未测量流域在 7 天预测期内的日径流。随后,他们将该人工智能模型与全球领先的短期和长期洪水预测软件全球洪水预警系统 (GloFAS) 进行了对比测试。结果显示,该模型同日预测准确率与当前系统相当甚至更高。此外,该模型在预测重现窗口 (return window) 期为五年的极端天气事件时,其准确性与 GloFAS 预测重现窗口期为一年的事件时的准确性相当或更高。相关研究论文已发表在权威科学期刊《自然》杂志上。 、、 (学术头条)

相关推荐

封面图片

今天(4 日)2024 世界人工智能大会暨人工智能全球治理高级别会议在上海世博中心启幕。在 “AI 赋工业,数智启未来” 人工智

今天(4 日)2024 世界人工智能大会暨人工智能全球治理高级别会议在上海世博中心启幕。在 “AI 赋工业,数智启未来” 人工智能赋能新型工业化主题论坛上,《中国 AI 大模型工业应用指数(2024 年)》发布。总体上,国内大模型准确性指数为 78,国际大模型准确性指数为 76,国内顶级大模型在工业领域文本生成的准确性已具备竞争力。稳定性指数代表模型在一定外部扰动下持续给出正确回答的能力,反映模型在复杂环境下的鲁棒性。总体上,国内大模型稳定性指数为 71 分,低于国际的 74 分。(央视新闻)

封面图片

谷歌 DeepMind 推出活细胞人工智能模型

谷歌 DeepMind 推出活细胞人工智能模型 谷歌的 DeepMind 推出了一个人工智能模型,用于研究生命的基本构成要素及其在细胞内的相互作用,推动了揭示疾病秘密和寻找疾病(如癌症)疗法的努力。根据周三在《自然》期刊上发表的一篇论文,最初于2018年开发的AlphaFold 3对微小生物结构外观和相互作用做出了迄今最精确的预测。同构实验室的首席人工智能官马克斯•贾德伯格表示,AlphaFold 3的能力为研究人员提供了新的机会,可以迅速识别潜在的新药分子。同构实验室与制药公司礼来和诺华有合作关系。“这使得我们的科学家和药物设计师能够在原子水平上创造和测试假设,并且在几秒钟内使用AlphaFold 3生成高度准确的结构预测。”贾德伯格说,“与可能需要数月甚至数年的实验相比,这是非常快速的。”AlphaFold 3展示了“显著提高”的预测准确性,超过了许多现有的专业工具,包括基于前两代技术的工具。研究表明,开发正确的人工智能深度学习框架,可以大大减少获取“生物相关性能”所需的数据量。

封面图片

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险”

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险” 根据一份耶伦的演讲摘录,她先是承认了人工智能“为金融体系提供了巨大的机会”。多年来,人工智能的预测能力为预测和投资组合管理提供了支持。人工智能检测异常的能力有助于打击欺诈和非法融资。许多客户支持服务已经实现了自动化。在相当多用例中,我们已经看到,如果使用得当,人工智能可以提高效率、准确性和获取金融产品的途径。同时,摘录中还提到了人工智能相关风险急需被监管,称这是此次会议议程的重中之重。特定的漏洞可能来自人工智能模型的复杂性和不透明性、人工智能的风险管理框架不够完善、以及诸多市场参与者依赖相同数据或模型从而产生的关联性。摘录内容对此做出了解释,如果太多的市场参与者依赖相同的人工智能模型和数据以及云服务提供商,可能会强化现有的人工智能“偏见”或让其产生新的“偏见”,从而影响金融市场的决策。此外,数据不足或错误也可能使人工智能的金融决策过程中产生新的“偏见”。提高监管能力尽管存在这些挑战,但耶伦仍表示,人工智能驱动的工具可以帮助扩大金融服务的获取渠道,同时使消费者更能负担得起金融服务费用。自然语言处理、图像识别和生成式人工智能的进步,创造了新的机会,使金融服务成本更低、更容易获得。据耶伦透露,美国国税局目前正在使用人工智能来“加强欺诈检测”。此外摘录中还提出,FSOC将“继续支持努力建立监管能力,以更好地了解相关风险”。她提到了使用情景分析的方式。情景分析经常被企业和政府用来理解不确定性背景下的机会和风险。“考虑到人工智能技术的发展速度之快,以及金融公司和市场参与者快速发展的潜在用例,情景分析可以帮助监管机构和公司识别未来潜在的漏洞,并告知我们可以采取哪些措施来增强抵御能力。”相关文章:美联储耶伦:AI与全球化正在消除美国中产阶级耶伦警告金融风险 包括人工智能和对冲基金 ... PC版: 手机版:

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

谷歌精简公司架构以加快人工智能开发

谷歌精简公司架构以加快人工智能开发 谷歌首席执行官桑达尔•皮查伊为了加快其人工智能产品的开发和推出,对公司的高层和架构进行了重组。根据4月18日的备忘录,所有负责人工智能模型的团队,包括聊天机器人 Gemini,都将统一到由德米斯•哈萨比斯领导的 DeepMind 部门。这将包括研究、模型、计算能力以及负责监督其准确性和可信度的人员。由设备和服务高级副总裁里克•奥斯特罗领导的新平台和设备团队,将包括负责 Android、Chrome 浏览器、搜索和照片背后的硬件和软件的工作人员。Android 主管洛克海默将被调任其他产品,由负责 Android 和谷歌 Play 产品管理的副总裁萨米尔•萨马特接替。皮查伊说:“这些变化是我们过去一年来努力简化结构、提高效率和执行力的延续。” 、

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人