谷歌使用人工智能在全球范围内进行可靠的洪水预报

谷歌使用人工智能在全球范围内进行可靠的洪水预报 来自 Google Research 洪水预测团队的 Grey Nearing 及其同事开发的人工智能模型,通过利用现有的 5680 个测量仪进行训练,可预测未测量流域在 7 天预测期内的日径流。随后,他们将该人工智能模型与全球领先的短期和长期洪水预测软件全球洪水预警系统 (GloFAS) 进行了对比测试。结果显示,该模型同日预测准确率与当前系统相当甚至更高。此外,该模型在预测重现窗口 (return window) 期为五年的极端天气事件时,其准确性与 GloFAS 预测重现窗口期为一年的事件时的准确性相当或更高。相关研究论文已发表在权威科学期刊《自然》杂志上。 、、 (学术头条)

相关推荐

封面图片

谷歌 DeepMind 推出活细胞人工智能模型

谷歌 DeepMind 推出活细胞人工智能模型 谷歌的 DeepMind 推出了一个人工智能模型,用于研究生命的基本构成要素及其在细胞内的相互作用,推动了揭示疾病秘密和寻找疾病(如癌症)疗法的努力。根据周三在《自然》期刊上发表的一篇论文,最初于2018年开发的AlphaFold 3对微小生物结构外观和相互作用做出了迄今最精确的预测。同构实验室的首席人工智能官马克斯•贾德伯格表示,AlphaFold 3的能力为研究人员提供了新的机会,可以迅速识别潜在的新药分子。同构实验室与制药公司礼来和诺华有合作关系。“这使得我们的科学家和药物设计师能够在原子水平上创造和测试假设,并且在几秒钟内使用AlphaFold 3生成高度准确的结构预测。”贾德伯格说,“与可能需要数月甚至数年的实验相比,这是非常快速的。”AlphaFold 3展示了“显著提高”的预测准确性,超过了许多现有的专业工具,包括基于前两代技术的工具。研究表明,开发正确的人工智能深度学习框架,可以大大减少获取“生物相关性能”所需的数据量。

封面图片

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险”

美国财长耶伦:在金融体系中采用人工智能或带来“重大风险” 根据一份耶伦的演讲摘录,她先是承认了人工智能“为金融体系提供了巨大的机会”。多年来,人工智能的预测能力为预测和投资组合管理提供了支持。人工智能检测异常的能力有助于打击欺诈和非法融资。许多客户支持服务已经实现了自动化。在相当多用例中,我们已经看到,如果使用得当,人工智能可以提高效率、准确性和获取金融产品的途径。同时,摘录中还提到了人工智能相关风险急需被监管,称这是此次会议议程的重中之重。特定的漏洞可能来自人工智能模型的复杂性和不透明性、人工智能的风险管理框架不够完善、以及诸多市场参与者依赖相同数据或模型从而产生的关联性。摘录内容对此做出了解释,如果太多的市场参与者依赖相同的人工智能模型和数据以及云服务提供商,可能会强化现有的人工智能“偏见”或让其产生新的“偏见”,从而影响金融市场的决策。此外,数据不足或错误也可能使人工智能的金融决策过程中产生新的“偏见”。提高监管能力尽管存在这些挑战,但耶伦仍表示,人工智能驱动的工具可以帮助扩大金融服务的获取渠道,同时使消费者更能负担得起金融服务费用。自然语言处理、图像识别和生成式人工智能的进步,创造了新的机会,使金融服务成本更低、更容易获得。据耶伦透露,美国国税局目前正在使用人工智能来“加强欺诈检测”。此外摘录中还提出,FSOC将“继续支持努力建立监管能力,以更好地了解相关风险”。她提到了使用情景分析的方式。情景分析经常被企业和政府用来理解不确定性背景下的机会和风险。“考虑到人工智能技术的发展速度之快,以及金融公司和市场参与者快速发展的潜在用例,情景分析可以帮助监管机构和公司识别未来潜在的漏洞,并告知我们可以采取哪些措施来增强抵御能力。”相关文章:美联储耶伦:AI与全球化正在消除美国中产阶级耶伦警告金融风险 包括人工智能和对冲基金 ... PC版: 手机版:

封面图片

DeepMind:政治深度伪造居恶意使用人工智能榜首

DeepMind:政治深度伪造居恶意使用人工智能榜首 谷歌旗下 DeepMind 部门首次对人工智能最常见的恶意使用情况进行的研究显示,利用人工智能生成的“深度伪造”冒充政客和名人,远比利用人工智能协助网络攻击的行为普遍得多。该研究表示,制作逼真的假冒人物图像、视频和音频的情况几乎是第二高频率滥用生成式人工智能工具情况的两倍:使用聊天机器人等基于文本的工具伪造信息,生成虚假信息并发布到网上。分析发现,行为者滥用生成式人工智能的最常见目标是塑造或影响公众舆论。这一占到使用的27%,加剧了人们对深度伪造可能影响今年全球选举的担忧。

封面图片

以色列使用人工智能识别加沙的轰炸目标

以色列使用人工智能识别加沙的轰炸目标 根据以色列出版物 +972 杂志和 Local Call 的调查,以色列军方一直在使用人工智能来帮助选择在加沙的轰炸目标,为了速度而牺牲了准确性,并在此过程中造成了数千名平民死亡。报告称,该系统名为“Lavender”,是在哈马斯10月7日袭击事件发生后开发的。在顶峰时期,“Lavender”将37,000名加沙巴勒斯坦人标记为“哈马斯武装分子”嫌疑人,并授权暗杀他们。以色列军方在给 +972 和 Local Call 的声明中否认了这样的暗杀名单的存在。一位发言人告诉 CNN,人工智能并没有被用来识别恐怖分子嫌疑人,但并不否认 Lavender 系统的存在,发言人称其“仅仅是分析师在目标识别过程中的工具”。这位发言人告诉 CNN,分析师“必须进行独立检查,以验证所识别的目标是否符合国际法的相关定义以及以色列国防军指令中规定的额外限制”。 、、

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

谷歌确认将使用你的数据来训练人工智能 Bard

谷歌确认将使用你的数据来训练人工智能 Bard 谷歌发言人 Christa Muldoon 表示:“我们的隐私政策长期以来一直是透明的,谷歌使用来自开放网络的公开信息来训练谷歌翻译等服务的语言模型。” “这个最新的更新只是澄清了像 Bard 这样的新服务也包括在内。我们根据我们的人工智能原则,将隐私原则和保障措施纳入人工智能技术的开发中。”

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人