科学家找到基于储备池计算的先进机器学习算法

科学家找到基于储备池计算的先进机器学习算法在2022年9月26日发表于《混沌》(非线性科学的跨学科期刊)上的一篇文章中,来自美国俄亥俄州立大学的研究团队,详细介绍了一种先进的、适用于机器学习的下一代“储备池计算”(ReservoirComputing)方法。得益于新的算法,研究人员现可在混沌物理过程的预测工作中变得更加轻松。PC版:https://www.cnbeta.com/articles/soft/1329631.htm手机版:https://m.cnbeta.com/view/1329631.htm

相关推荐

封面图片

科学家利用机器学习识别数以千计的新宇宙物体

科学家利用机器学习识别数以千计的新宇宙物体天文学正在经历一场变革,因为来自数百万天体的大量天文数据可以轻易获得。这是由于大规模的调查和利用一流的天文观测站的细致观测,再加上开放数据的政策。毋庸置疑,这些数据对于许多发现和对宇宙的新认识具有巨大潜力。然而,手动探索所有这些天体的数据是不现实的,自动机器学习技术对于从这些数据中提取信息至关重要。但这种技术在天文数据中的应用仍然非常有限,而且处于初步阶段。在此背景下,TIFR-IIST团队将机器学习技术应用于美国钱德拉空间观测站在X射线下观测的数十万个宇宙物体。这表明了一种新的和热门的技术进步如何能够帮助和彻底改变基础和基本的科学研究。该小组将这些技术应用于大约277000个释放X射线的物体,其中大部分物体的性质是未知的。对未知物体的性质进行分类,相当于发现特定类别的物体。因此,这项研究让研究人员可靠地发现了成千上万的宇宙天体的类别,如黑洞、中子星、白矮星、恒星等,这为天文学界进一步详细研究许多有趣的新天体提供了巨大的机会。这项合作研究对于建立将新的机器学习技术应用于天文学基础研究的最先进能力也很重要,这对于科学地利用当前和即将到来的观测站的数据至关重要。...PC版:https://www.cnbeta.com.tw/articles/soft/1349399.htm手机版:https://m.cnbeta.com.tw/view/1349399.htm

封面图片

科学家尝试用单个原子构建计算机

科学家尝试用单个原子构建计算机一项新的研究表明,即使是物质的最基本构成部分--原子,也可以作为一个计算库,所有的输入和输出处理都可以通过光学手段进行。在路易斯安那州新奥尔良市杜兰大学的研究人员发表在EPJPlus上的一项新研究中,杰拉德-麦考尔和他的团队证明了原子,物质的最基本构成单位之一可以作为一个计算的存储库,所有的输入输出处理都是以光学方式完成的。麦考尔说:"我们有一个想法,即计算能力是所有物理系统共享的普遍属性,但在这个范式中,对于如何实际尝试进行计算,存在着大量的框架。"他补充说,这些框架中最重要的一个是神经形态或水库计算,神经形态计算机的目的是模仿大脑。这一概念是过去几十年来机器学习和人工智能爆炸性发展的基础,并催生了潜在的非线性计算机,在这种情况下,输出与输入不成正比。但这是可取的,因为它可以导致一个足够灵活的计算架构,只要有合适的输入,任何给定的输出都可以实现。"也就是说,如果我们想要一些给定的计算结果,我们可以保证存在一些能够实现该结果的计算输入,"麦考尔说。"如果我们的系统只表现出一种线性响应,那这就是不可能的。"该团队提出了一种非线性单原子计算机,其输入信息直接编码为光,输出也是以光的形式,然后通过光的输出所经过的过滤器来决定计算结果。"我们的研究证实了这种方法在原则上是可行的,同时也证实了这样一个事实:当输入的光被设计成在系统中诱发更高的非线性时,系统的表现更好,"麦考尔说。"我可能会认为,我们通过这项工作试图强调的是,能够进行计算的最小系统确实存在于单个原子的水平上,而且计算可以纯粹用光学过程进行。"...PC版:https://www.cnbeta.com.tw/articles/soft/1347379.htm手机版:https://m.cnbeta.com.tw/view/1347379.htm

封面图片

【3位加密科学家获的理论计算机最高荣誉“2022年哥德尔奖”】

【3位加密科学家获的理论计算机最高荣誉“2022年哥德尔奖”】ACM算法与计算理论兴趣组(SIGACT)宣布,2022年哥德尔奖授予CraigGentry,ZvikaBrakerski以及VinodVaikuntanathan,表彰其对密码学做出的革命性贡献。据悉,CraigGentry是一位美国计算机科学家,目前在由SilvioMicali创立的区块链创业公司AlgorandFoundation担任研究员。ZvikaBrakerski是魏茨曼科学研究所(WeizmannInstituteofScience)计算机科学与应用数学系副教授。他的研究兴趣在于计算机科学基础,目前主要研究密码学和量子计算。VinodVaikuntanathan致力于研究基于格的密码学(格子密码),使用整数格构建高级密码原语。同时,还包括研究如何让密码抵抗泄露,开发抵抗对抗性信息泄漏的算法等等。

封面图片

哈佛大学免费机器学习课程,包含四个主题:机器学习基础知识、算法、推荐系统、交叉验证和正则化

哈佛大学免费机器学习课程,包含四个主题:机器学习基础知识、算法、推荐系统、交叉验证和正则化也许最流行的数据科学方法论来自于机器学习。机器学习与其他计算机引导的决策过程的不同之处在于,它利用数据建立预测算法。一些使用机器学习的最流行的产品包括邮政服务实施的手写阅读器、语音识别、电影推荐系统和垃圾邮件检测器。在本课程中,作为数据科学专业证书课程的一部分,你将通过建立一个电影推荐系统来学习流行的机器学习算法,主成分分析,和正则化;学习训练数据,以及如何使用一组数据来发现潜在的预测关系。当你建立电影推荐系统时,你将学习如何使用训练数据训练算法,以便你能预测未来数据集的结果。你还将学习过度训练和避免它的技术,如交叉验证。所有这些技能都是机器学习的基础。#机器学习

封面图片

谷歌科学家发布:量子计算机取得重大突破

谷歌科学家发布:量子计算机取得重大突破谷歌科学家最近在ArXiv平台上发布了一篇预印本论文,声称在量子计算机领域取得了重大突破。他们表示,通过对Sycamore处理器的升级,谷歌成功提升了量子位的数量,从之前的53个增加到了70个。这次实验中,谷歌科学家们执行了一项名为随机电路采样的任务,这个任务在量子计算中用于评估计算机的性能和效率。通过运行随机电路并分析结果输出,科学家们测试了量子计算机在解决复杂问题方面的能力。谷歌的研究结果显示,升级后的70个量子位的Sycamore处理器在执行随机电路采样任务上比业内最先进的超级计算机快了几十亿倍。例如,需要业内最先进超级计算机Frontier计算47.2年才能完成的任务,53个量子位的Sycamore处理器只需要6.18秒就能完成,而新版的70个量子位的Sycamore处理器速度更快。来源,,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

CUDA加速数学和机器学习:从入门到精通,利用NVIDIA GPU进行数学和机器学习的加速计算,适用于希望扩展算法至GPU的研究

:从入门到精通,利用NVIDIAGPU进行数学和机器学习的加速计算,适用于希望扩展算法至GPU的研究人员和应用专家CUDA(统一计算设备架构)是NVIDIA开发的并行计算平台和编程模型。它允许软件开发人员利用NVIDIAGPU(图形处理单元)巨大的并行处理能力来执行通用计算任务,而不仅仅是其传统的图形渲染角色。GPU设计有数千个更小、更高效的核心,经过优化可同时处理多个任务。这使得它们非常适合可分解为许多独立操作的任务,例如科学模拟、机器学习、视频处理等。与传统的仅使用CPU的代码相比,CUDA可显著提高合适应用程序的速度。GPU可以并行处理大量数据,从而加速在CPU上需要更长时间的计算。对于某些类型的工作负载,GPU比CPU更节能,可提供更高的每瓦性能。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人