在水中进行神经网络计算的离子电路问世

在水中进行神经网络计算的离子电路问世美国哈佛大学工程与应用科学学院 (SEAS)团队与生物技术初创公司DNA Script合作,开发出一种由数百个离子晶体管组成的离子电路,并执行了神经网络计算的核心过程。该研究发表在最近的《先进材料》上。PC版:https://www.cnbeta.com/articles/soft/1322795.htm手机版:https://m.cnbeta.com/view/1322795.htm

相关推荐

封面图片

WorldBrain 神经网络 beta 系统 APP 正式上线

WorldBrain神经网络beta系统APP正式上线6月21日消息,WorldBrain神经网络系统AndroidAPP已于6月20日正式上线。WorldBrain神经网络系统APP涵盖WBC激活质押、每日交互奖励、邀请奖励等交互激励,利用先进的神经网络算法,为用户带来了丰富的交互体验。据悉,WorldBrain神经网络系统beta版上线两个月以来,目前注册用户近300万,链上持币地址超过15万。在WorldBrain生态,用户可以更直接地参与到去中心化人工智能网络中,享受更安全、更高效、去中心化的智能交互和价值创造。

封面图片

汇集各种神经网络的庞大数据库 ——

汇集各种神经网络的庞大数据库——对于使用神经网络的人来说,Supertools是一个真正的宝库。它是一个神经网络库,适用于从编码、创业到娱乐等各种任务。您可以在该网站上按类别对神经网络进行分类,并选择适合您项目的神经网络。此外,您还可以无限制地使用免费的神经网络。神经网络库会不断更新,因此您不难在这里找到与您的项目最相关的神经网络和工具。https://supertools.therundown.ai/#AI#tools

封面图片

基于AI芯片的神经网络优化实战

名称:基于AI芯片的神经网络优化实战描述:作为一个AI芯片轻量化设计的学习者,我深深体会到了网络结构、识蒸馏优化和低秩分解优化在实际应用中的重要性。以下是我个人的一些心得体会:网络结构剪枝是一种有效的减少复杂度和计算量的方法。通过对神经网络中冗余参数的剪枝,可以大幅减少模型的大小和计算复杂度,从而提高模型的训练和推理速度。同时,剪枝还可以使模型更加稀疏,从而提高模型的通用性和泛化能力。建议先收藏保存,不定时失效。链接:https://pan.quark.cn/s/a0d9260de283大小:NG标签:#quark#学习#资源#课程#网络优化频道:@yunpanshare群组:@yunpangroup

封面图片

人工智能的未来:自学习机器可能取代当前的神经网络

人工智能的未来:自学习机器可能取代当前的神经网络基于物理学的新型自学机器可以取代目前的人工神经网络并节约能源。人工智能(AI)不仅性能惊人,而且需要大量能源。承担的任务越复杂,能耗就越大。德国埃尔兰根马克斯-普朗克光科学研究所的科学家维克托-洛佩斯-帕斯托尔和弗洛里安-马夸特开发出了一种更高效的人工智能训练方法。他们的方法利用物理过程,有别于传统的数字人工神经网络。负责开发为ChatGPT提供动力的GPT-3技术的OpenAI公司没有透露训练这个知识渊博的高级人工智能聊天机器人所需的能量。根据德国统计公司Statista的数据,这将需要1000兆瓦时,大约相当于200个三人或三人以上的德国家庭的年消耗量。虽然这种能源消耗使GPT-3能够了解在其数据集中,"deep"一词后面更有可能出现的是"sea"还是"learning",但无论如何,它都无法理解这些短语的深层含义。神经形态计算机上的神经网络在过去几年中,为了降低计算机,特别是人工智能应用的能耗,一些研究机构一直在研究一种全新的概念,即未来计算机如何处理数据。这一概念被称为神经形态计算。虽然这听起来类似于人工神经网络,但实际上与人工神经网络关系不大,因为人工神经网络是在传统的数字计算机上运行的。这意味着,软件或更准确地说算法是以大脑的工作方式为模型的,但数字计算机是硬件。它们依次执行神经元网络的计算步骤,一个接一个,区分处理器和内存。马克斯-普朗克光科学研究所所长、埃尔兰根大学教授弗洛里安-马夸特(FlorianMarquardt)说:"当一个神经网络用多达1TB的数据训练数千亿个参数(即突触)时,仅这两个组件之间的数据传输就会消耗大量能量。"如果人脑的工作能效与使用硅晶体管的计算机类似,那么人脑就完全不同,在进化过程中可能永远不会具有竞争力。它很可能会因过热而失效。大脑的特点是并行而非顺序地完成思维过程的众多步骤。神经细胞,或者更准确地说,突触,既是处理器,又是存储器。世界各地的各种系统都被视为神经细胞的神经形态对应物的可能候选者,其中包括利用光而不是电子进行计算的光子电路。它们的元件同时充当开关和存储单元。自学物理机器独立优化突触弗洛里安-马夸特与马克斯-普朗克光科学研究所的博士生维克托-洛佩斯-帕斯托尔(VíctorLópez-Pastor)一起,为神经形态计算机设计出了一种高效的训练方法。他解释说:"我们提出了自我学习物理机器的概念。核心思想是以物理过程的形式进行训练,其中机器的参数由过程本身进行优化。在训练传统人工神经网络时,需要外部反馈来调整数十亿个突触连接的强度。不需要这种反馈,训练效率就会高得多。在自学习物理机器上实施和训练人工智能,不仅可以节约能源,还能节省计算时间。我们的方法不管自学机器中的物理过程是什么,都能发挥作用,我们甚至不需要知道具体的过程。不过,这个过程必须满足几个条件,最重要的是,它必须是可逆的,也就是说,它必须能够以最小的能量损失向前或向后运行。""此外,物理过程必须是非线性的,即足够复杂。只有非线性过程才能完成输入数据和结果之间的复杂转换。一个弹球在盘子上滚动而不会与另一个弹球相撞,这是一个线性动作。但是,如果它受到另一个弹球的干扰,情况就会变成非线性的。"光学神经形态计算机的实际测试光学中也有可逆非线性过程的例子。事实上,维克多-洛佩斯-帕斯托尔(VíctorLópez-Pastor)和弗洛里安-马夸特(FlorianMarquardt)已经与一个实验小组合作开发了一台光学神经形态计算机。这台机器以叠加光波的形式处理信息,由合适的元件调节互动的类型和强度。研究人员的目标是将自学物理机器的概念付诸实践。弗洛里安-马夸特说:"我们希望能在三年内推出第一台自学物理机器。到那时,神经网络的突触数量和训练数据量都将大大超过今天的水平。因此,人们可能会更加希望在传统数字计算机之外实现神经网络,并用训练有素的神经形态计算机取而代之。我们相信,自学物理机器很有可能被用于人工智能的进一步发展。"...PC版:https://www.cnbeta.com.tw/articles/soft/1399137.htm手机版:https://m.cnbeta.com.tw/view/1399137.htm

封面图片

世界首台人脑神经形态超级计算机DeepSouth即将问世

世界首台人脑神经形态超级计算机DeepSouth即将问世事实上,按照目前的趋势,仅NVIDIA销售的人工智能服务器每年消耗的能源就可能超过许多小国,在一个极力去碳化的世界里,这样的能源负荷是一个巨大的拖累。不过,大自然已经解决了这个问题。人类的大脑仍然是目前最先进的,能够从少量杂乱、嘈杂的数据中快速学习,或每秒处理相当于十亿亿次的数学运算,而能耗却只有区区20瓦。这就是西悉尼大学的一个团队正在建造DeepSouth神经形态超级计算机的原因-这是有史以来第一台能够模拟人脑规模的尖峰神经网络的机器。国际神经形态系统中心(InternationalCentreforNeuromorphicSystems)主任安德烈-范-沙克(AndrévanSchaik)教授说:"我们无法大规模模拟类似大脑的网络,这阻碍了我们在理解大脑如何利用神经元进行计算方面取得进展。在使用图形处理器(GPU)和多核中央处理器(CPU)的标准计算机上模拟尖峰神经网络实在是太慢太耗电了。我们的系统将改变这种状况。这个平台将增进我们对大脑的了解,并在传感、生物医学、机器人、太空和大规模人工智能应用等不同领域开发大脑规模的计算应用。"DeepSouth预计将于2024年4月上线。研究团队预计,它将能够高速处理海量数据,同时由于采用了尖峰神经网络方法,体积比其他超级计算机小得多,能耗也低得多。它采用模块化可扩展设计,使用市场上可买到的硬件,因此将来可以扩展或收缩,以适应各种任务的需要。该企业的目标是让人工智能处理更接近人脑的工作方式,同时学习更多关于大脑的知识,并希望取得与其他领域相关的进展。值得注意的是,其他研究人员正在从相反的方向研究同样的问题,一些团队现在已经开始使用真正的人类脑组织作为半机械计算机芯片的一部分,并取得了令人印象深刻的成果。了解更多:https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/world_first_supercomputer_capable_of_brain-scale_simulation_being_built_at_western_sydney_university...PC版:https://www.cnbeta.com.tw/articles/soft/1404339.htm手机版:https://m.cnbeta.com.tw/view/1404339.htm

封面图片

iPhone 15 Pro Max喜提iOS 18:神经网络引擎性能提升明显

iPhone15ProMax喜提iOS18:神经网络引擎性能提升明显据悉,此次神经网络引擎性能提升明显的主要原因归功于苹果全新的CoreML。资料显示,CoreML是一个基础机器学习框架,能用于众多Apple的产品,包括Siri、相机和QuickType,据官方介绍,CoreML带来了极速的性能和机器学习模型的轻松整合,能将众多机器学习模型类别集成到App中。它不但有30多种层来支持广泛的深度学习,而且还支持诸如树集成、SVM和广义线性模型等标准模型。...PC版:https://www.cnbeta.com.tw/articles/soft/1435080.htm手机版:https://m.cnbeta.com.tw/view/1435080.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人