【研究报告:神经形态计算机或彻底改变区块链和人工智能】

【研究报告:神经形态计算机或彻底改变区块链和人工智能】2023年07月25日03点14分老不正经报道,德国Dresden工业大学的研究人员最近发表了一份突破性研究,展示了一种用于神经形态计算的新材料设计,这项技术可能对区块链和人工智能产生革命性影响。该团队使用一种称为“储层计算”的技术,开发了一种模式识别方法,该方法使用磁振子涡流几乎瞬时执行算法功能。研发人员不仅开发和测试了新的储存材料,还展示了神经形态计算在标准CMOS芯片上工作的潜力,这可能会颠覆区块链和人工智能。神经形态计算的主要好处是,相对于经典计算和量子计算,其功耗水平极低。这意味着神经形态计算机在操作区块链和在现有区块链上挖掘新区块时可以显著降低时间和能源成本。

相关推荐

封面图片

世界首台人脑神经形态超级计算机DeepSouth即将问世

世界首台人脑神经形态超级计算机DeepSouth即将问世事实上,按照目前的趋势,仅NVIDIA销售的人工智能服务器每年消耗的能源就可能超过许多小国,在一个极力去碳化的世界里,这样的能源负荷是一个巨大的拖累。不过,大自然已经解决了这个问题。人类的大脑仍然是目前最先进的,能够从少量杂乱、嘈杂的数据中快速学习,或每秒处理相当于十亿亿次的数学运算,而能耗却只有区区20瓦。这就是西悉尼大学的一个团队正在建造DeepSouth神经形态超级计算机的原因-这是有史以来第一台能够模拟人脑规模的尖峰神经网络的机器。国际神经形态系统中心(InternationalCentreforNeuromorphicSystems)主任安德烈-范-沙克(AndrévanSchaik)教授说:"我们无法大规模模拟类似大脑的网络,这阻碍了我们在理解大脑如何利用神经元进行计算方面取得进展。在使用图形处理器(GPU)和多核中央处理器(CPU)的标准计算机上模拟尖峰神经网络实在是太慢太耗电了。我们的系统将改变这种状况。这个平台将增进我们对大脑的了解,并在传感、生物医学、机器人、太空和大规模人工智能应用等不同领域开发大脑规模的计算应用。"DeepSouth预计将于2024年4月上线。研究团队预计,它将能够高速处理海量数据,同时由于采用了尖峰神经网络方法,体积比其他超级计算机小得多,能耗也低得多。它采用模块化可扩展设计,使用市场上可买到的硬件,因此将来可以扩展或收缩,以适应各种任务的需要。该企业的目标是让人工智能处理更接近人脑的工作方式,同时学习更多关于大脑的知识,并希望取得与其他领域相关的进展。值得注意的是,其他研究人员正在从相反的方向研究同样的问题,一些团队现在已经开始使用真正的人类脑组织作为半机械计算机芯片的一部分,并取得了令人印象深刻的成果。了解更多:https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/world_first_supercomputer_capable_of_brain-scale_simulation_being_built_at_western_sydney_university...PC版:https://www.cnbeta.com.tw/articles/soft/1404339.htm手机版:https://m.cnbeta.com.tw/view/1404339.htm

封面图片

"量子雪崩" - 可能彻底改变微电子学和超级计算机的现象

"量子雪崩"-可能彻底改变微电子学和超级计算机的现象对"量子雪崩"的新研究揭开了绝缘体到金属转变的神秘面纱,发现了电阻开关的新见解,并为微电子学带来了潜在的突破。对于需要多大的电场等问题,科学家们展开了激烈的争论,比如布法罗大学凝聚态物质理论家JongHan。韩博士是文理学院物理学教授,他是一项研究的第一作者,该研究采用新方法解答了绝缘体到金属转变的一个长期谜团。这项题为"通过隙内梯形态的量子雪崩导致的相关绝缘体塌缩"的研究于今年五月发表在《自然-通讯》(NatureCommunications)上。布法罗大学物理学教授JongHan是一项新研究的第一作者,该研究有助于解开一个长期存在的物理学谜团,即绝缘体如何通过电场转变为金属,这一过程被称为电阻开关。图片来源:布法罗大学DouglasLevere电子通过量子路径运动Han说,金属和绝缘体的区别在于量子力学原理,量子力学原理规定电子是量子粒子,它们的能级在具有禁带间隙的带中运动。自20世纪30年代以来,朗道-齐纳公式一直是确定将绝缘体的电子从低能段推向高能段所需电场大小的蓝图。但此后几十年的实验表明,材料所需的电场要比朗道-齐纳公式估计的小得多,大约小1000倍。"因此,存在着巨大的差异,我们需要一个更好的理论,"Han说。解决差异为了解决这个问题,Han决定考虑一个不同的问题:当已经在绝缘体上带的电子被推动时会发生什么?Han利用计算机模拟了电阻开关,其中考虑到了上带电子的存在。结果表明,一个相对较小的电场就能引发下带和上带之间间隙的塌缩,为电子在带间上下移动创造量子路径。Han打了个比方:"想象一些电子在二楼移动。当地板被电场倾斜时,电子不仅开始移动,而且以前被禁止的量子跃迁打开了,地板的稳定性突然崩溃,使不同楼层的电子上下流动。那么,问题就不再是底层的电子如何跳起来,而是更高的楼层在电场作用下的稳定性"。这一想法有助于解决朗道-齐纳公式中的一些差异。它还在一定程度上澄清了关于由电子本身引起的绝缘体到金属的转变或由极热引起的转变的争论。Han的模拟表明,量子雪崩并非由热量引发。然而,从绝缘体到金属的完全转变要等到电子和声子(晶体原子的量子振动)的温度达到平衡时才会发生。Han说,这表明电子和热转换的机制并不是相互排斥的,而是可以同时发生的。"因此,我们找到了一种理解整个电阻开关现象某些角落的方法,"Han说。"但我还认为这是一个很好的起点。"研究可改进微电子学这项研究的共同作者是哥伦比亚大学工程与应用科学学院电子工程系教授兼系主任乔纳森-伯德(JonathanBird)博士,他提供了实验背景。他的团队一直在研究在低温下呈现出新状态的新兴纳米材料的电学特性,这可以让研究人员学到很多关于支配电学行为的复杂物理知识。伯德说:"虽然我们的研究侧重于解决新材料物理学的基本问题,但我们在这些材料中揭示的电学现象最终可能为新的微电子技术奠定基础,例如用于人工智能等数据密集型应用的紧凑型存储器。"潜在应用这项研究对于试图模拟人类神经系统电刺激的神经形态计算等领域也至关重要。"不过,我们的重点主要是理解基本现象学,"伯德说。自论文发表以来,Han已经设计出一种分析理论,与计算机的计算结果非常吻合。不过,他还有更多的研究要做,比如量子雪崩发生所需的确切条件。...PC版:https://www.cnbeta.com.tw/articles/soft/1376849.htm手机版:https://m.cnbeta.com.tw/view/1376849.htm

封面图片

谷歌宣布新的人工智能处理芯片和云 “超级计算机”

谷歌宣布新的人工智能处理芯片和云“超级计算机”据科技新闻网站Engadget报道,谷歌已经宣布创建其最强大的TPU(正式名称为张量处理单元),CloudTPUv5p,以及来自谷歌云的人工智能超级计算机。CloudTPUv5p是一个人工智能加速器,训练和服务模型。CloudTPUv5p是在之前的版本(如v5e和v4)基础上进行的改进。根据谷歌的说法,与TPUv4相比,TPUv5p的浮点运算性能(FLOPs)提升了两倍,每个机架的FLOPs性能扩展性提高了四倍。此外,它训练LLM模型的速度比TPUv4快2.8倍,嵌入密集模型的速度比TPUv4快1.9倍。而新的人工智能超级计算机,包括一个集成系统,具有开放软件、性能优化硬件、机器学习框架和灵活的消费模型。其想法是,与单独看待每个部分相比,这种合并将提高生产力和效率。

封面图片

广东:到 2027 年,人工智能手机产量达到 1 亿台以上 ,人工智能计算机产量达到 3000 万台以上

广东:到2027年,人工智能手机产量达到1亿台以上,人工智能计算机产量达到3000万台以上广东省发布关于人工智能赋能千行百业的若干措施。其中提到,创新操作系统打造人工智能手机。支持操作系统深度融合高效低损的轻量化大模型,推动端侧模型算法与架构的应用和创新。支持企业在AIOS上结合多模态自然交互技术,增强实时交互能力、拓展手机应用场景,打造个人专属数字助手。到2027年,人工智能手机产量达到1亿台以上。部署专属模型打造人工智能计算机。利用人工智能技术不断学习用户个人数据和习惯,形成端侧不出端、不上云、可迁移、可继承、可成长的个人本地知识库,结合模型压缩等轻量化技术,形成个人专属模型和新型智能生产工具。到2027年,人工智能计算机产量达到3000万台以上。

封面图片

计算的未来包括生物学 由人类脑细胞驱动的人工智能计算机

计算的未来包括生物学由人类脑细胞驱动的人工智能计算机在2月27日发表在《科学前沿》杂志上的一篇文章中,该团队概述了生物计算机如何在某些应用中超越今天的电子计算机,同时使用今天的计算机和服务器群所需电力的一小部分。类器官智能(OI)是一个新兴的科学领域,旨在创建生物计算机,其中实验室培养的大脑类器官作为"生物硬件"。在发表于《科学前沿》的文章中,Smirnova等人概述了追求这一愿景所需的多学科战略:从下一代器官和脑机接口技术,到新的机器学习算法和大数据基础设施。他们从制造由干细胞培育的5万个脑细胞组成的小集群开始,这些细胞被称为有机体。这大约是一个果蝇大脑的三分之一大小。他们的目标是1000万个神经元,这将是一个乌龟大脑中的神经元数量。相比之下,人类大脑平均有超过800亿个神经元。这篇文章强调了人脑如何在特定任务中继续大规模地超越机器。例如,人类只需使用几个样本就能学会区分两种类型的物体(如狗和猫),而人工智能算法则需要成千上万个。而且,虽然人工智能在2016年击败了围棋世界冠军,但它是在16万场比赛的数据基础上训练出来的--相当于每天下5个小时,超过175年。大脑有机体资料来源:约翰霍普金斯大学大脑也更加节能。我们的大脑被认为能够储存相当于普通家用电脑100多万倍的容量(2.5PB),而使用的电力只相当于几瓦。相比之下,美国的数据农场每年使用超过15000兆瓦的电力,其中大部分是由几十个燃煤发电站产生的。在这篇论文中,作者概述了他们的"类器官智能"计划,或称OI,用细胞培养的大脑类器官。虽然脑器官不是"迷你大脑",但它们在大脑功能和结构的关键方面是相同的。器官体将需要从目前的大约5万个细胞大幅扩展。"高级作者、巴尔的摩约翰-霍普金斯大学的托马斯-哈同教授说:"对于OI,我们需要将这个数字增加到1000万。布雷特-卡根博士资料来源:Cortical实验室布雷特和他在Cortical实验室的同事已经证明,基于人类脑细胞的生物计算机是可能的。最近发表在《神经元》上的一篇论文显示,脑细胞的平面培养可以学习玩视频游戏Pong。"我们已经证明,我们可以与活的生物神经元互动,迫使它们修改它们的活动,导致类似于智能的东西,"卡根谈到相对简单Ponf游戏的DishBrain时说。"与哈同教授及其同事为这个有机体智能合作而组建的惊人团队合作,皮质实验室现在正试图用大脑有机体复制这项工作。""我想说,用有机体复制[皮质实验室]的实验已经满足了OI的基本定义,"托马斯说。从这里开始,它开始一个建立社区、工具和技术的问题,以实现OI的全部潜力。布雷特说:"这个新的生物计算领域有望在计算速度、处理能力、数据效率和存储能力方面取得前所未有的进步--所有这些都需要较低的能源。这项合作特别令人激动的方面是其形成的开放和协作精神。将这些不同的专家聚集在一起,不仅对优化成功至关重要,而且为行业合作提供了一个关键的接触点"。而这项技术还可以使科学家们更好地研究从患有神经疾病(如阿尔茨海默病)的病人的皮肤或小血样中开发出来的个性化大脑器官,并进行测试,研究遗传因素、药物和毒素如何影响这些情况。...PC版:https://www.cnbeta.com.tw/articles/soft/1348871.htm手机版:https://m.cnbeta.com.tw/view/1348871.htm

封面图片

人工智能的未来:自学习机器可能取代当前的神经网络

人工智能的未来:自学习机器可能取代当前的神经网络基于物理学的新型自学机器可以取代目前的人工神经网络并节约能源。人工智能(AI)不仅性能惊人,而且需要大量能源。承担的任务越复杂,能耗就越大。德国埃尔兰根马克斯-普朗克光科学研究所的科学家维克托-洛佩斯-帕斯托尔和弗洛里安-马夸特开发出了一种更高效的人工智能训练方法。他们的方法利用物理过程,有别于传统的数字人工神经网络。负责开发为ChatGPT提供动力的GPT-3技术的OpenAI公司没有透露训练这个知识渊博的高级人工智能聊天机器人所需的能量。根据德国统计公司Statista的数据,这将需要1000兆瓦时,大约相当于200个三人或三人以上的德国家庭的年消耗量。虽然这种能源消耗使GPT-3能够了解在其数据集中,"deep"一词后面更有可能出现的是"sea"还是"learning",但无论如何,它都无法理解这些短语的深层含义。神经形态计算机上的神经网络在过去几年中,为了降低计算机,特别是人工智能应用的能耗,一些研究机构一直在研究一种全新的概念,即未来计算机如何处理数据。这一概念被称为神经形态计算。虽然这听起来类似于人工神经网络,但实际上与人工神经网络关系不大,因为人工神经网络是在传统的数字计算机上运行的。这意味着,软件或更准确地说算法是以大脑的工作方式为模型的,但数字计算机是硬件。它们依次执行神经元网络的计算步骤,一个接一个,区分处理器和内存。马克斯-普朗克光科学研究所所长、埃尔兰根大学教授弗洛里安-马夸特(FlorianMarquardt)说:"当一个神经网络用多达1TB的数据训练数千亿个参数(即突触)时,仅这两个组件之间的数据传输就会消耗大量能量。"如果人脑的工作能效与使用硅晶体管的计算机类似,那么人脑就完全不同,在进化过程中可能永远不会具有竞争力。它很可能会因过热而失效。大脑的特点是并行而非顺序地完成思维过程的众多步骤。神经细胞,或者更准确地说,突触,既是处理器,又是存储器。世界各地的各种系统都被视为神经细胞的神经形态对应物的可能候选者,其中包括利用光而不是电子进行计算的光子电路。它们的元件同时充当开关和存储单元。自学物理机器独立优化突触弗洛里安-马夸特与马克斯-普朗克光科学研究所的博士生维克托-洛佩斯-帕斯托尔(VíctorLópez-Pastor)一起,为神经形态计算机设计出了一种高效的训练方法。他解释说:"我们提出了自我学习物理机器的概念。核心思想是以物理过程的形式进行训练,其中机器的参数由过程本身进行优化。在训练传统人工神经网络时,需要外部反馈来调整数十亿个突触连接的强度。不需要这种反馈,训练效率就会高得多。在自学习物理机器上实施和训练人工智能,不仅可以节约能源,还能节省计算时间。我们的方法不管自学机器中的物理过程是什么,都能发挥作用,我们甚至不需要知道具体的过程。不过,这个过程必须满足几个条件,最重要的是,它必须是可逆的,也就是说,它必须能够以最小的能量损失向前或向后运行。""此外,物理过程必须是非线性的,即足够复杂。只有非线性过程才能完成输入数据和结果之间的复杂转换。一个弹球在盘子上滚动而不会与另一个弹球相撞,这是一个线性动作。但是,如果它受到另一个弹球的干扰,情况就会变成非线性的。"光学神经形态计算机的实际测试光学中也有可逆非线性过程的例子。事实上,维克多-洛佩斯-帕斯托尔(VíctorLópez-Pastor)和弗洛里安-马夸特(FlorianMarquardt)已经与一个实验小组合作开发了一台光学神经形态计算机。这台机器以叠加光波的形式处理信息,由合适的元件调节互动的类型和强度。研究人员的目标是将自学物理机器的概念付诸实践。弗洛里安-马夸特说:"我们希望能在三年内推出第一台自学物理机器。到那时,神经网络的突触数量和训练数据量都将大大超过今天的水平。因此,人们可能会更加希望在传统数字计算机之外实现神经网络,并用训练有素的神经形态计算机取而代之。我们相信,自学物理机器很有可能被用于人工智能的进一步发展。"...PC版:https://www.cnbeta.com.tw/articles/soft/1399137.htm手机版:https://m.cnbeta.com.tw/view/1399137.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人