(注:神经突触与神经元的动作电位触发时间的先后关系,决定了它们连接强度是增强还是减弱。如果突触的激活时序领先于神经元的动作电位,

(注:神经突触与神经元的动作电位触发时间的先后关系,决定了它们连接强度是增强还是减弱。如果突触的激活时序领先于神经元的动作电位,那么该连接获得强化;如果突触的激活时序滞后于神经元的动作电位,那么该连接获得削弱。It'saparticularlearningrulethatusesSpiketimingtofigureouthowtotodeterminehowtoupdatethesynapses.Soit'skindoflikeifthesynapticfiresintotheneuronbeforetheneuronfires,thenitstrengthensthesynapse.Andifthesignalsfireintotheneuronsshortlyaftertheneuronfired,thenitweakensthesynapse.)神经网络另一个重要的点在于loss函数的提出,它为深度学习提供了可行的训练方法。很有趣的一点是,在现实世界中,我们并没有看到对应loss函数的东西-进化论是以loss的方式来迭代的吗?经济系统或社会系统存在loss吗?似乎都不是。2.神经网络的本质Ilya认为,大脑也好,大模型也好,本质上都是把知识压缩到一个高维的隐空间当中。每一个新的观测数据到来的时候,它就会通过连接来更新隐空间中的一些参数。知识就存储在这些连接的权重里。(Iguesswhatisarecurringrolethatyouhaveaneuralnetworkwhichmaintainsahighdimensional,hiddenstate,andthenwithinobservationarrives.Itupdatesitshighdimensional,hiddenstatethroughitsconnectionsinsomeway.Youcouldsaytheknowledgeisstoredintheconnections.)压缩的过程有点类似于人类的记忆和遗忘过程,你忘掉了绝大部分没用的信息,而只是记住了那些有用的,并且将它们整合记忆。压缩的过程就是“寻找最小回路”(searchforsmallcircuits)的过程。在数学上,有一种理论是“最短描述长度”原则,即如果你能够找到能够产生所需数据的最小程序,那么你就能够用这个程序做出最好的预测。(Ifyoucanfindtheshortestprogramthatoutputsthedatainyourdisposal,thenyouwillbeabletouseittomakethebestpredictionpossible.)这是数学上可以被证明的。但“最短描述长度”原则是一个理论原则,在实践中很难准确实现。所以在实践中,针对给定的数据集,我们只能使用神经网络找到“尽量短小”的回路。因此,可以将神经网络的训练过程理解为,慢慢将训练数据集里的信息熵迁移到神经网络的参数中,而最终沉淀下来的这些回路刚好不算太大。(Ifyouimainethetrainingprocessofaneuralnetworkasyouslowlytransmitentropyfromthedatasettotheparameters,thensomehowtheamountofinformationintheweightsendsupbeingnotverylarge,whichwouldexplainwhythegeneralissowell.)如果你能高效压缩信息,那么你一定已经得到知识了。GPT已经是一个世界模型了,itknowsalltheintricacies。尽管你做的看似只是predictthenextword这么简单的事情,但这只是优化手段而已。自然语言是最好的latentspace,而且是最容易做alignment的latentspace。3.Ilya研究生涯中的两个重要时刻。第一个时刻,是2012年做AlexNet,AlexKrjevsky用GPU来编写足够快的卷积程序,让CNN训练变得超级快,拉开了CV时代的序幕。这是Ilya的顿悟时刻,觉得神经网络这条路是能走通的。第二个时刻,Ilya对大模型的信心来自于早年团队的一个发现。当时,团队训练一个LSTM模型来预测Amazon评论中的下一个character,当参数从500到4000的时候,就会出现一个专门的neuron来表达评论的sentiment是正面还是负面。于是,团队猜测,当模型足够大、参数足够多的时候,句法已经被充分表达了(runoutofsyntaxtomodel),多余的参数开始学会捕捉语义信息。这说明了通过“预测下一个字”的训练方法,可以让模型学到更多隐藏的信息。4.关于多模态。多模态是有用的,尤其是视觉。人类大脑皮层中三分之一都用来处理视觉,缺少了视觉的神经网络作用会相当有限。人类更多是从图像而不是语言中学习的。人类一生只会听到大概10亿个词,这个数据量是非常有限的,而更多的数据来自于视觉。很多时候,从视觉学习比从文本学习更容易。例如颜色,尽管通过文字也可以学到颜色之间的关联,比如红色和橙色更近,和蓝色更远,但通过视觉来学习要快得多。5.AI有逻辑吗?有意识吗?AI当然有逻辑,要不为什么AlphaGo和AlphaZero在最需要逻辑推理能力的围棋游戏中击败了人类?如何真正说明AI有逻辑推理能力?证明真正困难的定理,写复杂的代码,用创新方法解决开放性问题。如果AI能够证明一个未经证实的定理,那么这个理由就很难辩驳。如何判断AI是否有意识?做这样一个实验,假如未来人工智能的训练可以从零开始,通过更小的数据集来完成,那么我们可以非常小心地对训练数据进行清洗,确保数据集中不包含任何关于意识的内容,如果系统在训练中需要人类的反馈,在互动中也要非常谨慎,确保不提到任何关于意识的概念。等训练结束的时候,你和AI一起聊天,这时你告诉他关于意识的事情,你向他描述之后,想象一下,如果这个人工智能接着说,”哦,我的上帝,我一直有同样的感觉,但我不知道如何表达它“,这时就可以认为人工智能有意识了。6.开源vs闭源。如果模型的能力不强,那么开源是一件伟大的事情。如果模型的能力过强,那么开源就变得危险。尽管目前GPT4模型的能力还算不上”过分强大“,但已经能够看到这个趋势,所以闭源是合理的。(类似于核武器?)当然,现阶段闭源更重要的原因是商业竞争(而不是安全,Ilya的原话)。7.更大的模型一定会带来更好的结果。(Ofcoursethelargerneuronnetswillbebetter.)前些年扩大规模很容易是因为有很多计算资源都没有被充分利用,一旦重新部署过之后就会快速取得进展。但现在规模到达了某种瓶颈,算力的扩张速度变慢了。Iexpectdeployingtocontinuetomakeprogressinartfromotherplaces.ThedeployingstackisquitedeepandIexpectthattherewillbeimprovementsinmanylayersofthestackandtogethertheywillstillleadtoprogressbeingveryrobust.我预期我们将发现deeplearning中很多尚未被发现的新属性,而这些新属性的应用将会让模型的效果变得更好。5-10年之后的模型能力一定会远远强过现在的模型。附三个访谈的链接:2020年5月LexFridmanAIPodcasthttps://www.bilibili.com/video/BV12c411T7pY2023年3月黄仁勋CEO与OpenAI联合创始人及首席科学家IlyaSutskever关于AI及ChatGPT的对话https://www.bilibili.com/video/BV13M411L7p72023年4月OpenAI联合创始人首席科学家AIIlyaSutskever斯坦福大学内部演讲https://www.bilibili.com/video/BV1Y24y1F72o

相关推荐

封面图片

Intel大型神经拟态系统Hala Point集成11.5亿神经元 比人脑快200倍

Intel大型神经拟态系统HalaPoint集成11.5亿神经元比人脑快200倍Loihi2处理器早在2021年就已发布,首发采用Intel4工艺,集成230亿个晶体管、六个低功耗x86核心、128个神经形态核心,单颗就有100万个神经元、1.2亿个突触,是上代规模的8倍,性能也提升了10倍。Loihi2应用了众多类脑计算原理,如异步、基于事件的脉冲神经网络(SNN)、存算一体不断变化的稀疏连接,而且神经元之间能够直接通信,不需要绕过内存。尤其是在新兴的小规模边缘工作负载上,它实现了效率、速度和适应性数量级的提升。比如执行AI推理负载和处理优化问题时,Loihi2的速度比常规CPU和GPU架构快多达50倍,能耗则只有百分之一。HalaPoint系统的形态是一个六机架的数据中心机箱,大小相当于一个微波炉,内置1152颗Loihi2处理器,共有140544个神经形态处理内核、11.5亿个神经元、1280亿个突触,最大功耗仅为2600瓦。系统内还有2300多颗嵌入式x86处理器,用于辅助计算。内存带宽达16PB/s(16000TB/s),内核间通信带宽达3.5PB/s(3500TB/s),芯片间通信带宽达5TB/s,可以每秒处理超过380万亿次的8位突触运算、超过240万亿次的神经元运算。HalaPoint在主流AI工作负载上的计算效率非常出色,比如运行传统深度神经网络时,每秒可完成多达2万万亿次运算(20PFlops),8位运算的能效比达到了15TOPS/W(每瓦特15万亿次计算),相当于甚至超过了基于GPU、CPU的架构。在用于仿生脉冲神经网络模型时,HalaPoint能够以比人脑快20倍的实时速度,运行其全部11.5亿个神经元。尤其是在运行神经元数量较低的情况下,它的速度甚至可比人脑快200倍!早期研究结果表明,通过利用稀疏性高达10比1的稀疏连接和事件驱动的活动,HalaPoint运行深度神经网络的能效比可高达15TOPS/W,同时无需对输入数据进行批处理。HalaPoint系统有望推动多领域AI应用的实时持续学习,比如科学研究、工程、物流、智能城市基础设施管理、大语言模型、AI助手等等。...PC版:https://www.cnbeta.com.tw/articles/soft/1427797.htm手机版:https://m.cnbeta.com.tw/view/1427797.htm

封面图片

反思大脑设计:人类神经元的独特布线挑战了旧有假设

反思大脑设计:人类神经元的独特布线挑战了旧有假设新研究发现,与小鼠的循环互动不同,人类新皮质神经元单向交流效率更高。这一发现可能会通过模仿人类大脑的连通性来促进人工神经网络的发展。记录多达十个神经元活动的多补丁实验装置。图片来源:Charité彭扬帆新皮质是人类智力的关键结构,厚度不足五毫米。在大脑的最外层,200亿个神经元处理着无数的感官知觉,规划着行动,并构成了我们意识的基础。这些神经元是如何处理所有这些复杂信息的呢?这在很大程度上取决于它们之间的"连接"方式。夏里特神经生理学研究所所长约尔格-盖格(JörgGeiger)教授解释说:"我们以前对新皮层神经结构的理解主要基于小鼠等动物模型的研究结果。在这些模型中,相邻的神经元经常像对话一样相互交流。一个神经元向另一个神经元发出信号,然后另一个神经元再向它发出信号。这意味着信息经常以循环往复的方式流动"。带有机器人机械手的多通道装置,可在两轮实验之间自动冲洗玻璃移液管。图片来源:Charité彭扬帆人类的新皮质比小鼠的新皮质更厚、更复杂。尽管如此,研究人员之前一直假设--部分原因是缺乏数据--它遵循相同的基本连接原则。盖革领导的夏里特研究小组现在利用极其罕见的组织样本和最先进的技术证明了事实并非如此。在这项研究中,研究人员检查了23名在夏里特接受神经外科手术治疗耐药性癫痫患者的脑组织。在手术过程中,医学上有必要切除脑组织,以便观察其下的病变结构。患者同意将这些组织用于研究目的。神经元的旋转重建。图片来源:CharitéSabineGrosser为了能够观察人类新皮层最外层相邻神经元之间的信号流,研究小组开发出了一种改进版的"multipatch"技术。这样,研究人员就能同时监听多达十个神经元之间的通信。因此,他们能够在细胞停止体外活动前的短时间内进行必要数量的测量,以绘制网络图。他们分析了近1170个神经元之间的通信渠道,以及约7200个可能的连接。他们发现,只有一小部分神经元之间进行了相互对话。"人类的信息往往是单向流动的。它很少直接或通过循环返回起点,"该论文的第一作者彭扬帆博士解释说。他曾在神经生理学研究所从事这项研究,目前在夏里特神经学系和神经科学研究中心工作。研究小组根据人类网络结构的基本原理设计了一种计算机模拟,以证明这种前向信号流在处理数据方面的优势。来自多配接装置的微量移液管接近单个神经元。图片来源:CharitéFranzMittermaier研究人员给人工神经网络布置了一项典型的机器学习任务:从口语数字录音中识别出正确的数字。在这项语音识别任务中,模仿人类结构的网络模型比以小鼠为模型的网络模型获得了更多的正确响应。它的效率也更高,同样的成绩在小鼠模型中需要相当于380个神经元,而在人类模型中只需要150个神经元。"我们在人类身上看到的定向网络结构更强大,也更节省资源,因为更多独立的神经元可以同时处理不同的任务,"彭解释道。"这意味着局部网络可以存储更多信息。目前还不清楚我们在颞叶皮层最外层的发现是否会扩展到其他皮层区域,也不清楚这些发现能在多大程度上解释人类独特的认知能力。"过去,人工智能开发人员在设计人工神经网络时会从生物模型中寻找灵感,但也会独立于生物模型来优化算法。盖格说:"许多人工神经网络已经使用了某种形式的前向连接,因为它能为某些任务带来更好的结果。人脑也显示出类似的网络原理,这令人着迷。这些对人类新皮质中具有成本效益的信息处理的洞察,可以为完善人工智能网络提供更多灵感"。编译来源:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1428037.htm手机版:https://m.cnbeta.com.tw/view/1428037.htm

封面图片

【英特尔发布大型神经拟态系统,业内首个11.5亿个人工神经元系统】

【英特尔发布大型神经拟态系统,业内首个11.5亿个人工神经元系统】#美国英特尔公司日前发布名为HalaPoint的大型神经拟态系统,旨在支持类脑人工智能领域的前沿研究,解决人工智能在效率和可持续性等方面的挑战。根据英特尔公司发表的新闻公报,英特尔在其第一代大规模研究系统PohoikiSprings的基础上,改进了HalaPoint大型神经拟态系统的架构,将神经元容量提高了10倍以上,性能提高了12倍。HalaPoint系统最初部署在美国桑迪亚国家实验室,由1152个英特尔Loihi2处理器组成,包括分布在140544个处理核心上的11.5亿个人工神经元和1280亿个人工突触。在运行传统深度神经网络时,每秒可进行20千万亿次运算。(新华网)

封面图片

基于AI芯片的神经网络优化实战

名称:基于AI芯片的神经网络优化实战描述:作为一个AI芯片轻量化设计的学习者,我深深体会到了网络结构、识蒸馏优化和低秩分解优化在实际应用中的重要性。以下是我个人的一些心得体会:网络结构剪枝是一种有效的减少复杂度和计算量的方法。通过对神经网络中冗余参数的剪枝,可以大幅减少模型的大小和计算复杂度,从而提高模型的训练和推理速度。同时,剪枝还可以使模型更加稀疏,从而提高模型的通用性和泛化能力。建议先收藏保存,不定时失效。链接:https://pan.quark.cn/s/a0d9260de283大小:NG标签:#quark#学习#资源#课程#网络优化频道:@yunpanshare群组:@yunpangroup

封面图片

科学家发现帮助瘫痪病人重新行走的神经元

科学家发现帮助瘫痪病人重新行走的神经元一个小型装置被植入病人的脊髓附近,利用电脉冲刺激控制腿部运动的神经元。在过去十年中,研究人员对该技术进行了大量改进,显示出稳步提高的效果,帮助以前完全瘫痪的病人移动他们的腿,站立,甚至使用拐杖和框架等辅助工具行走。在一个名为NeuroRestore的研究中心的新临床试验中,九名患者恢复了行走能力,而且他们的运动功能改善甚至在康复过程结束后仍然持续。最重要的是,即使在电刺激设备关闭后,他们仍然可以行走,这是以前的研究中无法达到的一个里程碑。这表明用于行走的神经纤维发生了某种程度的重组,因此科学家们在小鼠和分子模型中调查了具体机制,以了解这种情况是否以及如何发生。九名瘫痪病人在接受硬膜外电刺激治疗后重新获得了行走的能该团队创建了脊髓的三维"地图",直至单个神经元,并观察哪些神经元被电刺激所激活。他们将范围缩小到一个特定的神经元家族,这些神经元表达一种叫做Vsx2的基因。耐人寻味的是,这些神经元通常对健康人的行走并不重要,但它们似乎对受伤后重组神经纤维以修复运动功能至关重要。为了测试这一想法,研究小组随后使用了一种新版本的硬膜外植入物,它不仅刺激了脊髓,而且专门停用了Vsx2神经元。在对小鼠的测试中,那些有脊柱损伤的小鼠立即停止了行走,但健康的小鼠仍然可以正常行走。该团队表示,这项实验验证了Vsx2神经元作为硬膜外电刺激治疗瘫痪的目标。这最终可能会导致更有效的疗法,让人们重新行动。这项研究发表在《自然》杂志上。...PC版:https://www.cnbeta.com.tw/articles/soft/1332361.htm手机版:https://m.cnbeta.com.tw/view/1332361.htm

封面图片

科学家改变神经元的内在行为以治疗癫痫等神经系统疾病

科学家改变神经元的内在行为以治疗癫痫等神经系统疾病SEAS生物工程助理教授、该研究的共同第一作者刘佳说:"我们设想这项技术将为神经科学和行为研究提供高时空分辨率控制神经元的新机会,并开发新的神经系统疾病治疗方法。"光遗传学,即利用光来刺激或抑制神经元,长期以来有望彻底改变研究和治疗由神经元兴奋性过高或过低引起的神经系统疾病。然而,目前的光遗传学技术只能在短期内改变神经元的兴奋性。一旦灯光关闭,神经元就会恢复到原来的行为。纳米技术的最新进展,包括刘和他的团队开创的灵活、可植入的纳米电子技术,有可能长期改变神经元的行为,但这些设备需要植入大脑,而且不能被编程为针对参与疾病的特定神经元。一个神经元的兴奋性由两个主要部分控制--其离子通道的传导性和细胞膜储存电荷的能力,即电容。大多数光遗传学技术以离子通道的传导性为目标,通过打开或关闭一组特定的通道来调控神经元的兴奋性。这种方法可以有效地调整神经元的兴奋性,但只是暂时的。可以把神经元想象成一个电阻-电容电路,把细胞膜想象成一个电介质材料。就像任何电路一样,如果改变材料的电容--在这种情况下是细胞膜--可以长期改变电路的内在兴奋性,从高兴奋性变为低兴奋性,反之亦然。为了改变细胞膜的电容,刘佳与麻省理工学院化学系ThomasD.andVirginiaCabot助理教授XiaoWang合作,使用了对光敏感的酶,这些酶可以在细胞膜的表面触发绝缘或导电聚合物的形成。这些酶可以被设计成针对特定神经元的细胞膜,酶附着在指定的膜上,研究人员使用蓝色波长的光照亮神经元,在几分钟内触发膜上绝缘或导电涂层的生成。他们证明,具有绝缘聚合物涂层的神经元变得更加兴奋,而具有导电聚合物涂层的神经元变得不那么兴奋。研究人员发现,他们可以通过调整光照时间来调整兴奋性--神经元暴露在光照下的时间越长,涂层的绝缘性或导电性就越强。研究小组还表明,兴奋性的变化持续了三天--只要他们能在培养皿中保持神经元的活力。接下来,研究小组的目标是用脑组织切片和动物来测试这种方法。这项工作的总体目标是实现范式转变,将功能材料、结构和设备整合到具有亚细胞和细胞类型特异性的活体神经系统中,这将允许精确操纵亚细胞电化学特性,重塑活体神经系统中神经元的兴奋性。...PC版:https://www.cnbeta.com.tw/articles/soft/1335951.htm手机版:https://m.cnbeta.com.tw/view/1335951.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人