Ilya Sutskever: Deep Learning | Lex Fridman_哔哩哔哩_bilibili

IlyaSutskever是OpenAI的Co-Founder和首席科学家。相比SamAltman,他更低调,也更偏技术。连续听了他的三个访谈,收益颇多。尤其是三年前(2020年5月)他在LexFridmanPodcast的那次访谈-当时GPT3都还没有发布,算得上是畅所欲言,聊出了很多干货,不少内容即便今天听也觉得印象深刻。剩下的两期是2023年他和黄仁勋的对谈以及2周前他做客斯坦福某个seminar的访谈。一些keytakeways:1.从生物学上,理解神经网络和大脑的相似性物理学中的理论是非常精确的,人们可以用其做出各种惊人的预测。相比之下,生物学要更加复杂,很难有好的预测性理论。机器学习则介于物理学和生物学之间。本质上,深度学习是在参考人类大脑的运行方式。在Ilya看来,神经网络最重要的突破是反向传播算法,用数学方程来描述了学习的原理。根据目前神经科学的理解,大脑的学习规则的关键是电信号的时序(Spike-timingdependentplasticity,STDP)。STDP机制根据神经元放电时序来调节突触强度,而神经网络的反向传播算法通过时间顺序的链式求导来调整权重,二者都依靠误差信号来改变网络结构,并且驱动学习。

相关推荐

封面图片

OpenAI 首席科学家称今天的 AI 模型可能有些许意识

OpenAI首席科学家称今天的AI模型可能有些许意识IlyaSutskever在接受麻省理工科技评论采访时表示,今天的神经网络可能具有一定意识,神经网络基于生物大脑的机制设计,两者都接收数据,聚合来自该数据的信号,然后基于一些简单的过程(神经网络中的数学、大脑中的化学物质和生物电)来传播或不传播它们。这是一个巨大的简化,但原则是成立的。如果你有一个非常大的人工神经网络,它应该做很多事情。特别是,如果人脑可以做某事,那么大型人工神经网络也可以做类似的事情。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

生物启发的神经网络模型令其记忆能力大大提升

生物启发的神经网络模型令其记忆能力大大提升电信号和生物化学信号的错综复杂的相互作用,以及神经元和其他细胞类型之间的连接网络,为记忆的形成创造了基础结构。尽管如此,由于对大脑基础生物学的了解有限,将大脑的复杂生物学编码到计算机模型中进行进一步研究已被证明是一项困难的任务。冲绳科学与技术研究所(OIST)的研究人员通过纳入生物学的见解,对广泛使用的记忆计算机模型(称为霍普菲尔德网络)进行了改进。这一改变启发了一个神经网络,它不仅更好地反映了神经元和其他细胞在大脑中的连接方式,而且还有能力储存更多的记忆。深井智树教授小组的博士生托马斯-伯恩斯说,网络中增加的复杂性使其更加现实,深井教授是OIST神经编码和脑计算部门的负责人。"为什么生物学会有这么多的复杂性?记忆能力可能是一个原因,"伯恩斯先生说。在经典的霍普菲尔德网络(左)中,每个神经元(I、j、k、l)都以成对的方式与其他神经元相连。在伯恩斯和深井教授制作的改良网络中,三个或更多的神经元组可以同时连接。资料来源:托马斯-伯恩斯(OIST)霍普菲尔德网络将记忆存储为系统中不同神经元之间的加权连接模式。网络被"训练"来编码这些模式,然后研究人员可以通过呈现一系列模糊或不完整的模式来测试它对这些模式的记忆,观察这一网络是否能将它们识别为它已经知道的模式。然而,在经典的霍普菲尔德网络中,模型中的神经元与网络中的其他神经元相互连接,形成一系列所谓的"配对"连接。成对连接代表了两个神经元在突触处的连接方式,突触是大脑中两个神经元的连接点。但在现实中,神经元有复杂的分支结构,称为树突,提供多个连接点,因此大脑依靠更复杂的突触安排来完成其认知工作。此外,神经元之间的连接是由称为星形胶质细胞的其他细胞类型调节的。伯恩斯解释说:"大脑中只存在神经元之间的成对连接,这根本不现实。他创建了一个改良的霍普菲尔德网络,其中不仅有成对的神经元,而且有三组、四组或更多的神经元也可以连接起来,例如在大脑中可能通过星形胶质细胞和树突树发生。"尽管新的网络允许这些所谓的"集合式"连接,但总的来说,它包含的连接总数与以前一样。研究人员发现,一个包含成对连接和集合连接的混合网络表现最好,保留的记忆数量也最多。他们估计它的效果是传统霍普菲尔德网络的两倍以上。"事实证明,你实际上需要在某种程度上平衡各种特征的组合,"伯恩斯说,"单独的突触是必要的,但也应该需要一些树突树和一些星形胶质细胞。"霍普菲尔德网络对于模拟大脑过程非常重要,但它们也有强大的其他用途。例如,被称为变形金刚的非常类似的网络类型是基于人工智能的语言工具,如ChatGPT,所以伯恩斯和深井教授所确定的改进也可能使这类工具更加强大。伯恩斯和他的同事们计划继续研究他们修改后的霍普菲尔德网络,以使它们更加强大。例如,在大脑中,神经元之间的连接强度通常在两个方向上是不一样的,所以研究人员想知道这种不对称的特点是否也能提高网络的性能。此外,他还想探索使网络的记忆相互作用的方法,就像它们在人脑中的作用一样。我们的记忆是多方面的,而且很庞大。我们仍然有很多东西需要发掘。"...PC版:https://www.cnbeta.com.tw/articles/soft/1348821.htm手机版:https://m.cnbeta.com.tw/view/1348821.htm

封面图片

“脑雪崩”和神经临界状态的秘密被揭开

“脑雪崩”和神经临界状态的秘密被揭开神经细胞的显微镜图像,其中荧光标记显示不同类型的细胞。绿色标记神经元和轴突,紫色标记神经元,红色标记树突,蓝色标记所有细胞。当存在多个标记时,颜色会合并,并且通常根据标记的比例显示为黄色或粉色。图片来源:皮质实验室来自CorticalLabs和墨尔本大学的研究人员使用了DishBrain——一个学习打乒乓球的800000个人类神经细胞的集合。该研究最近发表在《自然通讯》杂志上。这是迄今为止最有力的证据,支持关于人脑如何处理信息的有争议的理论。根据大脑批判假说,只有当神经元处于边缘状态,微小的输入就可以引发大脑活动的“雪崩”时,大的复杂行为才有可能发生。这种精细平衡的状态被称为“神经临界”状态,介于两个极端之间:癫痫等疾病中出现的兴奋失控,以及信号停滞的昏迷状态。生物技术初创公司CorticalLabs的首席科学官BrettKagan博士表示:“它不仅显示网络在接收结构化信息时重组为接近临界状态,而且达到该状态还会带来更好的任务表现。”结果令人惊讶,远远超出了我们的预期。”这项研究为批判性大脑假说之谜增添了重要的一环。ForoughHabibollahi,该研究的第一作者。主要发现和启示到目前为止,几乎没有实验证据证明临界性是否是生物神经元网络的一般特征,或者是否与信息负载有关。卡根博士说:“我们的研究结果表明,当神经网络执行某项任务时,就会出现近乎临界的网络行为,而在不受刺激的情况下则不会。”然而,卡根博士的研究表明,仅靠临界性不足以驱动神经网络的学习。他介绍说:“学习需要一个反馈循环,向网络提供有关某项行动后果的附加信息。”最新研究强调了DishBrain有助于解开人类大脑的秘密及其工作原理的潜力,而这在动物模型中是不可能的。第一作者ForoughHabibollahi博士说:“通常,为了研究大脑,特别是在神经元规模上,研究人员必须使用动物模型,但这样做会遇到很多困难,而且研究对象的数量也有限,因此,当我看到DishBrain能够以其他人无法做到的方式回答不同类型问题的独特能力时,我非常兴奋地开始这个项目并加入这个团队。”应用和未来的可能性医生们还看到了这项研究在帮助发现严重脑部疾病的治疗方法方面的巨大潜力。“DishBrain关键性项目是皮质实验室、生物医学工程和神经病学之间一次令人惊叹的合作经历,”论文作者、墨尔本大学医学系神经动力学实验室负责人ChrisFrench博士说,“DishBrain神经元的关键动态可以为诊断和治疗从癫痫到痴呆等一系列神经系统疾病提供关键的生物标志物。"通过构建活体大脑模型,科学家将能够使用真实的大脑功能而不是计算机等有缺陷的类似模型进行实验,不仅可以探索大脑功能,还可以测试药物如何影响它。该论文的作者、墨尔本大学生物信号与生物系统系主任AnthonyBurkitt教授表示,这项研究还有可能解决脑机接口面临的挑战,可以恢复因神经损伤而丧失的功能。“我们目前研究的下一代神经假体和脑机接口的一个关键特征涉及利用实时闭环策略,因此,这项研究的结果可能对理解这些控制和刺激策略如何与大脑中的神经回路相互作用具有重要意义。生物大脑建模领域还处于起步阶段,但为一个全新的科学领域开辟了道路.”卡根博士说。...PC版:https://www.cnbeta.com.tw/articles/soft/1383179.htm手机版:https://m.cnbeta.com.tw/view/1383179.htm

封面图片

长期摆烂、陷入倦怠:如何利用假期重获动力?_哔哩哔哩_bilibili

我最近可能有点“AI倦怠”了。上午在B站看了个“倦怠”主题的热门视频,发现里面的一些描述,跟我最近的情况还蛮像。比如,“你先是感到身体疲惫,休息不好,每天起床都很困难……你会逐渐从身体疲惫发展为心理疲惫。”我最近身体确实有点疲惫,经常睡前好几个小时,啥都不想干,运动完就去看电影解说,一看便看到很晚。心也有点累,没动力写东西了,之前每天几条帖子,现在几天不写一条帖子。视频里还说,倦怠的最大诱因,是慢性压力。那么,我在AI领域感受到的慢性压力有哪些呢?我也结合视频中提到的两大表现来展开吧。【表现一】总感觉事情在掌控之外视频中对这种失控的描述,是“生活就好像在玩一个扫雷游戏,我最大的愿望就是千万别出事儿”。而我对生成式AI的失控感,是AI的「做不到」。AI确实提效,AI确实有巨大想象空间。但很多业务中的真实问题,也绝不是随便找款AI工具就能解决的。更甚者,一些AI工具的实用效果,还不如互联网工具和RPA。其实,越是AI的高价值应用场景,越需要整个AI工程师团队去做定制化。在定制化的过程中,既要确保AI有稳定解决业务真实问题的能力,又要确保业务方真的愿意和能够在工作中用起来。坏消息是,在找外部AI工具这件事上,我“浪费”了一个多月。也正是这段时间的负反馈,让我逐渐产生了“AI倦怠”的苗头。本想趁国庆学学Python和其他AI技术的,但心太累了,没学动。好消息是,公司AI工程师们为业务方定制的AI工具,节前终于小规模用起来了。与此同时,我在AI情报上的突出表现,得到了话事人的肯定。【表现二】永远无法停止对「生存之大问题」的思考本来,在当前这个就业形式下,不管我在干啥,大脑后台都在持续运转着一些大问题:“如何才能保住现在的工作?未来失业了要怎么办?怎么样才能搞到钱?”这段时间,我在工作上又遇到了些阻碍。虽然第一时间就跟直属领导汇报了卡点,交流了应对方式,但内心中恐惧的声音,却不降反增,直到把人消耗得心疲力竭。好像越是难受的时候,我越喜欢在大问题上胡思乱想。反而一旦有了点小正反馈,我更倾向于找小的优化点去突破。看来,会不会使用AI,都不影响我们受「生存之大问题」的困扰。

封面图片

01. 课程介绍(吴恩达 x Open AI ChatGPT 提示工程教程)_哔哩哔哩_bilibili

由@GitHubDaily翻译的吴恩达prompt课程中文字幕版,以下是他的微博原文:今天花了一天时间,将《ChatGPT提示工程》视频教程的所有字幕都翻译完了。该教程由吴恩达老师与OpenAI开发者IzaFulford联手教授。教程总共分为9个章节,时长一个多小时,里面主要涵盖:提示词最佳实践、评论情感分类、文本总结、邮件撰写、文本翻译、快速搭建一个聊天机器人等等。所有当下ChatGPT的流行案例,你都能在这个教程里面找到,十分全面!除了能在这个教程里面学到如何使用Prompt,你还能学到GPT接口调用开发知识。有需要的话,你甚至能在这个教程之上去延伸扩展,搭建出一款令人惊艳的应用。目前该教程已经在DeepLearning.ai正式上线,官网上提供了可交互式的Notebook,让你可以一边学习,一边跟着编写代码实践。不过当下该教程只有英文版,为了让看不懂英文的同学也能第一时间学习并掌握这项技术,我完整翻译了所有英文字幕,并且将所有视频与字幕同步上传到了B站。中文视频:http://t.cn/A6NNS9Be英文视频:http://t.cn/A6NNS2kl该视频的中英文字幕源文件,我也将其开源到了GitHub上。如果你在观看视频的过程中,发现翻译内容有错漏、错别字、病句等情况,欢迎向我们提交PullRequest以改进字幕翻译质量。字幕地址:github.com/GitHubDaily/ChatGPT-Prompt-Engineering-for-Developers-in-Chinese

封面图片

控制AI最有效的方法也许是植入"奴性"?或者是"好奇心"?

控制AI最有效的方法也许是植入"奴性"?或者是"好奇心"?计算神经网络是一种模仿生物大脑神经网络构建的模型,几十年以来,人们发现仅靠模仿人类大脑的架构就能拥有与人类相似的能力。虽然还不知道具体原因,但这已经成就了今天的AI技术,从ChatGPT到Midjourney再到谷歌搜索都是计算神经网络。AI拥有情感和AI毁灭世界一直是科幻作品的重要组成部分,如今前者已成现实后者备受关注。在munk辩论会"AI研发是否对人类文明构成威胁"上,深度学习三巨头之二YannLeCun、YoshuaBengio等业内领袖展开了激烈讨论。LeCun了一个颇具科幻哲学意味的方案:"令人惊讶的是,这些AI会有情绪,会有同理心,类似于人类的种种情感,而这将是控制它们的方法。我们可以将服从植入其中。"从家宠到牲畜,虽然利用和培养天性已然成为人类社会的一部分,但当科技演绎"潘多拉的起源"时还是难免让人感到惊奇。说到潘多拉,马斯克与xAI就以植入好奇心为方案,他们认为最安全的方式是构建一个拥有极度好奇心和追求真相的AI,因为这是人类的特性。——频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人