生成式AI模型正在彻底颠覆我们与计算机的传统互动方式,将它们融入我们的生活,成为我们的合作伙伴、朋友,甚至是我们的家庭成员和亲密

生成式AI模型正在彻底颠覆我们与计算机的传统互动方式,将它们融入我们的生活,成为我们的合作伙伴、朋友,甚至是我们的家庭成员和亲密伴侣。 在未来,「序列猴子」的多模态将为AI CoPilot这一模式增添更丰富的表达形式,为企业和用户带来更有趣的体验。 #AI工作流 #AI的神奇用法 「序列猴子」内测探索

相关推荐

封面图片

我们和 Stability AI (对,就是那个 SD)合作出品的 AI 视频编辑产品【Morph Studio】内测发布啦!!

我们和 Stability AI (对,就是那个 SD)合作出品的 AI 视频编辑产品【Morph Studio】内测发布啦!!! 憋了好久终于可以把这个产品分享给大家了! 这个产品的核心创新基于两点洞察: 1. AI 在视频行业带来的最大巨大的变化:以前影视制作前中后三期泾渭分明,我们前期设计、中期拍摄、后期制作;现在则在后期阶段也会不断生成新的素材,甚至定义新的设计。工作流的压缩必定带来新的工具需求,即在后期阶段还需要不断有生成的能力。 2. AI 为内容生产提供了大量的可能性,但 AI 视频赛道尚未出现能最大化发挥 AI 能力的创新型产品交互范式,需要一种产品帮助创作者更有条理地梳理 AI 生成的内容和应该生成的方向,我们认为画板+时间线是可以最大发挥 AI 能力的一种方式。 总而言之,Morph Studio 将会是对开源生态最兼容的AI视频制作工具,也是我们对于 AI 时代的视频制作工具应该长什么样的一个答卷。我们会不断探索和改进,希望能有机会和你同行! Morph Studio Waiting List Invalid media:

封面图片

【如果AI有意识,我们如何知道?】为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如

【如果AI有意识,我们如何知道?】为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如果达到这些标准,就表明一个AI系统具有意识的可能性很大。8月17日,他们在预印本服务器arXiv上公布了临时指南,以供同行评审。 #抽屉IT

封面图片

如果有什么东西会完全失控,那就是个问题,我们不能允许这样。我们说这个会失控,那就是对我们自身责任的放弃。我们可以处理强大的技术。

如果有什么东西会完全失控,那就是个问题,我们不能允许这样。我们说这个会失控,那就是对我们自身责任的放弃。我们可以处理强大的技术。顺便说一句,电力也带来了意想不到的后果。我们确保电网是安全的,我们制定了标准,我们有安全措施。显然,对于核能,我们处理了扩散问题。这两者之间有关如何处理强大技术的好例子。 LLM的一个巨大问题是它们的“幻觉”,在此,Sydney和其他模型只是凭空创造出事物。这能有效地被解决吗? 有很实际的东西可以减少“幻觉”。并且这项技术肯定在变得更好。会有解决方案的。但有时“幻觉”也是“创造力”。人们应该能选择何时使用哪种模式。 那将是一种改进,因为现在我们没有选择。但让我问一个关于另一种技术的问题。不久前,你对元宇宙大加赞扬。在2021年,你说你无法过分强调混合现实是多大的突破。但现在我们只谈论AI。这个热潮是否把元宇宙推向了某个其他维度? 我仍然是[虚拟]存在的信仰者。2016年我写了我对三件事感到兴奋:混合现实,量子,和AI。我对同样的三件事仍然感到兴奋。今天我们谈论的是AI,但我认为存在是最终的杀手级应用。当然,量子加速了所有事情。 AI不仅仅是一个讨论的主题。现在,你已经让微软围绕这种变革性技术展开。你如何管理这个? 我内部喜欢使用的一个比喻是,当我们从蒸汽机转向电力时,你必须重新布线工厂。你不能只是把电动机放在蒸汽机的位置,然后让其他所有东西保持不变。这就是斯坦利汽车公司和福特汽车公司的区别,福特能够改造整个工作流。所以在微软内部,软件的生产方式正在改变。这是微软内部核心工作流程的一次激进转变,以及我们如何推广我们的产出以及它如何改变每个学校、每个组织、每个家庭。 那个工具如何改变了你的工作? 很多知识工作是苦差事,比如电子邮件处理。现在,如果你看我的Outlook,你会发现Bard(AI助手)正在进行很多工作,让我专注于那些需要我专业技能的地方。以及我还得要提醒自己,这还是第一版。考虑到我们今天讨论的Sydney,想象一下,Bard在两年内将会如何帮助我做出决策。 最后一个问题。这个月你50岁了。你有什么特殊的反思吗? 我经常思考的是,“如何花时间?”我记得当我第一次加入微软的时候,我在计算机历史博物馆看到的一个有趣的事情。那是一个盖茨的早期电子邮件,他在那封邮件里说,“为什么我们的计算机不能像那些大型机一样快?”我想,“这个家伙怎么会有那么多时间去写这么多电子邮件?”因为我知道我没有时间。我现在理解了,他是如何选择花费他的时间,那对他来说是重要的。这就是领导力。你需要在自己的日历中投资,那些真正重要的事情。对我来说,我的50岁生日是一个时刻,我可以思考,“我应该在哪里投资我的时间?” 后记: 以下是我和 GPT 深度交流文章读后感的一些 Prompts,对我来说受益匪浅。也许部分代表着打开新世界的一种方式吧,供启发。 - 纳德拉是什么时候成为微软 CEO 的?请列举他个人的成长经历和微软这些年一起发展的关键里程碑。Azure 平台是他进行微软战略转移的重点吗? - 在这篇商业报道中,我感受到第一个的关键词是,开源。纳德拉是如何在一个巨型公司内展开这样的文化?为何如此大刀阔斧? - 我感受到的第二个关键词是,云计算。 这也是在苹果引领移动互联网浪潮下,微软跟上时代(持续挫败但没有掉队)的关键策略吗? - 对纳德拉第三个强烈感受是,他极度拥抱变革。典型故事,是有关 GPT2.5 过渡到 3,那时纳德拉的一系列反应和决策。在我看来,这是巨型公司面临「创新者的窘境」难以想象的困难。毕竟他们手上可以打的牌可不少,且大多是自己自行研发投入的,普通意义的企业家很难以更开放的心态拥抱「外来的」的创新,这业务是微软能够拿下 Open AI 这个前所未有的新革命技术的重要前提? - 第四个重要感受的关键词是Copilot。纳德拉说,那是他的顿悟时刻,他还重点提到了 GPT-4 的机器翻译和编程能力的核心意义。他还引用了个人化的童年故事~似乎体现出其雄厚计算机行业背景、经济学素养以及与人类学的交叉视角? - 第五个重要感受是,创新是唯一的护城河。很少见到这个年龄的企业家,几乎不使用旧世界的话语体系,壁垒、赛道、抢占高低啊。纳德拉,全篇都是最普世的语言,而且充满学习和开放性的姿态,这一点极为令人敬佩。 - 读后感的第六个关键点,「开启新世界,而不是重现辉煌。」纳德拉显然对微软的历史辉煌并不在意,他关注如何在新世界促进新的「工业革命」,这种展望未来的雄心和野望,有时远大于那些盯着过去的企业家,令人深受启发。 原文地址:

封面图片

(注:神经突触与神经元的动作电位触发时间的先后关系,决定了它们连接强度是增强还是减弱。如果突触的激活时序领先于神经元的动作电位,

(注:神经突触与神经元的动作电位触发时间的先后关系,决定了它们连接强度是增强还是减弱。如果突触的激活时序领先于神经元的动作电位,那么该连接获得强化;如果突触的激活时序滞后于神经元的动作电位,那么该连接获得削弱。It's a particular learning rule that uses Spike timing to figure out how to to determine how to update the synapses. So it's kind of like if the synaptic fires into the neuron before the neuron fires, then it strengthens the synapse. And if the signals fire into the neurons shortly after the neuron fired, then it weakens the synapse.) 神经网络另一个重要的点在于loss函数的提出,它为深度学习提供了可行的训练方法。很有趣的一点是,在现实世界中,我们并没有看到对应loss函数的东西 - 进化论是以loss的方式来迭代的吗?经济系统或社会系统存在loss吗?似乎都不是。 2. 神经网络的本质 Ilya认为,大脑也好,大模型也好,本质上都是把知识压缩到一个高维的隐空间当中。每一个新的观测数据到来的时候,它就会通过连接来更新隐空间中的一些参数。知识就存储在这些连接的权重里。(I guess what is a recurring role that you have a neural network which maintains a high dimensional, hidden state, and then within observation arrives. It updates its high dimensional, hidden state through its connections in some way. You could say the knowledge is stored in the connections.)压缩的过程有点类似于人类的记忆和遗忘过程,你忘掉了绝大部分没用的信息,而只是记住了那些有用的,并且将它们整合记忆。 压缩的过程就是“寻找最小回路”(search for small circuits)的过程。在数学上,有一种理论是“最短描述长度”原则,即如果你能够找到能够产生所需数据的最小程序,那么你就能够用这个程序做出最好的预测。(If you can find the shortest program that outputs the data in your disposal, then you will be able to use it to make the best prediction possible.)这是数学上可以被证明的。但“最短描述长度”原则是一个理论原则,在实践中很难准确实现。所以在实践中,针对给定的数据集,我们只能使用神经网络找到“尽量短小”的回路。因此,可以将神经网络的训练过程理解为,慢慢将训练数据集里的信息熵迁移到神经网络的参数中,而最终沉淀下来的这些回路刚好不算太大。(If you imaine the training process of a neural network as you slowly transmit entropy from the data set to the parameters, then somehow the amount of information in the weights ends up being not very large, which would explain why the general is so well.) 如果你能高效压缩信息,那么你一定已经得到知识了。GPT已经是一个世界模型了,it knows all the intricacies。尽管你做的看似只是predict the next word这么简单的事情,但这只是优化手段而已。 自然语言是最好的latent space,而且是最容易做alignment的latent space。 3. Ilya研究生涯中的两个重要时刻。 第一个时刻,是2012年做AlexNet,Alex Krjevsky用GPU来编写足够快的卷积程序,让CNN训练变得超级快,拉开了CV时代的序幕。这是Ilya的顿悟时刻,觉得神经网络这条路是能走通的。 第二个时刻,Ilya对大模型的信心来自于早年团队的一个发现。当时,团队训练一个LSTM模型来预测Amazon评论中的下一个character,当参数从500到4000的时候,就会出现一个专门的neuron来表达评论的sentiment是正面还是负面。于是,团队猜测,当模型足够大、参数足够多的时候,句法已经被充分表达了(run out of syntax to model),多余的参数开始学会捕捉语义信息。这说明了通过“预测下一个字”的训练方法,可以让模型学到更多隐藏的信息。 4. 关于多模态。 多模态是有用的,尤其是视觉。人类大脑皮层中三分之一都用来处理视觉,缺少了视觉的神经网络作用会相当有限。 人类更多是从图像而不是语言中学习的。人类一生只会听到大概10亿个词,这个数据量是非常有限的,而更多的数据来自于视觉。 很多时候,从视觉学习比从文本学习更容易。例如颜色,尽管通过文字也可以学到颜色之间的关联,比如红色和橙色更近,和蓝色更远,但通过视觉来学习要快得多。 5. AI有逻辑吗?有意识吗? AI当然有逻辑,要不为什么AlphaGo和AlphaZero在最需要逻辑推理能力的围棋游戏中击败了人类? 如何真正说明AI有逻辑推理能力?证明真正困难的定理,写复杂的代码,用创新方法解决开放性问题。如果AI能够证明一个未经证实的定理,那么这个理由就很难辩驳。 如何判断AI是否有意识?做这样一个实验,假如未来人工智能的训练可以从零开始,通过更小的数据集来完成,那么我们可以非常小心地对训练数据进行清洗,确保数据集中不包含任何关于意识的内容,如果系统在训练中需要人类的反馈,在互动中也要非常谨慎,确保不提到任何关于意识的概念。等训练结束的时候,你和AI一起聊天,这时你告诉他关于意识的事情,你向他描述之后,想象一下,如果这个人工智能接着说,”哦,我的上帝,我一直有同样的感觉,但我不知道如何表达它“,这时就可以认为人工智能有意识了。 6. 开源 vs 闭源。 如果模型的能力不强,那么开源是一件伟大的事情。如果模型的能力过强,那么开源就变得危险。尽管目前GPT4模型的能力还算不上”过分强大“,但已经能够看到这个趋势,所以闭源是合理的。(类似于核武器?) 当然,现阶段闭源更重要的原因是商业竞争(而不是安全,Ilya的原话)。 7. 更大的模型一定会带来更好的结果。(Of course the larger neuron nets will be better.) 前些年扩大规模很容易是因为有很多计算资源都没有被充分利用,一旦重新部署过之后就会快速取得进展。但现在规模到达了某种瓶颈,算力的扩张速度变慢了。I expect deploying to continue to make progress in art from other places. The deploying stack is quite deep and I expect that there will be improvements in many layers of the stack and together they will still lead to progress being very robust. 我预期我们将发现deep learning中很多尚未被发现的新属性,而这些新属性的应用将会让模型的效果变得更好。5-10年之后的模型能力一定会远远强过现在的模型。 附三个访谈的链接: 2020年5月 Lex Fridman AI Podcast 2023年3月 黄仁勋 CEO 与 OpenAI 联合创始人及首席科学家 Ilya Sutskever 关于 AI 及 ChatGPT 的对话 2023年4月 OpenAI联合创始人首席科学家AI Ilya Sutskever斯坦福大学内部演讲

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人