Transformer论文共同作者、谷歌AI研究员利昂·琼斯将离职创业

Transformer论文共同作者、谷歌AI研究员利昂·琼斯将离职创业 7月11日,据彭博消息,帮助撰写了开创性人工智能论文《注意力就是你所需要的一切》的利昂·琼斯证实,他将于本月晚些时候离开谷歌日本,并计划在休假后创办一家公司。 该论文于2017年发表,介绍了Transformer的概念,该系统可以帮助AI模型在它们正在分析的数据中锁定最重要的信息。Transformer现在是大型语言模型的关键构建模块,这一技术支撑着如OpenAI旗下ChatGPT等广为流行的AI产品。 这几年间,该论文的作者们创办了一些知名初创公司,其中包括为企业客户提供大型语言模型的Cohere,以及聊天机器人公司Character.AI。 via 匿名 标签: #Google 频道: @GodlyNews1 投稿: @GodlyNewsBot

相关推荐

封面图片

DeepMind 研究员论文称 AI 将消灭人类

DeepMind 研究员论文称 AI 将消灭人类 来自谷歌 DeepMind 和牛津大学的研究人员发表的一篇新论文称,超级智能的 AI “很可能” 会给人类带来生存灾难。这篇论文设想地球上的生命将变成人类与超级先进的机器之间的零和游戏。他们认为,在一个资源有限的世界里,对这些资源的竞争是不可避免的。在未来的某个时刻,监督某些重要功能的高级 AI 可能被激励想出作弊策略,以损害人类的方式获得其奖励。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

这是构成Sora基础之一的Diffusion Transformer论文作者关于Sora的一些猜测和技术解释。

这是构成Sora基础之一的Diffusion Transformer论文作者关于Sora的一些猜测和技术解释。 这个老哥可能是除了这篇论文的另一个作者(现在在Open AI工作)之外最懂Diffusion Transformer的人了,非常值得关注。 有趣的是这篇论文曾经在2023年的计算机视觉会议(CVR2023)上因“缺少创新性”而遭到拒绝,短短一年时间就变成了Sora这怪物模型的理论基础。 -正文开始- 以下是我对Sora技术报告的解读,其中包含了一些可能并不准确的猜测。首先,我非常感谢团队分享了极为有价值的见解和设计决策Sora确实令人惊叹,它将彻底改变视频生成领域。 我们目前所了解到的情况如下: 架构:Sora基于我们的扩散变换器(Diffusion Transformer,简称DiT)模型构建,该模型已发表在2023年国际计算机视觉会议(ICCV 2023)上。简单来说,它是一个结合了变换器(Transformer)主干的扩散模型: DiT = [变分自编码器(VAE)编码器 + 视觉变换器(ViT)+ 去噪扩散概率模型(DDPM)+ VAE解码器]。 根据报告,这个模型似乎没有太多额外的复杂设计。 “视频压缩网络”:这看起来就像是一个在原始视频数据上训练的变分自编码器(VAE)。在实现良好的时间一致性方面,标记化(Tokenization)可能扮演着关键角色。顺便提一下,VAE本质上是一个卷积网络,所以从技术上说,DiT实际上是一个混合模型。 ;) 当Bill和我参与DiT项目时,我们并未专注于创新(详见我之前的推特),而是将重点放在了两个方面:简洁性和可扩展性。这些优先事项带来的不仅仅是概念上的优势。 简洁性代表着灵活性。关于标准的视觉变换器(ViT),人们常忽视的一个亮点是,它让模型在处理输入数据时变得更加灵活。例如,在遮蔽自编码器(MAE)中,ViT帮助我们只处理可见的区块,忽略被遮蔽的部分。同样,Sora可以通过在适当大小的网格中排列随机初始化的区块来控制生成视频的尺寸。而UNet并不直接提供这种灵活性。 猜测:Sora可能还使用了Google的Patch n’ Pack(NaViT)技术,使DiT能够适应不同的分辨率、持续时间和长宽比。

封面图片

离职高级研究员:OPENAI 将“闪亮产品”置于安全之上

离职高级研究员:OPENAI 将“闪亮产品”置于安全之上 扬•雷克(Jan Leike)曾领导 OpenAI 引导和控制超级强大的人工智能工具的工作,他表示,由于与上级在初创公司投入这些工作的时间和资源上产生分歧,他于周四辞职。雷克在社交媒体网站 X 上的周五帖子中写道:“过去几年里,安全文化和流程已经被闪亮的产品所取代。”“我们迫切需要找出如何引导和控制比我们更聪明的 AI 系统,”雷克写道。“我之所以加入 OpenAI,是因为我认为这是世界上进行这项研究的最佳场所。然而,我与 OpenAI 领导层在公司的核心优先事项上的分歧已经持续了相当长的一段时间,直到我们最终达到了一个决裂点。”雷克表示,超级对齐团队难以获取计算资源,这些资源正在被用于开发新的面向消费者的模型,例如 OpenAI 在周一发布的最新模型 GPT-4o。“在过去的几个月里,我的团队一直在逆风中奋进。有时我们为了计算资源而苦苦挣扎,这使得完成这项至关重要的研究变得越来越困难,”他写道。

封面图片

消息称微软将AI研发外包给OpenAI 谷歌或从中受益

消息称微软将AI研发外包给OpenAI 谷歌或从中受益 McKinnon还指出,为当前的生成式AI技术提供动力的Transformer,正是来自谷歌。Transformer是谷歌于2017年开发的早期AI模型。McKinnon说:“突破来自谷歌,Transformer是所有这些大型语言模型都在使用的算法。而微软在AI领域的地位有可能沦为一家‘咨询公司’。”对此,微软尚未发表评论。当前,微软的一些顶级产品,如生成式AI聊天机器人Copilot和配备生成式AI软件的PC,都开始融入OpenAI的技术。微软已对OpenAI投入了数十亿美元。有报道称,到目前为止总投资已达到130亿美元。微软曾表示,其投资将加速AI突破,以确保这些裨益被世界广泛分享。McKinnon称:“这太奇怪了。想象一下在微软工作的情景。OpenAI在那里开发所有令人兴奋的东西,而微软就像变成一家咨询公司。” ... PC版: 手机版:

封面图片

这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平

这五天,我作为论文作者参加了世界上最大的AI顶级学术会议,采访了20+优质论文作者,参加了大厂、顶级创业公司、VC的内部聚会,平均每天睡眠5hr + 800ml 冰美式。takeaways: LLM验证了大模型范式,而这个新范式的潜力远不限于文字生成。在计算机视觉,大模型范式带来的变量正在被释放:大语言模型可以提升物体定位算法的效果、微调后的Stable Diffusion能够找到人体关节的坐标、新模型生成可交互的2.5D场景...我正在整理一份视觉领域的最新变量,如果你感兴趣,欢迎关注点赞转发,我会发给你。

封面图片

谷歌研究员认为一个叫 LaMDA 的 AI 已经具备意识

谷歌研究员认为一个叫 LaMDA 的 AI 已经具备意识 谷歌研究员被 AI 说服,认为它产生了意识。他写了一篇长达 21 页的调查报告上交公司,试图让高层认可 AI 的人格。 领导驳回了他的请求,并给他安排了“带薪行政休假”。 要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。休假期间,他决定将整个故事连同 AI 的一起,全部公之于众。 听起来像一部科幻电影的剧情梗概? 但这一幕正在真实上演,主人公谷歌 AI 伦理研究员 Blake Lemoine 正通过主流媒体和接连发声,试图让更人了解到这件事。 对他的采访成了科技版最热门文章,Lemoine 也在个人 Medium 账号连续发声。推特上也开始出现相关讨论,引起了 AI 学者、认知科学家和广大科技爱好者的注意。 华盛顿邮报,

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人