OPENAI研究员安德烈·卡帕斯已离开公司

OPENAI研究员安德烈·卡帕斯已离开公司 一位发言人证实,OPENAI创始成员之一的安德烈·卡帕斯 (Andrej Karpathy) 已离开公司。安德烈·卡帕斯是一名斯洛伐克裔加拿大计算机科学家,曾担任特斯拉人工智能和自动驾驶视觉总监。

相关推荐

封面图片

微软2023年Build大会演讲:如何训练和应用GPT |微软2023年Build大会来自OpenAI的AI 研究员和创始成员A

微软2023年Build大会演讲:如何训练和应用GPT |微软2023年Build大会来自OpenAI的AI 研究员和创始成员Andrej Karpathy的一个主题为State of GPT的演讲。 演讲主要有两部分内容: 1. OpenAI是如何训练GPT的 2. 我们如何有效应用GPT

封面图片

【加入最火OpenAI,特斯拉前AI总监Andrej Karpathy自宣回归】从特斯拉离开后,他在家尝试录网课、做开源项目,算

【加入最火OpenAI,特斯拉前AI总监Andrej Karpathy自宣回归】从特斯拉离开后,他在家尝试录网课、做开源项目,算是「重拾了自己长久以来对 AI 技术工作、开源和教育等方面的热情」。 #抽屉IT

封面图片

马斯克在 2018 年试图掌控 OpenAI 公司,遭到其他创始人拒绝

马斯克在 2018 年试图掌控 OpenAI 公司,遭到其他创始人拒绝 根据 Semafor 报道,马斯克是 OpenAI 的初始创始人之一,于 2015 年向 OpenAI 捐赠了 10 亿美元作为启动资金。马斯克在 2018 年提出了接管和经营 OpenAI 的提议,认为该公司在 AI 方面的雄心要远远落后于谷歌。 马斯克的提议遭到了其他联合创始人的拒绝,包括现任首席执行官萨姆・阿尔特曼(Sam Altman)、当时担任首席技术官的联合创始人格雷格・布罗克曼(Greg Brockman)。 OpenAI 公司随后发生了内部的权利斗争。内部冲突最终以阿尔特曼出任总裁,接管了公司的控制权;马斯克退出 OpenAI 董事会并与该公司断绝关系而告终。 双方的利益冲突主要在于人才方面。特斯拉当时正在开发自动驾驶算法,并挖走了 OpenAI 的领军人物安德烈・卡帕西(Andrej Karpathy)来领导其自动驾驶工作。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI首席科学家Ilya离开OpenAI了吗?

OpenAI首席科学家Ilya离开OpenAI了吗? OpenAI 联合创始人兼总裁格雷格·布罗克曼(Greg Brockman)、CTO 米拉·穆拉蒂(Mira Murati)等人,也在积极为 Sora 宣传。但伊尔亚的最后一条推文,停留在了 2023 年 12 月 15 日。OpenAI 在其官网上的 Sora 的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。这不禁让人怀疑,伊尔亚究竟是在埋头研究 GPT-5,还是已经离开了 OpenAI ?值得一提的是,OpenAI 创始成员之一、AI 技术研究员安德烈·卡帕蒂(Andrej Karpathy)在Sora 发布前夕离职。有网友大胆猜想:“如果 Andrej 和 Ilya 创办一家真正开放的人工智能公司怎么办?”1.“我们终于知道伊尔亚看到什么了”今天,OpenAI 最新发布的 Sora 模型再次让人们感受到了人工智能的强大,强大到令人害怕。Sora 不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI 直接将其定义为“世界模拟器”(world simulators)它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的 AI 模型对世界带来的风险并非遥不可及。有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个笑哭的表情。去年,随着 GPT-4 以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的 OpenAI 成员越来越多地考虑 AI 的可控性问题。为此,OpenAI 在 2023 年 7 月 5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的 AI 系统。这一项目由伊尔亚与同事简·莱克(Jan Leike)共同领导,并将 OpenAI 20% 的算力专门用于该项目的研究。一般认为,去年 11 月闹得沸沸扬扬的 OpenAI “宫斗事件”的导火索,就是伊尔亚对于 AI 的发展理念与萨姆产生了分歧,伊尔亚越来越担忧 OpenAI 的技术可能造成极度危险的局面,他觉得萨姆对待 AI 应该更加谨慎。显然,萨姆并没有停下来。在硅谷,对于 AI的不同态度把人群分成了保守派与激进派。保守派也被称为EA(Effective Altruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(Geoffrey Hinton),伊尔亚就是他的学生。激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI 从业者都是 e/acc 主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的 OpenAI 一系列激进的产品发布节奏,事实上他已经成为 e/acc 的代言人。伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与 OpenAI 全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了 OpenAI 并掌权,并重组了董事会。宫斗事件结束后,伊尔亚并没有立即离开 OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在 OpenAI 的工作。萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在 OpenAI 变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在 OpenAI 旧金山的办公室内。 马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的 AI 公司 xAI。伊尔亚对于人工智能安全的工作还在继续。12 月 14 日,OpenAI 发布了超级对齐项目的最新研究论文:使用 GPT-2 级别的小模型来监督 GPT-4 级别的大模型,并获得接近 GPT-3.5 级别的性能。同时,OpenAI 宣布与 Eric Schmidt 合作,启动了一项 1000 万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。作为该论文核心作者之一的伊尔亚,也在 X 上转发了相关内容。但这是宫斗事件至今,伊尔亚在 X上转发的关于 OpenAI 进展的唯一内容。我们暂时无法得知伊尔亚是否已经离开了 OpenAI ,但他对于 Sora 的沉默态度似乎并不寻常。伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”2.人才是 OpenAI 的核心竞争力虽然伊尔亚并不在 Sora 的研究团队中,但 Sora 仍然表现出了压倒性的性能优势,可见人才密度是 OpenAI 领先的重要因素。Sora 团队整体非常年轻。核心成员有三位,分别是研究负责人Bill Peebles(比尔·皮布尔斯)与 Tim Brooks(蒂姆·布鲁克斯)与系统主管 Connor Holmes。Conner Holmes 曾是微软研究员,在微软工作时以外援形式参与了 DALL·E 3 的推理优化工作,后来跳槽加入 OpenAI 。Bill Peebles 本科就读于 MIT,主修计算机科学,参加了 GAN 和 text2video 的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了 Adobe 的暑期实习,研究的依然是 GAN。2022年5月,Bill 到 Meta 进行了为期半年的实习,和谢赛宁( Bill 开始实习时还未离开 Meta)合作发表了 DiT 模型,首次将 Transformer 与扩散模型(Diffusion Model)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill 加入了 OpenAI。Sora 的模型架构,就是参考了 Bill 与 谢赛宁合作发表的 DiT 论文。值得一提的是,该论文主要聚焦在了 DiT 架构在图像生成领域的性能表现。有人推测,随着 Bill 加入OpenAI ,他很可能把自己在视频领域的研究成果,也带到了 OpenAI 的 Sora 项目中。Sora 的另一个核心作者是 Tim Brooks,曾在 Google 负责 Pixel 手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。2023 年从加州大学伯克利分校博士毕业后,Tim 加入 OpenAI,参与了 DALL·E 3 相关研究。在其他几位作者中,也包括两位华人 Li Jing 与 Yufei Guo。今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是 Sora 作者之一的消息。他表示,Sora 是 Bill 他们在 OpenAI 的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。同时,谢赛宁也对 Sora 发表了他的观点:第一,对于 Sora 这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;第二,在问 Sora 为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的“超能力”,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai 有一整套的 redteaming, safety guardrail 的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。(封面图来自 X,左边为安德烈·卡帕蒂,右边为伊尔亚·苏茨克维) ... PC版: 手机版:

封面图片

消息:OpenAI创始人遭解雇前 公司研究员曾致函董事会警告AI取得突破进展

消息:OpenAI创始人遭解雇前 公司研究员曾致函董事会警告AI取得突破进展 知情人士称,美国人工智能研究公司OpenAI创始人奥尔特曼上周突遭解雇的四天前,部分研究员致信董事会警告,一项人工智能技术上取得进展,能力之强大恐怕威胁全人类。 路透社引述两名知情者报道,奥尔特曼(Sam Altman)被开除的导火线之一,是公司内部研究人员致函董事会,警告奥尔特曼专注于构建通用人工智能(AGI)的Q*研究计划取得了突破性进展。他们担心继续发展下去将建构出超越人类智慧的电脑,对全人类构成威胁。 书写这封信的研究人员并未回复媒体的要求作出置评。 奥尔特曼上星期五(11月17日)突遭OpenAI解雇,并任命新的首席执行官,在业内掀起轩然大波。包括科技巨头微软在内的投资者纷纷展开游说,希望奥尔特曼回归;OpenAI星期三(22日)宣布,奥尔特曼将重返公司并担任首席执行官,董事会将进行部分改组。 其中一名知情人士告诉路透社,OpenAI的技术长穆拉蒂星期三向职员提起这项名为Q*的项目,并指在闹得沸沸扬扬的OpenAI事件之前,有人致函董事会。一名OpenAI发言人说,穆拉蒂告诉公司职员媒体将要报道的内容,但没有评论报道内容是否准确。 知情人士还称,公司内部一些人认为,Q*可能是OpenAI探索AGI的突破。该公司对AGI的定义是,在最具经济价值的任务中,超越人类的自主系统。 这名消息人士说,鉴于庞大的计算资源,新模型能够计算某些数学问题。虽然数学能力仅达到小学生的水平,但在此类测试中取得好成绩让研究人员对Q*未来可取得的成功感到非常乐观。 2023年11月23日 11:39 AM

封面图片

AI回旋镖:著名研究员三个月从 Google 跳槽到 OpenAI 又跳槽回 Google

AI回旋镖:著名研究员三个月从 Google 跳槽到 OpenAI 又跳槽回 Google AI研究员 Jacob Devlin 是 BERT 的第一作者,今年年初 Devlin 因为AI机器人 Bard 的相关问题离开谷歌并加入 OpenAI ,如今受到 Bard 的主要开发者 Slav Petrov 的邀请重回谷歌。 此前 Bard 被爆料使用了 ShareGPT (ChatGPT 聊天内容的用户分享网站) 的数据进行训练,得知这一消息后 Devlin 直接警告了谷歌CEO劈柴,认为这违反了 OpenAI 的服务条款并会导致AI机器人趋同。知情人士告诉 The Information,在 Devlin 警告高管和辞职后谷歌停止使用并删除了这些数据。有趣的是,谷歌发言人对 Bard 使用了 ShareGPT 或 ChatGPT 的数据进行训练的传闻表示坚决否认。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人