首席科学家离开后 OpenAI又一高管辞职

首席科学家离开后OpenAI又一高管辞职  莱克共同领导了OpenAI的超级对齐团队,该团队专注于使其人工智能系统与人类利益保持一致。去年9月,莱克被《时代》杂志评为人工智能领域100位最具影响力人物之一。与苏茨克沃的充满感情的告别帖子不同,莱克的帖子非常简单,只有几个字——“我辞职了”,这肯定会引发人们对他和苏茨克沃下一步行动的猜测。OpenAI首席执行官萨姆·奥特曼没有立即就莱克的离开发表评论。这是OpenAI管理层近期动荡的一部分。此前据TheInformation报道,两名高管戴安·尹(DianeYoon)和克里斯·克拉克(ChrisClark)几周前辞职。尹是OpenAI人力部副总裁,克拉克是非营利和战略计划负责人。TheInformation上个月还报道说,OpenAI已经与研究人员LeopoldAschenbrenner和PavelIzmailov分道扬镳。他们都曾在超级对齐团队工作过。此外,上周有报道称,近几个月来,两名负责安全和治理的员工辞职。DanielKokotajlo上个月离职,WilliamSaunders今年2月离开OpenAI。...PC版:https://www.cnbeta.com.tw/articles/soft/1431064.htm手机版:https://m.cnbeta.com.tw/view/1431064.htm

相关推荐

封面图片

首席科学家离开后,OpenAI 又一高管辞职

首席科学家离开后,OpenAI又一高管辞职OpenAI的领导层改组仍在继续,在公司联合创始人兼首席科学家伊利亚・苏茨克沃(IlyaSutskever)周二宣布离职后几个小时,其超级对齐团队负责人之一詹・莱克(JanLeike)也在社交平台X上发帖宣布辞职。去年9月,莱克被《时代》杂志评为人工智能领域100位最具影响力人物之一。与苏茨克沃的充满感情的告别帖子不同,莱克的帖子非常简单,只有几个字——“我辞职了”,这肯定会引发人们对他和苏茨克沃下一步行动的猜测。(环球市场播报)

封面图片

OpenAI首席科学家Ilya离开OpenAI了吗?

OpenAI首席科学家Ilya离开OpenAI了吗?OpenAI联合创始人兼总裁格雷格·布罗克曼(GregBrockman)、CTO米拉·穆拉蒂(MiraMurati)等人,也在积极为Sora宣传。但伊尔亚的最后一条推文,停留在了2023年12月15日。OpenAI在其官网上的Sora的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。这不禁让人怀疑,伊尔亚究竟是在埋头研究GPT-5,还是已经离开了OpenAI?值得一提的是,OpenAI创始成员之一、AI技术研究员安德烈·卡帕蒂(AndrejKarpathy)在Sora发布前夕离职。有网友大胆猜想:“如果Andrej和Ilya创办一家真正开放的人工智能公司怎么办?”1.“我们终于知道伊尔亚看到什么了”今天,OpenAI最新发布的Sora模型再次让人们感受到了人工智能的强大,强大到令人害怕。Sora不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI直接将其定义为“世界模拟器”(worldsimulators)——它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的AI模型对世界带来的风险并非遥不可及。有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个笑哭的表情。去年,随着GPT-4以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的OpenAI成员越来越多地考虑AI的可控性问题。为此,OpenAI在2023年7月5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的AI系统。这一项目由伊尔亚与同事简·莱克(JanLeike)共同领导,并将OpenAI20%的算力专门用于该项目的研究。一般认为,去年11月闹得沸沸扬扬的OpenAI“宫斗事件”的导火索,就是伊尔亚对于AI的发展理念与萨姆产生了分歧,伊尔亚越来越担忧OpenAI的技术可能造成极度危险的局面,他觉得萨姆对待AI应该更加谨慎。显然,萨姆并没有停下来。在硅谷,对于AI的不同态度把人群分成了保守派与激进派。保守派也被称为EA(EffectiveAltruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(GeoffreyHinton),伊尔亚就是他的学生。激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI从业者都是e/acc主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的OpenAI一系列激进的产品发布节奏,事实上他已经成为e/acc的代言人。伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与OpenAI全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了OpenAI并掌权,并重组了董事会。宫斗事件结束后,伊尔亚并没有立即离开OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在OpenAI的工作。萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在OpenAI变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在OpenAI旧金山的办公室内。马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的AI公司xAI。伊尔亚对于人工智能安全的工作还在继续。12月14日,OpenAI发布了超级对齐项目的最新研究论文:使用GPT-2级别的小模型来监督GPT-4级别的大模型,并获得接近GPT-3.5级别的性能。同时,OpenAI宣布与EricSchmidt合作,启动了一项1000万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。作为该论文核心作者之一的伊尔亚,也在X上转发了相关内容。但这是宫斗事件至今,伊尔亚在X上转发的关于OpenAI进展的唯一内容。我们暂时无法得知伊尔亚是否已经离开了OpenAI,但他对于Sora的沉默态度似乎并不寻常。伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”2.人才是OpenAI的核心竞争力虽然伊尔亚并不在Sora的研究团队中,但Sora仍然表现出了压倒性的性能优势,可见人才密度是OpenAI领先的重要因素。Sora团队整体非常年轻。核心成员有三位,分别是研究负责人BillPeebles(比尔·皮布尔斯)与TimBrooks(蒂姆·布鲁克斯)与系统主管ConnorHolmes。ConnerHolmes曾是微软研究员,在微软工作时以外援形式参与了DALL·E3的推理优化工作,后来跳槽加入OpenAI。BillPeebles本科就读于MIT,主修计算机科学,参加了GAN和text2video的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了Adobe的暑期实习,研究的依然是GAN。2022年5月,Bill到Meta进行了为期半年的实习,和谢赛宁(Bill开始实习时还未离开Meta)合作发表了DiT模型,首次将Transformer与扩散模型(DiffusionModel)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill加入了OpenAI。Sora的模型架构,就是参考了Bill与谢赛宁合作发表的DiT论文。值得一提的是,该论文主要聚焦在了DiT架构在图像生成领域的性能表现。有人推测,随着Bill加入OpenAI,他很可能把自己在视频领域的研究成果,也带到了OpenAI的Sora项目中。Sora的另一个核心作者是TimBrooks,曾在Google负责Pixel手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。2023年从加州大学伯克利分校博士毕业后,Tim加入OpenAI,参与了DALL·E3相关研究。在其他几位作者中,也包括两位华人LiJing与YufeiGuo。今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是Sora作者之一的消息。他表示,Sora是Bill他们在OpenAI的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。同时,谢赛宁也对Sora发表了他的观点:第一,对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;第二,在问Sora为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的“超能力”,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai有一整套的redteaming,safetyguardrail的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。(封面图来自X,左边为安德烈·卡帕蒂,右边为伊尔亚·苏茨克维)...PC版:https://www.cnbeta.com.tw/articles/soft/1419189.htm手机版:https://m.cnbeta.com.tw/view/1419189.htm

封面图片

与前总裁妻子交流后 OpenAI首席科学家改变了主意

与前总裁妻子交流后OpenAI首席科学家改变了主意消息人士表示,在与OpenAI的员工和联合创始人格雷格·布罗克曼(GregBrockman)的妻子交流之后,他改变了主意。有报道称,格雷格·布罗克曼的妻子安娜·布罗克曼哭着恳求苏茨克维尔改变主意。目前还不清楚,是什么导致了苏茨克维尔态度的反转。格雷格·布罗克曼此前担任OpenAI总裁。周六,他为了声援奥特曼而辞职,并在X上表示,是苏茨克维尔告诉阿尔特曼他要被解雇的。然而,苏茨克维尔随后却在一封由OpenAI几乎全体员工签名的公开信中加入了自己的名字。这封公开信呼吁董事会辞职,公司重新找回奥特曼。根据格雷格·布罗克曼几年前发布在X上的内容,苏茨克维尔主持了格雷格和安娜·布罗克曼的结婚仪式,仪式当时在OpenAI办公室举行。OpenAI几名联合创始人之间的关系可以追溯到很久以前。苏茨克维尔曾是谷歌大脑的研究员。2015年,马斯克和奥特曼挖走了他,他们几人共同创立了OpenAI。上周日,恢复奥特曼在OpenAI职位的谈判破裂。微软首席执行官萨蒂亚·纳德拉(SatyaNadella)周一宣布,奥特曼和布罗克曼将加入微软,领导新的AI研究团队。...PC版:https://www.cnbeta.com.tw/articles/soft/1398741.htm手机版:https://m.cnbeta.com.tw/view/1398741.htm

封面图片

OpenAI 首席科学家 Ilya 决定离开公司

OpenAI首席科学家Ilya决定离开公司联合创始人兼首席科学家说到:近十年后,我决定离开OpenAI。公司的发展轨迹堪称奇迹,我相信OpenAI将在SamAltman、GregBrockman、MiraMurati以及JakubPachocki出色的研究领导下,打造既安全又有益的AGI。能够与大家共事是我的荣幸,我会非常想念大家。再见,感谢你们所做的一切。我很期待接下来的计划—个项目对我个人来说意义重大,我会在适当的时候分享细节。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

OpenAI 首席科学家 Ilya Sutskever 将离职

OpenAI首席科学家IlyaSutskever将离职OpenAI首席科学家IlyaSutskever将离开这家人工智能巨头,该职位将由研究主管JakubPachocki接任。Sutskever是该公司创始团队的一员,在去年11月OpenAI首席执行官SamAltman短暂但戏剧性的罢免中发挥了关键作用。Sutskever写道“十年后我做出了离开OpenAI的决定”,并称,“公司的发展轨迹堪称奇迹。”(环球市场播报)

封面图片

OpenAI首席科学家有个计划 寻找方法控制超级人工智能

OpenAI首席科学家有个计划寻找方法控制超级人工智能OpenAI的研究人员利奥波德·阿森布伦纳(LeopoldAschenbrenner)指出:“通用人工智能(AGI)正在迅速接近,我们将看到具有巨大能力但也可能非常危险的超智能模型,而我们还没有找到控制它们的方法。”他参与了今年7月成立的“超级对齐”(Superalignment)研究团队。OpenAI表示,将把其可用算力的五分之一用于“超级对齐”项目,以探索如何确保超级人工智能的安全性和可控性。OpenAI最近发布了一篇研究论文,介绍了一项实验结果。该实验旨在测试一种方法,让一个较差的人工智能模型在不降低智能的情况下指导一个更聪明的人工智能模型。尽管所涉及的技术还没有超过人类的灵活性,但该实验是为了应对未来人类必须与比自己更聪明的人工智能系统合作的时代而设计的。在实验中,OpenAI的研究人员检查了一种被称为监督的过程,它被用来调整像GPT-4这样的系统,使其更有帮助、更少伤害。GPT是ChatGPT背后的大语言模型。目前,这涉及到人类向人工智能系统反馈哪些答案是好的,哪些是坏的。随着人工智能的进步,研究人员正在探索如何将这一过程自动化以节省时间。此外,这也是因为他们认为,随着人工智能变得越来越强大,人类可能无法提供有用的反馈。在对照实验中,研究人员使用OpenAI于2019年首次发布的GPT-2文本生成器来教授GPT-4,并测试了两种解决方法。其中一种方法是逐步训练更大的模型,以减少每一步的性能损失;另一种方法是对GPT-4进行了算法调整,允许较强的模型遵循较弱模型的指导,而不会削弱其性能。第二种方法被证明更有效,尽管研究人员承认这些方法并不能保证更强的模型会完美运行,但可以将其作为进一步研究的起点。人工智能安全中心主任丹·亨德里克斯(DanHendryks)表示:“很高兴看到OpenAI主动解决控制超级人工智能的问题,我们需要多年的努力来应对这一挑战。”人工智能安全中心是旧金山一家致力于管理人工智能风险的非营利组织。阿森布伦纳与“超级对齐”团队的其他两名成员科林·伯恩斯(CollinBurns)和帕维尔·伊兹梅洛夫(PavelIzmailov)在接受采访时均表示,他们为迈出重要的第一步感到鼓舞,认为这有助于驯服潜在的超级人工智能。伊兹梅洛夫打了个比方:“就像一个六年级的学生,尽管他们比大学数学专业的学生所掌握的数学知识要少,但他们仍然能够向大学生传达他们想要达到的目标,而这正是我们所追求的效果。”“超级对齐”团队由OpenAI的首席科学家和联合创始人伊利亚·苏茨凯弗(IlyaSutskever)共同领导。苏茨凯弗也是上个月投票解雇首席执行官萨姆·奥特曼(SamAltman)的原董事会成员之一。不过后来他撤回了这一决定,并威胁说如果不让奥特曼复职,他就辞职。苏茨凯弗是这篇最新论文的合著者,但OpenAI拒绝让他讨论这个项目。上个月,奥特曼与OpenAI达成了协议,董事会的大部分成员都已经辞职,苏茨凯弗在OpenAI的未来也充满了不确定性。尽管如此,阿森布伦纳表示:“我们非常感谢苏茨凯弗,他是这个项目的推动者。”在人工智能领域,OpenAI的研究人员并不是第一个尝试使用现有技术来测试有助于驯服未来人工智能系统的团队。然而,与之前的企业和学术实验室的研究一样,我们无法确定在精心设计的实验中有效的想法在未来是否实用。研究人员将让一个较弱的人工智能模型训练一个更强的人工智能模型,他们称这种能力为“解决更广泛的‘超级对齐’问题的关键组成部分”。这种人工智能对齐实验也引发了一个关键问题:控制系统的可信度有多高?OpenAI新技术的核心在于,更强大的人工智能系统能够自己决定可以忽略较弱系统的哪些指导,这种选择可能会使其忽略可能阻止其未来以不安全方式行事的重要信息。为了使这样的系统有效,需要在提供一致性方面取得进展。伯恩斯强调:“你最终需要高度的信任。”加州大学伯克利分校研究人工智能安全的教授斯图尔特·拉塞尔(StuartRussell)表示,使用不那么强大的人工智能模型来控制更强大人工智能模型的想法已经存在了一段时间。但他也指出,到目前为止,我们还不清楚用于教授人工智能行为的方法是否可行,因为它们尚未能使当前的模型可靠地运行。尽管OpenAI正在迈出控制更先进人工智能的第一步,但该公司也渴望获得外界的帮助。OpenAI宣布将与谷歌前首席执行官埃里克·施密特(EricSchmidt)合作,向外部研究人员提供1000万美元的资助,以鼓励他们在从弱到强的监管、高级模型的可解释性以及针对旨在打破限制的提示下加强模型等领域取得进展。参与撰写这篇新论文的研究人员表示,OpenAI明年还将举行一次关于“超级对齐”的会议。作为OpenAI的联合创始人,也是“超级对齐”团队的联合负责人,他领导了该公司许多最重要的技术工作。同时,他也是越来越担心如何控制人工智能的知名专家之一,因为人工智能变得越来越强大。今年以来,如何控制未来人工智能技术的问题获得了新的关注,这在很大程度上归功于ChatGPT的影响。苏茨凯弗曾在深度神经网络先驱杰弗里·辛顿(GeoffreyHinton)的指导下攻读博士学位。后者于今年5月离开谷歌,以警告人们人工智能在某些任务中似乎正在接近人类的水平。(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1404653.htm手机版:https://m.cnbeta.com.tw/view/1404653.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人