OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先 继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。

相关推荐

封面图片

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先 继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布,宣布他已经在上周离开公司。 Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。 OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI 领导层变动仍在继续,另一位高管也宣布离职

OpenAI 领导层变动仍在继续,另一位高管也宣布离职 OpenAI 领导层的变动仍在继续,在 OpenAI 联合创始人 Ilya Sutskever 宣布离职几个小时后,另一位高管 Jan Leike 于周二晚间发推文宣布辞职。 Leike 是 OpenAI 超级对齐小组的联合负责人,该团队致力于让人工智能系统与人类利益保持一致。去年9月,他被《时代》杂志评为人工智能领域最具影响力的 100 人之一。 ,

封面图片

【TheInformation:SamAltman将不再担任OpenAI首席执行官】

【TheInformation:SamAltman将不再担任OpenAI首席执行官】 11月20日消息,OpenAI联合创始人兼董事会董事Ilya Sutskever对员工表示,尽管OpenAI高管试图让Sam Altman回归,但他不会再担任公司首席执行官一职。这位知情人士表示,在与上周五解雇他的董事会、其他高管和顶级投资者进行了一个周末的谈判后,Altman将不会回到这家他在2015年与他人共同创立的初创公司。 快讯/广告 联系 @xingkong888885

封面图片

OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会 将开始训练新模型 OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(Bret Taylor)、亚当·德安吉洛(Adam D'Angelo)和妮可·塞利格曼(Nicole Seligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(Jan Leike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。 ... PC版: 手机版:

封面图片

OpenAI又一吹哨人离职 拉响安全警报:风险隐患实在太大

OpenAI又一吹哨人离职 拉响安全警报:风险隐患实在太大 主人公名叫Gretchen Krueger(简称格姐),是OpenAI的AI策略研究员。她在2019年加入OpenAI,参与过GPT-4和DALL·E 2的开发工作,还在2020年领导了OpenAI第一个全公司范围的“红队”测试。此番出走,除了提到OpenAI的决策透明度问题,她还隐约暗示:一般来说,科技公司剥夺那些寻求追究其责任的人的权力的方法之一,就是在那些提出担忧或挑战其权力的人之间制造分裂。我非常关心防止这种情况发生。算上Ilya和Jan Leike,格姐已经是这个月第3位从OpenAI离开的安全相关人员她提交辞呈还是在Ilya和Jan Leike确认离职之前。本月第3位离职的OpenAI安全成员先来简单回顾整个事情。格姐是OpenAI的AI策略研究员,关于这个岗位的职责,有网友帮大家在评论区科普了。由于感受到OpenAI存在巨大安全风险,格姐于5月14日通知公司自己即将离职。在这之后,OpenAI首席科学家Ilya正式宣布他将离开公司去追求“下一个计划”。紧随Ilya离职的,还有斥责OpenAI“产品优先于安全”的超级对齐负责人Jan Leike。那么,到底是什么风险使得格姐早就想跑呢?总结下来其实很简单,但也很关键:OpenAI在安全问题决策上不够透明且缺乏对决策人的问责。(AI透明度等)问题对所有人都很重要,它们影响着未来如何被规划、由谁来规划。我想强调的是,这些担忧不应该被误读为狭隘、投机或脱节的。它们并非如此。另外,格姐还特意提及了为了保留对OpenAI的批评权、放弃85%家庭资产的OpenAI前员工Daniel Kokotajio,表示感谢他的勇气,使她有机会说出想说的。此前,OpenAI被曝离职需签封口协议,“不签字就会影响股权”。这件事的最新进展由格姐的另一位前同事Jacob Hilton曝出:在Vox的深度调查发表之后,OpenAI已经联系了前员工们,解除了此前签署的保密协议。回到安全的话题上,格姐还是给老东家保留了体面:OpenAI仍在领导这些重要的工作。我也将继续对此保持关注和兴奋。不过格姐的出走,还是引发更多网友的好奇:当Ilya等人还在的时候,OpenAI如何决定重大安全问题?当一批重要安全成员离开后,OpenAI当前又如何决定安全问题?谁决定OpenAI的安全路线?在关注谁握有最终决策权之前,我们先来看看OpenAI的安全团队有哪些。从官网公布的信息来看,OpenAI目前的安全团队主要分为三大块。超级对齐团队:拿出20%总算力,瞄准如何控制还不存在的超级智能Safety Systems团队:专注于减少现有模型和产品(例如ChatGPT)的滥用Preparedness团队:绘制前沿模型的新兴风险首先,作为核心的超级对齐团队由Ilya和Jan Leike在2023年7月发起。结果不到1年,两位灵魂人物接连出走,超级团队分崩离析。其次,Safety Systems成立于2020年,该团队下面有4个部门,包括安全工程团队、风险管理团队、监控与响应团队以及政策与合规团队。它曾负责了GPT-3和GPT-4的安全性评估。当初领导它的Dario Amodei,后来离开OpenAI创办了Anthropic。而且Dario Amodei之所以离职,原因恰恰在于想建立一个更可信的模型。最后,OpenAI于2023年10月宣布建立Preparedness团队。该小组由麻省理工可部署机器学习中心主任Aleksander Madry领导,旨在“跟踪、预测和防范未来人工智能系统的危险”,包括从AI“说服和欺骗”人类的能力(如网络钓鱼攻击),到恶意代码生成能力。目前该团队主要进行模型能力评估、评价和内部红队(即对模型进行渗透测试的攻击方)。说了这么多,但不管OpenAI有多少安全团队,其风险评估的最终决策权仍掌握在领导层手中。宫斗风波之前,OpenAI核心管理团队中共有四名成员:CEO Sam Altman、总裁Greg Brockman、首席科学家Ilya Sutskever、CTO Mira Murati。虽然一开始Ilya发动“宫变”让Sam Altman短暂下台,但很快奥特曼“熹妃回宫”,反而是Ilya“消失”了6个月。且回归后的Sam Altman身边基本都是自己人了,包括最新顶替Ilya的Jakub。不过关于安全问题的决策权,虽然领导层是决策者,但董事会拥有推翻决策的权利。目前OpenAI的董事会成员包括,Salesforce共同首席执行官、董事会主席Bret Taylor,经济学家Larry Summers、Quora首席执行官Adam D’Angelo、前比尔及梅琳达·盖茨基金会CEO Sue Desmond-Hellmann、前索尼娱乐总裁Nicole Seligman、Instacart首席执行官Fidji Simo以及奥特曼本人。 ... PC版: 手机版:

封面图片

【OpenAI董事会据称不会重聘奥特曼,Twitch前高管Emmett Shear将担任CEO】另据The Informatio

【OpenAI董事会据称不会重聘奥特曼,Twitch前高管Emmett Shear将担任CEO】另据The Information报道,OpenAI联合创始人兼董事Ilya Sutskever对员工表示,尽管高管试图让奥特曼回归,但他不会再任CEO一职。另有消息称,OpenAI临时CEO Mira Murati计划重新聘请奥特曼和Greg Brockman,但董事会仍在寻求一位新的CEO接任奥特曼。 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人