离职高级研究员:OpenAI将“闪亮产品”置于安全之上

离职高级研究员:OpenAI将“闪亮产品”置于安全之上2024年5月18日,OpenAI的高级安全领导人扬·雷克辞职,因与公司在产品与安全优先级上的分歧达到“临界点”。雷克在社交媒体上表示,过去几年中,OpenAI的安全文化和流程被“闪亮的产品”取代。去年,OpenAI启动了由雷克领导的超级对齐团队,其致力于确保强大AI的安全开发,并以解决超级智能机器“可能导致人类失去权力甚至人类灭绝”为目标。但他指出,该团队难以获得必要的计算资源,这些资源被用于开发面向消费者的新模型,例如OpenAl在周一发布的最新模型GPT-4o。此事件揭示了OpenAI内部在技术发展与安全使命之间的紧张关系。OpenAI首席执行官萨姆·奥尔特曼对此表示遗憾,并承诺继续努力解决这些问题。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

相关推荐

封面图片

离职高级研究员:OPENAI 将“闪亮产品”置于安全之上

离职高级研究员:OPENAI将“闪亮产品”置于安全之上扬•雷克(JanLeike)曾领导OpenAI引导和控制超级强大的人工智能工具的工作,他表示,由于与上级在初创公司投入这些工作的时间和资源上产生分歧,他于周四辞职。雷克在社交媒体网站X上的周五帖子中写道:“过去几年里,安全文化和流程已经被闪亮的产品所取代。”“我们迫切需要找出如何引导和控制比我们更聪明的AI系统,”雷克写道。“我之所以加入OpenAI,是因为我认为这是世界上进行这项研究的最佳场所。然而,我与OpenAI领导层在公司的核心优先事项上的分歧已经持续了相当长的一段时间,直到我们最终达到了一个决裂点。”雷克表示,超级对齐团队难以获取计算资源,这些资源正在被用于开发新的面向消费者的模型,例如OpenAI在周一发布的最新模型GPT-4o。“在过去的几个月里,我的团队一直在逆风中奋进。有时我们为了计算资源而苦苦挣扎,这使得完成这项至关重要的研究变得越来越困难,”他写道。——

封面图片

离职高级研究员:#OpenAI将“闪亮产品”置于安全之上https://www.bannedbook.org/bnews/itn

封面图片

OpenAI研究员辞职 声称安全问题已被改进后的产品所解决

OpenAI研究员辞职声称安全问题已被改进后的产品所解决访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器雷克的声明是在《连线》报道OpenAI已经解散了专门负责解决长期人工智能风险的团队(称为"超级对齐团队")之后发表的。莱克一直负责管理Superalignment团队,该团队于去年7月成立,目的是在OpenAI开发出能像人类一样推理的人工智能时,"解决实施安全协议的核心技术挑战"。OpenAI最初的想法是向公众公开提供他们的模型,这也是该组织名称的由来,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此这些模型已经成为专有知识。"我们早该认真对待AGI的影响。我们必须优先为其做好准备,"莱克在周五上午关于他辞职的后续推文中说。"只有这样,我们才能确保AGI造福全人类。"在去年不成功的董事会政变中支持Altman的另一位OpenAI联合创始人约翰-舒尔曼(JohnSchulman)将接替Leike的职责。在针对山姆-奥特曼(SamAltman)的臭名昭著的失败政变中扮演关键角色的苏茨克沃周二宣布离职。莱克的帖子凸显了OpenAI内部日益紧张的关系。随着研究人员在管理ChatGPT和DALL-E等消费级人工智能产品的同时竞相开发人工通用智能,像莱克这样的员工开始担心创建超级智能人工智能模型的潜在危险。莱克说,他的团队被剥夺了优先权,无法获得计算和其他资源来完成"关键"工作。莱克写道:"我之所以加入,是因为我认为OpenAI将是世界上从事这项研究的最佳场所。然而,我与OpenAI领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1431347.htm手机版:https://m.cnbeta.com.tw/view/1431347.htm

封面图片

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI高管JanLeike离职,批判公司内部已不再将“安全”视为优先继OpenAI共同创始人IlyaSutskever离职之后,另一名OpenAI高管JanLeike在X平台发布,宣布他已经在上周离开公司。JanLeike是OpenAI旗下Superalignment(超级对齐)团队的共同主管,他表示最近几年OpenAI已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。OpenAI在2023年7月设立Superalignment团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的AI系统能够遵循人类的意图”。当时OpenAI承诺在未来的4年内投入20%的计算能力来保证AI模型的安全性,而根据彭博社报道,OpenAI目前据称已经解散了Superalignment团队。来源,频道:@kejiqu群组:@kejiquchat

封面图片

前OPENAI研究员将创办人工智能教育公司

前OPENAI研究员将创办人工智能教育公司7月17日消息,OpenAI创始成员安德烈·卡帕蒂(AndrejKarpathy)周二宣布创办人工智能教育公司EurekaLabs。卡帕蒂称,公司将使用人工智能助教来支持和扩展由人类教师设计的教材。“这种教师与人工智能的结合,可以在一个通用平台上运行一整套课程,”卡帕蒂说。“如果我们取得成功,那么任何人学习任何东西都将很容易。”卡帕蒂还表示,该公司的第一个产品将是一个本科水平课程,教学生训练自己的人工智能系统模型。——、

封面图片

OpenAI 前安全负责人雷克将跳槽 Anthropic

OpenAI前安全负责人雷克将跳槽Anthropic简・雷克(JanLeike)是OpenAI安全团队的前联合负责人,专注于长期风险。雷克周二在社交媒体宣布,他将加入OpenAI的竞争对手Anthropic。本月早些时候,在OpenAI的超级对齐团队(Superalignment)的另一位负责人伊利亚・苏斯克沃(IlyaSutskever)从公司辞职后,雷克也离开了公司。他们曾经领导的团队后来解散了。离开时,雷克批评了OpenAI,称“安全文化和流程已经让位于靓丽的产品。”周二,OpenAI组建了一个新的安全团队,由首席执行官萨姆・奥特曼(SamAltman)担任成员。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人