OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI高管JanLeike离职,批判公司内部已不再将“安全”视为优先继OpenAI共同创始人IlyaSutskever离职之后,另一名OpenAI高管JanLeike在X平台发布,宣布他已经在上周离开公司。JanLeike是OpenAI旗下Superalignment(超级对齐)团队的共同主管,他表示最近几年OpenAI已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。OpenAI在2023年7月设立Superalignment团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的AI系统能够遵循人类的意图”。当时OpenAI承诺在未来的4年内投入20%的计算能力来保证AI模型的安全性,而根据彭博社报道,OpenAI目前据称已经解散了Superalignment团队。来源,频道:@kejiqu群组:@kejiquchat

相关推荐

封面图片

OpenAI高管JanLeike离职,批判公司内部已不再将“安全”视为优先https://www.ithome.com/0/76

封面图片

OpenAI 的超级对齐负责人 Jan Leike 宣布离职

OpenAI的超级对齐负责人JanLeike宣布离职5月15日消息,OpenAI的超级对齐(superalignment)团队联合负责人、机器学习研究员JanLeike宣布离职。此前消息,OpenAI的联合创始人兼首席科学家IlyaSutskever也已宣布离开。值得注意的是,超级对齐团队原本由IlyaSutskever和JanLeike共同领导。

封面图片

公司内部疑生动荡 OpenAI 人工智能风险团队解散

公司内部疑生动荡OpenAI人工智能风险团队解散据美国杂志《WIRED》证实,专注于研究人工智能生存危险的OpenAI团队已经全部辞职或被其他小组吸收。OpenAI去年7月宣布成立一个新的研究团队,为能够智胜其创造者的超级AI的出现做准备,公司创始人之一IlyaSutskever被任命为团队共同负责人。团队解散是公司内部最近出现动荡的又一证据。据TheInformation上月报道,团队两名研究人员因泄露公司机密而被解雇,另一名成员也在2月离开。OpenAI章程规定,必须安全地开发人工通用智能,即可以与人类匹敌或超越人类的技术。公司最近发布了GPT-4o新模型,没有迹象表明最近的离职与公司在AI方面的努力有关,但最新进展确实引发了有关隐私、情感操纵和网络安全风险的问题。

封面图片

OpenAI 领导层变动仍在继续,另一位高管也宣布离职

OpenAI领导层变动仍在继续,另一位高管也宣布离职OpenAI领导层的变动仍在继续,在OpenAI联合创始人IlyaSutskever宣布离职几个小时后,另一位高管JanLeike于周二晚间发推文宣布辞职。Leike是OpenAI超级对齐小组的联合负责人,该团队致力于让人工智能系统与人类利益保持一致。去年9月,他被《时代》杂志评为人工智能领域最具影响力的100人之一。——,

封面图片

【OpenAI的超级对齐负责人JanLeike宣布离职】

【OpenAI的超级对齐负责人JanLeike宣布离职】2024年05月15日01点41分5月15日消息,OpenAI的超级对齐(superalignment)团队联合负责人、机器学习研究员JanLeike宣布离职。此前消息,OpenAI的联合创始人兼首席科学家IlyaSutskever也已宣布离开。值得注意的是,超级对齐团队原本由IlyaSutskever和JanLeike共同领导。

封面图片

OpenAI 前安全团队负责人 Jan Leike 加盟竞争对手 Anthropic

OpenAI前安全团队负责人JanLeike加盟竞争对手Anthropic是OpenAI安全团队的前联合负责人JanLeike周二在社交媒体宣布,他将加入OpenAI的竞争对手Anthropic。本月早些时候,在OpenAI的超级对齐团队(Superalignment)的另一位负责人IlyaSutskever从公司辞职后,Leike也离开了公司。他们曾经领导的团队后来解散了。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人