OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能 OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。 ,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能假设它最终确实到来不一定是仁慈的,需要研究控制和限制它的方法。 他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。” 为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

相关推荐

封面图片

OpenAI 已解散长期人工智能风险团队

OpenAI 已解散长期人工智能风险团队 去年 7 月,OpenAI 宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI 首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合负责人。OpenAI 表示,该团队将获得 20% 的计算能力。 现在 OpenAI 证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员 Leopold Aschenbrenner 和 Pavel Izmailov 因泄露公司机密而被解雇,周二 Sutskever 宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入 OpenAI 的其他研究工作中。

封面图片

OpenAI 的长期人工智能风险团队已经解散

OpenAI 的长期人工智能风险团队已经解散 5 月 17 日消息,据美国杂志 WIRED 报道,去年 7 月,OpenAI 宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI 的首席科学家、公司联合创始人之一 Ilya Sutskever 被任命为这个新团队的联合领导人。OpenAI 表示,该团队将获得其计算能力的 20%。 现在 OpenAI 的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称 Sutskever 将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到 OpenAI 的其他研究工作中。 来源:财经慢报频道

封面图片

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”) Jan Leike,OpenAI 的一位关键研究员,在联合创始人Ilya Sutskever 离职后于本周早些时候辞职。他在周五早上在 X 上发帖称,该公司“安全文化和流程已被华而不实的产品所取代”。 Leike的声明是在《》杂志报道 OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)之后发表的。Leike曾负责这个超级对齐团队,该团队成立于去年七月,目的是“解决在 OpenAI 开发具有类人推理能力的 AI 时实施安全协议中的核心技术挑战”。 “我们早就应该非常认真地考虑人工通用智能的影响了。我们必须尽我们所能优先准备,”莱克在周五早上关于他辞职的后续帖子中说。“只有这样,我们才能确保人工通用智能惠及全人类。” Leike 的帖子突显了 OpenAI 内部日益增长的紧张氛围。在研究人员争相开发人工通用智能的同时,还要管理像 ChatGPT 和 DALL-E 这样的消费级 AI 产品,像Leike这样的员工则在提出对创造超级智能 AI 模型潜在危险的担忧。Leike表示,他的团队被降低了优先级,无法获得执行“关键”工作所需的计算和其他资源。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Anthropic 聘请前 OpenAI 安全负责人领导新团队

Anthropic 聘请前 OpenAI 安全负责人领导新团队 Leike 在 X 上发表文章说,他在 Anthropic 的团队将专注于人工智能安全和安保的各个方面,特别是"可扩展监督"、"弱到强的泛化"和自动对齐研究。一位熟悉内情的消息人士透露,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而 Anthropic 的研究人员目前正在研究可扩展的监督以可预测和理想的方式控制大规模人工智能行为的技术随着 Leike 团队的发展,他们将转而向 Leike 汇报工作。在许多方面,Leike 的团队听起来与 OpenAI最近解散的 Superalignment 团队有着相似的使命。Leike 共同领导的 Superalignment 团队雄心勃勃,目标是在未来四年内解决控制超级智能人工智能的核心技术难题,但经常发现自己受到 OpenAI 领导层的束缚。Anthropic 经常试图将自己定位为比 OpenAI 更注重安全。Anthropic的首席执行官达里奥-阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,据报道,他在与OpenAI就公司的发展方向(即OpenAI日益增长的商业重心)产生分歧后与OpenAI分道扬镳。阿莫德伊带着许多前OpenAI员工创办了Anthropic公司,其中包括OpenAI的前政策负责人杰克-克拉克(Jack Clark)。 ... PC版: 手机版:

封面图片

OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创Ilya Sutskever成立新人工智能公司SSI PANews 6月20日消息,据CNBC报道,OpenAI联合创始人Ilya Sutskever周三宣布成立新的人工智能初创公司Safe Superintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的Daniel Gross以及OpenAI前员工Daniel Levy共同创立了这家新公司。

封面图片

OpenAI 领导层变动仍在继续,另一位高管也宣布离职

OpenAI 领导层变动仍在继续,另一位高管也宣布离职 OpenAI 领导层的变动仍在继续,在 OpenAI 联合创始人 Ilya Sutskever 宣布离职几个小时后,另一位高管 Jan Leike 于周二晚间发推文宣布辞职。 Leike 是 OpenAI 超级对齐小组的联合负责人,该团队致力于让人工智能系统与人类利益保持一致。去年9月,他被《时代》杂志评为人工智能领域最具影响力的 100 人之一。 ,

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人