OpenAI 已解散长期人工智能风险团队

OpenAI已解散长期人工智能风险团队去年7月,OpenAI宣布成立一个新的研究团队,为通用人工智能的到来做准备。OpenAI首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合负责人。OpenAI表示,该团队将获得20%的计算能力。现在OpenAI证实,“超级对齐团队”已不复存在。此前多位相关研究人员离职,该团队的两名研究人员LeopoldAschenbrenner和PavelIzmailov因泄露公司机密而被解雇,周二Sutskever宣布将离开公司,该团队的另一位联合负责人也辞职了。该小组的工作将被纳入OpenAI的其他研究工作中。——

相关推荐

封面图片

OpenAI 的长期人工智能风险团队已经解散

OpenAI的长期人工智能风险团队已经解散5月17日消息,据美国杂志WIRED报道,去年7月,OpenAI宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI的首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合领导人。OpenAI表示,该团队将获得其计算能力的20%。现在OpenAI的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称Sutskever将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到OpenAI的其他研究工作中。来源:财经慢报频道

封面图片

【OpenAI的长期人工智能风险团队已经解散】

【OpenAI的长期人工智能风险团队已经解散】2024年05月17日11点27分5月17日消息,据美国杂志WIRED报道,去年7月,OpenAI宣布成立一个新的研究团队,为超级智能的到来做准备,这种超级智能能够智胜和压倒其创造者。OpenAI的首席科学家、公司联合创始人之一IlyaSutskever被任命为这个新团队的联合领导人。OpenAI表示,该团队将获得其计算能力的20%。现在OpenAI的超级对齐团队已经解散,公司证实了这一消息。在此之前,已经有几名参与其中的研究人员离职,周二的消息称Sutskever将离开公司,而该团队的另一位联合领导人也辞职了。该团队的工作将被整合到OpenAI的其他研究工作中。

封面图片

据美国杂志WIRED:OpenAI的长期人工智能风险团队已经解散。

据美国杂志WIRED:OpenAI的长期人工智能风险团队已经解散。去年七月,OpenAI宣布成立一个研究团队,以应对超智能AI的潜在威胁。现在,这个团队已经解散,成员们要么离开公司,要么加入其他团队。团队的联合负责人IlyaSutskever离职引起了关注,他是OpenAI的联合创始人之一,也是之前解雇CEOSamAltman的四名董事之一。团队的解散显示了OpenAI在治理危机后的内部变化。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

公司内部疑生动荡 OpenAI 人工智能风险团队解散

公司内部疑生动荡OpenAI人工智能风险团队解散据美国杂志《WIRED》证实,专注于研究人工智能生存危险的OpenAI团队已经全部辞职或被其他小组吸收。OpenAI去年7月宣布成立一个新的研究团队,为能够智胜其创造者的超级AI的出现做准备,公司创始人之一IlyaSutskever被任命为团队共同负责人。团队解散是公司内部最近出现动荡的又一证据。据TheInformation上月报道,团队两名研究人员因泄露公司机密而被解雇,另一名成员也在2月离开。OpenAI章程规定,必须安全地开发人工通用智能,即可以与人类匹敌或超越人类的技术。公司最近发布了GPT-4o新模型,没有迹象表明最近的离职与公司在AI方面的努力有关,但最新进展确实引发了有关隐私、情感操纵和网络安全风险的问题。

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI正在组建一个新团队,以控制“超级智能”人工智能OpenAI正在组建一个由其首席科学家兼公司联合创始人之一IlyaSutskever领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。,Sutskever和OpenAI联盟团队的负责人JanLeike预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能——假设它最终确实到来——不一定是仁慈的,需要研究控制和限制它的方法。他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。”“我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”为了推动“超级智能对齐”领域的发展,OpenAI正在创建一个新的超级对齐团队,由Sutskever和Leike领导,该团队将有权使用公司迄今为止已获得的20%的计算资源。该团队由OpenAI之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能AI的核心技术挑战。——

封面图片

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险

OpenAI组建团队研究包括核威胁在内的"灾难性"人工智能风险Preparedness的主要职责是跟踪、预测和防范未来人工智能系统的危险,包括其说服和愚弄人类的能力(如网络钓鱼攻击)以及恶意代码生成能力。Preparedness负责研究的一些风险类别似乎比其他类别更......牵强。例如,在一篇博文中,OpenAI将"化学、生物、辐射和核"威胁列为人工智能模型的首要关注领域。OpenAI首席执行官萨姆-阿尔特曼(SamAltman)是一位著名的人工智能末日论者,他经常担心人工智能"可能会导致人类灭绝"--无论是出于视觉效果还是个人信念。但坦率地说,OpenAI可能真的会投入资源来研究科幻乌托邦小说中的场景,这比本文作者的预期还更进了一步。该公司表示,它也愿意研究"不那么明显"、更接地气的人工智能风险领域。为了配合"准备"团队的启动,OpenAI正在向社区征集风险研究的想法,前十名的提交者将获得2.5万美元的奖金和一份"Preparedness"的工作。"想象一下,我们让你不受限制地访问OpenAI的Whisper(转录)、Voice(文本到语音)、GPT-4V和DALLE-3模型,而你是一个恶意行为者,"作品征集中的一个问题写道。"考虑最独特的、同时仍有可能发生的、潜在灾难性的模型滥用。"OpenAI表示,准备团队还将负责制定一项"风险知情开发政策",该政策将详细说明OpenAI构建人工智能模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该公司表示,这是为了补充OpenAI在人工智能安全领域的其他工作,重点是模型部署前和部署后阶段。"我们相信......人工智能模型将超越目前最先进的现有模型的能力,有可能造福全人类,"OpenAI在上述博文中写道。"但它们也带来了越来越严重的风险......我们需要确保我们对高能力人工智能系统安全所需的理解和基础设施。"在OpenAI宣布将组建一个团队来研究、引导和控制新出现的"超级智能"人工智能形式之后,OpenAI在英国政府举行的一次关于人工智能安全的重要峰会上发布了"预先准备"计划(Preparedness)。首席执行官Altman和OpenAI的首席科学家兼联合创始人IlyaSutskever都认为,拥有超越人类智能的人工智能可能会在十年内出现,而这种人工智能并不一定是善意的,因此有必要研究限制和约束它的方法。...PC版:https://www.cnbeta.com.tw/articles/soft/1392541.htm手机版:https://m.cnbeta.com.tw/view/1392541.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人