OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会 将开始训练新模型 OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(Bret Taylor)、亚当·德安吉洛(Adam D'Angelo)和妮可·塞利格曼(Nicole Seligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(Jan Leike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。 ... PC版: 手机版:

相关推荐

封面图片

OpenAI成立新的安全顾问委员会 成员全是自己人

OpenAI成立新的安全顾问委员会 成员全是自己人 根据OpenAI公司博客上的一篇文章,安全顾问委员会将在接下来90天内负责评估OpenAI得安全流程和保障措施。然后,该委员会将向OpenAI董事会汇报其发现和建议,OpenAI表示,届时将以符合安全和安保的方式公布任何已采纳的建议的更新。OpenAI周二表示,已开始训练新一代旗舰人工智能模型,以期超越目前的GPT-4大模型。“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往通用人工智能的道路上迈上一个新台阶,”OpenAI写道。“虽然我们很自豪地构建和发布在能力和安全方面都领先的模型,但我们欢迎在这个重要时刻进行深入讨论。”除了Altman,安全顾问委员会的其他成员包括OpenAI董事会成员Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科学家Jakub Pachocki、OpenAI早期筹备团队的Aleksander Madry、安全系统负责人Lilian Weng、安保负责人Matt Knight和“人工智能对齐”(AI Alignment)负责人John Schulman。安全不再优先 多名高层离职过去几个月,OpenAI的技术团队中有多名安全方面的高层人员离职,这些前员工中有些人对OpenAI在AI安全方面的优先级下降表示担忧。曾在OpenAI担任团队治理工作的Daniel Kokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时“负责任的行为”失去了信心,他在个人博客上写道。此外,OpenAI的联合创始人兼前首席科学家Ilya Sutskever在与Altman及其盟友的长期斗争后,于5月离职,据报道部分原因是Altman急于推出AI驱动的产品而牺牲了安全性能。最近,前DeepMind研究员Jan Leike此前在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中,也辞去了安全研究员职务,他在一系列X平台的帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。同时,AI政策研究员Gretchen Krueger上周离开OpenAI,她也同意Leike的观点,呼吁公司提高问责制和透明度,并“更加谨慎地使用自己的技术”。媒体报道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,包括前OpenAI董事会成员Helen Toner和Tasha McCauley。两人日前在媒体撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。“根据我们的经验,OpenAI的自我治理无法承受利润激励带来的诱惑。”倡导监管?塑造监管此前有媒体报道,负责开发“超级智能”AI系统治理方法的OpenAI超级对齐(Superalignment team)团队被承诺获得公司20%的计算资源,但实际上却很少这部分资源。超级对齐团队自那以后被解散,其工作大部分被转交给“人工智能对齐”(AI Alignment)负责人John Schulman和OpenAI在12月成立的安全咨询小组。虽然OpenAI一直在倡导AI监管,但也在努力影响塑造这些监管,该公司聘请了一名内部游说者和越来越多的外部律师事务所游说者,仅在美国游说方面该公司2023年第四季度就花费了数十万美元。最近,美国国土安全部宣布Altman将成为其新成立的人工智能安全和安保委员会(Artificial Intelligence Safety and Security Board)的成员,该委员会将为“安全和可靠的AI开发和部署”提供建议,以覆盖美国的关键基础设施。而为了避免由于安全和安保委员会全部为内部高管而被认为是橡皮图章,OpenAI承诺聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家Rob Joyce和前美国司法部官员John Carlin。然而,除了Joyce和Carlin,OpenAI尚未详细说明该外部专家组的规模和组成,也没有透露该组对委员会的影响力和权力的限制。有专家指出,OpenAI成立此类的企业监督委员会,类似于Google的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。 ... PC版: 手机版:

封面图片

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会

在解散安全团队后,OpenAI 成立了山姆·奥尔特曼参与的监督委员会 美国人工智能公司 OpenAI 成立了一个董事会委员会来评估其人工智能模型的安全性和保障措施,这是在其负责该领域的高管辞职以及公司解散其内部安全团队数周后做出的治理变革。新委员会将用90天时间评估 OpenAI 技术中的安全措施,然后提交报告。该公司28日在一篇博客文章中表示:“在全体董事会审查后,OpenAI 将以符合安全和保障的方式公开分享已采纳建议的更新情况。”OpenAI 还表示,最近已开始训练其最新的人工智能模型。

封面图片

Anthropic 聘请前 OpenAI 安全负责人领导新团队

Anthropic 聘请前 OpenAI 安全负责人领导新团队 Leike 在 X 上发表文章说,他在 Anthropic 的团队将专注于人工智能安全和安保的各个方面,特别是"可扩展监督"、"弱到强的泛化"和自动对齐研究。一位熟悉内情的消息人士透露,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而 Anthropic 的研究人员目前正在研究可扩展的监督以可预测和理想的方式控制大规模人工智能行为的技术随着 Leike 团队的发展,他们将转而向 Leike 汇报工作。在许多方面,Leike 的团队听起来与 OpenAI最近解散的 Superalignment 团队有着相似的使命。Leike 共同领导的 Superalignment 团队雄心勃勃,目标是在未来四年内解决控制超级智能人工智能的核心技术难题,但经常发现自己受到 OpenAI 领导层的束缚。Anthropic 经常试图将自己定位为比 OpenAI 更注重安全。Anthropic的首席执行官达里奥-阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,据报道,他在与OpenAI就公司的发展方向(即OpenAI日益增长的商业重心)产生分歧后与OpenAI分道扬镳。阿莫德伊带着许多前OpenAI员工创办了Anthropic公司,其中包括OpenAI的前政策负责人杰克-克拉克(Jack Clark)。 ... PC版: 手机版:

封面图片

Anthropic 聘请前 OpenAI 安全主管领导新团队

Anthropic 聘请前 OpenAI 安全主管领导新团队 OpenAI 安全团队前联合负责人 Jan Leike 周二在社交平台 X 上宣布,他将加入 OpenAI 的竞争对手 Anthropic,领导超级对齐团队。他本月初以“安全问题”为由从 OpenAI 辞职。在社交平台的帖子中,Leike 表示他的新团队将致力于“可扩展监督”、“弱到强的概括”和自动对齐研究。

封面图片

OpenAI 首席技术官:没将产品优先程度置于安全之前

OpenAI 首席技术官:没将产品优先程度置于安全之前 近日,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在一次访谈中再次谈起 AI(人工智能)安全,并对 “超级对齐” 安全团队解散、ChatGPT 斯嘉丽语音风波、公司面临监管审查等问题作出回应。穆拉蒂回应称:“超级对齐是 OpenAI 非常重要的安全团队,但只是团队之一,公司有很多人负责安全工作。” 她表示并不认同 “公司把产品放在安全之前” 这一观点,并称这一论调有点过于愤世嫉俗。

封面图片

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先 继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布,宣布他已经在上周离开公司。 Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。 OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。来源 , 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人