离职高级研究员:OPENAI 将“闪亮产品”置于安全之上

离职高级研究员:OPENAI将“闪亮产品”置于安全之上扬•雷克(JanLeike)曾领导OpenAI引导和控制超级强大的人工智能工具的工作,他表示,由于与上级在初创公司投入这些工作的时间和资源上产生分歧,他于周四辞职。雷克在社交媒体网站X上的周五帖子中写道:“过去几年里,安全文化和流程已经被闪亮的产品所取代。”“我们迫切需要找出如何引导和控制比我们更聪明的AI系统,”雷克写道。“我之所以加入OpenAI,是因为我认为这是世界上进行这项研究的最佳场所。然而,我与OpenAI领导层在公司的核心优先事项上的分歧已经持续了相当长的一段时间,直到我们最终达到了一个决裂点。”雷克表示,超级对齐团队难以获取计算资源,这些资源正在被用于开发新的面向消费者的模型,例如OpenAI在周一发布的最新模型GPT-4o。“在过去的几个月里,我的团队一直在逆风中奋进。有时我们为了计算资源而苦苦挣扎,这使得完成这项至关重要的研究变得越来越困难,”他写道。——

相关推荐

封面图片

离职高级研究员:OpenAI将“闪亮产品”置于安全之上

离职高级研究员:OpenAI将“闪亮产品”置于安全之上2024年5月18日,OpenAI的高级安全领导人扬·雷克辞职,因与公司在产品与安全优先级上的分歧达到“临界点”。雷克在社交媒体上表示,过去几年中,OpenAI的安全文化和流程被“闪亮的产品”取代。去年,OpenAI启动了由雷克领导的超级对齐团队,其致力于确保强大AI的安全开发,并以解决超级智能机器“可能导致人类失去权力甚至人类灭绝”为目标。但他指出,该团队难以获得必要的计算资源,这些资源被用于开发面向消费者的新模型,例如OpenAl在周一发布的最新模型GPT-4o。此事件揭示了OpenAI内部在技术发展与安全使命之间的紧张关系。OpenAI首席执行官萨姆·奥尔特曼对此表示遗憾,并承诺继续努力解决这些问题。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

离职高级研究员:#OpenAI将“闪亮产品”置于安全之上https://www.bannedbook.org/bnews/itn

封面图片

OpenAI研究员辞职 声称安全问题已被改进后的产品所解决

OpenAI研究员辞职声称安全问题已被改进后的产品所解决访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器雷克的声明是在《连线》报道OpenAI已经解散了专门负责解决长期人工智能风险的团队(称为"超级对齐团队")之后发表的。莱克一直负责管理Superalignment团队,该团队于去年7月成立,目的是在OpenAI开发出能像人类一样推理的人工智能时,"解决实施安全协议的核心技术挑战"。OpenAI最初的想法是向公众公开提供他们的模型,这也是该组织名称的由来,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此这些模型已经成为专有知识。"我们早该认真对待AGI的影响。我们必须优先为其做好准备,"莱克在周五上午关于他辞职的后续推文中说。"只有这样,我们才能确保AGI造福全人类。"在去年不成功的董事会政变中支持Altman的另一位OpenAI联合创始人约翰-舒尔曼(JohnSchulman)将接替Leike的职责。在针对山姆-奥特曼(SamAltman)的臭名昭著的失败政变中扮演关键角色的苏茨克沃周二宣布离职。莱克的帖子凸显了OpenAI内部日益紧张的关系。随着研究人员在管理ChatGPT和DALL-E等消费级人工智能产品的同时竞相开发人工通用智能,像莱克这样的员工开始担心创建超级智能人工智能模型的潜在危险。莱克说,他的团队被剥夺了优先权,无法获得计算和其他资源来完成"关键"工作。莱克写道:"我之所以加入,是因为我认为OpenAI将是世界上从事这项研究的最佳场所。然而,我与OpenAI领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。"...PC版:https://www.cnbeta.com.tw/articles/soft/1431347.htm手机版:https://m.cnbeta.com.tw/view/1431347.htm

封面图片

【微软对OpenAI有“绝对信心”,OpenAI首席AI研究员称“我们将更加亲近”】

【微软对OpenAI有“绝对信心”,OpenAI首席AI研究员称“我们将更加亲近”】OpenAI董事会宣布罢免CEOSamAltman当天,临时CEOMiraMurati在一场全公司会议上表示,OpenAI与微软仍然稳定。Murati称,微软CEOSatyaNadella和CEOKevinScott在人事更迭之后表示对OpenAI有“绝对信心”。OpenAI的首席AI研究员IlyaSutskever称,人们所,Altman的离开将“让我们感觉更亲近”。

封面图片

前OPENAI研究员将创办人工智能教育公司

前OPENAI研究员将创办人工智能教育公司7月17日消息,OpenAI创始成员安德烈·卡帕蒂(AndrejKarpathy)周二宣布创办人工智能教育公司EurekaLabs。卡帕蒂称,公司将使用人工智能助教来支持和扩展由人类教师设计的教材。“这种教师与人工智能的结合,可以在一个通用平台上运行一整套课程,”卡帕蒂说。“如果我们取得成功,那么任何人学习任何东西都将很容易。”卡帕蒂还表示,该公司的第一个产品将是一个本科水平课程,教学生训练自己的人工智能系统模型。——、

封面图片

奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难

奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难访问:NordVPN立减75%+外加3个月时长另有NordPass密码管理器第二天,OpenAI首席执行官SamAltman和总裁兼联合创始人GregBrockman回应了Leike关于公司不关注安全的说法。除其他外,Leike还表示,近年来OpenAI的安全文化和流程已经让位于闪亮的产品,他的团队很难获得资源来完成安全工作。雷克写道:我们早就应该认真对待AGI(通用人工智能)的影响了。我们必须优先考虑尽我们所能为他们做好准备。周五,Altman在雷克的转发中首先做出了回应,称雷克是对的,OpenAI还有很多事情要做,并且致力于这样做。他承诺将会发布更长的帖子。周六,布罗克曼在X上发布了他自己和Altman的共同回应:在对雷克的工作表示感谢后,布罗克曼和奥尔特曼表示,他们在雷克辞职后收到了一些问题。他们分享了三点,第一是OpenAI提高了人们对AGI的认识,以便世界能够更好地为此做好准备。他们写道:我们一再证明扩大深度学习规模所带来的巨大可能性,并分析其影响;在AGI的国际治理流行之前就呼吁这种呼吁;并帮助开拓评估人工智能系统灾难风险的科学。第二点是,他们正在为这些技术的安全部署奠定基础,并以员工为以安全的方式将ChatGPT-4带到世界”所做的工作为例。两人声称,自那时以来(OpenAI于2023年3月发布了ChatGPT-4),该公司根据部署中吸取的经验教训,不断改进模型行为和滥用监控。第三点?“未来将比过去更艰难,”他们写道。Brock和Altman解释说,OpenAI在发布新模型时需要不断提升其安全工作,并引用该公司的准备框架作为帮助实现这一目标的一种方式。根据OpenAI网站上的页面,该框架预测可能出现的灾难性风险,并寻求减轻这些风险。然后,布罗克曼和奥特曼继续讨论未来,OpenAI的模型将更加融入世界,更多的人与它们互动。他们认为这是一件有益的事情,并相信可以安全地做到这一点——“但这需要大量的基础工作。”因此,该公司可能会推迟发布时间表,以便模型达到其安全标准。“我们知道我们无法想象未来所有可能的情况。”他们说。“因此,我们需要有一个非常严格的反馈循环、严格的测试、每一步都仔细考虑、世界一流的安全性以及安全性和功能的和谐。”领导人表示,OpenAI将继续与政府和利益相关者就安全问题进行研究和合作。他们总结道:对于如何走上通用人工智能之路,目前还没有经过验证的剧本。我们认为实证理解可以帮助指明前进的方向。我们相信,既能带来巨大的好处,又能努力减轻严重的风险;我们非常认真地对待我们在这里的角色,并仔细权衡对我们行动的反馈。OpenAI首席科学家IlyaSutskever本周也辞职,这一事实使雷克的辞职和言论变得更加复杂。#WhatDidIlyaSee成为X上的热门话题,标志着人们对OpenAI高层领导者所了解的事情的猜测。从布罗克曼和奥特曼今天声明的负面反应来看,这并没有消除任何这种猜测。截至目前,该公司正在推进下一个版本:语音助手ChatGPT-4o。...PC版:https://www.cnbeta.com.tw/articles/soft/1431449.htm手机版:https://m.cnbeta.com.tw/view/1431449.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人