奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难

奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 第二天,OpenAI 首席执行官 Sam Altman 和总裁兼联合创始人 Greg Brockman 回应了 Leike 关于公司不关注安全的说法。除其他外,Leike 还表示,近年来 OpenAI 的安全文化和流程已经让位于闪亮的产品,他的团队很难获得资源来完成安全工作。雷克写道:我们早就应该认真对待 AGI(通用人工智能)的影响了。我们必须优先考虑尽我们所能为他们做好准备。周五, Altman在雷克的转发中首先做出了回应,称雷克是对的,OpenAI 还有很多事情要做,并且致力于这样做。他承诺将会发布更长的帖子。周六,布罗克曼在 X 上发布了他自己和 Altman 的共同回应:在对雷克的工作表示感谢后,布罗克曼和奥尔特曼表示,他们在雷克辞职后收到了一些问题。他们分享了三点,第一是 OpenAI 提高了人们对 AGI 的认识,以便世界能够更好地为此做好准备。他们写道:我们一再证明扩大深度学习规模所带来的巨大可能性,并分析其影响;在 AGI 的国际治理流行之前就呼吁这种呼吁;并帮助开拓评估人工智能系统灾难风险的科学。第二点是,他们正在为这些技术的安全部署奠定基础,并以员工为以安全的方式将ChatGPT-4 带到世界”所做的工作为例。两人声称,自那时以来(OpenAI 于 2023 年 3 月发布了 ChatGPT-4),该公司根据部署中吸取的经验教训,不断改进模型行为和滥用监控。第三点? “未来将比过去更艰难,”他们写道。 Brock 和 Altman 解释说,OpenAI 在发布新模型时需要不断提升其安全工作,并引用该公司的准备框架作为帮助实现这一目标的一种方式。根据 OpenAI 网站上的页面,该框架预测可能出现的灾难性风险,并寻求减轻这些风险。然后,布罗克曼和奥特曼继续讨论未来,OpenAI 的模型将更加融入世界,更多的人与它们互动。他们认为这是一件有益的事情,并相信可以安全地做到这一点“但这需要大量的基础工作。”因此,该公司可能会推迟发布时间表,以便模型达到其安全标准。“我们知道我们无法想象未来所有可能的情况。”他们说。 “因此,我们需要有一个非常严格的反馈循环、严格的测试、每一步都仔细考虑、世界一流的安全性以及安全性和功能的和谐。”领导人表示,OpenAI 将继续与政府和利益相关者就安全问题进行研究和合作。他们总结道:对于如何走上通用人工智能之路,目前还没有经过验证的剧本。我们认为实证理解可以帮助指明前进的方向。我们相信,既能带来巨大的好处,又能努力减轻严重的风险;我们非常认真地对待我们在这里的角色,并仔细权衡对我们行动的反馈。OpenAI 首席科学家 Ilya Sutskever本周也辞职,这一事实使雷克的辞职和言论变得更加复杂。 #WhatDidIlyaSee成为 X 上的热门话题,标志着人们对 OpenAI 高层领导者所了解的事情的猜测。从布罗克曼和奥特曼今天声明的负面反应 来看,这并没有消除任何这种猜测。截至目前,该公司正在推进下一个版本:语音助手ChatGPT-4o 。 ... PC版: 手机版:

相关推荐

封面图片

将近500名OpenAI员工威胁辞职并追随Altman在微软的团队,除非董事会辞职

将近500名OpenAI员工威胁辞职并追随Altman在微软的团队,除非董事会辞职 在OpenAI创始人Sam Altman突遭罢免后,490名OpenAI员工集体写信抗议,威胁要辞职并加入Sam Altman在微软的团队,除非董事会辞职,并让Sam Altman重新担任首席执行官。 员工们在信中表示,他们已经得到微软的保证,如果他们加入微软,所有OpenAI员工都能在新子公司获得职位;员工还呼吁恢复联合创始人兼前总裁Greg Brockman的职务。该信称,“你们解雇Sam Altman并将Greg Brockman从董事会踢出影响了所有的工作,并破坏了我们的使命,对公司也是不利的。”OpenAI首席科学家兼董事会成员Ilya Sutskever在信里签了名,他周一早些时候表示对之前参与董事会的行动感到遗憾。(Wired) 标签: #OpenAI 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

OpenAI研究员辞职 声称安全问题已被改进后的产品所解决

OpenAI研究员辞职 声称安全问题已被改进后的产品所解决 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 雷克的声明是在《连线》报道OpenAI 已经解散了专门负责解决长期人工智能风险的团队(称为"超级对齐团队")之后发表的。莱克一直负责管理Superalignment团队,该团队于去年7月成立,目的是在OpenAI开发出能像人类一样推理的人工智能时,"解决实施安全协议的核心技术挑战"。OpenAI 最初的想法是向公众公开提供他们的模型,这也是该组织名称的由来,但由于该公司声称允许任何人访问如此强大的模型可能具有潜在的破坏性,因此这些模型已经成为专有知识。"我们早该认真对待 AGI 的影响。我们必须优先为其做好准备,"莱克在周五上午关于他辞职的后续推文中说。"只有这样,我们才能确保 AGI 造福全人类。"在去年不成功的董事会政变中支持 Altman 的另一位 OpenAI 联合创始人约翰-舒尔曼(John Schulman)将接替 Leike 的职责。在针对山姆-奥特曼(Sam Altman)的臭名昭著的失败政变中扮演关键角色的苏茨克沃周二宣布离职。莱克的帖子凸显了 OpenAI 内部日益紧张的关系。随着研究人员在管理 ChatGPT 和 DALL-E 等消费级人工智能产品的同时竞相开发人工通用智能,像莱克这样的员工开始担心创建超级智能人工智能模型的潜在危险。莱克说,他的团队被剥夺了优先权,无法获得计算和其他资源来完成"关键"工作。莱克写道:"我之所以加入,是因为我认为 OpenAI 将是世界上从事这项研究的最佳场所。然而,我与 OpenAI 领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点。" ... PC版: 手机版:

封面图片

OpenAI宫斗大戏第二幕 核心安全团队解散 负责人自爆离职内幕

OpenAI宫斗大戏第二幕 核心安全团队解散 负责人自爆离职内幕 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 最新离职的OpenAI高管,超级对齐团队负责人Jan Leike直接撕破脸皮,揭露OpenAI联合创始人兼首席科学家苏茨克维离职内幕阿尔特曼不给资源、力推商业化不顾安全。Leike同时也是OpenAI的联合创始人,属于“保守派”阵营,他在Sutskever宣布离职后仅几个小时就发帖:我辞职了。官宣离职次日,Leike连发十多条帖子,公开解释了离职原因团队分配不到足够的资源:超级对齐团队过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难;安全并非阿尔特曼的核心优先事项:过去几年,安全文化和流程已经让位于更耀眼的产品。“很长一段时间以来,我与OpenAI领导层对公司核心优先事项的看法一直不合,直到我们终于到了临界点。”这是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。阿尔特曼的回应依旧体面,他表示,自己非常感谢Jan Leike对OpenAI的一致性研究和安全文化所做的贡献,并且很遗憾看到他离开。“他说得对,我们还有很多事情要做,我们致力于做到这一点。我将在未来几天内发布一篇更长的帖子。”投资未来?不 阿尔特曼选择把握现在OpenAI的超级对齐团队于2023年7月成立,由Leike和Sutskever领导,成员为OpenAI前校准部门的科学家和工程师以及来自公司其他机构的研究人员,可以说是一帮技术人员组成的团队。该团队旨在确保人工智能与其制造者的目标保持一致,目标是在未来解决控制超级智能AI的核心技术挑战,“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题。”也就是说,超级对齐团队是在为更强大的AI模型、而非当下的AI模型打造安全罩。正如Leik所说,“我相信我们应该投入更多的精力来为下一代模型做好准备,关注安全性、监控,做好准备、让AI具有对抗性的鲁棒性、(超级)对齐,关注保密性、社会影响等相关主题。这些问题很难做对,我很担心我们没有朝着正确的方向前进。”Leik还指出,虽然目前超智能AI看似遥远,但可能在本十年内出现,管理这些风险需要新的治理机构和对齐技术,从而确保超智能AI系统遵循人类意图。站在阿尔特曼的立场,维护超级对齐团队是一项庞大的开支。OpenAI曾经承诺该团队将获得该公司20%的计算资源,这势必会削弱OpenAI新产品开发的资源,而投资超级对齐团队实际是在投资未来。据OpenAI超级对齐团队的一位人士透露,20%计算资源的承诺被打了折扣,其中一小部分计算的请求经常被拒绝,这阻碍了团队的工作。超级对齐团队解散 然后呢?据《连线》等媒体报道,在Sutskever和Leike相继离职后,OpenAI的超级对齐团队已被解散。其不再是一个专门的团队,而是一个松散的研究小组,分布在整个公司的各个部门。OpenAI的一位发言人将其描述为“更深入地整合(团队)”。有消息称OpenAI的另一位联合创始人约翰•舒尔曼(John Schulman)可能会接手关于与更强大模型相关的风险的研究。这不免让人质疑,Schulman目前的工作任务在于确保OpenAI当前产品的安全,他会重点盯着面向未来的安全团队吗?阿尔特曼另一被人诟病的地方在于“捂嘴”离职员工。自去年11月至今,OpenAI至少有7名注重安全的成员辞职或被开除,但离职员工大多不愿公开谈论此事。据Vox报道,部分原因是OpenAI会让员工在离职时签署带有非贬低条款的协议。如果拒绝签署,就将失去此前拿到的OpenAI的期权,这意味着出来说话的员工可能会损失一笔巨款。一位OpenAI前员工爆料,公司入职文件说明中包含一项:“在离开公司的六十天内,你必须签署一份包含‘一般豁免’的离职文件。如果你没有在60天内完成,你的股权获益将被取消。”阿尔特曼变相承认了此事,他回应称,该公司的离职文件中有一项关于离职员工“潜在股权取消”的条款,但从未付诸实践,“我们从未收回任何人的既得股权。”他还表示,公司正在修改离职协议条款,“如果任何签署了这些旧协议的前雇员对此感到担心,他们可以联系我。”回到OpenAI高层争执的原点,也是这场旷日持久的宫斗的核心矛盾点“保守派”强调先安全再产品,“盈利派”希望尽快落实商业化。OpenAI将如何平衡产品的安全性与商业化?如何挽回愈发糟糕的公众形象?期待阿尔特曼未来几天内的“小作文”。 ... PC版: 手机版:

封面图片

马斯克发起诉讼 要求OpenAI前董事会成员提供罢免奥特曼文件

马斯克发起诉讼 要求OpenAI前董事会成员提供罢免奥特曼文件 周六,彭博社援引华盛顿特区高等法院提交的文件,要求 OpenAI 前董事海伦·托纳 (Helen Toner) 交出与将萨姆·奥尔特曼 (Sam Altman) 从 OpenAI 中除名并恢复其职务的决定相关的文件。该请求是向 OpenAI 和 Sam Altman 以及前董事 Helen Toner 提出的,目的是在法庭文件中获取有利的信息。在23日签署的一份文件中,埃隆·马斯克要求在5月21日之前交出相关信息。海伦·托纳担任乔治城大学安全与新兴技术中心主任,没有立即回应彭博社的置评请求。去年11月,在托纳和其他董事会的领导下,首席执行官萨姆·奥尔特曼(Sam Altman)被解除了首席执行官职务。然而,当 OpenAI 员工集体辞职、微软试图聘请 Sam Altman 时,Toner 和其他董事最终辞职。新成立的董事会组建了一个外部调查小组,对首席执行官萨姆·奥尔特曼进行调查,但最终决定首席执行官奥尔特曼没有做出任何可能被解雇的事情。托纳公开表示,人工智能公司应该与公众分享有关正在开发的技术风险的信息,并在这些工具出现问题时收集更多数据。4 月份在温哥华举行的 TED 会议演讲中,她表示人工智能公司应该分享有关他们正在构建的内容、系统可以做什么以及他们如何管理风险的信息。 ... PC版: 手机版:

封面图片

OpenAI又迎人事动荡 超级对齐团队正在分崩离析

OpenAI又迎人事动荡 超级对齐团队正在分崩离析 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。对此,OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)发文回应:“我非常感激杨·莱克对OpenAI的对齐研究和安全文化做出了贡献,看到他离开,我感到非常难过。他说得对,我们还有很多事情要做;我们致力于这样做。在接下来的几天里,我会有一个更长的帖子。”OpenAI去年7月组建了超级对齐团队,由杨·莱克和伊尔亚·苏茨克维领导,目标是在未来4年内解决控制超级智能AI的核心技术挑战。该团队承诺将获得该公司20%的计算资源,但其实际获得计算资源却受到阻碍。几个月来,OpenAI一直在流失关注AI安全的员工。自去年11月至今,OpenAI至少有7名注重安全的成员辞职或被开除。据《连线》证实,OpenAI超级对齐团队已经解散,余下成员要么辞职,要么将被纳入OpenAI的其他研究工作中。杨·莱克公开离职原因:团队逆风前行,拿计算资源很吃力前OpenAI超级对齐团队联合负责人杨·莱克(Jan Leike)昨晚连发13条推文,公开了离职原因:昨天是我作为OpenAI的对齐负责人、超级对齐负责人和执行官的最后一天。在过去的3年里,这是一段疯狂的旅程。我的团队使用InstructGPT推出了第一个RLHF LLM,发布了第一个可扩展的LLM监督,率先实现了自动化可解释性和弱到强的泛化。更多令人兴奋的东西即将问世。我爱我的团队。我非常感谢和我一起工作的许多了不起的人,包括超级联盟团队内部和外部的人。OpenAI拥有如此多非常聪明、善良和高效的人才。离开这份工作是我做过的最艰难的事情之一,因为我们迫切需要弄清楚如何引导和控制比我们聪明得多的AI系统。我加入是因为我认为OpenAI将是世界上做这项研究最好的地方。然而,很长一段时间以来,我与OpenAI领导层对公司核心优先事项的看法一直不合,直到我们终于到了临界点。我认为,我们应该把更多的带宽用于为下一代模型做好准备,包括安全性、监控、准备、对抗鲁棒性、(超级)一致性、保密性、社会影响和相关主题。这些问题很难解决,我担心我们没有走在到达那里的轨道上。过去几个月里,我的团队一直在逆风航行。有时我们在计算上很吃力,完成这项重要的研究变得越来越困难。建造比人类更聪明的机器本身就是一项危险的尝试。OpenAI代表着全人类肩负着巨大的责任。但过去几年,安全文化和流程已经让位于耀眼的产品。我们早就应该认真对待AGI的影响了。我们必须尽可能优先做好准备。只有这样,我们才能确保AGI造福全人类。OpenAI必须成为一家安全第一的AGI公司。对所有OpenAI员工,我想说:学会感受AGI。举止要庄重得体,为你们正在构建的东西。我相信你们可以“传递”所需的文化变革。我就指望你们了。全世界都指望着你们。: openai-heart:’大量关心AI安全的员工离职,苏茨克维半年没出现在OpenAI办公室几个月来,OpenAI一直在流失那些关心AI安全的员工。OpenAI超级对齐团队由OpenAI之前的校准部门的科学家和工程师以及来自公司其他机构的研究人员加入。他们将为内部和非OpenAI模型的安全性提供研究信息,并通过包括研究资助计划在内的倡议,向更广泛的AI行业征求并分享工作。该团队负责开发管理和引导“超级智能”AI系统的方法。据OpenAI超级对齐团队的一位人士透露,该团队承诺将获得公司20%的计算资源,但对其中一小部分计算的请求经常被拒绝,阻碍了团队的工作。一系列问题促使几名团队成员本周辞职。OpenAI没有立即回复关于承诺和分配给该团队的资源的评论请求。据消息人士透露,苏茨克维对超级对齐团队很有帮助,不仅贡献了研究,而且作为OpenAI内部其他部门的桥梁。他还将担任某种形式的大使,向OpenAI关键决策者展示团队工作的重要性。苏茨克维与阿尔特曼之间的矛盾更是增加了他的受关注度。去年11月,苏茨克维和OpenAI前董事会突然宣布开除阿尔特曼,理由是阿尔特曼对董事会成员“并不总是坦诚相待”。在包括微软在内的OpenAI投资者和该公司许多员工的压力下,阿尔特曼最终复职,董事会大部分成员辞职换人。据报道,苏茨克维再也没有回去工作。阿尔特曼复职后不久,苏茨克维曾发布一篇推文:‘上个月我学到了很多东西。其中一个教训是,“持续打击,直到士气提振”这句话的使用频率超出了它应有的范围。’没过多久,这篇推文就被删除了。此后在公开场合,苏茨克维和阿尔特曼继续保持着友谊的迹象,直到本周苏茨克维宣布离职时,阿尔特曼还将他称呼为“我亲爱的朋友”。据外媒报道,自夺权事变落幕以来,苏茨克维已经有大约6个月没出现在OpenAI办公室了。他一直在远程领导超级对齐团队,负责确保未来的AGI与人类的目标保持一致,而非背道而驰。这是个远大的抱负,但它与OpenAI的日常运营脱节。在阿尔特曼的领导下,该公司一直在探索将产品商业化。对阿尔特曼的信任崩塌:就像多米诺骨牌般一张张倒下苏茨克维和莱克并不是唯二离开的人,自去年11月以来,OpenAI至少有5名注重安全的员工辞职或被开除。关于阿尔特曼“不坦诚”的内因,业界众说纷纭,有一种猜测是OpenAI秘密取得了重大技术突破,认为苏茨克维选择离职是因为他看到了一些可怕的东西,比如一个可能摧毁人类的AI系统。真正的答案,可能确实跟阿尔特曼有关。据Vox报道,熟悉OpenAI的消息人士透露道,安全意识强的员工已经对阿尔特曼失去了信心。一位不愿透露姓名的公司内部人士说:“这是一个信任一点一点崩塌的过程,就像多米诺骨牌一张一张倒下。”没有多少员工愿意公开谈论此事。部分原因是OpenAI以让员工在离职时签署包含非贬损条款的离职协议而闻名。如果拒绝签署,员工就放弃了自己在公司的股权,这意味着可能会损失数百万美元。但有一名前员工拒绝签署离职协议,以便可以自由批评公司。丹尼尔·科科塔伊洛(Daniel Kokotajlo)于2022年加入OpenAI,希望带领公司实现AI的安全部署,他一直在治理团队工作,直到上个月辞职。“OpenAI正在训练越来越强大的AI系统,目标是最终全面超越人类智能。这可能是人类有史以来最好的事情,但如果我们不谨慎行事,也可能是最糟糕的事情,”科科塔伊洛说。“我加入时满怀希望,希望OpenAI能够迎难而上,在他们越来越接近实现AGI的过程中表现得更加负责任。我们中的许多人逐渐意识到这不会发生,”他谈道。“我逐渐对OpenAI领导层及其负责任地处理AGI的能力失去了信心,所以我辞职了。”尽管在公众面前展现出友情,但在苏茨克维试图赶走阿尔特曼后,人们对他们的友谊产生了怀疑。阿尔特曼被解雇后的反应也展现了他的性格。他用掏空OpenAI来威胁董事会重新向他敞开大门。前同事及员工纷纷透露说,阿尔特曼是一位口是心非的操纵者,例如他声称自己希望优先考虑安全,但实际行为却与此相矛盾。此前阿尔特曼找沙特基金支持成立一家新AI芯片公司的消息,让有安全意识的员工感到震惊。如果阿尔特曼真的关心以最安全的方式构建和部署AI,为什么他似乎在疯狂积累尽可能多的芯片,而这只会加速技术的发展?一位了解公司内部情况的消息人士称,对于员工来说,所有这些都导致他们逐渐“不再相信OpenAI说要做什么或者说重视某件事时,这些实际上是真的”。杨·莱克是前DeepMind研究员,在OpenAI期间参与了ChatGPT、GPT-4和ChatGPT前身InstructGPT的开发。在... PC版: 手机版:

封面图片

AI初创集体跳槽OpenAI Ilya出走后安全团队重整旗鼓

AI初创集体跳槽OpenAI Ilya出走后安全团队重整旗鼓 - 侵权寡姐引发全球热议- 员工签署“霸王条款”被接连曝出- 网友细数奥特曼“七宗罪”辟谣:根据Vox获得的泄露消息和文件,OpenAI的高级领导层,包括Altman在内,非常了解这些股权回收条款,并且签署了它们。除此之外,还有一个严峻而紧迫的问题摆在OpenAI面前AI安全。最近,五名与安全相关的员工离职,其中包括两名最著名的员工,“超级对齐”团队的解散让OpenAI的安全问题再次被置于聚光灯下。《财富》杂志报道称,OpenAI从未兑现让其超级对齐团队获得其20%计算资源的承诺。2023年7月,OpenAI成立了一个新团队,致力于确保未来可能比人类加起来还要聪明的人工智能系统能够被安全控制。为了表明该公司对这一目标的重视程度,它公开承诺将投入当时可用计算资源的20%用于这项工作。现在,还不到一年时间,这个名为“超级对齐”的团队因员工辞职以及OpenAI将产品发布置于人工智能安全之上的指控而被解散,据6位知情人士称,OpenAI从未履行向该团队提供20%算力的承诺。但在上周四,Indent首席执行官Fouad Matin在X和Reddit上宣布,“我们加入了OpenAI,致力于为AGI做好安全准备! ”他在推文中写道,“我很高兴能与一支出色的团队一起保障未来的安全,从前沿模型准备到客户数据控制,确保人工智能安全并造福于每个人是非常重要的。”看来,OpenAI安全团队正在重整旗鼓,招募新人,那么,刚刚被OpenAI招募的Fouad Matin能否临危受命,“挽大厦于将倾”呢?Fouad Matin和他的团队有“不明真相的吃瓜群众”在Fouad Matin的帖子下留言:“我们加入了OpenAI ”中的“我们”是谁?显然,答案不是“他的两个半脑”那么简单,Fouad Matin背后的资源是他所创办的Indent,Indent正是一家致力于“构建安全的未来”的AI公司。目前,Indent已经在其官网上发布了“日落通知”,宣布Indent将在今年7月停止服务。我们创办Indent的目标是帮助团队保护最重要的东西。我们的客户已经保护了从客户数据和生产基础架构到日常业务软件的一切安全,而所有这一切都不会降低团队的速度。经过慎重考虑,我们做出了一个非常艰难的决定:Indent将在未来几个月内关闭,我们将帮助客户过渡,并继续为实现这一共同目标而努力。在太平洋标准时间2024年7月15日下午12点之前,团队都可以提出申请,届时服务将关闭。审计日志将提供到7月19日,之后我们将开始数据删除流程。我们要感谢每一位使用Indent的用户,从第一天就获得访问权的早期创业公司,到使用Indent保护关键任务资源的数百人团队。Fouad Matin是Indent的联合创始人和CEO,Fouad Matin称,他创办Indent是因为发现大多数公司不知道谁有权访问客户数据,而且对于大多数公司来说,发现这一问题的成本太高,更不用说锁定这些数据了。而Indent可以提供用户友好的访问控制。2021年12月,Indent为按需访问控制融资560万美元。在2018年创办Indent之前,Fouad Matin还有3段工作经历。2014年,Fouad Matin曾和其他联创共同创办了一家推荐招聘公司,他在其中负责产品、销售和工程设计。曾参加首届Y Combinator奖学金计划和YC W16。2016年,他创办了一个无党派非营利组织,致力于为年轻人建立最简单的登记和投票方式,帮助100万人投票。2017年,他在Segment担任工程师,领导细分角色的产品和工程开发,使客户能够将用户操作解析为配置文件。致力于更好的产品体验设计。正如Fouad Matin在个人简介中所介绍的那样,他是一名软件工程师和产品设计师,有时也会投资初创公司,在过去几年里,他曾帮助几百万人投票给非营利组织和公司,以管理他们的客户数据。现在,他在OpenAI从事安全工作。Indent日落,而Fouad Matin将开启他新的职业旅程。其他成员在Fouad Matin推文的评论区,有和他相识2年的好友对他表示祝贺,这位好友透露,除Fouad Matin以外,一同加入OpenAI安全团队的还有Dan Gillespie。Dan Gillespie将主要从事的是“建立为AGI到来所需的安全计算平台”。无独有偶,和Fouad Matin有一点相同的是,Dan Gillespie也具有投资背景,根据他在领英的介绍,他也曾在Y Combinator任职过,Y Combinator是硅谷最负盛名的创业孵化器,在过去一年投资了260多家AI初创公司,是硅谷乃至全世界AI创业趋势的风向标。左:Dan Gillespie, 23岁彭博社观点专栏提出,“2024年5月将被人们铭记为AI安全运动消亡的月份。同时,人们也将记住,5月是AI更安全的工作真正开始的时间。”OpenAI作为领先的AI公司,能否在消极的声音之下,真正坚持构建一个更加安全的系统,我们希望OpenAI新安全团队能够带来不同。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人