萨姆·奥特曼:我非常热爱OpenAI团队 #抽屉IT

None

相关推荐

封面图片

#德国之声: #科技环境 #SamAltman #萨姆·奥特曼 #OpenAI #人工智能 #ChatGPT #Dall-E

#德国之声: #科技环境 #SamAltman #萨姆·奥特曼 #OpenAI #人工智能 #ChatGPT #Dall-E 萨姆·奥特曼(Sam Altman)是当前人工智能热潮中最显眼的面孔。他的公司OpenAI开发了ChatGPT这个人工智能聊天机器人使得人工智能可供每个人使用。但他的成功也随时需要受到公众的审视。

封面图片

#OpenAI 超级对齐团队解散内幕:对 #奥特曼 信任崩溃

封面图片

OpenAI:山姆·奥特曼将重回公司担任CEO #抽屉IT

封面图片

Ilya离开OpenAI内幕曝光:奥特曼砍他团队算力 优先搞产品赚钱

Ilya离开OpenAI内幕曝光:奥特曼砍他团队算力 优先搞产品赚钱 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 紧接着,更多的八卦被其他人挖出来。比如OpenAI离职成员都要签一份协议,保证离职后不在外说OpenAI坏话,不签的话视为自动放弃公司股份。但仍然有拒不签署的硬骨头出来放猛料(笑死),说核心领导层对安全问题优先级的分歧由来已久。去年宫斗至今,两派的观念冲突到达了临界点,这才看上去颇为体面地崩了。因此,尽管奥特曼已经派了联合创始人来接管超级对齐团队,仍旧不被外界看好。冲在最一线的Twitter网友们感谢Jan有勇气说出这个惊人大瓜,并感叹:我勒个去,看来OpenAI真的不太注重这个安全性!不过回过头来,如今执掌OpenAI的奥特曼这边,暂时还坐得住。他站出来感谢了Jan对OpenAI超级对齐和安全方面的贡献,表示Jan离开,他其实很难过、很舍不得。当然了,重点其实是这一句:等着,过两天我会发一篇比这更长的推文。承诺的20%算力居然有画大饼成分从去年OpenAI宫斗到现在,灵魂人物、前首席科学家Ilya就几乎不再公开露面、公开发声。在他公开宣称离职前,就已经众说纷纭。很多人认为Ilya看到了一些可怕的事情,比如可能毁灭人类的AI系统啥的。网友:我每天醒来第一件事就是想Ilya看到了啥这次Jan算是摊开了说,核心原因就是技术派和市场派对安全方面的优先等级产生了不同看法。分歧很严重,目前后果嘛……大家也都看到了。据Vox报道,熟悉OpenAI的消息人士透露,更注重安全的员工已经对奥特曼失去了信心,“这是一个信任一点一点崩溃的过程”。但如你所见,在公开平台和场合,没有太多离职员工愿意公开谈论此事。一部分原因是OpenAI一直以来,都有让员工签署带有非贬低协议的离职协议的传统。如果拒绝签署,就等于放弃了此前拿到的OpenAI的期权,这意味着出来说话的员工可能会损失一笔巨款。然而,多米诺骨牌还是一张接一张的倒下了Ilya的辞职加剧了OpenAI近期的离职潮。紧随其后宣布离职的,除了超级对齐团队负责人Jan以外,目前有至少五个安全团队成员离职。其中还有个没签署非贬低协议的硬骨头,Daniel Kokotajlo(以下简称DK哥)。去年DK哥写道,他认为AI发生生存灾难的可能性为70%DK哥在2022年加入OpenAI,在治理团队工作,主要工作内容是引导OpenAI安全部署AI。但他也在近期辞职了,并且对外接受了采访:OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。这可能是人类有史以来发生过的最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。DK哥阐述,当年,他加入OpenAI,满怀对安全治理的报复和希望,期望OpenAI越靠近AGI能越负责任。但团队中许多人慢慢意识到,OpenAI不会这样了。“逐渐对OpenAO领导层以及他们负责地处理AGI的能力失去了信心”,这就是DK哥辞职的原因。对未来AGI安全工作的失望,是Ilya加剧的离职潮中众人离开的一部分原因。还有一部分原因,是超级对齐团队,恐怕没有外界想象的那样能资源充沛地进行研究。即便超级对齐团队满负荷工作,团队也只能获得OpenAI承诺的20%的算力。而且团队的一些请求经常被拒绝。当然是因为算力资源对AI公司来说重要至极,每一点都要合理分配;也因为超级对齐团队的工作是“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题”。换句话说,超级对齐团队对应的是OpenAI需要面临的未来的安全问题划重点,是未来的、不知是否会出现的。截至发稿,奥特曼还没有发出他那篇“(比Jan爆料内幕的)更长的推文”。但他简单提到,Jan对安全问题的担忧是对的,“我们还有很多事情要做;我们也致力于这样做。”就这一点,大伙儿可以先办个小板凳等等,到时候咱一起第一时间吃瓜。综上,现在超级对齐团队走了好些人,尤其是Ilya和Jan的离职,让这个风雨之中的团队面临群龙无首的窘况。后续安排,是联合创始人John Schulma来接手,但不再有专门的团队。新的超级对齐团队将是联系更松散的小组,成员分布在整个公司的各个部门,OpenAI发言人将其描述为“更深入地整合”。这一点也为外界所质疑,因为John的原本全职工作是确保目前的OpenAI产品的安全问题。不知道突然多了份责任后,John能不能忙得过来,好好领导关注现在和关注未来安全问题的两个团队?Ilya-Altman之争如果把时间阵线拉长, 其实今天的分崩离析是OpenAI“宫斗”Ilya-Altman之争的续集。时间回溯到去年11月,当时Ilya还在,他同OpenAI董事会合作试图解雇掉奥特曼。当时给出的理由是,他在沟通中不够真诚。换言之,我们不信任他。但最终结果显而易见,奥特曼带着他的“盟友”威胁加入微软,结果董事会屈服,罢免行动失败。Ilya离开董事会。而奥特曼这边,选择了对他更为有利的成员加入董事会。在这之后,Ilya就再也社交平台上消失了,直至前几天官宣离职。而且据说,已经大约6个月没有出现在OpenAI办公室了。当时他还留下一条耐人寻味的推文,但很快就删除了。在过去的一个月里,我吸取了许多教训。其中一个教训是,“在士气提高之前,殴打会一直持续下去 ”这句话比它应有的含义更经常地适用。但据内部人士透露,Ilya一直远程共同领导着超级对齐团队。而在奥特曼这边,员工们对他最大的指控就是言行不一,比如他声称自己想优先考虑安全,但他的行为却很矛盾。除了原本承诺的计算资源没有给到外。还有像前阵子找沙特等筹集资金来造芯。那些注重安全的员工懵了。如果他真的关心以尽可能安全的方式构建和部署人工智能,那么就不会这么疯狂地积累芯片,来加速技术的发展?更早之前,OpenAI还从一家奥特曼投资的一家初创公司订购芯片。金额高达5100万美元(约合人民币3.6亿元)。而当时宫斗那几天OpenAI前员工的举报信中,对于奥特曼的描述似乎也再一次印证。也正因这样从始至终“言行不一”的操作,让员工们逐渐对OpenAI以及奥特曼失去信心。Ilya是这样,Jan Laike是这样,超级对齐团队也是这样。有贴心的网友整理出这几年年间,发生的相关事情的重要节点先来个贴心提示,下文提到的P(doom),指“AI引发世界末日场景的可能性”。2021年,GPT-3团队负责人因“安全”问题离开OpenAI,创立Anthropic;其中一位认为P(doom)为10-25%;2021年,RLHF安全研究负责人离职,P(doom)为50%;2023年,OpenAI董事会解雇奥特曼;2024年,OpenAI解雇两位安全研究员;2024年,一位特别关注安全的OpenAI研究员离职,他认为P(doom)已经在70%。2024年,Ilya、JAN Laike离职。技术派还是市场派?大模型发展至今,“如何实现AGI?”其实可归结为两条路线。技术派希望技术成熟可控再应用;市场派则认为边开放边应用“渐进式”走到终点。这也是Ilya-Altman之争的根本分歧,即OpenAI的使命:是专注于AGI和超级对齐,还是专注于扩展ChatGPT服务?ChatGPT服务规模越大,意味着需要的计算量越大;这也就会占用AGI安全研究的时间。如果OpenAI是个致力于研究的非盈利组织,他们应该将更多时间花费在超级对齐上。而从OpenAI对外的一些举措来看,结果显然不是,他们只是想要在大模型这个竞争中拔得头筹,为企业和消费者提供更多的服务。这在Ilya看来,这是件非常危险的事情。即便我们不清楚随着规模的扩大会发生什么,但在Ilya看来,最好的办法就是安全第一。开放和透明,这样我们人类才能确保安全地构建 AGI,而不是以某种隐秘的方式。但在奥特曼带领... PC版: 手机版:

封面图片

奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难

奥特曼和Brockman回应OpenAI安全团队辞职:未来比过去更艰难 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 第二天,OpenAI 首席执行官 Sam Altman 和总裁兼联合创始人 Greg Brockman 回应了 Leike 关于公司不关注安全的说法。除其他外,Leike 还表示,近年来 OpenAI 的安全文化和流程已经让位于闪亮的产品,他的团队很难获得资源来完成安全工作。雷克写道:我们早就应该认真对待 AGI(通用人工智能)的影响了。我们必须优先考虑尽我们所能为他们做好准备。周五, Altman在雷克的转发中首先做出了回应,称雷克是对的,OpenAI 还有很多事情要做,并且致力于这样做。他承诺将会发布更长的帖子。周六,布罗克曼在 X 上发布了他自己和 Altman 的共同回应:在对雷克的工作表示感谢后,布罗克曼和奥尔特曼表示,他们在雷克辞职后收到了一些问题。他们分享了三点,第一是 OpenAI 提高了人们对 AGI 的认识,以便世界能够更好地为此做好准备。他们写道:我们一再证明扩大深度学习规模所带来的巨大可能性,并分析其影响;在 AGI 的国际治理流行之前就呼吁这种呼吁;并帮助开拓评估人工智能系统灾难风险的科学。第二点是,他们正在为这些技术的安全部署奠定基础,并以员工为以安全的方式将ChatGPT-4 带到世界”所做的工作为例。两人声称,自那时以来(OpenAI 于 2023 年 3 月发布了 ChatGPT-4),该公司根据部署中吸取的经验教训,不断改进模型行为和滥用监控。第三点? “未来将比过去更艰难,”他们写道。 Brock 和 Altman 解释说,OpenAI 在发布新模型时需要不断提升其安全工作,并引用该公司的准备框架作为帮助实现这一目标的一种方式。根据 OpenAI 网站上的页面,该框架预测可能出现的灾难性风险,并寻求减轻这些风险。然后,布罗克曼和奥特曼继续讨论未来,OpenAI 的模型将更加融入世界,更多的人与它们互动。他们认为这是一件有益的事情,并相信可以安全地做到这一点“但这需要大量的基础工作。”因此,该公司可能会推迟发布时间表,以便模型达到其安全标准。“我们知道我们无法想象未来所有可能的情况。”他们说。 “因此,我们需要有一个非常严格的反馈循环、严格的测试、每一步都仔细考虑、世界一流的安全性以及安全性和功能的和谐。”领导人表示,OpenAI 将继续与政府和利益相关者就安全问题进行研究和合作。他们总结道:对于如何走上通用人工智能之路,目前还没有经过验证的剧本。我们认为实证理解可以帮助指明前进的方向。我们相信,既能带来巨大的好处,又能努力减轻严重的风险;我们非常认真地对待我们在这里的角色,并仔细权衡对我们行动的反馈。OpenAI 首席科学家 Ilya Sutskever本周也辞职,这一事实使雷克的辞职和言论变得更加复杂。 #WhatDidIlyaSee成为 X 上的热门话题,标志着人们对 OpenAI 高层领导者所了解的事情的猜测。从布罗克曼和奥特曼今天声明的负面反应 来看,这并没有消除任何这种猜测。截至目前,该公司正在推进下一个版本:语音助手ChatGPT-4o 。 ... PC版: 手机版:

封面图片

OpenAI大额芯片采购意向书曝光!供货公司股东竟是奥特曼 #抽屉IT

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人