逼员工签“封口协议”?OpenAI 脸都被打肿了……

逼员工签“封口协议”?OpenAI 脸都被打肿了…… 反正一连串的瓜,让网友直呼 OpenAI 版 “ 权力的游戏 ” 又开演了。想吃瓜的哥们也别着急,这次信息量有点密,我在这给大伙儿捋一捋。咱先说 “ 封口协议 ” 的事儿。起因是外媒 Vox 发现, OpenAI 针对离职员工,专门搞了个保密协议。本来员工离职签个普通的保密协议也没啥,谁家还没有点商业机密,但他们的离职协议,强度还真是不一般的大。这协议规定离职员工不能说任何公司的坏话。要是员工不签,或者违反了这个协议,甚至是让人知道这个协议的存在,都会被收回在 OpenAI 拿到的股权。报道发出来不久,奥特曼就紧急下场,公开 “ 澄清 ” 了一波。我给大伙儿总结翻译下,就是:“ 确有此事,但我之前不知道,我们也没收回过谁的股权,报意思以后会改的。 ”。三言两语就把自己跟协议撇得一干二净。网友对这回应,也都不咋买账。不过,我原本以为这事儿可能就这么过去了,结果外媒 Vox 又憋了个大的,甩出了一堆 OpenAI 员工泄露的邮件,还有一份奥特曼签过字的文件。这份文件虽然并不是明确的离职协议,但里面解释了 OpenAI 在某些情况下,可能可以收回股权的情况。我翻了下,像条款里面的 7.3 ( b )( 2 ),就提到了员工离职。这份文件的最后面,他喵的竟然有奥特曼的签名。这也就意味着,奥特曼对于公司可以收回股权这事儿是知情的。说好的 “ 我之前不知道呢? ” ,这不纯纯把脸凑到人面前打。更离谱的是,根据相关邮件的爆料, OpenAI 为了给员工施压,还会把原本 60 天的签署考虑时间,缩短到 7 天。甚至在员工提出要找律师的时候, HR 还说了一句:“ 如果你不签署,可能会影响你的股权。 ” 这不纯纯威胁嘛。所以这些东西被扒出来之后, OpenAI 也是引起众怒了。不知道是怕被喷还是咋地,一直到现在奥特曼也没有出来回应。不过从 Vox 写了这篇报道的记者那,我已经知道了结果:OpenAI 认怂,之前签的协议不作数了。这边保密协议的事,算是告一段落了,但另外一边, OpenAI 两位高管离职引发的动荡,却依旧在继续。就这么说吧,虽然我知道他们内部对安全问题有分歧,但我没想到矛盾已经闹得这么凶了。以 Ilya 为首坚持搞人工智能安全的保守派,直接让奥特曼给 “ 斗 ” 没了。发布会结束没两天, OpenAI 的首席科学家 Ilya Sutskever ,在推特上宣布了自己离职的消息。如果光是普通的人事变动,倒也没什么大不了的。但网传,Ilya Sutskever 参与了去年把奥特曼 “ 扫地出门 ” 的特别行动,现在走人,多少就有点耐人寻味了。不少好事的人都在底下评论,想知道 Ilya Sutskever 到底看到了什么,才会选择离开。特别是在同一天, OpenAI 另一位超级对齐团队的负责人, Jan Leike 也离职了职,所以不少人觉着,这次两位高管的接连出走,肯定隐藏着什么大瓜。结果还真让人猜对了。跟 Sutskever 的体面离场不同, Leike 转头就锤了一波 OpenAI 不重视安全问题。先给哥们介绍下,超级对齐团队是 OpenAI 在去年 7 月才成立的,带头的就是 Leike 和 Ilya 。这个团队成立的初衷也简单,所谓对齐,就是让 AI 的发展符合人类的价值观和偏好,说白了就是让 AI 变得更安全、可控。当时, OpenAI 官方明确说过要把 20% 的算力分给超级对齐团队。但在 Leike 的推文里,有这么一句 “we were struggling for commute” ( 我们挺缺算力的 )。说实话,我看到这里的时候忍不住联想了一出, OpenAI 内部各大团队之间争夺算力资源的抓马戏份。一个猜想不一定对,是不是奥特曼为了一个劲儿的加速,把本应该分给超级对齐团队的算力,匀给了模型训练的团队?虽然 Leike 在推文里,没有详细说缺算力到底是怎么个事儿,但他们团队有人爆料说,有时候的算力请求会被拒绝,搞得他们的工作很难展开。反正 Leike 的字里行间,都在明示 OpenAI 不重视人工智能的安全问题。外网一线冲浪达人马斯克,也是速速赶来拱火。你说这事儿闹的,把奥特曼整得也挺上火,说过个几天发小作文来回应。但有意思的是,小作文并没有发在奥特曼的推特账号,而是发在了 OpenAI 联合创始人格雷格的账号。不知道奥特曼是不是想拉格雷格出来,给自己挡挡火力。回应很长,看得出是用心写的,说了什么我们很重视安全、未来可能还会有更多的挑战。但我的评价是,里面没一句回应了 Leike 指出的问题。包括评论底下的网友也调侃,这篇推文一看就是奥特曼写的, “ 因为里面什么都没说 ” 。这波回应,安没安抚好大家伙儿我不知道,反正回应还没两天, OpenAI 又有个搞政策研究的员工说自己离职了,同样,反手就踩了一波公司不重视 AI 安全。Leike 和 Ilya 没走两天,他们的超级对齐团队直接原地解散。现在再看 Ilya 离开 OpenAI ,或许真是个明智的决定。。这又是离职协议,又是把超级对齐团队整没了,今年初 OpenAI 还悄咪咪删掉了之前说不让 AI 军用的声明,这波被喷其实真不冤。不知道接下来 OpenAI 还会不会有更多的瓜被挖出来,反正我还挺期待的。 ... PC版: 手机版:

相关推荐

封面图片

逼员工签“封口协议”? #OpenAI 这回脸都被打肿了…

封面图片

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”) Jan Leike,OpenAI 的一位关键研究员,在联合创始人Ilya Sutskever 离职后于本周早些时候辞职。他在周五早上在 X 上发帖称,该公司“安全文化和流程已被华而不实的产品所取代”。 Leike的声明是在《》杂志报道 OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)之后发表的。Leike曾负责这个超级对齐团队,该团队成立于去年七月,目的是“解决在 OpenAI 开发具有类人推理能力的 AI 时实施安全协议中的核心技术挑战”。 “我们早就应该非常认真地考虑人工通用智能的影响了。我们必须尽我们所能优先准备,”莱克在周五早上关于他辞职的后续帖子中说。“只有这样,我们才能确保人工通用智能惠及全人类。” Leike 的帖子突显了 OpenAI 内部日益增长的紧张氛围。在研究人员争相开发人工通用智能的同时,还要管理像 ChatGPT 和 DALL-E 这样的消费级 AI 产品,像Leike这样的员工则在提出对创造超级智能 AI 模型潜在危险的担忧。Leike表示,他的团队被降低了优先级,无法获得执行“关键”工作所需的计算和其他资源。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI成立安全委员会 将开始训练新模型

OpenAI成立安全委员会 将开始训练新模型 OpenAI首席执行官山姆·奥特曼OpenAI在公司博客上表示,董事布雷特·泰勒(Bret Taylor)、亚当·德安吉洛(Adam D'Angelo)和妮可·塞利格曼(Nicole Seligman)也将加入该委员会。值得一提的是,OpenAI致力于防止人工智能失控的“超级对齐”团队刚经历了解散。5月14日,OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)宣布离职,几小时后,超级对齐团队负责人杨·莱克(Jan Leike)也宣布离职。(作者/周文浩)更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。 ... PC版: 手机版:

封面图片

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先 继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布,宣布他已经在上周离开公司。 Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。 OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OpenAI封口协议原件曝光 奥特曼等高管声称不知情却签了字

OpenAI封口协议原件曝光 奥特曼等高管声称不知情却签了字 虽然姓名、邮箱都有打码,但让不少人联想到自曝经历的OpenAI前员工Daniel Kokotajlo。他曾在Less Wrong论坛上透露:他所放弃的股权,可能至少占家庭资产的85%。还不是说他在假如有100元的情况下放弃了85元,而是相当于他只有15元的情况下放弃了85元。此外,最早曝光此事的Vox记者Kelsey Piper,做了大量跟进工作,从最新获得的文件和邮件记录中又出挖出众多疑点。尽管奥特曼等高层领导都表示不知情,但泄露文件上却有他们的签名。OpenAI声称二月份已经注意到这个问题,但之后仍有新的含霸王条款的协议不断被发出,最晚一份为4月29日。当员工表示需要更多时间考虑时,OpenAI把最后期限从60天缩短到7天。……这些消息在AI行业内引起巨大震动,有DeepMind员工表示:这对任何公司来说都是令人震惊的行为,何况是试图造AGI的公司了。曝光邮件实锤封口协议具体来说,Vox审查了过去五年内离开公司的多名员工的离职协议和大量泄露邮件。从2019年开始,离职协议就规定员工必须在60天内签署才能保留其既得股权,由前副总裁Diane Yoon(已离职)和总法律顾问兼首席战略官Jason Kwon签署。OpenAI告诉记者Kelsey Piper在2月份已经注意到了这个问题,Piper对此吐槽:那么就意味着,Kwon坚持认为自己在5年内重复签署几十次的协议上,一直看漏了一句话。并且Vox看到的协议中日期最晚的一份是在4月29日,说明即使OpenAI在二月份意识到了问题,也没有做出改变。泄露邮件显示,当员工反对协议的具体条款,并要求签署不含保密条款的协议时,OpenAI律师拒绝了。还有一份邮件显示,OpenAI为说服员工签署协议,积极地采用施压策略,把协议签署的最后期限从60天改为7天,并且没有明确的理由。当另一名员工要求更多时间以便获得法律咨询时,HR部门拒绝并建议他们直接通电话,HR部门直白地通知这名员工:“我们希望你明白,如果你不签字,可能会影响你的股权”。最有戏剧性的是,当一位员工获得了外部律师帮助,并对“放弃股权”这一威胁提出质疑时,OpenAI改变了策略。在发给该员工的新协议中,条款改成了“不签署则被排除在所有出售股权的机会之外”。股权也可以给你留着,但禁止你变现。更离谱的是,这些条款还可能有着坚实的法律基础。控股公司Aestas LLC负责为员工、投资者和OpenAI非营利实体处理股权,其在编写章程时给了OpenAI极大的自由度。Aestas LLC的公司成立文件规定,如果解雇员工,可以“由公司全权酌情决定”取消员工的既得股权,并以任何理由拒绝前员工参与要约收购。值得注意的是,虽然CEO奥特曼本人没有签署任何离职协议,但他签署了Aestas LLC的文件。这与奥特曼之前声称“关于可能收回前雇员既得股权的措辞绝不应该出现在我们的任何文件或通信中”相悖。最后,Piper询问OpenAI,是否愿意承诺“没有人会因为没有签署保密协议而被拒绝参与股权出售”。OpenAI回答:从历史上看,前雇员无论在哪里工作,都有资格以同样的价格出售;我们预计这种情况不会改变。不过有一些积极的迹象表明OpenAI正在试图弥补。公司声称正在寻找并联系已签署协议的前员工,以明确OpenAI没有也不会取消他们的既得股权,并免除他们的非贬低义务。随着消息曝光,以及奥特曼的言行不一致,让很多人开始担心起来。也有网友发现,在线预测平台上“奥特曼是否会在今年被赶下台”的投票率都上升了。 ... PC版: 手机版:

封面图片

OpenAI又上演“权力的游戏”

OpenAI又上演“权力的游戏” 此前,超级对齐团队曾拥有OpenAI20%的算力资源。因此难免让人怀疑,此次OpenAI短时间、大规模的人事变动是否是其发展战略变动的前哨?分歧已久OpenAI内部的分歧存在已久,在去年11月的“宫斗”事件中早已公之于众。此次Ilya Sutskever等一行人的出走,可以看作是历史矛盾的延续。Ilya辞职前,OpenAI内部最大的分歧之一在于对AI安全问题的态度上。科技巨头和初创公司的互卷下,AI技术研发在快车道上一往直前,AGI时代离我们也越来越近。有人认为“OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能”。未知的全新力量下蕴藏着未知的风险。用前员工的一句话讲,这可能是人类有史以来发生过的最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。当前的AI监管主要集中于“评估风险和采取缓解措施”的组合上,这种组合很容易被大型公司钻空子,最终反而疏于了对最需要被监管的前型AI实验室的监管。超级对齐团队解散前,对于不同时间尺度的AI风险,OpenAI有三个团队来分别应对。“对齐”或“超级对齐”是人工智能领域中使用的术语,指训练人工智能系统在人类需求和优先事项范围内运行的工作。2023年6月5日,超级对齐AI团队首次对外宣布成立。这支团队的使命旨在“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题”也就是AI智能水平不断提高后未来可能出现的安全问题。师从人工智能教父Geoffray Hinton的Ilya是坚持安全第一的安全派。2016年,Ilya以联合创始人、研究总监的身份加入OpenAI,并于2018年担任首席科学家。研发期间,Ilya一直在关注AI大模型的安全问题。Sam Altman则是商业派,致力于开发“更闪亮的产品”,与Google等竞争对手的卯足了劲较量。在他看来,AGI的安全治理问题优先级远远不如推出“闪亮的产品”。虽然Altman在采访中屡次表示对安全问题的重视,但就实际操作而言,算力资源的天平在不断向着研发的一侧倾斜。对于Altman来说,相对于未来态的安全治理,如何加足马力在当前的这场AI竞赛中拔得头筹显然更为重要。对此,OpenAI的前员工、超级对齐成员之一William Saunders在Less Wrong论坛上表示,对OpenAI能否在AGI时代负责任的行动失去了信心。William Saunders并非个例。对OpenAI未来AGI安全部署工作的失望成为超级对其团队不少人离开的关键要素。不少人认为,Ilya出走很可能是已经看到了AGI的安全隐患。OpenAI“权力的游戏”还有几季?在技术驱动的进步面纱下,未来安全团队被迫“重组”。事实上,OpenAI在安全方面的人事一直在不断“跳跃”。2021年,GPT-3的团队负责人Dario和Daniela Amodei因“对安全研究的优先次序”存在分歧而辞职,转身创办了Anthropic。同年,RLHF的发明者兼安全研究主管Dr.Paul Christiano从安全团队中辞职,创办了一个非盈利性的校准研究中心。2023年11月,OpenAI围绕安全问题爆发宫斗,Sam Altman在被撤职100小时后重返OpenAI。2024年,这场“权力的游戏”继续上演。2024年2月15日,安全研究员 William Saunders 在 EA 论坛上总结了自己在 OpenAI 作为超级对齐团队一部分的工作。表示已从OpenAI辞职。3月17日,Jan Leike 离职。Jan Leike参与开发了ChatGPT的核心技术之一人类反馈强化学习RLHF,在其加入OpenAI后,从代码大模型Codex、ChatGPT的前身InstrucGPT,到ChatGPT、GPT-4,他都是重要贡献者。4月,Daniel Kokotajlo在拒绝签署离职协议的情况下辞职,并在此后的媒体采访中公开表示“OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。”,自己已经“逐渐对OpenAO领导层以及他们负责地处理AGI的能力失去了信心”。4月11日,安全团队的Leopold Aschenbrenner与推理团队的Pavel Izmailov因涉嫌信息泄密而被开除。安全研究员 Cullen O'Keefe 也离开了OpenAI。5月15日,OpenAI的联合创始人及首席科学家Ilya宣布离职,并在社交平台X上表示自己将开启“接下来的计划这个项目对我个人来说意义重大,我会在适当的时候分享细节。”Ilya宣布离开几小时后,Ilya的同事,OpenAI超级对齐团队联合主管Jan Leike光速宣布辞职,在X上留下两个字母:I resigned。Leike 自2021 年加入 OpenAI,并于2023年开始领导超级对齐团队。在此后几天,Jan Leike陆续在X上揭开此次出走的“内幕”:“我与 OpenAI 领导层在公司的核心优先事项上存在分歧已有一段时间,直到我们最终达到了临界点”“过去几个月,我的团队一直在逆风前行”“建造比人类更聪明的机器本质上是一项危险的工作……但在过去的几年里,安全文化和流程已经让位于闪亮的产品”。他认为OpenAI“应该把更多的精力花在为下一代模型做准备上,包括安全性、监控、准备、安全、对抗鲁棒性、(超级)对齐、保密性、社会影响和相关主题,这些问题很难解决,我担心我们还没有走上正确的轨道。”超级对齐成员之一William Saunders,以及参与过GPT-4对抗性测试的Daniel Kokotajlo,此前两人均已离开OpenAI。在诸多离职的人中,Daniel Kokotajlo和Jan Leike属于敢直接批判OpenAI在安全领域和发展方向存在问题的“特殊群体”。个中原因很可能是OpenAI的“封口协议”。根据OpenAI前员工Kelsey Piper 爆料,OpenAI的员工需签署一份带有非贬低协议的离职协议,如果拒绝签署,其拿到的股权获益将被取消。而Daniel Kokotajlo则拒绝签署这一协议。在Sutskever和Leike 退出后,OpenAI向CNN 证实,最近几周已开始解散其超级对齐团队,转而整合各个研究小组的团队成员。OpenAI的发言人表示,该结构将帮助 OpenAI 更好地实现其超级对齐目标。事实上,该业务线新的领导者John Schulma此前是负责OpenAI现有产品的安全问题。而将纵向超级对齐团队横向合并也意味着,未来安全把关人在一定程度上的消失。浮世新人换旧人,Sam Altman在社交平台X上表达了对于Ilya离开的遗憾,表示“他走后的OpenAI不再和从前一样”,但旋即又在同一条帖子宣布任命了新的首席科学家JakubPachoki。此外,OpenAI近日还聘请了在Google搜索广告业务工作了多年的资深人士Shivakumar Venkataraman。自此,OpenAI的发展战略阶段性地实现了表面一致以“党同伐异”的代价。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人