为了AGI全员主动996 OpenAI员工自曝3年工作感受

为了AGI全员主动996 OpenAI员工自曝3年工作感受 在OpenAI工作,是怎样的体验?前段时间,华人员工Jason Wei自曝996作息表,走红全网,让网友纷纷看到了现实中的自己。OpenAI视频生成的研究员Will Depue称,“这简直就是我的一天”。近来,一位OpenAI技术员工在美国求职网站Glassdoor上,自曝3年来的工作感受:潜力巨大,但成长烦恼也是真实的。他分别从优点和缺点展开,对OpenAI这家公司进行了全面评价。优点:- 福利待遇好- 薪酬处于市场领先水平- 员工聪明、热情,大多数都很友好- 餐饮选择丰富缺点:- 工作与生活的平衡荡然无存- 面试压力巨大,无法专注于日常工作- 现在是一家产品公司,因此压力巨大,需要推出面向消费者的产品,而不是专注于研究- 经常感到人手不足,绩效评估不够详细- 领导层缺乏经验,似乎无法像更有经验的领导者那样解决成长烦恼- 为了增加收入,我们似乎正在偏离OpenAI的使命- 股权期权令人困惑- 缺乏自上而下的问责制- 缺乏多样性,不仅仅是种族,还有教育和背景,感觉最近的大多数新员工都来自Stripe、Meta或Google此外,这位匿名员工还对公司管理层提出了建议:采取行动。似乎没有人愿意解决“房间里的大象”。作为一个小型研究公司的文化已经消失了,所以不要再假装内部的事情没有改变。承认并承担责任。Glassdoor是美国著名的求职网站,除了发布求职信息,还是了解工资薪酬和企业情况的重要平台。甚至,内部员工可以对雇主每年进行一次匿名评价。进入Glassdoor的OpenAI主页,可以看到,员工们对其整体评价为4.2分,有79%的人愿意推荐给朋友。最重要的是,100%的人全意支持Altman。更有看头的是,点开评分页面,能够看到员工对更细分的领域评分。包括文化与价值、多样性和包容性、工作与生活平衡、高层管理、薪酬与福利、职业发展机会。其中,评分最低的就是“工作与生活平衡”,仅为2.7分。可以看到“工作与生活平衡”这一项也就是从ChatGPT诞生之后,几乎直线下降。这也印证了Jason Wei所说的工作996,果然不假。但也从侧面说明,这家明星独角兽能够做出ChatGPT、Sora这样的时代爆款,离不开每位团队成员的全身心贡献,团结一致的凝聚力。说来,其他员工对OpenAI是怎么看的?OpenAI员工,怎么看OpenAI?整体来看,大家对OpenAI的评价highlight:高薪酬和福利待遇。当然,高薪酬也就意味着“高付出”。在OpenAI Reviews的首页,第一个评论虽是前员工写的。优点:OpenAI的一个显著特点是致力于合乎道德的人工智能开发。该组织一直致力于解决人工智能模型中潜在的偏见,并努力实现公平性和包容性。OpenAI已采取措施,让研究人员和开发人员更容易获得人工智能技术,使他们能够在现有模型的基础上加以改进。缺点:与OpenAI的方法相关的一个潜在缺点是对人工智能权力集中的担忧。由于OpenAI在开发先进的人工智能模型方面一直走在前列,一些批评者认为,将如此强大的技术集中控制在少数几个组织手中,即使是出于好意,也会引发潜在的垄断倾向和影响人工智能发展方向的问题。上面评论中,利弊分析的非常“标准化”,许多网友认为这一定是ChatGPT写的。一位OpenAI工作一年的“前CEO创始人”评价道:(不知具体哪位?)优点是,颠覆性态度,创新步伐快。而缺点是Altman夸张的剧情令人伤心,建议是雇佣马斯克担任OpenAI的首席执行官。每天自我膨胀另外一名匿名员工将OpenAI称为“科技界大神『重灾区』,一定要当心”!在他看来,OpenAI优点是拥有非常充裕的资金和尖端技术。还有非常优秀的同事,大多数人都很好。办公室环境也很棒,还有美食、足够好的员工福利。缺点是:每天每天都自我膨胀!太自负了!所有的大牛人物聚集于此。完美的期望文化,管理层严重缺乏领导力、凝聚力和沟通力。行政人员忙于自我陶醉,无法有效地经营业务。员工非常不满管理层的不成熟,无法与其相处。他给管理层的建议是:聘请经验丰富的领导者,他们知道如何在健康的公司内创建和建设,并将员工视为人类,而不是机器人。管理者应该以真实、同理心领导员工,并努力帮助员工取得成功,为员工树立高绩效的榜样。一位技术成员表示,OpenAI是一家专注于研究有趣的、重要的问题的公司。此外,它也是一个标准的创业公司,自研工具,个别团队有一点个人政治。团结一致,有干劲OpenAI有着出色的、聪明的、有干劲的员工。他们真正关心这项使命。扁平的结构,人们很容易共事。高人才密度令人信服的任务,非常好的薪酬。人们非常努力地工作,所以可能会很紧张。工作3年+的高级软件工程师认为,OpenAI是一个很好的工作场所,有极好、鼓舞人心的环境。同时,也有很多挑战和压力,但我学到了很多。deadline太紧迫,任务压的喘不过气高级机器学习工程师评价道,非常优秀的团队,有趣的项目,还有高薪。劣势就是紧迫的deadline,做不完的任务。提供IT支持的员工表示,OpenAI团体有强烈的使命一致性、透明、朴实无华。感觉就像昔日的初创企业,领导者真正发挥着领导作用。不过,平时的工作量大,而且期限紧。5天全职在岗,工作时间长。建议就是创造一个工作与生活平衡的环境。千万不要在这家公司工作。工作生活平衡完全没有,残酷的工作文化。离职后的Karpathy,放出了工作日程表,一张图说明了一切。“把人当傻子”,实则只关心利润只给打1分的研究科学家表示,OpenAI不是一个优秀的工作场所。主要是因为,它最初是开源的,因此得名,现在被微软收购,该公司只关心利润。他们大谈信任、道德、安全和风险。但在任何事情上都是虚伪的。该公司几乎不关心数据隐私。用户分享的大部分数据都用于训练模型。目前的监管努力只是为了公司的利益。公司无视任何有关隐私和数据保护的漏洞修复。公司的发展轨迹非常不道德。作为一名科研人员,在这样一家公司工作,你将不断面临道德质疑。给管理层的人建议是:“所有人都是不是傻子”。前开发者关系总监离职,浅谈OpenAI工作体验最近,就连负责OpenAI开发者关系的员工Lenny Rachitsky,也刚刚宣布了离职。他在一次播客采访中,谈到了他在OpenAI工作的经历。在他看来,OpenAI之所以有如此快的交付能力,最主要是要找到那种有极强主动性,快速行动解决问题的员工。而且使用Slack这样的办公软件能让所有信息在公司高效,流畅地运转。主持人问到,OpenAI能够如此快速地构建和发布产品,并且保持如此高的标准,比如有没有一个独特的流程和工作方式。主动解决问题的员工是OpenAI成功的关键他说,以他待过的苹果和NASA为例,公司随着时间的推移,做事情是会变慢的,会增加额外的条条框框来拖慢发布速度。OpenAI是一家新公司,没有很多那种遗留下来的组织障碍。而他认为认为OpenAI能如此高效的原因,找到那些具有高度主动性和紧迫感的人,是最重要的。如果OpenAI要雇五个人,这就是他会在申请者身上寻找的最重要的两个特质。因为拥有这样特质的团队能够应对世界上的各种挑战,他们不需要等待50个人的共识就能迅速响应客户的需求,找到解决问题的方法,我非常欣赏这种做事风格,参与这样的团队令人兴奋。传统公司的做法可能是:“让我们与这七个不同的部门来讨论一下”,尝试获得对问题的反馈。在OpenAI,大家只是去做事情解决问题,他非常喜欢这一点。开发者大会发布的助手API就是一个很好的例子,OpenAI持续从开发者那里获得这样的反馈,人们希... PC版: 手机版:

相关推荐

封面图片

OpenAI员工自曝996作息表 网友:真正的卷不需要强迫

OpenAI员工自曝996作息表 网友:真正的卷不需要强迫 [9:00am] 起床[9:30am] 搭乘Waymo前往Mission SF,途中在Tartine买个牛油果吐司[9:45am] 背诵OpenAI范儿。向优化之神致敬。学习《The Bitter Lession》(强化学习之父Rich Sutton著)[10:00am] 在Google Meet上开会,讨论如何在更多数据上训练更大的模型[11:00am] 敲代码,在更多数据上训练更大的模型。搭档是Hyung Won Chung[12:00pm] 去食堂吃午饭(纯素且无麸质)[1:00pm] 真正开始在大量数据上训练大模型[2:00pm] 处理基础设施问题(我是脑子被驴踢了吗为啥要从master分支拉代码?)[3:00pm] 监控模型训练进度,玩Sora[4:00pm] 给刚才训练的大模型上提示工程[4:30pm] 短暂休息,坐在牛油果椅子上,思考Gemini Ultra的性能到底有多强[5:00pm] 头脑风暴模型可能的算法改进[5:05pm] 修改算法风险太高,pass。最安全的策略还是力大砖飞(增加算力和数据规模)[6:00pm] 晚餐时间,和Roon一起享用蛤蜊浓汤[7:00pm] 回家[8:00pm] 喝点小酒,继续写码。鲍尔默峰即将到来[9:00pm] 分析实验结果,我对wandb又爱又恨[10:00pm] 启动实验,让它自己跑一晚上,第二天查看结果[1:00am] 实验真正开始运行[1:15am] 上床睡觉。在纳德拉和黄仁勋的守护下入梦。压缩才是关键。晚安好家伙,看得国外网友直接傻眼:你啥时候睡觉?啥时候醒?啥时候跟家人共度时光?啥时候出门散步……相对而言,还是国内的小伙伴比较淡定,甚至还默默羡慕了起来……跟我工作作息差不多,但我不在OpenAI。还有网友道出关键,最可怕的是,这是自我驱动的卷……也难怪谢赛宁此前在朋友圈辟谣时提到:对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。(嗯,天才不可怕,可怕的是天才比你还能卷……)996的OpenAI事实上,有关OpenAI的996传言,早已在坊间流传已久。毕竟随便戳开OpenAI员工的GitHub主页,满屏绿的贡献度并不罕见。就在今年早些时候,OpenAI前员工、Codex团队成员Lenny Bogdonoff的离职声明,就曾引发大家伙对OpenAI工作强度的关注。Lenny Bogdonoff提到,从入职起,他就每周在办公室工作6天,每天的工作时间也很长:从早上8点一直持续到深夜。我经历了无数次深夜的灭火工作,以支持规模扩张和抵御攻击。尽管他本人并没有抱怨,而是表示“永远感激这一生一次的经历”,但仍有不少人关注到了工作压力的问题。而在去年,OpenAI前信任与安全主管Dave Willner辞职时也透露,考虑到工作与生活的平衡,辞职是“相当容易做出的选择”。特别是从2022年11月ChatGPT推出以后,将家庭置于工作之上变得“越来越困难”。参考链接:[1] ... PC版: 手机版:

封面图片

“解雇风波”内部调查即将结束 OpenAI员工担忧公司不透明

“解雇风波”内部调查即将结束 OpenAI员工担忧公司不透明 据参会的两名员工透露,预计该调查将在第一季度末前完成。《华尔街日报》和《纽约时报》此前报道了这项内部调查,但未提及奥特曼曾与员工讨论此事。知情人士指出,对员工缺乏透明度是奥特曼近期面临的一个挑战。去年,他被OpenAI董事会解雇,被许多OpenAI员工视为“政变”。从那以后,虽然他的公众形象有所恢复,但他面临的审查也越来越多。尽管奥特曼仍乐于在走廊与员工交流,并在Slack上回答任何人的问题,但公司的许多核心操作仍对员工保持着一定的神秘感。近期提交给美国证券交易委员会(SEC)的备案文件显示,奥特曼是OpenAI创业基金的唯一所有者,这一消息令员工震惊,因为公司内部从未披露过该信息。“这一发现令人意外,”一位知情人士表示。此外,《华尔街日报》报道称,美国证券交易委员会对奥特曼的调查令人意外。员工担心这样的调查可能会带来不利影响。同时,美国联邦贸易委员会(FTC)对OpenAI及其与微软关系进行的调查也引发了担忧。一位知情人士透露,尽管大多数员工更愿意专注于工作,其中许多人正在致力于开发OpenAI的下一代生成式人工智能大模型GPT-5,这款模型预计在未来几个月发布。然而,随着公众对奥特曼的了解加深,他面临的“压力也越来越大”。OpenAI的运营结构令许多员工和观察人士感到困惑。该公司由一个非营利性部门控制着一个营利性部门,而这个营利性部门又管理着一家控股公司,这家控股公司再控制着另一家营利性实体。正是这家实体吸引了微软的投资。“这种复杂结构让任何人都难以理解,”一位知情人士谈及公司架构时表示。此人推测,各种调查可能会促使公司在未来一年左右做出调整,可能包括简化其运营结构。“我预计接下来会有更多戏剧性的场面出现,”该知情人士补充说。对于媒体的置评请求,OpenAI未予回应。另一个令人费解的问题是员工的股权薪酬形式,它基于所谓的利润分配单位(profitparticipation units,PPU),据了解PPU在OpenAI员工的预期薪酬中占据了相当大的比重。但令员工感到不满的是,他们至今仍未被告知薪酬中包含的PPU具体数量,只知道其指定的美元价值。尽管OpenAI的薪资水平颇高,但许多员工对自己所承担的风险感到越来越担忧。奥特曼的短暂离职已经暴露了公司的不稳定性,这与员工之前的预期大相径庭。最近,OpenAI的创始成员之一安德烈·卡帕西(Andrej Karpathy)离职也引起了广泛关注,尽管他在一年前才重返OpenAI。在给员工的内部信中,卡帕西强调他的离开并非因为其他工作机会的诱惑,并对此表示“深感遗憾”。据看过内部信的人士透露,卡帕西对在OpenAI的工作内容不满,尤其是领导开发人工智能助手的团队工作,这也引发了外界的质疑:为什么OpenAI不愿意让像卡帕西这样的顶尖人才继续留在人工智能领域,并‘让他去做其想做的事’的疑问。此外,OpenAI的联合创始人、首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)的地位也一直被忽视。他在奥特曼下台事件中扮演了重要角色,但关于他在公司的未来,OpenAI一直保持沉默。据两位知情人士透露,OpenAI尚未正式解决苏茨凯弗的安置问题。尽管他已不再担任OpenAI董事会成员,但他的名字仍在公司的系统中,如Slack等软件。对于媒体的置评请求,苏茨凯弗的律师没有回应。面对众多不确定性,员工们大多只能选择观望。一位知情人士表示,对于针对奥特曼的内部调查,员工普遍预期不会有重大发现。部分原因是近几周来,奥特曼的情绪和行为似乎有所好转。据该人士称,尽管年初时奥特曼还深受“政变”事件的重压影响,但现在他显得“更加快乐”。随着苏茨凯弗被边缘化,OpenAI的其他领导层开始接替他的职责。据两位知情人士透露,OpenAI总裁格雷格·布罗克曼(Greg Brockman)现在更频繁地向员工发表讲话并解答问题,研究负责人雅各布·帕科奇(Jakub Pachoki)也在努力担负起更多的责任。“奥特曼正在向前看,”一位知情人士表示。其他员工也正尽力跟上他的步伐。 ... PC版: 手机版:

封面图片

OpenAI 员工联名信全文

OpenAI 员工联名信全文 致 OpenAI 董事会: OpenAI 是全球领先的人工智能公司。我们开发了最优秀的模型,推动了该领域进入新的疆界。我们在 AI 安全和治理上的工作塑造了全球规范。我们构建的产品被上亿人使用,并影响着世界,让我们所工作和珍视的公司前所未有的强大。 然而,你们解除 Sam Altman 的职务并移除 Greg Brockman 的方式,不仅危及了我们所有的成果,也损害了我们的使命和公司。你们的行为明确显示出你们不适合继续领导 OpenAI。 当我们突然获悉这一决策时,OpenAI 的领导团队立即采取行动,以稳定公司的运营。他们认真倾听并尝试与你们合作,面对你们提出的指控,尽管缺乏具体的书面证据,领导团队还是逐渐认识到,你们无法有效履行职责,并且在谈判中存有不诚意。 领导团队提出了一个稳固局面的最佳方案,这个方案不仅对公司、利益相关者、员工以及公众最为有利,而且建议你们辞职并组建一个合格的董事会,以确保公司未来的稳定发展。在你们做出决定两天后,为了公司的最大利益,领导团队再次任命了 Mira Murati 担任临时 CEO。你们还向领导团队表示,让公司走向毁灭的做法「与使命相符」。 通过你们的行为,我们清楚地看到了你们无法胜任 OpenAI 的监管工作。我们无法为那些缺乏能力、判断力和关怀的人工作或与之合作。我们签名的员工,可能会选择离开 OpenAI,加入由 Sam Altman 和 Greg Brockman 领导的新成立的微软子公司。 微软已向我们承诺,如果我们选择加入,所有 OpenAI 的员工在新的子公司中都将有相应的职位。我们将采取这一步骤,除非现有董事会成员全部辞职,董事会迎来两位新的独立董事,如 Bret Taylor 和 Will Hurd,并恢复 Sam Altman 和 Greg Brockman 的职位。

封面图片

OpenAI前员工辞职爆内幕:不想为AI泰坦尼克号工作

OpenAI前员工辞职爆内幕:不想为AI泰坦尼克号工作 据《商业内幕》报道,桑德斯在科技记者亚历克斯·坎特罗维茨的播客节目中发表了他的评论。桑德斯告诉坎特罗维茨,他在 OpenAI 任职的三年期间,有时会问自己,公司走的道路是更像阿波罗计划,还是更像泰坦尼克号。他的理由似乎是,通过谨慎的科学努力,阿波罗太空计划尽管遭遇挫折但仍然取得了成功,而泰坦尼克号尽管取得了成功但最终还是失败了。他表示,为了确保船只安全,建造防水舱室,他们付出了很多努力,因此可以说这艘船不会沉没。但与此同时,救生艇的数量却不足以满足所有人的需求。桑德斯将公司的总体精神描述为:产品开发比实施合理的安全预防措施更重要。他描绘了这样一种办公室景象:提出安全问题的员工会受到惩罚,而领导层只关注利润。“随着时间的推移。”桑德斯说,“我开始真正感觉到领导层做出的决定更像是白星航运公司建造泰坦尼克号。”桑德斯并不是第一个不同意 OpenAI 经营方式的人。该公司的联合创始人之一埃隆·马斯克 (Elon Musk) 最近起诉 OpenAI,称其偏离了最初的使命太远。尽管马斯克多年来一直与 OpenAI 没有任何关系,目前经营着自己的直接竞争对手 xAI,但诉讼仍然没有成功。该诉讼随后被撤回。竞争对手 AI 公司 Anthropic 由前 OpenAI 员工和联合创始人于 2021 年创立,原因是人们担心 OpenAI对信任和安全关注不够。然而,另一方面,另一位现已疏远的联合创始人兼前首席科学家伊利亚·苏茨克韦尔 (Ilya Sutskever) 于 2024 年 5 月离开公司,创办了自己的公司。 他当时写道,他相信OpenAI 团队能够安全地实现其目标。有如此多的员工跳槽,而且至少有一人拿泰坦尼克号来比喻,那么当前的问题是:谁或者什么是冰山?如果比喻中的乘客是我们全人类那么冰山就代表着 ChatGPT 和类似系统对毫无准备的社会构成的生存威胁。如果人工智能变得比我们更聪明、更有能力,而我们没有足够的救生艇来保护每个人免受其潜在伤害,那么我们可能会走向悲剧。但如果乘客是股东和利益相关者,等待 OpenAI 创造出与人类一样聪明的人工智能,而这永远不会发生,那么也许这座冰山代表着生成人工智能泡沫的破灭。 ... PC版: 手机版:

封面图片

OpenAI官方发文驳斥马斯克 自曝8年间邮件往来截图

OpenAI官方发文驳斥马斯克 自曝8年间邮件往来截图 文章开篇表示:“OpenAI 的使命是确保 AGI 惠及全人类,这意味着既要构建安全、有益的 AGI,又要帮助创造广泛的利益。我们正在分享我们在实现使命方面所学到的知识,以及有关我们与马斯克关系的一些事实。我们打算驳回马斯克的所有主张。”与此同时,曝光邮件内容中的一些“神秘信息”,再次加重了人们的好奇:马斯克所提到的人类未来,到底取决于什么?文章由 Greg Brockman、Ilya Sutskever、John Schulman、Sam Altman、Wojciech Zaremba 共同署名。当科技圈都在猜测 Ilya 是否已经因为与 Sam Altman 的矛盾离开 OpenAI 的时候,署名算是一种变相回应:至少此时,Ilya 仍作为核心成员全力抵御 OpenAI 正在面对的风暴。几天前,马斯克这位前 OpenAI 联合创始人在一份长达 46 页、总字数超过 1.4 万字的诉讼文件中,指控 OpenAI 不计后果地开发人类级别的人工智能,并将其移交给微软。马斯克的诉讼要求法院强制 OpenAI 回归开源,并阻止公司及其创始人以及微软等背后支持者从中获利。(参见:《马斯克起诉 OpenAI:他们做出了 AGI 还授权给微软,这是对创始协议赤裸裸的背叛》)OpenAI CEO 对此的态度显得意味深长,让事情变得越发神秘:马斯克与 OpenAI 之间是理念不合,还是利益之争,局外人很难揣测。一切没说破的话,可能都在这封信里。OpenAI 的反击OpenAI 在最新发布的长信中写道:我们意识到构建 AGI 需要的资源比我们最初想象的要多得多(在 2015 年的一封邮件中)马斯克称,我们应该对外宣布一份 10 亿美元的启动资金。但总的来说,作为非营利组织的 OpenAI 总共从马斯克那里筹集了不到 4500 万美元,从其他捐助者那里筹集了超过 9000 万美元。2015 年底创办 OpenAI 时,Greg Brockman 和 Sam Altman 最初计划筹集 1 亿美元。马斯克在一封电子邮件中表示:“我们需要一个比 1 亿美元大得多的数字,以避免听起来目标无望…… 我认为我们应该从 10 亿美元的资金承诺开始…… 对于其他人未提供的部分,我将负责补足。”我们花了很多时间试图设想一条可行的通用人工智能道路。2017 年年初,我们意识到构建 AGI 将需要大量算力,并且开始计算 AGI 可能需要多少计算量。我们都知道,我们需要更多的资金才能成功完成我们的使命 每年大概数十亿美元,这远远超过我们任何人,尤其是马斯克认为我们作为非营利组织能够筹集到的资金。我们和马斯克认识到:需要一个营利性实体来获取这些资源当我们讨论以营利为目的的结构以进一步实现我们的使命时,马斯克希望我们与特斯拉合并,或者由他来完全控制 OpenAI。后来,马斯克离开了 OpenAI,表示需要有一个与Google / DeepMind 竞争的对手,而他将自己做这件事。他说他会支持我们找到自己的道路。事情是这样的,2017 年年底,我们和马斯克决定下一步的任务是创建一个营利性实体。马斯克想要获得多数股权、初始董事会控制权并担任首席执行官,并且在讨论期间,他扣留了资金。Reid Hoffman 弥补了工资和运营方面的缺口。我们无法与马斯克就营利性条款达成一致,因为我们认为任何个人对 OpenAI 拥有绝对控制权都是违背使命的。然后马斯克建议将 OpenAI 并入特斯拉。2018 年 2 月上旬,马斯克向我们转发了一封电子邮件,建议 OpenAI 应该“将特斯拉作为其摇钱树”,并评论说:“这是完全正确的……特斯拉是唯一有希望与Google相媲美的选择。即便如此,制衡Google的可能性也很小。它只是不为零。”很快,马斯克就选择离开 OpenAI,他说我们成功的可能性为零,他计划在特斯拉内部建立一个 AGI 竞争对手。2018 年 2 月底离开时,他告诉我们团队,他支持我们自己寻找融资数十亿美元的道路。2018 年 12 月,马斯克给我们发邮件说:“即使筹集到几亿美元也不够。做这件事需要每年迅速筹集数十亿美元,否则就算了。”我们通过构建可广泛使用的有益工具来推进我们的使命我们通过开源贡献等方式,使我们的技术能够广泛使用,从而增强人们的能力,改善他们的日常生活。我们广泛提供当今最强大的 AI,包括每天有数亿人使用的免费版本。例如,阿尔巴尼亚正在使用 OpenAI 的工具,将其加入欧盟的时间加快了 5.5 年;Digital Green 正在帮助肯尼亚和印度提高农民收入,以 OpenAI 的技术为基础将农业推广服务的成本降低至原来的 1/100;罗得岛州最大的医疗保健提供商 Lifespan 使用 GPT-4 将其手术同意书从大学阅读水平简化为六年级阅读水平;冰岛正在使用 GPT-4 保护冰岛语。马斯克明白,我们的使命并不意味着开源 AGI。Ilya 曾告诉马斯克“随着我们越来越接近构建人工智能,开始降低开放程度是有意义的。openAI 中的『开放』是指人工智能建成后,每个人都应从人工智能的成果中获益,但不分享科学成果也完全没问题......”。当时,马斯克回答道:“是的(Yup)”。我们很伤心,因为我们深深敬佩的一个人 他激励我们向更高的目标迈进 他说我们会失败,还成立了一个竞争对手公司。当我们在没有他的情况下开始朝着 OpenAI 的使命取得有意义的进展时,他又起诉了我们。我们专注于推进我们的使命,任重而道远。随着我们不断改进我们的工具,我们很高兴能部署这些系统,让每个人都能使用它们。吃瓜的网友OpenAI 的长信回应一时之间引爆了社交圈,吃瓜网友纷纷搬起了小板凳,围观这场“闹剧”。活跃软件开发者、Deep trading 创始人 Yam Peleg 表示,“赶紧来吃新瓜啊”。著名学者、纽约大学教授 Gary Marcus 对 OpenAI 的声明嗤之以鼻,直言 OpenAI 所说的“我们持之以恒追求自己的使命,比如不受产生利益回报的限制、不为私人利益掣肘、在适用的情况下寻求技术开源”是胡说八道。现在,微软拥有 OpenAI 的独家所有权,49%的利润都归微软所有。OpenAI 不是在帮助全人类,而是从艺术家、作家那里窃取来增加自己的利润。更重要的是,OpenAI 几乎完全放弃了开源,并且成为最不开放的 AI 公司之一。无论与马斯克之间的恩怨如何,OpenAI 声称保持使命不变都是不诚实的。总之,OpenAI违背了 2015 年成立时的宣言。另外,大家比较好奇的一点是双方邮件中的一句话,“不幸的是,人类的未来掌握在■■■的手上。”众多网友纷纷猜测■■■中是谁?Google吗?还有人发现了以前从未听过的有趣观点,“OpenAI 的开放(open)只意味着每个人都可以从 AI 构建的成果中获益,而不向科学界分享是完全可以的。”当然,更多人迫切地想要看到马斯克会如何回应。 ... PC版: 手机版:

封面图片

OpenAI 解除针对前员工离职合同中的“不贬损”条款

OpenAI 解除针对前员工离职合同中的“不贬损”条款 "无论你是否执行了协议,我们写信通知你,OpenAI 没有取消,也不会取消任何归属单位,"在职员工也收到了相关通知。Vox上周报道称,OpenAI 的一些员工被要求签署与公司股份挂钩的保密协议,此后员工们一直在担心这些限制。这使得员工面临着这样的风险:如果他们发表反对 OpenAI 的言论,而公司决定执行离职合同中的保密和不参与协议部分,那么他们可能会被收回利润丰厚的股权。据一位不愿透露姓名的熟悉此事的人士称,虽然保密协议是许多科技公司的标准做法,但一些员工对将保密协议与股份挂钩的前景感到不悦,该人士不愿透露讨论私人信息的身份。OpenAI 在周四的一份声明中表示,除了解除前员工的非诽谤协议外,它还将从离职员工的离职文件中删除这些措辞,"除非非诽谤条款是双方共同签署的"。首席战略官杰森-权(Jason Kwon)在一份声明中说:"很抱歉,这给为我们辛勤工作的员工造成了困扰。我们一直在努力尽快解决这个问题。我们将更加努力,做得更好。"相关文章:OpenAI回应“封嘴”离职条款:从未回收员工股权 既得权益就是既得权益OpenAI封口协议原件曝光 奥特曼等高管声称不知情却签了字 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人