OpenAI员工自曝996作息表 网友:真正的卷不需要强迫

OpenAI员工自曝996作息表 网友:真正的卷不需要强迫 [9:00am] 起床[9:30am] 搭乘Waymo前往Mission SF,途中在Tartine买个牛油果吐司[9:45am] 背诵OpenAI范儿。向优化之神致敬。学习《The Bitter Lession》(强化学习之父Rich Sutton著)[10:00am] 在Google Meet上开会,讨论如何在更多数据上训练更大的模型[11:00am] 敲代码,在更多数据上训练更大的模型。搭档是Hyung Won Chung[12:00pm] 去食堂吃午饭(纯素且无麸质)[1:00pm] 真正开始在大量数据上训练大模型[2:00pm] 处理基础设施问题(我是脑子被驴踢了吗为啥要从master分支拉代码?)[3:00pm] 监控模型训练进度,玩Sora[4:00pm] 给刚才训练的大模型上提示工程[4:30pm] 短暂休息,坐在牛油果椅子上,思考Gemini Ultra的性能到底有多强[5:00pm] 头脑风暴模型可能的算法改进[5:05pm] 修改算法风险太高,pass。最安全的策略还是力大砖飞(增加算力和数据规模)[6:00pm] 晚餐时间,和Roon一起享用蛤蜊浓汤[7:00pm] 回家[8:00pm] 喝点小酒,继续写码。鲍尔默峰即将到来[9:00pm] 分析实验结果,我对wandb又爱又恨[10:00pm] 启动实验,让它自己跑一晚上,第二天查看结果[1:00am] 实验真正开始运行[1:15am] 上床睡觉。在纳德拉和黄仁勋的守护下入梦。压缩才是关键。晚安好家伙,看得国外网友直接傻眼:你啥时候睡觉?啥时候醒?啥时候跟家人共度时光?啥时候出门散步……相对而言,还是国内的小伙伴比较淡定,甚至还默默羡慕了起来……跟我工作作息差不多,但我不在OpenAI。还有网友道出关键,最可怕的是,这是自我驱动的卷……也难怪谢赛宁此前在朋友圈辟谣时提到:对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。(嗯,天才不可怕,可怕的是天才比你还能卷……)996的OpenAI事实上,有关OpenAI的996传言,早已在坊间流传已久。毕竟随便戳开OpenAI员工的GitHub主页,满屏绿的贡献度并不罕见。就在今年早些时候,OpenAI前员工、Codex团队成员Lenny Bogdonoff的离职声明,就曾引发大家伙对OpenAI工作强度的关注。Lenny Bogdonoff提到,从入职起,他就每周在办公室工作6天,每天的工作时间也很长:从早上8点一直持续到深夜。我经历了无数次深夜的灭火工作,以支持规模扩张和抵御攻击。尽管他本人并没有抱怨,而是表示“永远感激这一生一次的经历”,但仍有不少人关注到了工作压力的问题。而在去年,OpenAI前信任与安全主管Dave Willner辞职时也透露,考虑到工作与生活的平衡,辞职是“相当容易做出的选择”。特别是从2022年11月ChatGPT推出以后,将家庭置于工作之上变得“越来越困难”。参考链接:[1] ... PC版: 手机版:

相关推荐

封面图片

为了AGI全员主动996 OpenAI员工自曝3年工作感受

为了AGI全员主动996 OpenAI员工自曝3年工作感受 在OpenAI工作,是怎样的体验?前段时间,华人员工Jason Wei自曝996作息表,走红全网,让网友纷纷看到了现实中的自己。OpenAI视频生成的研究员Will Depue称,“这简直就是我的一天”。近来,一位OpenAI技术员工在美国求职网站Glassdoor上,自曝3年来的工作感受:潜力巨大,但成长烦恼也是真实的。他分别从优点和缺点展开,对OpenAI这家公司进行了全面评价。优点:- 福利待遇好- 薪酬处于市场领先水平- 员工聪明、热情,大多数都很友好- 餐饮选择丰富缺点:- 工作与生活的平衡荡然无存- 面试压力巨大,无法专注于日常工作- 现在是一家产品公司,因此压力巨大,需要推出面向消费者的产品,而不是专注于研究- 经常感到人手不足,绩效评估不够详细- 领导层缺乏经验,似乎无法像更有经验的领导者那样解决成长烦恼- 为了增加收入,我们似乎正在偏离OpenAI的使命- 股权期权令人困惑- 缺乏自上而下的问责制- 缺乏多样性,不仅仅是种族,还有教育和背景,感觉最近的大多数新员工都来自Stripe、Meta或Google此外,这位匿名员工还对公司管理层提出了建议:采取行动。似乎没有人愿意解决“房间里的大象”。作为一个小型研究公司的文化已经消失了,所以不要再假装内部的事情没有改变。承认并承担责任。Glassdoor是美国著名的求职网站,除了发布求职信息,还是了解工资薪酬和企业情况的重要平台。甚至,内部员工可以对雇主每年进行一次匿名评价。进入Glassdoor的OpenAI主页,可以看到,员工们对其整体评价为4.2分,有79%的人愿意推荐给朋友。最重要的是,100%的人全意支持Altman。更有看头的是,点开评分页面,能够看到员工对更细分的领域评分。包括文化与价值、多样性和包容性、工作与生活平衡、高层管理、薪酬与福利、职业发展机会。其中,评分最低的就是“工作与生活平衡”,仅为2.7分。可以看到“工作与生活平衡”这一项也就是从ChatGPT诞生之后,几乎直线下降。这也印证了Jason Wei所说的工作996,果然不假。但也从侧面说明,这家明星独角兽能够做出ChatGPT、Sora这样的时代爆款,离不开每位团队成员的全身心贡献,团结一致的凝聚力。说来,其他员工对OpenAI是怎么看的?OpenAI员工,怎么看OpenAI?整体来看,大家对OpenAI的评价highlight:高薪酬和福利待遇。当然,高薪酬也就意味着“高付出”。在OpenAI Reviews的首页,第一个评论虽是前员工写的。优点:OpenAI的一个显著特点是致力于合乎道德的人工智能开发。该组织一直致力于解决人工智能模型中潜在的偏见,并努力实现公平性和包容性。OpenAI已采取措施,让研究人员和开发人员更容易获得人工智能技术,使他们能够在现有模型的基础上加以改进。缺点:与OpenAI的方法相关的一个潜在缺点是对人工智能权力集中的担忧。由于OpenAI在开发先进的人工智能模型方面一直走在前列,一些批评者认为,将如此强大的技术集中控制在少数几个组织手中,即使是出于好意,也会引发潜在的垄断倾向和影响人工智能发展方向的问题。上面评论中,利弊分析的非常“标准化”,许多网友认为这一定是ChatGPT写的。一位OpenAI工作一年的“前CEO创始人”评价道:(不知具体哪位?)优点是,颠覆性态度,创新步伐快。而缺点是Altman夸张的剧情令人伤心,建议是雇佣马斯克担任OpenAI的首席执行官。每天自我膨胀另外一名匿名员工将OpenAI称为“科技界大神『重灾区』,一定要当心”!在他看来,OpenAI优点是拥有非常充裕的资金和尖端技术。还有非常优秀的同事,大多数人都很好。办公室环境也很棒,还有美食、足够好的员工福利。缺点是:每天每天都自我膨胀!太自负了!所有的大牛人物聚集于此。完美的期望文化,管理层严重缺乏领导力、凝聚力和沟通力。行政人员忙于自我陶醉,无法有效地经营业务。员工非常不满管理层的不成熟,无法与其相处。他给管理层的建议是:聘请经验丰富的领导者,他们知道如何在健康的公司内创建和建设,并将员工视为人类,而不是机器人。管理者应该以真实、同理心领导员工,并努力帮助员工取得成功,为员工树立高绩效的榜样。一位技术成员表示,OpenAI是一家专注于研究有趣的、重要的问题的公司。此外,它也是一个标准的创业公司,自研工具,个别团队有一点个人政治。团结一致,有干劲OpenAI有着出色的、聪明的、有干劲的员工。他们真正关心这项使命。扁平的结构,人们很容易共事。高人才密度令人信服的任务,非常好的薪酬。人们非常努力地工作,所以可能会很紧张。工作3年+的高级软件工程师认为,OpenAI是一个很好的工作场所,有极好、鼓舞人心的环境。同时,也有很多挑战和压力,但我学到了很多。deadline太紧迫,任务压的喘不过气高级机器学习工程师评价道,非常优秀的团队,有趣的项目,还有高薪。劣势就是紧迫的deadline,做不完的任务。提供IT支持的员工表示,OpenAI团体有强烈的使命一致性、透明、朴实无华。感觉就像昔日的初创企业,领导者真正发挥着领导作用。不过,平时的工作量大,而且期限紧。5天全职在岗,工作时间长。建议就是创造一个工作与生活平衡的环境。千万不要在这家公司工作。工作生活平衡完全没有,残酷的工作文化。离职后的Karpathy,放出了工作日程表,一张图说明了一切。“把人当傻子”,实则只关心利润只给打1分的研究科学家表示,OpenAI不是一个优秀的工作场所。主要是因为,它最初是开源的,因此得名,现在被微软收购,该公司只关心利润。他们大谈信任、道德、安全和风险。但在任何事情上都是虚伪的。该公司几乎不关心数据隐私。用户分享的大部分数据都用于训练模型。目前的监管努力只是为了公司的利益。公司无视任何有关隐私和数据保护的漏洞修复。公司的发展轨迹非常不道德。作为一名科研人员,在这样一家公司工作,你将不断面临道德质疑。给管理层的人建议是:“所有人都是不是傻子”。前开发者关系总监离职,浅谈OpenAI工作体验最近,就连负责OpenAI开发者关系的员工Lenny Rachitsky,也刚刚宣布了离职。他在一次播客采访中,谈到了他在OpenAI工作的经历。在他看来,OpenAI之所以有如此快的交付能力,最主要是要找到那种有极强主动性,快速行动解决问题的员工。而且使用Slack这样的办公软件能让所有信息在公司高效,流畅地运转。主持人问到,OpenAI能够如此快速地构建和发布产品,并且保持如此高的标准,比如有没有一个独特的流程和工作方式。主动解决问题的员工是OpenAI成功的关键他说,以他待过的苹果和NASA为例,公司随着时间的推移,做事情是会变慢的,会增加额外的条条框框来拖慢发布速度。OpenAI是一家新公司,没有很多那种遗留下来的组织障碍。而他认为认为OpenAI能如此高效的原因,找到那些具有高度主动性和紧迫感的人,是最重要的。如果OpenAI要雇五个人,这就是他会在申请者身上寻找的最重要的两个特质。因为拥有这样特质的团队能够应对世界上的各种挑战,他们不需要等待50个人的共识就能迅速响应客户的需求,找到解决问题的方法,我非常欣赏这种做事风格,参与这样的团队令人兴奋。传统公司的做法可能是:“让我们与这七个不同的部门来讨论一下”,尝试获得对问题的反馈。在OpenAI,大家只是去做事情解决问题,他非常喜欢这一点。开发者大会发布的助手API就是一个很好的例子,OpenAI持续从开发者那里获得这样的反馈,人们希... PC版: 手机版:

封面图片

微软宣布允许企业在自己的数据上使用Azure OpenAI服务。该功能将激发世界各地的企业客户使用Azure OpenAI服务。

微软宣布允许企业在自己的数据上使用Azure OpenAI服务。该功能将激发世界各地的企业客户使用Azure OpenAI服务。 Azure OpenAI服务可以直接在你的数据上运行,无需进行额外的训练或微调。这意味着你可以直接使用OpenAI的模型(如ChatGPT和GPT-4)来处理你的数据,而无需对模型进行任何修改或调整。

封面图片

OpenAI推出ChatGPT Edu 进军高等教育

OpenAI推出ChatGPT Edu 进军高等教育 ChatGPT Edu 可以访问 GPT-4o,这是 OpenAI本月早些时候发布的最新大型语言模型。OpenAI 声称,该模型在解释文本、编码和数学、分析数据集和访问网络方面比以前的版本要好得多。ChatGPT Edu 的消息限制也将比免费版 ChatGPT 高得多,并允许大学构建基于自己的数据训练的自定义版本的 ChatGPT,并在大学工作区内共享它们。OpenAI 声称 ChatGPT Edu 的对话和数据不会用于训练 OpenAI 的模型。尽管 ChatGPT 于 2022 年底推出,最初引发了人们对学术诚信和教育环境中潜在滥用的担忧,但大学越来越多地尝试将生成式人工智能用于教学和研究。OpenAI 表示,在看到沃顿商学院、亚利桑那州立大学和哥伦比亚大学等使用 ChatGPT Enterprise 后,它创建了 ChatGPT Edu。例如,沃顿商学院的 MBA 本科生通过训练一个基于课程材料进行训练的 GPT 并与聊天机器人进行讨论来完成他们的期末反思作业,而亚利桑那州立大学正在试验自己的 GPT,让学习德语的学生进行德语对话。 ... PC版: 手机版:

封面图片

OpenAI 推出了专为大学开发的 ChatGPT 新版本

OpenAI 推出了专为大学开发的 ChatGPT 新版本 当地时间30日,人工智能公司 OpenAI 宣布推出 ChatGPT Edu,这是专为学生、学者和教职员工打造的全新版本。该公司在一篇博客文章中表示:“ChatGPT Edu 专为希望向学生及其校园社区更广泛地部署人工智能的学校而设计。”该版本可以访问 GPT-4o,消息限制也将比免费版高得多。允许大学根据自己的数据训练定制版本的 ChatGPT,并在大学工作区内共享。OpenAI 声称 ChatGPT Edu 的对话和数据不会用于训练 OpenAI 的模型。

封面图片

OpenAI大模型GPT-5要来了!“提升很大”

OpenAI大模型GPT-5要来了!“提升很大” “它的性能非常棒,提升很大。”一位看过GPT-5大模型演示的CEO表示。该CEO表示,OpenAI使用他的公司独有的用例和数据展示了GPT-5。他说,OpenAI还提到了该模型尚未发布的其他功能,包括调用OpenAI正在开发的AI代理来自主执行任务。企业客户向OpenAI付费使用增强版ChatGPT。随着OpenAI拓展业务,其CEO山姆·奥特曼(Sam Altman)打造自己不断壮大的AI帝国,面向企业客户的销售成为了OpenAI的主要收入来源。不过,OpenAI尚未设定GPT-5的发布日期,这意味着公司内部对于这款大模型的发布时间预期可能会发生变化。据知情人士透露,OpenAI仍在训练GPT-5。在训练完成后,OpenAI将在内部对GPT-5进行安全测试,并进一步进行“红队”测试。在“红队”测试过程中,OpenAI员工和一些通常经过精选的外部人员会以各种方式对该工具进行挑战,以便在其向公众发布之前发现问题。知情人士指出,目前还没有GPT-5完成安全测试的具体时间表,所以该模型的发布日期可能会因为这一过程而推迟。GPT-4退化一年前,OpenAI针对ChatGPT发布了最后一次重大更新,该聊天机器人目前使用的是GPT-4大模型。OpenAI称,GPT-4的响应比之前的GPT-3要快得多,准确得多。OpenAI在2023年晚些时候发布了更强大的GPT-4 Turbo模型,以解决一个被称为“懒惰”的问题,因为该模型有时会拒绝回答提示问题。像GPT-4这样的大语言模型是通过从网络上收集的大量数据进行训练的,以权威的语调回应用户提示,呈现出类似人类语言模式的特点。这种语调以及所提供信息的质量可能会受到训练数据的影响,具体取决于OpenAI在开发和维护工作中所使用的数据更新或其他变化。目前,社交媒体Reddit上的几个论坛一直在抱怨GPT-4的退化和ChatGPT的糟糕输出。知情人士透露,OpenAI内部人士希望GPT-5更加可靠,给公众和企业客户留下深刻印象。与此同时,OpenAI还卷入了版权诉讼中。从技术上讲,AI模型的许多最关键训练数据都归版权所有者所有。OpenAI和许多其他科技公司都反对更新联邦法规,以限制大模型如何获取和使用这些材料。目前,OpenAI正在应对《纽约时报》等数据版权所有者发起的诉讼。截至发稿,OpenAI发言人尚未就此置评。 ... PC版: 手机版:

封面图片

《金融时报》与 OpenAI 签订许可协议

《金融时报》与 OpenAI 签订许可协议 作为回报,OpenAI 将与该新闻机构合作开发新的人工智能产品。英国《金融时报》已经在使用 OpenAI 的产品,称自己是 ChatGPT Enterprise 的客户。上个月,英国《金融时报》在测试版上发布了由 Anthropic 的 Claude 大型语言模型驱动的生成式 AI 搜索功能。Ask FT 可以让订阅者在出版物的文章中查找信息。《金融时报》集团首席执行官约翰-雷丁(John Ridding)表示,即使公司与 OpenAI 合作,该刊物仍将继续致力于"人类新闻"。雷丁说:"当然,人工智能平台向出版商支付使用其材料的费用是正确的。这些产品包含可靠的信息来源显然符合用户的利益"。OpenAI 已经与多家新闻机构达成了协议,为训练人工智能模型授权内容。出版《商业内幕》(Business Insider)、《政治家》(Politico)、以及欧洲出版物《图片报》(Bild)和《世界报》(Welt)的阿克塞尔-施普林格(Axel Springer)与 OpenAI签署了类似协议,从其文章中提取数据。美联社也允许OpenAI 在其数据上训练模型。不过,据报道,OpenAI为出版物内容授权提供的价格在 100 万到 500 万美元之间,大大低于苹果等其他公司的报价。其他新闻机构与 OpenAI 的关系则大相径庭。2023 年 12 月,《纽约时报》起诉 OpenAI 和微软侵权,称 ChatGPT"逐字逐句地背诵了《纽约时报》的内容"。今年 2 月,The Intercept、Raw Story 和AlterNet以类似指控对 OpenAI 和微软提起单独诉讼。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人