OpenAI员工自曝996作息表 网友:真正的卷不需要强迫

OpenAI员工自曝996作息表 网友:真正的卷不需要强迫 [9:00am] 起床[9:30am] 搭乘Waymo前往Mission SF,途中在Tartine买个牛油果吐司[9:45am] 背诵OpenAI范儿。向优化之神致敬。学习《The Bitter Lession》(强化学习之父Rich Sutton著)[10:00am] 在Google Meet上开会,讨论如何在更多数据上训练更大的模型[11:00am] 敲代码,在更多数据上训练更大的模型。搭档是Hyung Won Chung[12:00pm] 去食堂吃午饭(纯素且无麸质)[1:00pm] 真正开始在大量数据上训练大模型[2:00pm] 处理基础设施问题(我是脑子被驴踢了吗为啥要从master分支拉代码?)[3:00pm] 监控模型训练进度,玩Sora[4:00pm] 给刚才训练的大模型上提示工程[4:30pm] 短暂休息,坐在牛油果椅子上,思考Gemini Ultra的性能到底有多强[5:00pm] 头脑风暴模型可能的算法改进[5:05pm] 修改算法风险太高,pass。最安全的策略还是力大砖飞(增加算力和数据规模)[6:00pm] 晚餐时间,和Roon一起享用蛤蜊浓汤[7:00pm] 回家[8:00pm] 喝点小酒,继续写码。鲍尔默峰即将到来[9:00pm] 分析实验结果,我对wandb又爱又恨[10:00pm] 启动实验,让它自己跑一晚上,第二天查看结果[1:00am] 实验真正开始运行[1:15am] 上床睡觉。在纳德拉和黄仁勋的守护下入梦。压缩才是关键。晚安好家伙,看得国外网友直接傻眼:你啥时候睡觉?啥时候醒?啥时候跟家人共度时光?啥时候出门散步……相对而言,还是国内的小伙伴比较淡定,甚至还默默羡慕了起来……跟我工作作息差不多,但我不在OpenAI。还有网友道出关键,最可怕的是,这是自我驱动的卷……也难怪谢赛宁此前在朋友圈辟谣时提到:对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。(嗯,天才不可怕,可怕的是天才比你还能卷……)996的OpenAI事实上,有关OpenAI的996传言,早已在坊间流传已久。毕竟随便戳开OpenAI员工的GitHub主页,满屏绿的贡献度并不罕见。就在今年早些时候,OpenAI前员工、Codex团队成员Lenny Bogdonoff的离职声明,就曾引发大家伙对OpenAI工作强度的关注。Lenny Bogdonoff提到,从入职起,他就每周在办公室工作6天,每天的工作时间也很长:从早上8点一直持续到深夜。我经历了无数次深夜的灭火工作,以支持规模扩张和抵御攻击。尽管他本人并没有抱怨,而是表示“永远感激这一生一次的经历”,但仍有不少人关注到了工作压力的问题。而在去年,OpenAI前信任与安全主管Dave Willner辞职时也透露,考虑到工作与生活的平衡,辞职是“相当容易做出的选择”。特别是从2022年11月ChatGPT推出以后,将家庭置于工作之上变得“越来越困难”。参考链接:[1] ... PC版: 手机版:

相关推荐

封面图片

为了AGI全员主动996 OpenAI员工自曝3年工作感受

为了AGI全员主动996 OpenAI员工自曝3年工作感受 在OpenAI工作,是怎样的体验?前段时间,华人员工Jason Wei自曝996作息表,走红全网,让网友纷纷看到了现实中的自己。OpenAI视频生成的研究员Will Depue称,“这简直就是我的一天”。近来,一位OpenAI技术员工在美国求职网站Glassdoor上,自曝3年来的工作感受:潜力巨大,但成长烦恼也是真实的。他分别从优点和缺点展开,对OpenAI这家公司进行了全面评价。优点:- 福利待遇好- 薪酬处于市场领先水平- 员工聪明、热情,大多数都很友好- 餐饮选择丰富缺点:- 工作与生活的平衡荡然无存- 面试压力巨大,无法专注于日常工作- 现在是一家产品公司,因此压力巨大,需要推出面向消费者的产品,而不是专注于研究- 经常感到人手不足,绩效评估不够详细- 领导层缺乏经验,似乎无法像更有经验的领导者那样解决成长烦恼- 为了增加收入,我们似乎正在偏离OpenAI的使命- 股权期权令人困惑- 缺乏自上而下的问责制- 缺乏多样性,不仅仅是种族,还有教育和背景,感觉最近的大多数新员工都来自Stripe、Meta或Google此外,这位匿名员工还对公司管理层提出了建议:采取行动。似乎没有人愿意解决“房间里的大象”。作为一个小型研究公司的文化已经消失了,所以不要再假装内部的事情没有改变。承认并承担责任。Glassdoor是美国著名的求职网站,除了发布求职信息,还是了解工资薪酬和企业情况的重要平台。甚至,内部员工可以对雇主每年进行一次匿名评价。进入Glassdoor的OpenAI主页,可以看到,员工们对其整体评价为4.2分,有79%的人愿意推荐给朋友。最重要的是,100%的人全意支持Altman。更有看头的是,点开评分页面,能够看到员工对更细分的领域评分。包括文化与价值、多样性和包容性、工作与生活平衡、高层管理、薪酬与福利、职业发展机会。其中,评分最低的就是“工作与生活平衡”,仅为2.7分。可以看到“工作与生活平衡”这一项也就是从ChatGPT诞生之后,几乎直线下降。这也印证了Jason Wei所说的工作996,果然不假。但也从侧面说明,这家明星独角兽能够做出ChatGPT、Sora这样的时代爆款,离不开每位团队成员的全身心贡献,团结一致的凝聚力。说来,其他员工对OpenAI是怎么看的?OpenAI员工,怎么看OpenAI?整体来看,大家对OpenAI的评价highlight:高薪酬和福利待遇。当然,高薪酬也就意味着“高付出”。在OpenAI Reviews的首页,第一个评论虽是前员工写的。优点:OpenAI的一个显著特点是致力于合乎道德的人工智能开发。该组织一直致力于解决人工智能模型中潜在的偏见,并努力实现公平性和包容性。OpenAI已采取措施,让研究人员和开发人员更容易获得人工智能技术,使他们能够在现有模型的基础上加以改进。缺点:与OpenAI的方法相关的一个潜在缺点是对人工智能权力集中的担忧。由于OpenAI在开发先进的人工智能模型方面一直走在前列,一些批评者认为,将如此强大的技术集中控制在少数几个组织手中,即使是出于好意,也会引发潜在的垄断倾向和影响人工智能发展方向的问题。上面评论中,利弊分析的非常“标准化”,许多网友认为这一定是ChatGPT写的。一位OpenAI工作一年的“前CEO创始人”评价道:(不知具体哪位?)优点是,颠覆性态度,创新步伐快。而缺点是Altman夸张的剧情令人伤心,建议是雇佣马斯克担任OpenAI的首席执行官。每天自我膨胀另外一名匿名员工将OpenAI称为“科技界大神『重灾区』,一定要当心”!在他看来,OpenAI优点是拥有非常充裕的资金和尖端技术。还有非常优秀的同事,大多数人都很好。办公室环境也很棒,还有美食、足够好的员工福利。缺点是:每天每天都自我膨胀!太自负了!所有的大牛人物聚集于此。完美的期望文化,管理层严重缺乏领导力、凝聚力和沟通力。行政人员忙于自我陶醉,无法有效地经营业务。员工非常不满管理层的不成熟,无法与其相处。他给管理层的建议是:聘请经验丰富的领导者,他们知道如何在健康的公司内创建和建设,并将员工视为人类,而不是机器人。管理者应该以真实、同理心领导员工,并努力帮助员工取得成功,为员工树立高绩效的榜样。一位技术成员表示,OpenAI是一家专注于研究有趣的、重要的问题的公司。此外,它也是一个标准的创业公司,自研工具,个别团队有一点个人政治。团结一致,有干劲OpenAI有着出色的、聪明的、有干劲的员工。他们真正关心这项使命。扁平的结构,人们很容易共事。高人才密度令人信服的任务,非常好的薪酬。人们非常努力地工作,所以可能会很紧张。工作3年+的高级软件工程师认为,OpenAI是一个很好的工作场所,有极好、鼓舞人心的环境。同时,也有很多挑战和压力,但我学到了很多。deadline太紧迫,任务压的喘不过气高级机器学习工程师评价道,非常优秀的团队,有趣的项目,还有高薪。劣势就是紧迫的deadline,做不完的任务。提供IT支持的员工表示,OpenAI团体有强烈的使命一致性、透明、朴实无华。感觉就像昔日的初创企业,领导者真正发挥着领导作用。不过,平时的工作量大,而且期限紧。5天全职在岗,工作时间长。建议就是创造一个工作与生活平衡的环境。千万不要在这家公司工作。工作生活平衡完全没有,残酷的工作文化。离职后的Karpathy,放出了工作日程表,一张图说明了一切。“把人当傻子”,实则只关心利润只给打1分的研究科学家表示,OpenAI不是一个优秀的工作场所。主要是因为,它最初是开源的,因此得名,现在被微软收购,该公司只关心利润。他们大谈信任、道德、安全和风险。但在任何事情上都是虚伪的。该公司几乎不关心数据隐私。用户分享的大部分数据都用于训练模型。目前的监管努力只是为了公司的利益。公司无视任何有关隐私和数据保护的漏洞修复。公司的发展轨迹非常不道德。作为一名科研人员,在这样一家公司工作,你将不断面临道德质疑。给管理层的人建议是:“所有人都是不是傻子”。前开发者关系总监离职,浅谈OpenAI工作体验最近,就连负责OpenAI开发者关系的员工Lenny Rachitsky,也刚刚宣布了离职。他在一次播客采访中,谈到了他在OpenAI工作的经历。在他看来,OpenAI之所以有如此快的交付能力,最主要是要找到那种有极强主动性,快速行动解决问题的员工。而且使用Slack这样的办公软件能让所有信息在公司高效,流畅地运转。主持人问到,OpenAI能够如此快速地构建和发布产品,并且保持如此高的标准,比如有没有一个独特的流程和工作方式。主动解决问题的员工是OpenAI成功的关键他说,以他待过的苹果和NASA为例,公司随着时间的推移,做事情是会变慢的,会增加额外的条条框框来拖慢发布速度。OpenAI是一家新公司,没有很多那种遗留下来的组织障碍。而他认为认为OpenAI能如此高效的原因,找到那些具有高度主动性和紧迫感的人,是最重要的。如果OpenAI要雇五个人,这就是他会在申请者身上寻找的最重要的两个特质。因为拥有这样特质的团队能够应对世界上的各种挑战,他们不需要等待50个人的共识就能迅速响应客户的需求,找到解决问题的方法,我非常欣赏这种做事风格,参与这样的团队令人兴奋。传统公司的做法可能是:“让我们与这七个不同的部门来讨论一下”,尝试获得对问题的反馈。在OpenAI,大家只是去做事情解决问题,他非常喜欢这一点。开发者大会发布的助手API就是一个很好的例子,OpenAI持续从开发者那里获得这样的反馈,人们希... PC版: 手机版:

封面图片

【汤姆猫:公司开始接入测试OpenAI所提供的Embeddings等技术服务】

【汤姆猫:公司开始接入测试OpenAI所提供的Embeddings等技术服务】 汤姆猫在接受调研时表示,在OpenAI的文本预训练通识大模型基础上,公司开始接入测试OpenAI所提供的Embeddings等技术服务。除此之外,在图像模型领域,公司海外美术团队已在局部美术创作中使用AIGC相关技术Stable Diffusion进行美术创作,旨在探索减少部分重复度高且耗时的工作。同时,公司也在持续关注各类自然语言大模型、多态大模型、视觉大模型、音频大模型等发展情况。

封面图片

OpenAI大模型GPT-5要来了!“提升很大”

OpenAI大模型GPT-5要来了!“提升很大” “它的性能非常棒,提升很大。”一位看过GPT-5大模型演示的CEO表示。该CEO表示,OpenAI使用他的公司独有的用例和数据展示了GPT-5。他说,OpenAI还提到了该模型尚未发布的其他功能,包括调用OpenAI正在开发的AI代理来自主执行任务。企业客户向OpenAI付费使用增强版ChatGPT。随着OpenAI拓展业务,其CEO山姆·奥特曼(Sam Altman)打造自己不断壮大的AI帝国,面向企业客户的销售成为了OpenAI的主要收入来源。不过,OpenAI尚未设定GPT-5的发布日期,这意味着公司内部对于这款大模型的发布时间预期可能会发生变化。据知情人士透露,OpenAI仍在训练GPT-5。在训练完成后,OpenAI将在内部对GPT-5进行安全测试,并进一步进行“红队”测试。在“红队”测试过程中,OpenAI员工和一些通常经过精选的外部人员会以各种方式对该工具进行挑战,以便在其向公众发布之前发现问题。知情人士指出,目前还没有GPT-5完成安全测试的具体时间表,所以该模型的发布日期可能会因为这一过程而推迟。GPT-4退化一年前,OpenAI针对ChatGPT发布了最后一次重大更新,该聊天机器人目前使用的是GPT-4大模型。OpenAI称,GPT-4的响应比之前的GPT-3要快得多,准确得多。OpenAI在2023年晚些时候发布了更强大的GPT-4 Turbo模型,以解决一个被称为“懒惰”的问题,因为该模型有时会拒绝回答提示问题。像GPT-4这样的大语言模型是通过从网络上收集的大量数据进行训练的,以权威的语调回应用户提示,呈现出类似人类语言模式的特点。这种语调以及所提供信息的质量可能会受到训练数据的影响,具体取决于OpenAI在开发和维护工作中所使用的数据更新或其他变化。目前,社交媒体Reddit上的几个论坛一直在抱怨GPT-4的退化和ChatGPT的糟糕输出。知情人士透露,OpenAI内部人士希望GPT-5更加可靠,给公众和企业客户留下深刻印象。与此同时,OpenAI还卷入了版权诉讼中。从技术上讲,AI模型的许多最关键训练数据都归版权所有者所有。OpenAI和许多其他科技公司都反对更新联邦法规,以限制大模型如何获取和使用这些材料。目前,OpenAI正在应对《纽约时报》等数据版权所有者发起的诉讼。截至发稿,OpenAI发言人尚未就此置评。 ... PC版: 手机版:

封面图片

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT

让GPT-4帮人类训练GPT-4!OpenAI推出新模型CriticGPT 美东时间6月27日周四,OpenAI公布,其研究人员训练了一个基于 GPT-4 的模型,它被称为 CriticGPT,用于捕捉ChatGPT 代码输出中的错误。简单来说就是,CriticGPT让人能用 GPT-4 查找 GPT-4 的错误。它可以写出使用者对ChatGPT响应结果的批评评论,从而帮助人类训练者在RLHF期间发现错误。OpenAI发现,如果通过CriticGPT获得帮助审查 ChatGPT编写的代码,人类训练师的审查效果比没有获得帮助的人强60%。OpenAI称,正着手将类似 CriticGPT 的模型集成到旗下 RLHF 标记管道中,为自己的训练师提供明确的AI帮助。OpenAI称,因为没有更好的工具,所以人们目前难以评估高级的AI系统的表现。而CriticGPT意味着,OpenAI向能够评估高级AI系统输出的目标迈进了一步。,OpenAI举了一个例子,如下图所示,对ChatGPT提出一个用 Python 编写指定函数的任务,对于ChatGPT根据要求提供的代码,CriticGPT点评了其中一条指令,提议换成效果更好的。OpenAI称,CriticGPT 的建议并不是全都正确无误,但OpenAI的人员发现,相比没有这种AI的帮助,有了它,训练师可以发现更多模型编写答案的问题。此外,当人们使用CriticGPT 时,这种AI模型会增强他们的技能,从而得出的批评结论比单单人类训练师做的更全面,并且比AI模型单独工作时产生的幻觉错误更少。在OpenAI的实验中,在60%以上的时间里,随机选择的训练师都更喜欢来自人类与CriticGPT 合作的批评结论,而不是来自没有CriticGPT协助的人类训练师批评。OpenAI同时提到了目前开发CriticGPT的四点局限。其中之一是,OpenAI用 ChatGPT 的简短答案训练CriticGPT,因此未来需要发掘能帮助训练师理解冗长且复杂任务的方法。第二点是,模型仍然会产生幻觉,有时训练师在看到这些幻觉后会犯下标记错误。第三点是,有时现实世界中的错误可能分散在答案的许多部分之中,OpenAI目前的工作重点是让模型指出一处的错误,未来还需要解决分散在不同位置的错误。第四点,OpenAI指出,CriticGPT 只能提供有限的帮助:如果ChatGPT面对的任务或响应极其复杂,即使是有模型帮助的专家也可能无法正确评估。最后,OpenAI表示,为了协调日益复杂的 AI 系统,人们需要更好的工具。在对 CriticGPT 的研究中,OpenAI发现,将 RLHF 应用于 GPT-4 有望帮助人类为 GPT-4 生成更好的 RLHF 数据。OpenAI计划,进一步扩大这项工作,并将其付诸实践。OpenAI在原名Twitter的社交媒体X上公布了新模型CriticGPT后,一条点赞超1万的网友评论称,自我改进已经开始了。另一条点赞上万的热截取了OpenAI的相关研究文章结论,其中提到,在智能方面,大语言模型(LLM)和LLM的批评都只会继续改进,而人类的智能不会,这条评论感叹,真是悲观。还有网友引用了漫威超级英雄电影《复仇者联盟》中灭霸的一句台词,点评OpenAI所说的用GPT-4找GPT-4的错误:“我用宝石摧毁了宝石。” ... PC版: 手机版:

封面图片

OpenAI官宣启动“下一代前沿模型”训练 或整合“文生视频”模型Sora

OpenAI官宣启动“下一代前沿模型”训练 或整合“文生视频”模型Sora OpenAI在该博客文章中表示,“虽然我们为打造和发布在能力和安全性方面都处于业界领先地位的模型而感到自豪,但在这个重要时刻,我们欢迎围绕这一问题展开激烈的讨论。”公司称,其成立的这个新委员会的目的就是来评估这项“新的前沿模型”可能带来的任何风险。虽然目前外界普遍预计OpenAI所谓的“下一代前沿模型”就是GPT-5,但公司迄今未做过任何官方形式的表态。而根据OpenAI开发者体验主管罗曼·韦(Romain Huet)上周在巴黎的一次演讲,OpenAI下一代模型可能将被命名为“GPT-Next”。不过,也有外媒认为这实际上是Omni-2一个更精致、训练参数更多、更强的GPT-4o增强版。OpenAI称,新成立的“安全与保障委员会”的首要任务“将是在未来90天内评估进一步发展OpenAI的流程和保障措施”。随后,OpenAI将在董事会审查后公开分享“采纳建议”的最新情况。这意味着OpenAI的董事会应该最迟在今年8月26日收到该委员会的建议。如果按照这样的时间表来计算,OpenAI最快可能在今年秋季发布所谓的“下一代前沿模型”。不过,《纽约时报》报道称,AI模型的训练可能需要数月甚至数年时间。训练完成后,AI公司通常还会再花几个月时间来测试该模型,并对其进行微调,之后才能供公众使用。这就意味着,OpenAI的下一代模型可能并不会在90天之后就发布。在最近的国际人工智能首尔峰会期间发布的“安全更新(Security Update)”中,OpenAI也表示,在(其下一代模型)发布前,公司将花更多时间评估新模型的功能,这可以解释为什么没有具体的发布日期。OpenAI并未明确提及训练中模型的名称,但外界第一时间猜测这一“前沿模型”就是GPT-5。此前,OpenAI的基础模型一直遵循着明确的命名顺序,即GPT后以递增数字的形式变化。不过,需要注意的是,本月OpenAI发布的模型却命名为GPT-4o。在当地时间5月22日巴黎举行的VivaTech会议上演示 ChatGPT Voice时,OpenAI开发者体验主管罗曼·韦展示了一张幻灯片,揭示了未来几年人工智能模型的潜在增长趋势和命名,其中并没有GPT-5。 罗曼·韦展示了GPT-3时代、GPT-4时代、GPT-Next和“未来的模型”,而“Today(今天)”就处于GPT-4时代和GPT-Next之间。这似乎意味着,OpenAI推出的下一代模型或将命名为GPT-Next,但有外媒认为这实际上是Omni-2一个更精致、训练参数更多、更强的GPT-4o增强版。而且,罗曼·韦在演讲中也表示,在未来几个月或者说今年,人们将看到更多类型的OpenAI模型,而不仅仅是ChatGPT一种模型。迭代趋势预示下一代模型将整合Sora福布斯报道称,OpenAI所谓的“下一代前沿模型”可能会取代其领先的基础模型GPT-4,以及图像生成器、虚拟助手、搜索引擎和旗舰聊天机器人ChatGPT等强大的生成式AI工具。科技媒体ZDNET报道称,按照过去的趋势,外界可以预期“下一代前沿模型”的反应会更加准确,因为它将接受更多数据的训练。模型训练的数据越多,该模型生成连贯、准确内容的能力就越强,从而也能拥有更好地性能。例如,有研究称GPT-3.5是在1750亿个参数上训练的,而GPT-4的训练参数则已经达到1万亿。报道称,如果OpenAI“下一代前沿模型”发布,我们可能会看到该模型在训练参数上更大的飞跃。而回顾OpenAI过往的基础模型,从GPT-3.5到最新的GPT-4o,可以看到,随着模型的升级,产品的迭代已经让其变得更加智能,包括价格、响应速度、上下文长度等等。要知道,GPT-3.5只能输入和输出文本,而到GPT-4 Turbo时,已经可以通过文字和图像的输入以获得文本的输出。GPT-4o更是展示了更强大的能力,不仅能处理文本,还能创建图像内容,并以高度对话化的语音方式回答问题和响应指令。ZDNET报道称,按照OpenAI基础模型这样的迭代趋势,“下一代前沿模型”或将拥有输出视频的能力。今年2月,OpenAI发布了“文生视频”模型Sora,这可能会被整合到“下一代前沿模型”中以输出视频。OpenAI的目标是在超越竞争对手的同时,更快地推进AI技术,同时也安抚那些认为该技术越来越危险、助长虚假信息传播、取代工作岗位甚至威胁人类生存的批评者。虽然OpenAI在周二的博客文章中称,预期其“新前沿模型”将使我们在通往AGI的道路上达到更高的能力水平,这是一种能够理解、学习和执行人类可以执行的任何智力任务的 AI 形式。不过,专家们对 AGI 的可行性以及何时可能实现存在分歧。被誉为 AI 教父的 Geoffrey Hinton 估计,可能需要 20 年才能发展出 AGI。英伟达CEO黄仁勋则预测称,AI会在五年内通过人类测试,AGI将很快到来。 ... PC版: 手机版:

封面图片

YouTube CEO表示OpenAI用其视频训练Sora将违反平台服务条款

YouTube CEO表示OpenAI用其视频训练Sora将违反平台服务条款 "从创作者的角度来看,当创作者将他们的辛勤劳动上传到我们的平台时,他们有一定的期望,"莫汉周四在接受彭博原创节目主持人艾米莉-张(Emily Chang)的采访时说,"其中一个期望就是要遵守服务条款。 它不允许下载文字稿或视频片段等内容,这明显违反了我们的服务条款。这些就是我们平台上内容的行事规则。"关于 OpenAI 使用什么材料来训练 ChatGPT 和 DALL-E 等流行内容创作产品的人工智能模型,公众一直争论不休。Sora 和其他生成式人工智能工具的工作原理是从网络上吸取各种内容,并将这些数据作为工具生成新内容(包括视频、照片、叙述性文字等)的基础。随着OpenAI、Google等公司竞相开发更强大的人工智能,它们正寻求尽可能多的内容来训练其人工智能模型,以获得更高质量的结果。Google和YouTube是Alphabet公司的子公司。微软公司支持的 OpenAI 没有立即回应置评请求。OpenAI 首席技术官米拉-穆拉提(Mira Murati)上个月在接受《华尔街日报》采访时说,她不确定 Sora 是否是在 YouTube、Facebook 和 Instagram 的用户生成视频上训练出来的。本周,《华尔街日报》援引熟悉此事的人士的话报道称,OpenAI 已经讨论过在转录 YouTube 公开视频的基础上训练其下一代大型语言模型 GPT-5。莫汉说,Google在决定是否使用平台上的视频来训练公司自己的强大人工智能模型"双子座"(Gemini)之前,会遵守 YouTube 与创作者签订的个人合同。"很多创作者在我们的平台上都有不同类型的内容授权合同。他说,虽然"YouTube语料库中的部分内容可能会被用于"训练Gemini等模型,但Google和YouTube会确保将这些视频用作Google人工智能的训练数据"符合该创作者事先签署的服务条款或合同"。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人