AI初创集体跳槽OpenAI Ilya出走后安全团队重整旗鼓

AI初创集体跳槽OpenAI Ilya出走后安全团队重整旗鼓 - 侵权寡姐引发全球热议- 员工签署“霸王条款”被接连曝出- 网友细数奥特曼“七宗罪”辟谣:根据Vox获得的泄露消息和文件,OpenAI的高级领导层,包括Altman在内,非常了解这些股权回收条款,并且签署了它们。除此之外,还有一个严峻而紧迫的问题摆在OpenAI面前AI安全。最近,五名与安全相关的员工离职,其中包括两名最著名的员工,“超级对齐”团队的解散让OpenAI的安全问题再次被置于聚光灯下。《财富》杂志报道称,OpenAI从未兑现让其超级对齐团队获得其20%计算资源的承诺。2023年7月,OpenAI成立了一个新团队,致力于确保未来可能比人类加起来还要聪明的人工智能系统能够被安全控制。为了表明该公司对这一目标的重视程度,它公开承诺将投入当时可用计算资源的20%用于这项工作。现在,还不到一年时间,这个名为“超级对齐”的团队因员工辞职以及OpenAI将产品发布置于人工智能安全之上的指控而被解散,据6位知情人士称,OpenAI从未履行向该团队提供20%算力的承诺。但在上周四,Indent首席执行官Fouad Matin在X和Reddit上宣布,“我们加入了OpenAI,致力于为AGI做好安全准备! ”他在推文中写道,“我很高兴能与一支出色的团队一起保障未来的安全,从前沿模型准备到客户数据控制,确保人工智能安全并造福于每个人是非常重要的。”看来,OpenAI安全团队正在重整旗鼓,招募新人,那么,刚刚被OpenAI招募的Fouad Matin能否临危受命,“挽大厦于将倾”呢?Fouad Matin和他的团队有“不明真相的吃瓜群众”在Fouad Matin的帖子下留言:“我们加入了OpenAI ”中的“我们”是谁?显然,答案不是“他的两个半脑”那么简单,Fouad Matin背后的资源是他所创办的Indent,Indent正是一家致力于“构建安全的未来”的AI公司。目前,Indent已经在其官网上发布了“日落通知”,宣布Indent将在今年7月停止服务。我们创办Indent的目标是帮助团队保护最重要的东西。我们的客户已经保护了从客户数据和生产基础架构到日常业务软件的一切安全,而所有这一切都不会降低团队的速度。经过慎重考虑,我们做出了一个非常艰难的决定:Indent将在未来几个月内关闭,我们将帮助客户过渡,并继续为实现这一共同目标而努力。在太平洋标准时间2024年7月15日下午12点之前,团队都可以提出申请,届时服务将关闭。审计日志将提供到7月19日,之后我们将开始数据删除流程。我们要感谢每一位使用Indent的用户,从第一天就获得访问权的早期创业公司,到使用Indent保护关键任务资源的数百人团队。Fouad Matin是Indent的联合创始人和CEO,Fouad Matin称,他创办Indent是因为发现大多数公司不知道谁有权访问客户数据,而且对于大多数公司来说,发现这一问题的成本太高,更不用说锁定这些数据了。而Indent可以提供用户友好的访问控制。2021年12月,Indent为按需访问控制融资560万美元。在2018年创办Indent之前,Fouad Matin还有3段工作经历。2014年,Fouad Matin曾和其他联创共同创办了一家推荐招聘公司,他在其中负责产品、销售和工程设计。曾参加首届Y Combinator奖学金计划和YC W16。2016年,他创办了一个无党派非营利组织,致力于为年轻人建立最简单的登记和投票方式,帮助100万人投票。2017年,他在Segment担任工程师,领导细分角色的产品和工程开发,使客户能够将用户操作解析为配置文件。致力于更好的产品体验设计。正如Fouad Matin在个人简介中所介绍的那样,他是一名软件工程师和产品设计师,有时也会投资初创公司,在过去几年里,他曾帮助几百万人投票给非营利组织和公司,以管理他们的客户数据。现在,他在OpenAI从事安全工作。Indent日落,而Fouad Matin将开启他新的职业旅程。其他成员在Fouad Matin推文的评论区,有和他相识2年的好友对他表示祝贺,这位好友透露,除Fouad Matin以外,一同加入OpenAI安全团队的还有Dan Gillespie。Dan Gillespie将主要从事的是“建立为AGI到来所需的安全计算平台”。无独有偶,和Fouad Matin有一点相同的是,Dan Gillespie也具有投资背景,根据他在领英的介绍,他也曾在Y Combinator任职过,Y Combinator是硅谷最负盛名的创业孵化器,在过去一年投资了260多家AI初创公司,是硅谷乃至全世界AI创业趋势的风向标。左:Dan Gillespie, 23岁彭博社观点专栏提出,“2024年5月将被人们铭记为AI安全运动消亡的月份。同时,人们也将记住,5月是AI更安全的工作真正开始的时间。”OpenAI作为领先的AI公司,能否在消极的声音之下,真正坚持构建一个更加安全的系统,我们希望OpenAI新安全团队能够带来不同。 ... PC版: 手机版:

相关推荐

封面图片

OpenAI“保卫人类”团队分崩离析 Ilya与Altman内讧曝光

OpenAI“保卫人类”团队分崩离析 Ilya与Altman内讧曝光 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 “在OpenAI工作近十年后,我决定离开 。这间公司取得了令人难以置信的进步,我相信在 Sam、Greg、Mira,以及杰出的研究领导者Jakub带领下,OpenAI将构建安全有益的通用人工智能。和各位共事是一种荣幸,我将深深怀念所有人。非常感谢这一切,祝大家一切顺利!我对即将到来的项目感到兴奋这对我来说意义重大,我将在适当的时候分享详细信息。”下面还附上了一张办公室合影,缅怀几人的革命友情。靴子落地,事情走向基本符合大众心理预判。Lex Fridman、Jeff Dean等一众大佬和网友们都在评论区致以祝福,感谢Ilya在OpenAI所做的一切。奥特曼也随即发表了一篇稍显正式的回应,与以往不分大小写的随意风格形成鲜明对比。他表示自己对Ilya 和 OpenAI 即将分道扬镳感到“非常悲伤”,称赞Ilya是”这一代最杰出的人才之一,AI领域的指路明灯,也是一位亲密朋友”。不仅有才华和远见,还有温暖的同情心。“没有他,OpenAI 不会成为今天的样子”。他永远对Ilya怀有感激,并承诺完成他们共同开始的使命。同时,奥特曼宣布曾领导OpenAI推理团队、深度学习科学团队和GPT-4开发的前研究总监Jakub Pachocki接棒Ilya,成为新任首席科学家。然后又转发Ilya的照片说,”feeling the AGI today”。还到IlyaTwitter下面借网友热梗留言打趣,“别告诉他们你看到了什么。”从去年11月的宫斗风波传到现在,终于一切都在看起来欢乐祥和的美好氛围中画上句点。然鹅确实如此吗?咱先别太天真,要真这么平静那就不是OpenAI了。果然,当晚9:43,第一个“离职侠“出现:曾与Ilya共同领导OpenAI“超级对齐团队”的Jan Leike在X发文宣布,”我(也)撤了。”Jan Leike 2021年从GoogleDeepMind团队加入OpenAI,主要研究方向包括强化学习、大语言模型的对齐工程及AGI,属于Ilya阵营的人。他和Ilya的Superalignment团队旨在未来四年内,构建一个能与人类水平相媲美的自动对齐研究器,尽可能将相关工作交由自动系统完成,同时确保人工智能系统的行为与人类价值观和目标保持一致。上月,媒体曾报道过对齐团队的两名员工,也同为Ilya盟友的Leopold Aschenbrenner和Pavel Izmailov因“泄密”而被公司开除,但OpenAI并未提供任何泄密证据。这还不算,刚刚OpenAI内部证实,该团队现在已经被解散了!相应工作将被整合到其他研究小组。熟悉的配方,熟悉的味道,跟上次奥特曼被董事会罢免Greg Brockman甩手走人如出一辙。无怪乎网友摊手:“你们又来了是吧?”(Logan Kilpatrick这则留言也让广大吃瓜群众浮想联翩。)第二天,OpenAI前工程负责人,曾领导过ChatGPT, GPT-4, DALL·E和APIs上线的Evan Morikawa也宣布离开,将与前波士顿动力高级机器人学家Andy Barry和Deep Mind研究科学家Pete Florence 和 Andy Zeng共同开展一个全新项目,并认为“这是在全球范围内实现 AGI 所必需的”。时间来到今天。Jan Leike又出手了,而且是重拳出击。直接公开透露自己与OpenAI高层在公司的核心优先事项上存在“无法调和”的长期分歧,团队在推动项目和争取计算资源时遭遇重大阻碍,严重影响研究的进度和质量。他先是表明昨天是自己在 OpenAI ”作为对齐负责人、超级对齐负责人和高管的最后一天“。肯定了团队过去三年多来取得的显著成绩:推出第一个基于 RLHF 的大语言模型 InstructGPT,发布第一个大规模监督 LLMs 的方法,并开创了自动解释性和从弱到强的泛化。“我爱我的团队。我非常感激能与这么多了不起的人一起工作…OpenAI 拥有如此多的杰出、聪明、善良和高效的人才。”接着话锋一转开轰,自己对OpenAI,终究是错付了。“离开这份工作是我做过的最艰难事情之一,因为我们迫切需要弄清楚如何引导和控制比我们聪明得多的 AI 。我加入OpenAI是因为我以为这里是世界上最适合进行这项研究的地方。然而,我与OpenAI领导层在公司的核心优先事项上长期存在分歧,直到我们最终达到一个临界点。”这是怎么说?Jan Leike继续解释道:“我相信,我们应该将更多的带宽花在为下一代模型做准备上,关注安全、监控、对抗性稳健性、超级对齐、保密性、社会影响等相关话题。这些问题很难解决,我担心我们还没有走上正轨。过去几个月,我的团队一直在逆风前行。有时我们在计算资源方面挣扎,完成这项关键研究变得越来越困难。”“建造比人类更聪明的机器本质上是一项危险的工作。OpenAI 代表全人类肩负着巨大的责任。但在过去几年里,安全文化和流程让位于光鲜亮丽的产品。我们早该认真重视AGI的影响了,必须优先为其做好准备。只有这样才能确保 AGI 造福全人类。OpenAI 必须成为一个安全至上的 AGI 公司。”最后一条,Jan Leike“语重心长”地致所有OpenAI员工:“学会感受 AGI。对你手中正在构建的事物,态度庄重一些。我相信你们可以‘传递’所需的文化变革。我指望着你们。全世界都在指望你们。:openai-heart:(OpenAI员工最常用的爱心表情)”此番言论一出,当然是立刻炸开锅了!所以是OpenAI为了优先发布亮眼的产品,不重视安全实现AGI。让对齐团队坐冷板凳不说,还不分给计算资源,导致根本无法推进项目,这换谁能忍?网友悟了:“这就是Ilya看到的,并且他一直在告诉董事会并试图反对。他要求的只是专注于 AI 安全,现在Jan也证实了这一点。”还有人梳理出了OpenAI有史以来所有安全团队带头大牛们的离职时间线。包括Anthropic联合创始人Amodei兄妹。“这听起来像是OpenAI想继续烧钱商业化,而不是确保前进步骤的安全。他们想成为大亨,而不是英雄。”更有人爆料说,当员工离开OpenAI时,需要签署一个包含“承诺终身不得贬损公司的离职协议”。如果拒签就会失去所有归属股权,意味着可能会损失数百万美元。对Jan Leiker的长文开炮,奥特曼当然是不会就此作罢的了。很快他便发文“反击”,最后也送了一颗小心心:“我非常感谢 Jan Leike 对 OpenAI 对齐研究和安全文化的贡献,也非常难过看到他离开。他说得对,我们还有很多事情要做,我们承诺会做到。我会在接下来的几天里发一篇更长的文章。”网友留言,“别周一见啊,我那天有重要发布。”看来这新的OpenAI保卫战,AKA “OpenAI内斗第二季之杨莱克大战奥特曼”已经打响,接下来双方的小作文比赛马上要开始。这间公司的每个人好像都给自己安排了主角光环,隔一段时间就上演一段大戏的惯例已成。这次如何走向,会不会又来一场员工群体运动?OpenAI算是消停不下来了。 ... PC版: 手机版:

封面图片

Anthropic 聘请前 OpenAI 安全负责人领导新团队

Anthropic 聘请前 OpenAI 安全负责人领导新团队 Leike 在 X 上发表文章说,他在 Anthropic 的团队将专注于人工智能安全和安保的各个方面,特别是"可扩展监督"、"弱到强的泛化"和自动对齐研究。一位熟悉内情的消息人士透露,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而 Anthropic 的研究人员目前正在研究可扩展的监督以可预测和理想的方式控制大规模人工智能行为的技术随着 Leike 团队的发展,他们将转而向 Leike 汇报工作。在许多方面,Leike 的团队听起来与 OpenAI最近解散的 Superalignment 团队有着相似的使命。Leike 共同领导的 Superalignment 团队雄心勃勃,目标是在未来四年内解决控制超级智能人工智能的核心技术难题,但经常发现自己受到 OpenAI 领导层的束缚。Anthropic 经常试图将自己定位为比 OpenAI 更注重安全。Anthropic的首席执行官达里奥-阿莫迪(Dario Amodei)曾是OpenAI的研究副总裁,据报道,他在与OpenAI就公司的发展方向(即OpenAI日益增长的商业重心)产生分歧后与OpenAI分道扬镳。阿莫德伊带着许多前OpenAI员工创办了Anthropic公司,其中包括OpenAI的前政策负责人杰克-克拉克(Jack Clark)。 ... PC版: 手机版:

封面图片

Anthropic 聘请前 OpenAI 安全主管领导新团队

Anthropic 聘请前 OpenAI 安全主管领导新团队 OpenAI 安全团队前联合负责人 Jan Leike 周二在社交平台 X 上宣布,他将加入 OpenAI 的竞争对手 Anthropic,领导超级对齐团队。他本月初以“安全问题”为由从 OpenAI 辞职。在社交平台的帖子中,Leike 表示他的新团队将致力于“可扩展监督”、“弱到强的概括”和自动对齐研究。

封面图片

Ilya离开OpenAI内幕曝光:奥特曼砍他团队算力 优先搞产品赚钱

Ilya离开OpenAI内幕曝光:奥特曼砍他团队算力 优先搞产品赚钱 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 紧接着,更多的八卦被其他人挖出来。比如OpenAI离职成员都要签一份协议,保证离职后不在外说OpenAI坏话,不签的话视为自动放弃公司股份。但仍然有拒不签署的硬骨头出来放猛料(笑死),说核心领导层对安全问题优先级的分歧由来已久。去年宫斗至今,两派的观念冲突到达了临界点,这才看上去颇为体面地崩了。因此,尽管奥特曼已经派了联合创始人来接管超级对齐团队,仍旧不被外界看好。冲在最一线的Twitter网友们感谢Jan有勇气说出这个惊人大瓜,并感叹:我勒个去,看来OpenAI真的不太注重这个安全性!不过回过头来,如今执掌OpenAI的奥特曼这边,暂时还坐得住。他站出来感谢了Jan对OpenAI超级对齐和安全方面的贡献,表示Jan离开,他其实很难过、很舍不得。当然了,重点其实是这一句:等着,过两天我会发一篇比这更长的推文。承诺的20%算力居然有画大饼成分从去年OpenAI宫斗到现在,灵魂人物、前首席科学家Ilya就几乎不再公开露面、公开发声。在他公开宣称离职前,就已经众说纷纭。很多人认为Ilya看到了一些可怕的事情,比如可能毁灭人类的AI系统啥的。网友:我每天醒来第一件事就是想Ilya看到了啥这次Jan算是摊开了说,核心原因就是技术派和市场派对安全方面的优先等级产生了不同看法。分歧很严重,目前后果嘛……大家也都看到了。据Vox报道,熟悉OpenAI的消息人士透露,更注重安全的员工已经对奥特曼失去了信心,“这是一个信任一点一点崩溃的过程”。但如你所见,在公开平台和场合,没有太多离职员工愿意公开谈论此事。一部分原因是OpenAI一直以来,都有让员工签署带有非贬低协议的离职协议的传统。如果拒绝签署,就等于放弃了此前拿到的OpenAI的期权,这意味着出来说话的员工可能会损失一笔巨款。然而,多米诺骨牌还是一张接一张的倒下了Ilya的辞职加剧了OpenAI近期的离职潮。紧随其后宣布离职的,除了超级对齐团队负责人Jan以外,目前有至少五个安全团队成员离职。其中还有个没签署非贬低协议的硬骨头,Daniel Kokotajlo(以下简称DK哥)。去年DK哥写道,他认为AI发生生存灾难的可能性为70%DK哥在2022年加入OpenAI,在治理团队工作,主要工作内容是引导OpenAI安全部署AI。但他也在近期辞职了,并且对外接受了采访:OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。这可能是人类有史以来发生过的最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。DK哥阐述,当年,他加入OpenAI,满怀对安全治理的报复和希望,期望OpenAI越靠近AGI能越负责任。但团队中许多人慢慢意识到,OpenAI不会这样了。“逐渐对OpenAO领导层以及他们负责地处理AGI的能力失去了信心”,这就是DK哥辞职的原因。对未来AGI安全工作的失望,是Ilya加剧的离职潮中众人离开的一部分原因。还有一部分原因,是超级对齐团队,恐怕没有外界想象的那样能资源充沛地进行研究。即便超级对齐团队满负荷工作,团队也只能获得OpenAI承诺的20%的算力。而且团队的一些请求经常被拒绝。当然是因为算力资源对AI公司来说重要至极,每一点都要合理分配;也因为超级对齐团队的工作是“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题”。换句话说,超级对齐团队对应的是OpenAI需要面临的未来的安全问题划重点,是未来的、不知是否会出现的。截至发稿,奥特曼还没有发出他那篇“(比Jan爆料内幕的)更长的推文”。但他简单提到,Jan对安全问题的担忧是对的,“我们还有很多事情要做;我们也致力于这样做。”就这一点,大伙儿可以先办个小板凳等等,到时候咱一起第一时间吃瓜。综上,现在超级对齐团队走了好些人,尤其是Ilya和Jan的离职,让这个风雨之中的团队面临群龙无首的窘况。后续安排,是联合创始人John Schulma来接手,但不再有专门的团队。新的超级对齐团队将是联系更松散的小组,成员分布在整个公司的各个部门,OpenAI发言人将其描述为“更深入地整合”。这一点也为外界所质疑,因为John的原本全职工作是确保目前的OpenAI产品的安全问题。不知道突然多了份责任后,John能不能忙得过来,好好领导关注现在和关注未来安全问题的两个团队?Ilya-Altman之争如果把时间阵线拉长, 其实今天的分崩离析是OpenAI“宫斗”Ilya-Altman之争的续集。时间回溯到去年11月,当时Ilya还在,他同OpenAI董事会合作试图解雇掉奥特曼。当时给出的理由是,他在沟通中不够真诚。换言之,我们不信任他。但最终结果显而易见,奥特曼带着他的“盟友”威胁加入微软,结果董事会屈服,罢免行动失败。Ilya离开董事会。而奥特曼这边,选择了对他更为有利的成员加入董事会。在这之后,Ilya就再也社交平台上消失了,直至前几天官宣离职。而且据说,已经大约6个月没有出现在OpenAI办公室了。当时他还留下一条耐人寻味的推文,但很快就删除了。在过去的一个月里,我吸取了许多教训。其中一个教训是,“在士气提高之前,殴打会一直持续下去 ”这句话比它应有的含义更经常地适用。但据内部人士透露,Ilya一直远程共同领导着超级对齐团队。而在奥特曼这边,员工们对他最大的指控就是言行不一,比如他声称自己想优先考虑安全,但他的行为却很矛盾。除了原本承诺的计算资源没有给到外。还有像前阵子找沙特等筹集资金来造芯。那些注重安全的员工懵了。如果他真的关心以尽可能安全的方式构建和部署人工智能,那么就不会这么疯狂地积累芯片,来加速技术的发展?更早之前,OpenAI还从一家奥特曼投资的一家初创公司订购芯片。金额高达5100万美元(约合人民币3.6亿元)。而当时宫斗那几天OpenAI前员工的举报信中,对于奥特曼的描述似乎也再一次印证。也正因这样从始至终“言行不一”的操作,让员工们逐渐对OpenAI以及奥特曼失去信心。Ilya是这样,Jan Laike是这样,超级对齐团队也是这样。有贴心的网友整理出这几年年间,发生的相关事情的重要节点先来个贴心提示,下文提到的P(doom),指“AI引发世界末日场景的可能性”。2021年,GPT-3团队负责人因“安全”问题离开OpenAI,创立Anthropic;其中一位认为P(doom)为10-25%;2021年,RLHF安全研究负责人离职,P(doom)为50%;2023年,OpenAI董事会解雇奥特曼;2024年,OpenAI解雇两位安全研究员;2024年,一位特别关注安全的OpenAI研究员离职,他认为P(doom)已经在70%。2024年,Ilya、JAN Laike离职。技术派还是市场派?大模型发展至今,“如何实现AGI?”其实可归结为两条路线。技术派希望技术成熟可控再应用;市场派则认为边开放边应用“渐进式”走到终点。这也是Ilya-Altman之争的根本分歧,即OpenAI的使命:是专注于AGI和超级对齐,还是专注于扩展ChatGPT服务?ChatGPT服务规模越大,意味着需要的计算量越大;这也就会占用AGI安全研究的时间。如果OpenAI是个致力于研究的非盈利组织,他们应该将更多时间花费在超级对齐上。而从OpenAI对外的一些举措来看,结果显然不是,他们只是想要在大模型这个竞争中拔得头筹,为企业和消费者提供更多的服务。这在Ilya看来,这是件非常危险的事情。即便我们不清楚随着规模的扩大会发生什么,但在Ilya看来,最好的办法就是安全第一。开放和透明,这样我们人类才能确保安全地构建 AGI,而不是以某种隐秘的方式。但在奥特曼带领... PC版: 手机版:

封面图片

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)

此前,OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”) Jan Leike,OpenAI 的一位关键研究员,在联合创始人Ilya Sutskever 离职后于本周早些时候辞职。他在周五早上在 X 上发帖称,该公司“安全文化和流程已被华而不实的产品所取代”。 Leike的声明是在《》杂志报道 OpenAI 解散了致力于解决长期 AI 风险的专门团队(称为“超级对齐团队”)之后发表的。Leike曾负责这个超级对齐团队,该团队成立于去年七月,目的是“解决在 OpenAI 开发具有类人推理能力的 AI 时实施安全协议中的核心技术挑战”。 “我们早就应该非常认真地考虑人工通用智能的影响了。我们必须尽我们所能优先准备,”莱克在周五早上关于他辞职的后续帖子中说。“只有这样,我们才能确保人工通用智能惠及全人类。” Leike 的帖子突显了 OpenAI 内部日益增长的紧张氛围。在研究人员争相开发人工通用智能的同时,还要管理像 ChatGPT 和 DALL-E 这样的消费级 AI 产品,像Leike这样的员工则在提出对创造超级智能 AI 模型潜在危险的担忧。Leike表示,他的团队被降低了优先级,无法获得执行“关键”工作所需的计算和其他资源。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司”

从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司” 安全超级智能公司超级智能触手可及构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们启动了世界上第一个直击 SSI 实验室,目标和产品只有一个:安全的超级智能。它的名字叫安全超级智能公司(Safe Superintelligence Inc.)SSI 是我们的使命、名称和整个产品路线图,因为它是我们唯一的关注点。我们的团队、投资者和业务模式都是为了实现 SSI 而努力。我们将安全和能力视为需要通过革命性的工程和科学突破来解决的技术问题。我们计划尽快提高能力,同时确保我们的安全始终处于领先地位。这样,我们就能心平气和地扩大规模。我们的业务模式意味着安全、保障和进步都不受短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,在那里我们根基深厚,有能力招聘到顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干、精锐的团队,专门致力于 SSI 而非其他。如果你是这样的人,我们将提供一个机会,让你完成毕生的事业,帮助解决我们这个时代最重要的技术挑战。现在正是时候。加入我们吧!伊利亚-苏茨基弗、丹尼尔-格罗斯、丹尼尔-列维2024 年 6 月 19 日 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人