美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业

美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业 (来源:X)简单来讲,苏茨克维创办了一家叫做“安全超级智能”(Safe Superintelligence,简称SSI)的新公司,目标是“一步到位”地创造一个安全的超级智能。安全第一、直通终极目标苏茨克维打算在一个纯粹的研究机构里,直接创造一个安全、强大的人工智能系统,同时不会在短期内推出任何商业化产品或服务。他对媒体介绍称:“这个公司很特别,因为它的第一个产品就会是安全的超级智能,直到(实现)那一天前不会做任何其他事情,完全隔离于外部压力,不必去处理大型、复杂的产品或陷入激烈的竞争中。”安全第一、不搞商业化、不理睬外界压力,整段话里苏茨克维没有提到过一次OpenAI,但背后的意思已经不言自明。虽然OpenAI的“宫斗”事件以奥尔特曼的大胜、速胜结束,但整件事情背后加速主义与安全主义的路线之争并没有结束。虽然理念不同,但双方私下里依然维持着尚可的关系。在今年5月15日宣布离开工作十年的OpenAI之时,苏茨克维也发布了一张管理层的合照,并表示相信在奥尔特曼等人的带领下,OpenAI将构建出安全又有益的AGI(通用人工智能)。(来源:X)对于苏茨克维的分道扬镳,奥尔特曼回应称“深感悲伤”,并表示没有苏茨克维就没有OpenAI的今天。自去年的“宫斗”事件结束后,苏茨克维一直对于整件事保持沉默,直到今天依然如此。在被问及他与奥尔特曼的关系时,苏茨克维只是简单地回答了一句“很好”,而被问及过去几个月的经历时,他也只是表示“非常奇怪”。“像核安全一样的安全”从某种意义上来看,苏茨克维目前也无法准确界定AI系统安全与否的分界线,只能说有一些不一样的想法。苏茨克维暗示称,他的新公司将尝试使用“嵌入AI系统的工程突破”来实现安全,而不是技术上临时应用的“防护栏”。他强调:“我们所说的安全,是指像核安全一样的安全,而不是类似于‘信任与安全’那样的东西”。他表示花了很多年来思考AI安全方面的问题,并且在心目中已经有了几种实现的方法。他介绍称:“在最基本的层面上,安全的超级智能应该具有这样的特性,即不会对人类造成大规模伤害。在此之后,我们可以说希望它成为一种善的力量,一种建立在关键价值观上的力量。”除了大名鼎鼎的苏茨克维外,SSI还有两名创始人前苹果公司机器学习主管、知名科技风险投资人丹尼尔·格罗斯,另一个是与苏茨克维一同在OpenAI训练大模型的工程师丹尼尔·莱维。莱维表示,我的愿景与苏茨克维完全一致:一个小而精干的团队,每个人都专注于实现安全超级智能的单一目标。虽然目前并不清楚SSI为何敢于喊出“一步到位”(到底有多少投资人、投了多少钱),但格罗斯明确表示,公司的确会面临许多问题,但找钱不会是其中之一。回归OpenAI的初心从一系列愿景中不难发现,所谓“安全超级智能”,本质上就是OpenAI创立初期的概念。但随着训练大模型带来的费用激增,OpenAI不得不与微软合作,换取资金和算力支持延续他们的事业。这样的问题也会出现在SSI未来的路上公司的投资人真的愿意投入大量资金,看着这家公司没有任何产出,直到实现“超级智能”的最终目标吗?顺便一提,“超级智能”本身也是一个理论上的概念,指的是一种超越人类水平的人工智能系统,比起全球大多数超级科技公司正在追求的成果更加先进。但业内对于能否实现这样的智能,或如何构建这样的系统尚未形成共识。而令人在意的是,在SSI公司发布的首个公告中,第一句话就是“超级智能已经近在咫尺”。附:SSI公告安全超级智能公司 (Safe Superintelligence Inc.)超级智能已经近在咫尺。构建安全的超级智能是我们这个时代最重要的技术问题。我们已经启动了世界上第一个直击目标的SSI实验室,目标和产品只有一个:安全的超级智能。它叫做安全超级智能公司。SSI是我们的使命、我们的名字和我们全部的产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都齐心协力实现SSI。我们将安全性和能力并行,视为需要通过革命性工程和科学突破解决的技术问题。我们计划在确保安全性始终优先的情况下尽可能快地提高能力。这样,我们就能在平静的状态中扩展。我们的专注意味着不会因管理事务或产品周期而分心,我们的商业模式意味着安全性和技术进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,这些地方是我们的根基所在,也能在这些地方招募到顶尖的技术人才。我们正在组建一个精简的、出类拔萃的世界顶尖工程师和研究人员团队,只专注于SSI。如果你是那样的人,我们提供一个机会,让你完成一生的事业,帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。伊利亚·苏茨克维尔 、丹尼尔·格罗斯、丹尼尔·利维2024年6月19日 ... PC版: 手机版:

相关推荐

封面图片

OpenAI 联合创始人兼首席科学家伊利亚·苏茨克沃将离职

OpenAI 联合创始人兼首席科学家伊利亚·苏茨克沃将离职 当地时间5月14日晚,OpenAI 联合创始人兼首席科学家伊利亚·苏茨克沃 (Ilya Sutskever) 在社交平台 X 上宣布,他将在近十年后离开公司。伊利亚说,他将分享他下一个项目的细节,他称这个项目“对他个人非常有意义”。2023年11月,苏茨克沃参与罢免了 OpenAI 联合创始人兼首席执行官山姆·奥特曼,但不到一周奥特曼便宣布回归,苏茨克沃在此之后并未列席新成立的 OpenAI 董事会。 、、

封面图片

OpenAI又迎人事动荡 超级对齐团队正在分崩离析

OpenAI又迎人事动荡 超级对齐团队正在分崩离析 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。对此,OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)发文回应:“我非常感激杨·莱克对OpenAI的对齐研究和安全文化做出了贡献,看到他离开,我感到非常难过。他说得对,我们还有很多事情要做;我们致力于这样做。在接下来的几天里,我会有一个更长的帖子。”OpenAI去年7月组建了超级对齐团队,由杨·莱克和伊尔亚·苏茨克维领导,目标是在未来4年内解决控制超级智能AI的核心技术挑战。该团队承诺将获得该公司20%的计算资源,但其实际获得计算资源却受到阻碍。几个月来,OpenAI一直在流失关注AI安全的员工。自去年11月至今,OpenAI至少有7名注重安全的成员辞职或被开除。据《连线》证实,OpenAI超级对齐团队已经解散,余下成员要么辞职,要么将被纳入OpenAI的其他研究工作中。杨·莱克公开离职原因:团队逆风前行,拿计算资源很吃力前OpenAI超级对齐团队联合负责人杨·莱克(Jan Leike)昨晚连发13条推文,公开了离职原因:昨天是我作为OpenAI的对齐负责人、超级对齐负责人和执行官的最后一天。在过去的3年里,这是一段疯狂的旅程。我的团队使用InstructGPT推出了第一个RLHF LLM,发布了第一个可扩展的LLM监督,率先实现了自动化可解释性和弱到强的泛化。更多令人兴奋的东西即将问世。我爱我的团队。我非常感谢和我一起工作的许多了不起的人,包括超级联盟团队内部和外部的人。OpenAI拥有如此多非常聪明、善良和高效的人才。离开这份工作是我做过的最艰难的事情之一,因为我们迫切需要弄清楚如何引导和控制比我们聪明得多的AI系统。我加入是因为我认为OpenAI将是世界上做这项研究最好的地方。然而,很长一段时间以来,我与OpenAI领导层对公司核心优先事项的看法一直不合,直到我们终于到了临界点。我认为,我们应该把更多的带宽用于为下一代模型做好准备,包括安全性、监控、准备、对抗鲁棒性、(超级)一致性、保密性、社会影响和相关主题。这些问题很难解决,我担心我们没有走在到达那里的轨道上。过去几个月里,我的团队一直在逆风航行。有时我们在计算上很吃力,完成这项重要的研究变得越来越困难。建造比人类更聪明的机器本身就是一项危险的尝试。OpenAI代表着全人类肩负着巨大的责任。但过去几年,安全文化和流程已经让位于耀眼的产品。我们早就应该认真对待AGI的影响了。我们必须尽可能优先做好准备。只有这样,我们才能确保AGI造福全人类。OpenAI必须成为一家安全第一的AGI公司。对所有OpenAI员工,我想说:学会感受AGI。举止要庄重得体,为你们正在构建的东西。我相信你们可以“传递”所需的文化变革。我就指望你们了。全世界都指望着你们。: openai-heart:’大量关心AI安全的员工离职,苏茨克维半年没出现在OpenAI办公室几个月来,OpenAI一直在流失那些关心AI安全的员工。OpenAI超级对齐团队由OpenAI之前的校准部门的科学家和工程师以及来自公司其他机构的研究人员加入。他们将为内部和非OpenAI模型的安全性提供研究信息,并通过包括研究资助计划在内的倡议,向更广泛的AI行业征求并分享工作。该团队负责开发管理和引导“超级智能”AI系统的方法。据OpenAI超级对齐团队的一位人士透露,该团队承诺将获得公司20%的计算资源,但对其中一小部分计算的请求经常被拒绝,阻碍了团队的工作。一系列问题促使几名团队成员本周辞职。OpenAI没有立即回复关于承诺和分配给该团队的资源的评论请求。据消息人士透露,苏茨克维对超级对齐团队很有帮助,不仅贡献了研究,而且作为OpenAI内部其他部门的桥梁。他还将担任某种形式的大使,向OpenAI关键决策者展示团队工作的重要性。苏茨克维与阿尔特曼之间的矛盾更是增加了他的受关注度。去年11月,苏茨克维和OpenAI前董事会突然宣布开除阿尔特曼,理由是阿尔特曼对董事会成员“并不总是坦诚相待”。在包括微软在内的OpenAI投资者和该公司许多员工的压力下,阿尔特曼最终复职,董事会大部分成员辞职换人。据报道,苏茨克维再也没有回去工作。阿尔特曼复职后不久,苏茨克维曾发布一篇推文:‘上个月我学到了很多东西。其中一个教训是,“持续打击,直到士气提振”这句话的使用频率超出了它应有的范围。’没过多久,这篇推文就被删除了。此后在公开场合,苏茨克维和阿尔特曼继续保持着友谊的迹象,直到本周苏茨克维宣布离职时,阿尔特曼还将他称呼为“我亲爱的朋友”。据外媒报道,自夺权事变落幕以来,苏茨克维已经有大约6个月没出现在OpenAI办公室了。他一直在远程领导超级对齐团队,负责确保未来的AGI与人类的目标保持一致,而非背道而驰。这是个远大的抱负,但它与OpenAI的日常运营脱节。在阿尔特曼的领导下,该公司一直在探索将产品商业化。对阿尔特曼的信任崩塌:就像多米诺骨牌般一张张倒下苏茨克维和莱克并不是唯二离开的人,自去年11月以来,OpenAI至少有5名注重安全的员工辞职或被开除。关于阿尔特曼“不坦诚”的内因,业界众说纷纭,有一种猜测是OpenAI秘密取得了重大技术突破,认为苏茨克维选择离职是因为他看到了一些可怕的东西,比如一个可能摧毁人类的AI系统。真正的答案,可能确实跟阿尔特曼有关。据Vox报道,熟悉OpenAI的消息人士透露道,安全意识强的员工已经对阿尔特曼失去了信心。一位不愿透露姓名的公司内部人士说:“这是一个信任一点一点崩塌的过程,就像多米诺骨牌一张一张倒下。”没有多少员工愿意公开谈论此事。部分原因是OpenAI以让员工在离职时签署包含非贬损条款的离职协议而闻名。如果拒绝签署,员工就放弃了自己在公司的股权,这意味着可能会损失数百万美元。但有一名前员工拒绝签署离职协议,以便可以自由批评公司。丹尼尔·科科塔伊洛(Daniel Kokotajlo)于2022年加入OpenAI,希望带领公司实现AI的安全部署,他一直在治理团队工作,直到上个月辞职。“OpenAI正在训练越来越强大的AI系统,目标是最终全面超越人类智能。这可能是人类有史以来最好的事情,但如果我们不谨慎行事,也可能是最糟糕的事情,”科科塔伊洛说。“我加入时满怀希望,希望OpenAI能够迎难而上,在他们越来越接近实现AGI的过程中表现得更加负责任。我们中的许多人逐渐意识到这不会发生,”他谈道。“我逐渐对OpenAI领导层及其负责任地处理AGI的能力失去了信心,所以我辞职了。”尽管在公众面前展现出友情,但在苏茨克维试图赶走阿尔特曼后,人们对他们的友谊产生了怀疑。阿尔特曼被解雇后的反应也展现了他的性格。他用掏空OpenAI来威胁董事会重新向他敞开大门。前同事及员工纷纷透露说,阿尔特曼是一位口是心非的操纵者,例如他声称自己希望优先考虑安全,但实际行为却与此相矛盾。此前阿尔特曼找沙特基金支持成立一家新AI芯片公司的消息,让有安全意识的员工感到震惊。如果阿尔特曼真的关心以最安全的方式构建和部署AI,为什么他似乎在疯狂积累尽可能多的芯片,而这只会加速技术的发展?一位了解公司内部情况的消息人士称,对于员工来说,所有这些都导致他们逐渐“不再相信OpenAI说要做什么或者说重视某件事时,这些实际上是真的”。杨·莱克是前DeepMind研究员,在OpenAI期间参与了ChatGPT、GPT-4和ChatGPT前身InstructGPT的开发。在... PC版: 手机版:

封面图片

OpenAI宫斗大戏第二幕 核心安全团队解散 负责人自爆离职内幕

OpenAI宫斗大戏第二幕 核心安全团队解散 负责人自爆离职内幕 访问:NordVPN 立减 75% + 外加 3 个月时长 另有NordPass密码管理器 最新离职的OpenAI高管,超级对齐团队负责人Jan Leike直接撕破脸皮,揭露OpenAI联合创始人兼首席科学家苏茨克维离职内幕阿尔特曼不给资源、力推商业化不顾安全。Leike同时也是OpenAI的联合创始人,属于“保守派”阵营,他在Sutskever宣布离职后仅几个小时就发帖:我辞职了。官宣离职次日,Leike连发十多条帖子,公开解释了离职原因团队分配不到足够的资源:超级对齐团队过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难;安全并非阿尔特曼的核心优先事项:过去几年,安全文化和流程已经让位于更耀眼的产品。“很长一段时间以来,我与OpenAI领导层对公司核心优先事项的看法一直不合,直到我们终于到了临界点。”这是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。阿尔特曼的回应依旧体面,他表示,自己非常感谢Jan Leike对OpenAI的一致性研究和安全文化所做的贡献,并且很遗憾看到他离开。“他说得对,我们还有很多事情要做,我们致力于做到这一点。我将在未来几天内发布一篇更长的帖子。”投资未来?不 阿尔特曼选择把握现在OpenAI的超级对齐团队于2023年7月成立,由Leike和Sutskever领导,成员为OpenAI前校准部门的科学家和工程师以及来自公司其他机构的研究人员,可以说是一帮技术人员组成的团队。该团队旨在确保人工智能与其制造者的目标保持一致,目标是在未来解决控制超级智能AI的核心技术挑战,“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题。”也就是说,超级对齐团队是在为更强大的AI模型、而非当下的AI模型打造安全罩。正如Leik所说,“我相信我们应该投入更多的精力来为下一代模型做好准备,关注安全性、监控,做好准备、让AI具有对抗性的鲁棒性、(超级)对齐,关注保密性、社会影响等相关主题。这些问题很难做对,我很担心我们没有朝着正确的方向前进。”Leik还指出,虽然目前超智能AI看似遥远,但可能在本十年内出现,管理这些风险需要新的治理机构和对齐技术,从而确保超智能AI系统遵循人类意图。站在阿尔特曼的立场,维护超级对齐团队是一项庞大的开支。OpenAI曾经承诺该团队将获得该公司20%的计算资源,这势必会削弱OpenAI新产品开发的资源,而投资超级对齐团队实际是在投资未来。据OpenAI超级对齐团队的一位人士透露,20%计算资源的承诺被打了折扣,其中一小部分计算的请求经常被拒绝,这阻碍了团队的工作。超级对齐团队解散 然后呢?据《连线》等媒体报道,在Sutskever和Leike相继离职后,OpenAI的超级对齐团队已被解散。其不再是一个专门的团队,而是一个松散的研究小组,分布在整个公司的各个部门。OpenAI的一位发言人将其描述为“更深入地整合(团队)”。有消息称OpenAI的另一位联合创始人约翰•舒尔曼(John Schulman)可能会接手关于与更强大模型相关的风险的研究。这不免让人质疑,Schulman目前的工作任务在于确保OpenAI当前产品的安全,他会重点盯着面向未来的安全团队吗?阿尔特曼另一被人诟病的地方在于“捂嘴”离职员工。自去年11月至今,OpenAI至少有7名注重安全的成员辞职或被开除,但离职员工大多不愿公开谈论此事。据Vox报道,部分原因是OpenAI会让员工在离职时签署带有非贬低条款的协议。如果拒绝签署,就将失去此前拿到的OpenAI的期权,这意味着出来说话的员工可能会损失一笔巨款。一位OpenAI前员工爆料,公司入职文件说明中包含一项:“在离开公司的六十天内,你必须签署一份包含‘一般豁免’的离职文件。如果你没有在60天内完成,你的股权获益将被取消。”阿尔特曼变相承认了此事,他回应称,该公司的离职文件中有一项关于离职员工“潜在股权取消”的条款,但从未付诸实践,“我们从未收回任何人的既得股权。”他还表示,公司正在修改离职协议条款,“如果任何签署了这些旧协议的前雇员对此感到担心,他们可以联系我。”回到OpenAI高层争执的原点,也是这场旷日持久的宫斗的核心矛盾点“保守派”强调先安全再产品,“盈利派”希望尽快落实商业化。OpenAI将如何平衡产品的安全性与商业化?如何挽回愈发糟糕的公众形象?期待阿尔特曼未来几天内的“小作文”。 ... PC版: 手机版:

封面图片

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能 出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能!是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence。才7小时,就迎来近2w的点赞5月15日,Ilya发文称,自己将离开工作近十年的OpenAI,并祝愿前公司“打造出既安全又有益的AGI”。OpenAI会不会这么做不知道,但Ilya是直接一步做到位了。消息一出,立刻引得网友们奔走相告。果然,出走半生,Ilya最心系的还是AI安全。而官方介绍的第一句话,就十分震撼“超级智能触手可及”。个人介绍也第一时间更新为SSI现在,全网都在翘首以盼,Ilya将拿出震惊全人类的世界级前沿研究。网友:直接一步迈入超级智能Ilya口中的“SSI”,也即安全超级智能,究竟是指什么意思呢?显然,这将是Ilya毕生事业之所系,也大概率是他和Sam Altman发生严重的理念不和,从而出走OpenAI的主因。这下可好,我们直接越过AGI,一步迈进Super Intelligence(超级智能)了。要是别人说这个话可能是托大,但他可是Ilya。他在OpenAI看到的东西,或许真能把全体人类带向超级智能。评论区有人拿LeCun玩梗。有人cue到Ilya的前东家奥特曼。当然,也有网友发出了灵魂拷问:你们并不是第一家因为安全理念不合,从OpenAI分支出来的公司了。SSI会和Anthropic有什么不同吗?是的,这一幕仿佛历史的重演,想当年OpenAI创立时,也曾发下类似“造福全人类”的豪言壮语。这一次,会是历史的轮回吗?的确,从Ilya发出离别信、po出和OpenAI众元老合影的那天起,一个时代已经终结。Ilya:我要打造的安全超级智能,是这样的在SSI的官方介绍语中,Ilya这样解释了公司的宗旨和愿景目标唯有一个,就是“实现安全的超级智能”。并且,Ilya同时向天下牛人们广发英雄令,召集世界上最优秀的工程师和研究者来“完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战”。超级智能即将实现。构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们已经启动了世界上第一个专注于SSI的实验室,目标只有一个:实现安全的超级智能。它的名字是Safe Superintelligence Inc(安全超级智能公司)。SSI是我们的使命、我们的名字和我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI。我们将安全性和能力视为需要通过革命性工程和科学突破来解决的技术问题,并行推进。我们计划尽可能快地提高能力,同时确保我们的安全性始终领先。这样,我们就可以安心地扩展规模。我们单一的目标意味着不会被管理负担或产品周期分散注意力,我们的商业模式意味着安全性、安全性和进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,我们在那里有深厚的根基,并有能力招聘顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干团队,专注于SSI及其他任何事情。如果你是这样的人,我们提供一个机会,让你完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。Ilya Sutskever, Daniel Gross, Daniel Levy2024年6月19日SSI联创而SSI的几位联创,背景分别是这样的。Daniel LeviyDaniel Leviy曾在2022年加入OpenAI担任技术员工,领导了优化团队(Optimization team)。此前,他于2021年在斯坦福大学获得计算机科学博士学位,导师是John Duchi,主要研究方向在机器学习、优化和隐私。并于2018年获得斯坦福计算机科学硕士学位,由Stefano Ermon教授指导,在概率模型和强化学习方面做研究。2015年获得巴黎综合理工学院应用数学学士学位。入职OpenAI之前,他还在Facebook应用机器学习、Google大脑实习。Daniel GrossDaniel Gross本人的LinkedIn个人主页暂时还未更新。不过,他本人介绍中已经更新了自己是SSI创始人。在19岁的时候,Gross创办了搜索引擎公司Greplin(随后更名为Cue),2013年被苹果收购后,据称以4000万-6000万完成交易,他便加入了苹果公司。在此期间,他领导了苹果AI和搜索的项目。离职苹果之后,Gross作为Y-Combinator合伙人,成立了全新的AI项目部门。也就是从那时起,他一直专注于投资。2018年,Gross再次创业,创办了Pioneer.app,专为创业者提供启动资金的加速器。过去几年里,他投资了多家公司,其中就包括我们熟知的Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。而且,2021年开始他联手Nat Friedman在AI领域展开重大投资,并运营一个AI Grant的项目,向AI本土公司提供25万美元的资金支持。去年,他们还部署了超算Andromeda Cluster,由2,512个H100组成,供投资初创公司使用。Daniel Gross还被时代期刊“Time 100”评为2023年AI领域最具影响力的人物之一。Ilya专访:我要的是核安全正如公司名字所强调的那样,Ilya将AI安全性置于首要地位。关键当然在于,确认哪种AI系统比其他系统更安全,或者真正意义上的安全性到底是什么。目前,Ilya对此说法比较含糊。不过,他本人也暗示了,SSI将试图通过在AI系统中植入“工程突破”来实现安全性,而不是依赖于对AI施加实时的防护措施。他本人表示,当我们说安全时,我们指的是“核安全”,而非“信任与安全”。在硅谷,Ilya拥有近乎神话般的地位,始终是全行业关注的焦点。在不少人眼里,没有Ilya的OpenAI就什么也不是。如果不是Ilya,或许OpenAI不会这么快因ChatGPT而崛起。这句留言说出了大家的心声“最终,奥特曼可能仍然会做正确的事情,但你可以永远相信Ilya”。在接受Bloomberg的独家采访时,Ilya强调,在SSI到达的安全超级智能之前,它不会做任何事。“它将免受必须处理大型而复杂的产品,以及必须陷入竞争激烈的外部压力的影响。”不过,Ilya拒绝透露SSI背后的财务支持者是谁,也并未透露目前公司筹集了多少资金。经历了OpenAI复杂的宫斗事件后,Ilya的再出发,也是某种返璞归真安全超级智能,在某种程度上是对最初OpenAI概念的回归:一个研究组织试图构建一种在许多任务上,可以等于甚至超越人类的通用人工智能。只不过,随着算力导致的资金缺口增大,OpenAI投奔了微软,导致公司的组织结构变了。所有的AI参与者,都面临着同样的难题:AI模型的规模在指数级增长,需要为不断扩大的计算需求付出代价。这种经济现实,也使SSI成为投资者的一场豪赌:押注Ilya和团队是否会取得突破,是否更有优势。但Gross已经保证:“在我们面临的所有问题中,资金绝不是问题。”Ilya表示,他花了数年事件思考安全问题,而且已经想到了一些方法。在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。在此之后,我们可以说我们希望它成为一股向善的力量。我们希望在一些关键价值观的基础上开展运营。我们正在思考的一些价值观,可能是过去几百年来支撑自由民主的成功价值观,比如自由、民主。在他看来,主导AI的LLM将在SSI中发挥重要作用,但他的目标是更大的东西。比起和我们交谈、对话之后就完事了的LLM,他想要的系统更加通用、功能更广泛。“你指的是一个正在自主开发技术的巨型超级数据中心。这太疯狂了,对吧?我们希望为安全做出贡献。”让我们期待,Ilya重新起航后,麾下的新公司会给全人类带来怎样的惊喜。 ... PC版: 手机版:

封面图片

OpenAI 首席科学家处境尴尬,马斯克抛出橄榄枝

OpenAI 首席科学家处境尴尬,马斯克抛出橄榄枝 OpenAI 首席科学家兼联合创始人伊尔亚・苏茨克维 (Ilya Sutskever) 目前正处于尴尬境地。上个月,他参与董事会投票解雇了 CEO 萨姆・阿尔特曼 (Sam Altman),但仅仅五天后,阿尔特曼在员工和投资者的强烈支持下重新上任。 最近的一篇报道指出,苏茨克维目前似乎处于一种“迷茫”的状态,在 OpenAI 变得“隐形”。报道称,自阿尔特曼回归以来,苏茨克维就没有出现在 OpenAI 旧金山的办公室内。就在人们纷纷猜测苏茨克维的未来走向时,马斯克在社交媒体上公开表示,苏茨克维应该加入特斯拉或他的 AI 公司 xAI。 频道:@kejiqu 群组:@kejiquchat

封面图片

奥特曼宣布苏茨克沃离开OpenAI 称其为AI领域“指路明灯”

奥特曼宣布苏茨克沃离开OpenAI 称其为AI领域“指路明灯” 没有他,OpenAI就不会有今天。尽管他有一些个人意义重大的事情要去做,但我永远感激他在这里所做的一切,并致力于完成我们共同开始的使命。我很高兴能有这么长时间和这样一位真正杰出的天才,以及一位如此专注于为人类创造最好未来的人在一起。Jakub将成为我们新的首席科学家。Jakub也是我们这一代最伟大的思想家之一;我很高兴他能接手这里的指挥棒。他管理过我们许多最重要的项目,我非常有信心,他将带领我们朝着确保AGI惠及每个人的使命取得快速、安全的进展。” ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人