美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业

美国AI圈震动“OpenAI宫斗”核心人物苏茨克维官宣创业(来源:X)简单来讲,苏茨克维创办了一家叫做“安全超级智能”(SafeSuperintelligence,简称SSI)的新公司,目标是“一步到位”地创造一个安全的超级智能。安全第一、直通终极目标苏茨克维打算在一个纯粹的研究机构里,直接创造一个安全、强大的人工智能系统,同时不会在短期内推出任何商业化产品或服务。他对媒体介绍称:“这个公司很特别,因为它的第一个产品就会是安全的超级智能,直到(实现)那一天前不会做任何其他事情,完全隔离于外部压力,不必去处理大型、复杂的产品或陷入激烈的竞争中。”安全第一、不搞商业化、不理睬外界压力,整段话里苏茨克维没有提到过一次OpenAI,但背后的意思已经不言自明。虽然OpenAI的“宫斗”事件以奥尔特曼的大胜、速胜结束,但整件事情背后加速主义与安全主义的路线之争并没有结束。虽然理念不同,但双方私下里依然维持着尚可的关系。在今年5月15日宣布离开工作十年的OpenAI之时,苏茨克维也发布了一张管理层的合照,并表示相信在奥尔特曼等人的带领下,OpenAI将构建出安全又有益的AGI(通用人工智能)。(来源:X)对于苏茨克维的分道扬镳,奥尔特曼回应称“深感悲伤”,并表示没有苏茨克维就没有OpenAI的今天。自去年的“宫斗”事件结束后,苏茨克维一直对于整件事保持沉默,直到今天依然如此。在被问及他与奥尔特曼的关系时,苏茨克维只是简单地回答了一句“很好”,而被问及过去几个月的经历时,他也只是表示“非常奇怪”。“像核安全一样的安全”从某种意义上来看,苏茨克维目前也无法准确界定AI系统安全与否的分界线,只能说有一些不一样的想法。苏茨克维暗示称,他的新公司将尝试使用“嵌入AI系统的工程突破”来实现安全,而不是技术上临时应用的“防护栏”。他强调:“我们所说的安全,是指像核安全一样的安全,而不是类似于‘信任与安全’那样的东西”。他表示花了很多年来思考AI安全方面的问题,并且在心目中已经有了几种实现的方法。他介绍称:“在最基本的层面上,安全的超级智能应该具有这样的特性,即不会对人类造成大规模伤害。在此之后,我们可以说希望它成为一种善的力量,一种建立在关键价值观上的力量。”除了大名鼎鼎的苏茨克维外,SSI还有两名创始人——前苹果公司机器学习主管、知名科技风险投资人丹尼尔·格罗斯,另一个是与苏茨克维一同在OpenAI训练大模型的工程师丹尼尔·莱维。莱维表示,我的愿景与苏茨克维完全一致:一个小而精干的团队,每个人都专注于实现安全超级智能的单一目标。虽然目前并不清楚SSI为何敢于喊出“一步到位”(到底有多少投资人、投了多少钱),但格罗斯明确表示,公司的确会面临许多问题,但找钱不会是其中之一。回归OpenAI的初心从一系列愿景中不难发现,所谓“安全超级智能”,本质上就是OpenAI创立初期的概念。但随着训练大模型带来的费用激增,OpenAI不得不与微软合作,换取资金和算力支持延续他们的事业。这样的问题也会出现在SSI未来的路上——公司的投资人真的愿意投入大量资金,看着这家公司没有任何产出,直到实现“超级智能”的最终目标吗?顺便一提,“超级智能”本身也是一个理论上的概念,指的是一种超越人类水平的人工智能系统,比起全球大多数超级科技公司正在追求的成果更加先进。但业内对于能否实现这样的智能,或如何构建这样的系统尚未形成共识。而令人在意的是,在SSI公司发布的首个公告中,第一句话就是“超级智能已经近在咫尺”。附:SSI公告安全超级智能公司(SafeSuperintelligenceInc.)超级智能已经近在咫尺。构建安全的超级智能是我们这个时代最重要的技术问题。我们已经启动了世界上第一个直击目标的SSI实验室,目标和产品只有一个:安全的超级智能。它叫做安全超级智能公司。SSI是我们的使命、我们的名字和我们全部的产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都齐心协力实现SSI。我们将安全性和能力并行,视为需要通过革命性工程和科学突破解决的技术问题。我们计划在确保安全性始终优先的情况下尽可能快地提高能力。这样,我们就能在平静的状态中扩展。我们的专注意味着不会因管理事务或产品周期而分心,我们的商业模式意味着安全性和技术进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,这些地方是我们的根基所在,也能在这些地方招募到顶尖的技术人才。我们正在组建一个精简的、出类拔萃的世界顶尖工程师和研究人员团队,只专注于SSI。如果你是那样的人,我们提供一个机会,让你完成一生的事业,帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。伊利亚·苏茨克维尔、丹尼尔·格罗斯、丹尼尔·利维2024年6月19日...PC版:https://www.cnbeta.com.tw/articles/soft/1435385.htm手机版:https://m.cnbeta.com.tw/view/1435385.htm

相关推荐

封面图片

OpenAI 联合创始人兼首席科学家伊利亚·苏茨克沃将离职

OpenAI联合创始人兼首席科学家伊利亚·苏茨克沃将离职当地时间5月14日晚,OpenAI联合创始人兼首席科学家伊利亚·苏茨克沃(IlyaSutskever)在社交平台X上宣布,他将在近十年后离开公司。伊利亚说,他将分享他下一个项目的细节,他称这个项目“对他个人非常有意义”。2023年11月,苏茨克沃参与罢免了OpenAI联合创始人兼首席执行官山姆·奥特曼,但不到一周奥特曼便宣布回归,苏茨克沃在此之后并未列席新成立的OpenAI董事会。——、、

封面图片

OpenAI 的前首席科学家Ilya Sutskever正在创办一家新的人工智能公司

OpenAI的联合创始人和前首席科学家IlyaSutskever正在创办一家新的人工智能公司,专注于安全问题。Sutskever在周三的一篇文章中透露了SafeSuperintelligenceInc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。这份公告称SSI是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其AI系统,同时仍然优先考虑安全性。公告还指出,像OpenAI、谷歌和微软这样的公司中的AI团队常常面临外部压力,而SSI公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。“我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了Sutskever,SSI的联合创始人还有前Apple人工智能负责人DanielGross和之前在OpenAI工作过的DanielLevy。去年,Sutskever带头推动将OpenAI的CEOSamAltman赶下台。,并暗示将启动一个新项目。Sutskever离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI的政策研究员GretchenKrueger也在宣布离职时提到了安全问题。随着OpenAI与苹果和微软的合作不断推进,我们可能不会很快看到SSI也这样做。在接受彭博社采访时,Sutskever表示,SSI的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。标签:#OpenAI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

曝 OpenAI 超级对齐团队解散

曝OpenAI超级对齐团队解散OpenAI超级对齐团队正在分崩离析。团队负责人OpenAI联合创始人、首席科学家伊尔亚・苏茨克维(IlyaSutskever)与杨・莱克(JanLeike),本周双双离职。北京时间周五晚间,杨・莱克在社交平台X上公开解释了他为什么离职。他写到原因跟对核心优先事项以及团队分配资源的分歧有关,他更关注安全性、一致性等问题;超级对齐团队过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难;过去几年,安全文化和流程已经让位于更耀眼的产品。这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。

封面图片

奥特曼宣布苏茨克沃离开OpenAI 称其为AI领域“指路明灯”

奥特曼宣布苏茨克沃离开OpenAI称其为AI领域“指路明灯”没有他,OpenAI就不会有今天。尽管他有一些个人意义重大的事情要去做,但我永远感激他在这里所做的一切,并致力于完成我们共同开始的使命。我很高兴能有这么长时间和这样一位真正杰出的天才,以及一位如此专注于为人类创造最好未来的人在一起。Jakub将成为我们新的首席科学家。Jakub也是我们这一代最伟大的思想家之一;我很高兴他能接手这里的指挥棒。他管理过我们许多最重要的项目,我非常有信心,他将带领我们朝着确保AGI惠及每个人的使命取得快速、安全的进展。”...PC版:https://www.cnbeta.com.tw/articles/soft/1430919.htm手机版:https://m.cnbeta.com.tw/view/1430919.htm

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI正在组建一个新团队,以控制“超级智能”人工智能OpenAI正在组建一个由其首席科学家兼公司联合创始人之一IlyaSutskever领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。,Sutskever和OpenAI联盟团队的负责人JanLeike预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能——假设它最终确实到来——不一定是仁慈的,需要研究控制和限制它的方法。他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。”“我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”为了推动“超级智能对齐”领域的发展,OpenAI正在创建一个新的超级对齐团队,由Sutskever和Leike领导,该团队将有权使用公司迄今为止已获得的20%的计算资源。该团队由OpenAI之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能AI的核心技术挑战。——

封面图片

OpenAI 首席科学家处境尴尬,马斯克抛出橄榄枝

OpenAI首席科学家处境尴尬,马斯克抛出橄榄枝OpenAI首席科学家兼联合创始人伊尔亚・苏茨克维(IlyaSutskever)目前正处于尴尬境地。上个月,他参与董事会投票解雇了CEO萨姆・阿尔特曼(SamAltman),但仅仅五天后,阿尔特曼在员工和投资者的强烈支持下重新上任。最近的一篇报道指出,苏茨克维目前似乎处于一种“迷茫”的状态,在OpenAI变得“隐形”。报道称,自阿尔特曼回归以来,苏茨克维就没有出现在OpenAI旧金山的办公室内。就在人们纷纷猜测苏茨克维的未来走向时,马斯克在社交媒体上公开表示,苏茨克维应该加入特斯拉或他的AI公司xAI。频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人