从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司”

从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司” 安全超级智能公司超级智能触手可及构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们启动了世界上第一个直击 SSI 实验室,目标和产品只有一个:安全的超级智能。它的名字叫安全超级智能公司(Safe Superintelligence Inc.)SSI 是我们的使命、名称和整个产品路线图,因为它是我们唯一的关注点。我们的团队、投资者和业务模式都是为了实现 SSI 而努力。我们将安全和能力视为需要通过革命性的工程和科学突破来解决的技术问题。我们计划尽快提高能力,同时确保我们的安全始终处于领先地位。这样,我们就能心平气和地扩大规模。我们的业务模式意味着安全、保障和进步都不受短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,在那里我们根基深厚,有能力招聘到顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干、精锐的团队,专门致力于 SSI 而非其他。如果你是这样的人,我们将提供一个机会,让你完成毕生的事业,帮助解决我们这个时代最重要的技术挑战。现在正是时候。加入我们吧!伊利亚-苏茨基弗、丹尼尔-格罗斯、丹尼尔-列维2024 年 6 月 19 日 ... PC版: 手机版:

相关推荐

封面图片

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能 出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能!是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence。才7小时,就迎来近2w的点赞5月15日,Ilya发文称,自己将离开工作近十年的OpenAI,并祝愿前公司“打造出既安全又有益的AGI”。OpenAI会不会这么做不知道,但Ilya是直接一步做到位了。消息一出,立刻引得网友们奔走相告。果然,出走半生,Ilya最心系的还是AI安全。而官方介绍的第一句话,就十分震撼“超级智能触手可及”。个人介绍也第一时间更新为SSI现在,全网都在翘首以盼,Ilya将拿出震惊全人类的世界级前沿研究。网友:直接一步迈入超级智能Ilya口中的“SSI”,也即安全超级智能,究竟是指什么意思呢?显然,这将是Ilya毕生事业之所系,也大概率是他和Sam Altman发生严重的理念不和,从而出走OpenAI的主因。这下可好,我们直接越过AGI,一步迈进Super Intelligence(超级智能)了。要是别人说这个话可能是托大,但他可是Ilya。他在OpenAI看到的东西,或许真能把全体人类带向超级智能。评论区有人拿LeCun玩梗。有人cue到Ilya的前东家奥特曼。当然,也有网友发出了灵魂拷问:你们并不是第一家因为安全理念不合,从OpenAI分支出来的公司了。SSI会和Anthropic有什么不同吗?是的,这一幕仿佛历史的重演,想当年OpenAI创立时,也曾发下类似“造福全人类”的豪言壮语。这一次,会是历史的轮回吗?的确,从Ilya发出离别信、po出和OpenAI众元老合影的那天起,一个时代已经终结。Ilya:我要打造的安全超级智能,是这样的在SSI的官方介绍语中,Ilya这样解释了公司的宗旨和愿景目标唯有一个,就是“实现安全的超级智能”。并且,Ilya同时向天下牛人们广发英雄令,召集世界上最优秀的工程师和研究者来“完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战”。超级智能即将实现。构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们已经启动了世界上第一个专注于SSI的实验室,目标只有一个:实现安全的超级智能。它的名字是Safe Superintelligence Inc(安全超级智能公司)。SSI是我们的使命、我们的名字和我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI。我们将安全性和能力视为需要通过革命性工程和科学突破来解决的技术问题,并行推进。我们计划尽可能快地提高能力,同时确保我们的安全性始终领先。这样,我们就可以安心地扩展规模。我们单一的目标意味着不会被管理负担或产品周期分散注意力,我们的商业模式意味着安全性、安全性和进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,我们在那里有深厚的根基,并有能力招聘顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干团队,专注于SSI及其他任何事情。如果你是这样的人,我们提供一个机会,让你完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。Ilya Sutskever, Daniel Gross, Daniel Levy2024年6月19日SSI联创而SSI的几位联创,背景分别是这样的。Daniel LeviyDaniel Leviy曾在2022年加入OpenAI担任技术员工,领导了优化团队(Optimization team)。此前,他于2021年在斯坦福大学获得计算机科学博士学位,导师是John Duchi,主要研究方向在机器学习、优化和隐私。并于2018年获得斯坦福计算机科学硕士学位,由Stefano Ermon教授指导,在概率模型和强化学习方面做研究。2015年获得巴黎综合理工学院应用数学学士学位。入职OpenAI之前,他还在Facebook应用机器学习、Google大脑实习。Daniel GrossDaniel Gross本人的LinkedIn个人主页暂时还未更新。不过,他本人介绍中已经更新了自己是SSI创始人。在19岁的时候,Gross创办了搜索引擎公司Greplin(随后更名为Cue),2013年被苹果收购后,据称以4000万-6000万完成交易,他便加入了苹果公司。在此期间,他领导了苹果AI和搜索的项目。离职苹果之后,Gross作为Y-Combinator合伙人,成立了全新的AI项目部门。也就是从那时起,他一直专注于投资。2018年,Gross再次创业,创办了Pioneer.app,专为创业者提供启动资金的加速器。过去几年里,他投资了多家公司,其中就包括我们熟知的Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。而且,2021年开始他联手Nat Friedman在AI领域展开重大投资,并运营一个AI Grant的项目,向AI本土公司提供25万美元的资金支持。去年,他们还部署了超算Andromeda Cluster,由2,512个H100组成,供投资初创公司使用。Daniel Gross还被时代期刊“Time 100”评为2023年AI领域最具影响力的人物之一。Ilya专访:我要的是核安全正如公司名字所强调的那样,Ilya将AI安全性置于首要地位。关键当然在于,确认哪种AI系统比其他系统更安全,或者真正意义上的安全性到底是什么。目前,Ilya对此说法比较含糊。不过,他本人也暗示了,SSI将试图通过在AI系统中植入“工程突破”来实现安全性,而不是依赖于对AI施加实时的防护措施。他本人表示,当我们说安全时,我们指的是“核安全”,而非“信任与安全”。在硅谷,Ilya拥有近乎神话般的地位,始终是全行业关注的焦点。在不少人眼里,没有Ilya的OpenAI就什么也不是。如果不是Ilya,或许OpenAI不会这么快因ChatGPT而崛起。这句留言说出了大家的心声“最终,奥特曼可能仍然会做正确的事情,但你可以永远相信Ilya”。在接受Bloomberg的独家采访时,Ilya强调,在SSI到达的安全超级智能之前,它不会做任何事。“它将免受必须处理大型而复杂的产品,以及必须陷入竞争激烈的外部压力的影响。”不过,Ilya拒绝透露SSI背后的财务支持者是谁,也并未透露目前公司筹集了多少资金。经历了OpenAI复杂的宫斗事件后,Ilya的再出发,也是某种返璞归真安全超级智能,在某种程度上是对最初OpenAI概念的回归:一个研究组织试图构建一种在许多任务上,可以等于甚至超越人类的通用人工智能。只不过,随着算力导致的资金缺口增大,OpenAI投奔了微软,导致公司的组织结构变了。所有的AI参与者,都面临着同样的难题:AI模型的规模在指数级增长,需要为不断扩大的计算需求付出代价。这种经济现实,也使SSI成为投资者的一场豪赌:押注Ilya和团队是否会取得突破,是否更有优势。但Gross已经保证:“在我们面临的所有问题中,资金绝不是问题。”Ilya表示,他花了数年事件思考安全问题,而且已经想到了一些方法。在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。在此之后,我们可以说我们希望它成为一股向善的力量。我们希望在一些关键价值观的基础上开展运营。我们正在思考的一些价值观,可能是过去几百年来支撑自由民主的成功价值观,比如自由、民主。在他看来,主导AI的LLM将在SSI中发挥重要作用,但他的目标是更大的东西。比起和我们交谈、对话之后就完事了的LLM,他想要的系统更加通用、功能更广泛。“你指的是一个正在自主开发技术的巨型超级数据中心。这太疯狂了,对吧?我们希望为安全做出贡献。”让我们期待,Ilya重新起航后,麾下的新公司会给全人类带来怎样的惊喜。 ... PC版: 手机版:

封面图片

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Suk

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。 这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。 “我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。 去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。,并暗示将启动一个新项目。Sutskever 离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。 随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创Ilya Sutskever成立新人工智能公司SSI PANews 6月20日消息,据CNBC报道,OpenAI联合创始人Ilya Sutskever周三宣布成立新的人工智能初创公司Safe Superintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的Daniel Gross以及OpenAI前员工Daniel Levy共同创立了这家新公司。

封面图片

美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业

美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业 (来源:X)简单来讲,苏茨克维创办了一家叫做“安全超级智能”(Safe Superintelligence,简称SSI)的新公司,目标是“一步到位”地创造一个安全的超级智能。安全第一、直通终极目标苏茨克维打算在一个纯粹的研究机构里,直接创造一个安全、强大的人工智能系统,同时不会在短期内推出任何商业化产品或服务。他对媒体介绍称:“这个公司很特别,因为它的第一个产品就会是安全的超级智能,直到(实现)那一天前不会做任何其他事情,完全隔离于外部压力,不必去处理大型、复杂的产品或陷入激烈的竞争中。”安全第一、不搞商业化、不理睬外界压力,整段话里苏茨克维没有提到过一次OpenAI,但背后的意思已经不言自明。虽然OpenAI的“宫斗”事件以奥尔特曼的大胜、速胜结束,但整件事情背后加速主义与安全主义的路线之争并没有结束。虽然理念不同,但双方私下里依然维持着尚可的关系。在今年5月15日宣布离开工作十年的OpenAI之时,苏茨克维也发布了一张管理层的合照,并表示相信在奥尔特曼等人的带领下,OpenAI将构建出安全又有益的AGI(通用人工智能)。(来源:X)对于苏茨克维的分道扬镳,奥尔特曼回应称“深感悲伤”,并表示没有苏茨克维就没有OpenAI的今天。自去年的“宫斗”事件结束后,苏茨克维一直对于整件事保持沉默,直到今天依然如此。在被问及他与奥尔特曼的关系时,苏茨克维只是简单地回答了一句“很好”,而被问及过去几个月的经历时,他也只是表示“非常奇怪”。“像核安全一样的安全”从某种意义上来看,苏茨克维目前也无法准确界定AI系统安全与否的分界线,只能说有一些不一样的想法。苏茨克维暗示称,他的新公司将尝试使用“嵌入AI系统的工程突破”来实现安全,而不是技术上临时应用的“防护栏”。他强调:“我们所说的安全,是指像核安全一样的安全,而不是类似于‘信任与安全’那样的东西”。他表示花了很多年来思考AI安全方面的问题,并且在心目中已经有了几种实现的方法。他介绍称:“在最基本的层面上,安全的超级智能应该具有这样的特性,即不会对人类造成大规模伤害。在此之后,我们可以说希望它成为一种善的力量,一种建立在关键价值观上的力量。”除了大名鼎鼎的苏茨克维外,SSI还有两名创始人前苹果公司机器学习主管、知名科技风险投资人丹尼尔·格罗斯,另一个是与苏茨克维一同在OpenAI训练大模型的工程师丹尼尔·莱维。莱维表示,我的愿景与苏茨克维完全一致:一个小而精干的团队,每个人都专注于实现安全超级智能的单一目标。虽然目前并不清楚SSI为何敢于喊出“一步到位”(到底有多少投资人、投了多少钱),但格罗斯明确表示,公司的确会面临许多问题,但找钱不会是其中之一。回归OpenAI的初心从一系列愿景中不难发现,所谓“安全超级智能”,本质上就是OpenAI创立初期的概念。但随着训练大模型带来的费用激增,OpenAI不得不与微软合作,换取资金和算力支持延续他们的事业。这样的问题也会出现在SSI未来的路上公司的投资人真的愿意投入大量资金,看着这家公司没有任何产出,直到实现“超级智能”的最终目标吗?顺便一提,“超级智能”本身也是一个理论上的概念,指的是一种超越人类水平的人工智能系统,比起全球大多数超级科技公司正在追求的成果更加先进。但业内对于能否实现这样的智能,或如何构建这样的系统尚未形成共识。而令人在意的是,在SSI公司发布的首个公告中,第一句话就是“超级智能已经近在咫尺”。附:SSI公告安全超级智能公司 (Safe Superintelligence Inc.)超级智能已经近在咫尺。构建安全的超级智能是我们这个时代最重要的技术问题。我们已经启动了世界上第一个直击目标的SSI实验室,目标和产品只有一个:安全的超级智能。它叫做安全超级智能公司。SSI是我们的使命、我们的名字和我们全部的产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都齐心协力实现SSI。我们将安全性和能力并行,视为需要通过革命性工程和科学突破解决的技术问题。我们计划在确保安全性始终优先的情况下尽可能快地提高能力。这样,我们就能在平静的状态中扩展。我们的专注意味着不会因管理事务或产品周期而分心,我们的商业模式意味着安全性和技术进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,这些地方是我们的根基所在,也能在这些地方招募到顶尖的技术人才。我们正在组建一个精简的、出类拔萃的世界顶尖工程师和研究人员团队,只专注于SSI。如果你是那样的人,我们提供一个机会,让你完成一生的事业,帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。伊利亚·苏茨克维尔 、丹尼尔·格罗斯、丹尼尔·利维2024年6月19日 ... PC版: 手机版:

封面图片

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能

OpenAI 正在组建一个新团队,以控制“超级智能”人工智能 OpenAI 正在组建一个由其首席科学家兼公司联合创始人之一 Ilya Sutskever 领导的新团队,以开发引导和控制“超级智能”人工智能系统的方法。 ,Sutskever 和 OpenAI 联盟团队的负责人 Jan Leike 预测,人工智能可能会在十年内实现超越人类的智能。苏茨克弗和雷克说,这种人工智能假设它最终确实到来不一定是仁慈的,需要研究控制和限制它的方法。 他们写道:“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。” “我们目前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。” 为了推动“超级智能对齐”领域的发展,OpenAI 正在创建一个新的超级对齐团队,由 Sutskever 和 Leike 领导,该团队将有权使用公司迄今为止已获得的 20% 的计算资源。该团队由 OpenAI 之前的对准部门的科学家和工程师以及公司其他部门的研究人员加入,目标是在未来四年内解决控制超级智能 AI 的核心技术挑战。

封面图片

ilya另起炉灶了lol

ilya另起炉灶了lol OpenAI联合创始人、首席科学家Ilya Sutskever与OpenAI分道扬镳数周后,今日终于公布了自己的新动向。 Ilya今天在X上宣布自己创立了新公司SSI(Safe Superintelligence Inc.),瞬间炸起了AI业界的广泛关注和讨论。 Ilya是AI领域的顶尖科学家,曾主导OpenAI旗下GPT系列、DALL-E等里程碑式项目。然而,他与联合创始人Sam Altman在公司发展方向上的分歧由来已久。 Ilya更倾向于专注AI的安全性和可控性,提出"AI Alignment"(AI系统应与人类价值观保持一致)的理念,而sama则日益重视商业化发展。最终,分歧导致了Ilya的离职。 这一冲突反映出业界在"AI安全性"和"商业化"之间的深层次拉扯,涉及AI技术的未来走向。 从SSI官网披露的信息来看,这家新公司明确提出"构建安全的超级智能(Safe Superintelligence)",并将其视为当前最重要的技术问题。 这一理念与OpenAI日益商业化的策略形成鲜明对比,引发业界的广泛思考。 同时,SSI的成立被视为继Anthropic之后,AI安全派的又一次集结。此前OpenAI的另一位元老Dario Amodei也因类似原因离职,转而投入Anthropic阵营。 Ilya创立SSI,标志着AI业界在技术路线之争、产业生态重塑、社会责任拷问等方面进入新的博弈阶段。SSI能否在"安全"与"发展"之间找到平衡,开创一条不同于OpenAI的道路,将是业界长期关注的焦点。 当然,SSI的未来还有很多不确定性。它能否如愿实现"安全超智能"的宏伟目标?能否在商业竞争中站稳脚跟?能否赢得更多科技伦理学家的认同和支持?这些都有待时间给出答案。 但无论结果如何,SSI的诞生本身确实说明了AI发展进入了一个新的阶段。 ilya推特原文 SSI官网链接

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人