从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司”

从OpenAI离职的Ilya Sutskever等人宣布共同创办“安全超级智能公司” 安全超级智能公司超级智能触手可及构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们启动了世界上第一个直击 SSI 实验室,目标和产品只有一个:安全的超级智能。它的名字叫安全超级智能公司(Safe Superintelligence Inc.)SSI 是我们的使命、名称和整个产品路线图,因为它是我们唯一的关注点。我们的团队、投资者和业务模式都是为了实现 SSI 而努力。我们将安全和能力视为需要通过革命性的工程和科学突破来解决的技术问题。我们计划尽快提高能力,同时确保我们的安全始终处于领先地位。这样,我们就能心平气和地扩大规模。我们的业务模式意味着安全、保障和进步都不受短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,在那里我们根基深厚,有能力招聘到顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干、精锐的团队,专门致力于 SSI 而非其他。如果你是这样的人,我们将提供一个机会,让你完成毕生的事业,帮助解决我们这个时代最重要的技术挑战。现在正是时候。加入我们吧!伊利亚-苏茨基弗、丹尼尔-格罗斯、丹尼尔-列维2024 年 6 月 19 日 ... PC版: 手机版:

相关推荐

封面图片

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Suk

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。 这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。 “我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。 去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。,并暗示将启动一个新项目。Sutskever 离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。 随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创Ilya Sutskever成立新人工智能公司SSI PANews 6月20日消息,据CNBC报道,OpenAI联合创始人Ilya Sutskever周三宣布成立新的人工智能初创公司Safe Superintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的Daniel Gross以及OpenAI前员工Daniel Levy共同创立了这家新公司。

封面图片

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能 出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能!是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence。才7小时,就迎来近2w的点赞5月15日,Ilya发文称,自己将离开工作近十年的OpenAI,并祝愿前公司“打造出既安全又有益的AGI”。OpenAI会不会这么做不知道,但Ilya是直接一步做到位了。消息一出,立刻引得网友们奔走相告。果然,出走半生,Ilya最心系的还是AI安全。而官方介绍的第一句话,就十分震撼“超级智能触手可及”。个人介绍也第一时间更新为SSI现在,全网都在翘首以盼,Ilya将拿出震惊全人类的世界级前沿研究。网友:直接一步迈入超级智能Ilya口中的“SSI”,也即安全超级智能,究竟是指什么意思呢?显然,这将是Ilya毕生事业之所系,也大概率是他和Sam Altman发生严重的理念不和,从而出走OpenAI的主因。这下可好,我们直接越过AGI,一步迈进Super Intelligence(超级智能)了。要是别人说这个话可能是托大,但他可是Ilya。他在OpenAI看到的东西,或许真能把全体人类带向超级智能。评论区有人拿LeCun玩梗。有人cue到Ilya的前东家奥特曼。当然,也有网友发出了灵魂拷问:你们并不是第一家因为安全理念不合,从OpenAI分支出来的公司了。SSI会和Anthropic有什么不同吗?是的,这一幕仿佛历史的重演,想当年OpenAI创立时,也曾发下类似“造福全人类”的豪言壮语。这一次,会是历史的轮回吗?的确,从Ilya发出离别信、po出和OpenAI众元老合影的那天起,一个时代已经终结。Ilya:我要打造的安全超级智能,是这样的在SSI的官方介绍语中,Ilya这样解释了公司的宗旨和愿景目标唯有一个,就是“实现安全的超级智能”。并且,Ilya同时向天下牛人们广发英雄令,召集世界上最优秀的工程师和研究者来“完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战”。超级智能即将实现。构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们已经启动了世界上第一个专注于SSI的实验室,目标只有一个:实现安全的超级智能。它的名字是Safe Superintelligence Inc(安全超级智能公司)。SSI是我们的使命、我们的名字和我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI。我们将安全性和能力视为需要通过革命性工程和科学突破来解决的技术问题,并行推进。我们计划尽可能快地提高能力,同时确保我们的安全性始终领先。这样,我们就可以安心地扩展规模。我们单一的目标意味着不会被管理负担或产品周期分散注意力,我们的商业模式意味着安全性、安全性和进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,我们在那里有深厚的根基,并有能力招聘顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干团队,专注于SSI及其他任何事情。如果你是这样的人,我们提供一个机会,让你完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。Ilya Sutskever, Daniel Gross, Daniel Levy2024年6月19日SSI联创而SSI的几位联创,背景分别是这样的。Daniel LeviyDaniel Leviy曾在2022年加入OpenAI担任技术员工,领导了优化团队(Optimization team)。此前,他于2021年在斯坦福大学获得计算机科学博士学位,导师是John Duchi,主要研究方向在机器学习、优化和隐私。并于2018年获得斯坦福计算机科学硕士学位,由Stefano Ermon教授指导,在概率模型和强化学习方面做研究。2015年获得巴黎综合理工学院应用数学学士学位。入职OpenAI之前,他还在Facebook应用机器学习、Google大脑实习。Daniel GrossDaniel Gross本人的LinkedIn个人主页暂时还未更新。不过,他本人介绍中已经更新了自己是SSI创始人。在19岁的时候,Gross创办了搜索引擎公司Greplin(随后更名为Cue),2013年被苹果收购后,据称以4000万-6000万完成交易,他便加入了苹果公司。在此期间,他领导了苹果AI和搜索的项目。离职苹果之后,Gross作为Y-Combinator合伙人,成立了全新的AI项目部门。也就是从那时起,他一直专注于投资。2018年,Gross再次创业,创办了Pioneer.app,专为创业者提供启动资金的加速器。过去几年里,他投资了多家公司,其中就包括我们熟知的Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。而且,2021年开始他联手Nat Friedman在AI领域展开重大投资,并运营一个AI Grant的项目,向AI本土公司提供25万美元的资金支持。去年,他们还部署了超算Andromeda Cluster,由2,512个H100组成,供投资初创公司使用。Daniel Gross还被时代期刊“Time 100”评为2023年AI领域最具影响力的人物之一。Ilya专访:我要的是核安全正如公司名字所强调的那样,Ilya将AI安全性置于首要地位。关键当然在于,确认哪种AI系统比其他系统更安全,或者真正意义上的安全性到底是什么。目前,Ilya对此说法比较含糊。不过,他本人也暗示了,SSI将试图通过在AI系统中植入“工程突破”来实现安全性,而不是依赖于对AI施加实时的防护措施。他本人表示,当我们说安全时,我们指的是“核安全”,而非“信任与安全”。在硅谷,Ilya拥有近乎神话般的地位,始终是全行业关注的焦点。在不少人眼里,没有Ilya的OpenAI就什么也不是。如果不是Ilya,或许OpenAI不会这么快因ChatGPT而崛起。这句留言说出了大家的心声“最终,奥特曼可能仍然会做正确的事情,但你可以永远相信Ilya”。在接受Bloomberg的独家采访时,Ilya强调,在SSI到达的安全超级智能之前,它不会做任何事。“它将免受必须处理大型而复杂的产品,以及必须陷入竞争激烈的外部压力的影响。”不过,Ilya拒绝透露SSI背后的财务支持者是谁,也并未透露目前公司筹集了多少资金。经历了OpenAI复杂的宫斗事件后,Ilya的再出发,也是某种返璞归真安全超级智能,在某种程度上是对最初OpenAI概念的回归:一个研究组织试图构建一种在许多任务上,可以等于甚至超越人类的通用人工智能。只不过,随着算力导致的资金缺口增大,OpenAI投奔了微软,导致公司的组织结构变了。所有的AI参与者,都面临着同样的难题:AI模型的规模在指数级增长,需要为不断扩大的计算需求付出代价。这种经济现实,也使SSI成为投资者的一场豪赌:押注Ilya和团队是否会取得突破,是否更有优势。但Gross已经保证:“在我们面临的所有问题中,资金绝不是问题。”Ilya表示,他花了数年事件思考安全问题,而且已经想到了一些方法。在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。在此之后,我们可以说我们希望它成为一股向善的力量。我们希望在一些关键价值观的基础上开展运营。我们正在思考的一些价值观,可能是过去几百年来支撑自由民主的成功价值观,比如自由、民主。在他看来,主导AI的LLM将在SSI中发挥重要作用,但他的目标是更大的东西。比起和我们交谈、对话之后就完事了的LLM,他想要的系统更加通用、功能更广泛。“你指的是一个正在自主开发技术的巨型超级数据中心。这太疯狂了,对吧?我们希望为安全做出贡献。”让我们期待,Ilya重新起航后,麾下的新公司会给全人类带来怎样的惊喜。 ... PC版: 手机版:

封面图片

OpenAI 呼吁设立监管超级智能的国际机构

OpenAI 呼吁设立监管超级智能的国际机构 OpenAI CEO Sam Altman、总裁 Greg Brockman 和首席科学家 Ilya Sutskever 通过官方博客呼吁设立监管超级智能的国际机构。“我们最终可能需要类似于 IAEA(国际原子能机构)的东西来进行超级智能方面的努力;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。追踪计算和能源使用情况会有很大的帮助,并给我们一些希望,这个想法实际上是可以实现的。作为第一步,公司可以自愿同意开始实施这样一个机构有朝一日可能要求的要素,而作为第二步,各个国家可以实施。重要的是,这样一个机构应专注于减少存在的风险,而不是那些应该留给各个国家的问题,例如定义人工智能应该被允许说什么。”来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 Safe Superintelligence,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。 via Solidot

封面图片

美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业

美国AI圈震动 “OpenAI宫斗”核心人物苏茨克维官宣创业 (来源:X)简单来讲,苏茨克维创办了一家叫做“安全超级智能”(Safe Superintelligence,简称SSI)的新公司,目标是“一步到位”地创造一个安全的超级智能。安全第一、直通终极目标苏茨克维打算在一个纯粹的研究机构里,直接创造一个安全、强大的人工智能系统,同时不会在短期内推出任何商业化产品或服务。他对媒体介绍称:“这个公司很特别,因为它的第一个产品就会是安全的超级智能,直到(实现)那一天前不会做任何其他事情,完全隔离于外部压力,不必去处理大型、复杂的产品或陷入激烈的竞争中。”安全第一、不搞商业化、不理睬外界压力,整段话里苏茨克维没有提到过一次OpenAI,但背后的意思已经不言自明。虽然OpenAI的“宫斗”事件以奥尔特曼的大胜、速胜结束,但整件事情背后加速主义与安全主义的路线之争并没有结束。虽然理念不同,但双方私下里依然维持着尚可的关系。在今年5月15日宣布离开工作十年的OpenAI之时,苏茨克维也发布了一张管理层的合照,并表示相信在奥尔特曼等人的带领下,OpenAI将构建出安全又有益的AGI(通用人工智能)。(来源:X)对于苏茨克维的分道扬镳,奥尔特曼回应称“深感悲伤”,并表示没有苏茨克维就没有OpenAI的今天。自去年的“宫斗”事件结束后,苏茨克维一直对于整件事保持沉默,直到今天依然如此。在被问及他与奥尔特曼的关系时,苏茨克维只是简单地回答了一句“很好”,而被问及过去几个月的经历时,他也只是表示“非常奇怪”。“像核安全一样的安全”从某种意义上来看,苏茨克维目前也无法准确界定AI系统安全与否的分界线,只能说有一些不一样的想法。苏茨克维暗示称,他的新公司将尝试使用“嵌入AI系统的工程突破”来实现安全,而不是技术上临时应用的“防护栏”。他强调:“我们所说的安全,是指像核安全一样的安全,而不是类似于‘信任与安全’那样的东西”。他表示花了很多年来思考AI安全方面的问题,并且在心目中已经有了几种实现的方法。他介绍称:“在最基本的层面上,安全的超级智能应该具有这样的特性,即不会对人类造成大规模伤害。在此之后,我们可以说希望它成为一种善的力量,一种建立在关键价值观上的力量。”除了大名鼎鼎的苏茨克维外,SSI还有两名创始人前苹果公司机器学习主管、知名科技风险投资人丹尼尔·格罗斯,另一个是与苏茨克维一同在OpenAI训练大模型的工程师丹尼尔·莱维。莱维表示,我的愿景与苏茨克维完全一致:一个小而精干的团队,每个人都专注于实现安全超级智能的单一目标。虽然目前并不清楚SSI为何敢于喊出“一步到位”(到底有多少投资人、投了多少钱),但格罗斯明确表示,公司的确会面临许多问题,但找钱不会是其中之一。回归OpenAI的初心从一系列愿景中不难发现,所谓“安全超级智能”,本质上就是OpenAI创立初期的概念。但随着训练大模型带来的费用激增,OpenAI不得不与微软合作,换取资金和算力支持延续他们的事业。这样的问题也会出现在SSI未来的路上公司的投资人真的愿意投入大量资金,看着这家公司没有任何产出,直到实现“超级智能”的最终目标吗?顺便一提,“超级智能”本身也是一个理论上的概念,指的是一种超越人类水平的人工智能系统,比起全球大多数超级科技公司正在追求的成果更加先进。但业内对于能否实现这样的智能,或如何构建这样的系统尚未形成共识。而令人在意的是,在SSI公司发布的首个公告中,第一句话就是“超级智能已经近在咫尺”。附:SSI公告安全超级智能公司 (Safe Superintelligence Inc.)超级智能已经近在咫尺。构建安全的超级智能是我们这个时代最重要的技术问题。我们已经启动了世界上第一个直击目标的SSI实验室,目标和产品只有一个:安全的超级智能。它叫做安全超级智能公司。SSI是我们的使命、我们的名字和我们全部的产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都齐心协力实现SSI。我们将安全性和能力并行,视为需要通过革命性工程和科学突破解决的技术问题。我们计划在确保安全性始终优先的情况下尽可能快地提高能力。这样,我们就能在平静的状态中扩展。我们的专注意味着不会因管理事务或产品周期而分心,我们的商业模式意味着安全性和技术进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,这些地方是我们的根基所在,也能在这些地方招募到顶尖的技术人才。我们正在组建一个精简的、出类拔萃的世界顶尖工程师和研究人员团队,只专注于SSI。如果你是那样的人,我们提供一个机会,让你完成一生的事业,帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。伊利亚·苏茨克维尔 、丹尼尔·格罗斯、丹尼尔·利维2024年6月19日 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人