Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴 是个技术加强版的Sam Altman? SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过 SSI,他试图通过自己的公司解决这些问题。Daniel Gross在2018年参加YC的播客节目录制新的联创,技术加强版Sam Altman?SSI的另外两位联合创始人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而Daniel Gross的经历则更具戏剧色彩,Gross 1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为 Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YC AI”计划。2021年,Daniel Gross与Github前CEO Nat Friedman成立了早期风险投资基金AI Grant。2023 年,AI Grant部署了自己的计算集群Andromeda,这是一个由 2512 个 H100 GPU 组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama 65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”Paul Graham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的Sam Altman,只是不知道Altman内心会作何感想?“Daniel Gross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和Daniela Amodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师Geoffrey Hinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。Safe Superintelligence Inc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,Safe Superintelligence Inc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,Safe Superintelligence Inc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于Daniel Gross会不会成为又一个Sam Altman。 ... PC版: 手机版:

相关推荐

封面图片

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能

跨越AGI,Ilya官宣创业:我要的是“核安全” SSI剑指安全超级智能 出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能!是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence。才7小时,就迎来近2w的点赞5月15日,Ilya发文称,自己将离开工作近十年的OpenAI,并祝愿前公司“打造出既安全又有益的AGI”。OpenAI会不会这么做不知道,但Ilya是直接一步做到位了。消息一出,立刻引得网友们奔走相告。果然,出走半生,Ilya最心系的还是AI安全。而官方介绍的第一句话,就十分震撼“超级智能触手可及”。个人介绍也第一时间更新为SSI现在,全网都在翘首以盼,Ilya将拿出震惊全人类的世界级前沿研究。网友:直接一步迈入超级智能Ilya口中的“SSI”,也即安全超级智能,究竟是指什么意思呢?显然,这将是Ilya毕生事业之所系,也大概率是他和Sam Altman发生严重的理念不和,从而出走OpenAI的主因。这下可好,我们直接越过AGI,一步迈进Super Intelligence(超级智能)了。要是别人说这个话可能是托大,但他可是Ilya。他在OpenAI看到的东西,或许真能把全体人类带向超级智能。评论区有人拿LeCun玩梗。有人cue到Ilya的前东家奥特曼。当然,也有网友发出了灵魂拷问:你们并不是第一家因为安全理念不合,从OpenAI分支出来的公司了。SSI会和Anthropic有什么不同吗?是的,这一幕仿佛历史的重演,想当年OpenAI创立时,也曾发下类似“造福全人类”的豪言壮语。这一次,会是历史的轮回吗?的确,从Ilya发出离别信、po出和OpenAI众元老合影的那天起,一个时代已经终结。Ilya:我要打造的安全超级智能,是这样的在SSI的官方介绍语中,Ilya这样解释了公司的宗旨和愿景目标唯有一个,就是“实现安全的超级智能”。并且,Ilya同时向天下牛人们广发英雄令,召集世界上最优秀的工程师和研究者来“完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战”。超级智能即将实现。构建安全的超级智能(SSI)是我们这个时代最重要的技术问题。我们已经启动了世界上第一个专注于SSI的实验室,目标只有一个:实现安全的超级智能。它的名字是Safe Superintelligence Inc(安全超级智能公司)。SSI是我们的使命、我们的名字和我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI。我们将安全性和能力视为需要通过革命性工程和科学突破来解决的技术问题,并行推进。我们计划尽可能快地提高能力,同时确保我们的安全性始终领先。这样,我们就可以安心地扩展规模。我们单一的目标意味着不会被管理负担或产品周期分散注意力,我们的商业模式意味着安全性、安全性和进步都不会受到短期商业压力的影响。我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,我们在那里有深厚的根基,并有能力招聘顶尖的技术人才。我们正在组建一支由世界上最优秀的工程师和研究人员组成的精干团队,专注于SSI及其他任何事情。如果你是这样的人,我们提供一个机会,让你完成你一生的工作,并帮助解决我们这个时代最重要的技术挑战。现在是时候了。加入我们。Ilya Sutskever, Daniel Gross, Daniel Levy2024年6月19日SSI联创而SSI的几位联创,背景分别是这样的。Daniel LeviyDaniel Leviy曾在2022年加入OpenAI担任技术员工,领导了优化团队(Optimization team)。此前,他于2021年在斯坦福大学获得计算机科学博士学位,导师是John Duchi,主要研究方向在机器学习、优化和隐私。并于2018年获得斯坦福计算机科学硕士学位,由Stefano Ermon教授指导,在概率模型和强化学习方面做研究。2015年获得巴黎综合理工学院应用数学学士学位。入职OpenAI之前,他还在Facebook应用机器学习、Google大脑实习。Daniel GrossDaniel Gross本人的LinkedIn个人主页暂时还未更新。不过,他本人介绍中已经更新了自己是SSI创始人。在19岁的时候,Gross创办了搜索引擎公司Greplin(随后更名为Cue),2013年被苹果收购后,据称以4000万-6000万完成交易,他便加入了苹果公司。在此期间,他领导了苹果AI和搜索的项目。离职苹果之后,Gross作为Y-Combinator合伙人,成立了全新的AI项目部门。也就是从那时起,他一直专注于投资。2018年,Gross再次创业,创办了Pioneer.app,专为创业者提供启动资金的加速器。过去几年里,他投资了多家公司,其中就包括我们熟知的Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。而且,2021年开始他联手Nat Friedman在AI领域展开重大投资,并运营一个AI Grant的项目,向AI本土公司提供25万美元的资金支持。去年,他们还部署了超算Andromeda Cluster,由2,512个H100组成,供投资初创公司使用。Daniel Gross还被时代期刊“Time 100”评为2023年AI领域最具影响力的人物之一。Ilya专访:我要的是核安全正如公司名字所强调的那样,Ilya将AI安全性置于首要地位。关键当然在于,确认哪种AI系统比其他系统更安全,或者真正意义上的安全性到底是什么。目前,Ilya对此说法比较含糊。不过,他本人也暗示了,SSI将试图通过在AI系统中植入“工程突破”来实现安全性,而不是依赖于对AI施加实时的防护措施。他本人表示,当我们说安全时,我们指的是“核安全”,而非“信任与安全”。在硅谷,Ilya拥有近乎神话般的地位,始终是全行业关注的焦点。在不少人眼里,没有Ilya的OpenAI就什么也不是。如果不是Ilya,或许OpenAI不会这么快因ChatGPT而崛起。这句留言说出了大家的心声“最终,奥特曼可能仍然会做正确的事情,但你可以永远相信Ilya”。在接受Bloomberg的独家采访时,Ilya强调,在SSI到达的安全超级智能之前,它不会做任何事。“它将免受必须处理大型而复杂的产品,以及必须陷入竞争激烈的外部压力的影响。”不过,Ilya拒绝透露SSI背后的财务支持者是谁,也并未透露目前公司筹集了多少资金。经历了OpenAI复杂的宫斗事件后,Ilya的再出发,也是某种返璞归真安全超级智能,在某种程度上是对最初OpenAI概念的回归:一个研究组织试图构建一种在许多任务上,可以等于甚至超越人类的通用人工智能。只不过,随着算力导致的资金缺口增大,OpenAI投奔了微软,导致公司的组织结构变了。所有的AI参与者,都面临着同样的难题:AI模型的规模在指数级增长,需要为不断扩大的计算需求付出代价。这种经济现实,也使SSI成为投资者的一场豪赌:押注Ilya和团队是否会取得突破,是否更有优势。但Gross已经保证:“在我们面临的所有问题中,资金绝不是问题。”Ilya表示,他花了数年事件思考安全问题,而且已经想到了一些方法。在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。在此之后,我们可以说我们希望它成为一股向善的力量。我们希望在一些关键价值观的基础上开展运营。我们正在思考的一些价值观,可能是过去几百年来支撑自由民主的成功价值观,比如自由、民主。在他看来,主导AI的LLM将在SSI中发挥重要作用,但他的目标是更大的东西。比起和我们交谈、对话之后就完事了的LLM,他想要的系统更加通用、功能更广泛。“你指的是一个正在自主开发技术的巨型超级数据中心。这太疯狂了,对吧?我们希望为安全做出贡献。”让我们期待,Ilya重新起航后,麾下的新公司会给全人类带来怎样的惊喜。 ... PC版: 手机版:

封面图片

OpenAI联创Ilya Sutskever成立新人工智能公司SSI

OpenAI联创Ilya Sutskever成立新人工智能公司SSI PANews 6月20日消息,据CNBC报道,OpenAI联合创始人Ilya Sutskever周三宣布成立新的人工智能初创公司Safe Superintelligence(SSI)。Sutskever表示,新公司将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。Sutskever与曾负责苹果AI业务的Daniel Gross以及OpenAI前员工Daniel Levy共同创立了这家新公司。

封面图片

从OpenAI出走的、去年跟Sam Altman内斗的首席科学家Ilya Sutskever新创办的公司SSI首轮融资就估值50

从OpenAI出走的、去年跟Sam Altman内斗的首席科学家Ilya Sutskever新创办的公司SSI首轮融资就估值50亿美金了,团队总共10个人,相当于每个人都值5亿美金,公司官网就贴了一段介绍文本,没有设计、没有排版、没有视觉。

封面图片

ilya另起炉灶了lol

ilya另起炉灶了lol OpenAI联合创始人、首席科学家Ilya Sutskever与OpenAI分道扬镳数周后,今日终于公布了自己的新动向。 Ilya今天在X上宣布自己创立了新公司SSI(Safe Superintelligence Inc.),瞬间炸起了AI业界的广泛关注和讨论。 Ilya是AI领域的顶尖科学家,曾主导OpenAI旗下GPT系列、DALL-E等里程碑式项目。然而,他与联合创始人Sam Altman在公司发展方向上的分歧由来已久。 Ilya更倾向于专注AI的安全性和可控性,提出"AI Alignment"(AI系统应与人类价值观保持一致)的理念,而sama则日益重视商业化发展。最终,分歧导致了Ilya的离职。 这一冲突反映出业界在"AI安全性"和"商业化"之间的深层次拉扯,涉及AI技术的未来走向。 从SSI官网披露的信息来看,这家新公司明确提出"构建安全的超级智能(Safe Superintelligence)",并将其视为当前最重要的技术问题。 这一理念与OpenAI日益商业化的策略形成鲜明对比,引发业界的广泛思考。 同时,SSI的成立被视为继Anthropic之后,AI安全派的又一次集结。此前OpenAI的另一位元老Dario Amodei也因类似原因离职,转而投入Anthropic阵营。 Ilya创立SSI,标志着AI业界在技术路线之争、产业生态重塑、社会责任拷问等方面进入新的博弈阶段。SSI能否在"安全"与"发展"之间找到平衡,开创一条不同于OpenAI的道路,将是业界长期关注的焦点。 当然,SSI的未来还有很多不确定性。它能否如愿实现"安全超智能"的宏伟目标?能否在商业竞争中站稳脚跟?能否赢得更多科技伦理学家的认同和支持?这些都有待时间给出答案。 但无论结果如何,SSI的诞生本身确实说明了AI发展进入了一个新的阶段。 ilya推特原文 SSI官网链接

封面图片

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Suk

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。 这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。 “我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。 去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。,并暗示将启动一个新项目。Sutskever 离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。 随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence

OpenAI 联合创始人 Ilya Sutskever 成立新公司 Safe Superintelligence OpenAI 联合创始人和首席科学家 Ilya Sutskever 上个月离开公司,现在正式宣布成立新公司 Safe Superintelligence,表示将专注于打造安全的 AI。Safe Superintelligence 的联合创始人还包括了苹果 AI 前负责人 Daniel Gross 以及以在 OpenAI 训练模型闻名的 Daniel Levy。Ilya 三人在联合声明中表示,他们在致力于提高 AI 能力的同时将安全性置于优先地位,这一目标让他们的商业模式可以保证安全和进步都不受短期商业压力的影响。Sutskever 表示他花了数年时间思考安全,已经想出了一些方法,但没有提供更多细节。他表示安全的 AI 将以人类过去几百年发展的自由民主价值观为基础。 via Solidot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人