从OpenAI出走的、去年跟Sam Altman内斗的首席科学家Ilya Sutskever新创办的公司SSI首轮融资就估值50

从OpenAI出走的、去年跟Sam Altman内斗的首席科学家Ilya Sutskever新创办的公司SSI首轮融资就估值50亿美金了,团队总共10个人,相当于每个人都值5亿美金,公司官网就贴了一段介绍文本,没有设计、没有排版、没有视觉。

相关推荐

封面图片

Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴 是个技术加强版的Sam Altman? SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过 SSI,他试图通过自己的公司解决这些问题。Daniel Gross在2018年参加YC的播客节目录制新的联创,技术加强版Sam Altman?SSI的另外两位联合创始人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而Daniel Gross的经历则更具戏剧色彩,Gross 1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为 Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YC AI”计划。2021年,Daniel Gross与Github前CEO Nat Friedman成立了早期风险投资基金AI Grant。2023 年,AI Grant部署了自己的计算集群Andromeda,这是一个由 2512 个 H100 GPU 组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama 65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”Paul Graham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的Sam Altman,只是不知道Altman内心会作何感想?“Daniel Gross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和Daniela Amodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师Geoffrey Hinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。Safe Superintelligence Inc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,Safe Superintelligence Inc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,Safe Superintelligence Inc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于Daniel Gross会不会成为又一个Sam Altman。 ... PC版: 手机版:

封面图片

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Suk

OpenAI 的联合创始人和前首席科学家 Ilya Sutskever 正在创办一家新的人工智能公司,专注于安全问题。Sutskever 在周三的一篇文章中透露了 Safe Superintelligence Inc.(SSI),这是一家创业公司,只有“一个目标和一个产品”:创建一个安全且强大的人工智能系统。 这份公告称 SSI 是一家“同时注重安全和能力”的初创公司,从而让公司能够快速推进其 AI 系统,同时仍然优先考虑安全性。公告还指出,像 OpenAI、谷歌和微软这样的公司中的 AI 团队常常面临外部压力,而 SSI 公司的“单一专注”使其能够避免“管理负担或产品周期的干扰”。 “我们的商业模式意味着安全、保障和进步都不受短期商业压力的影响,”公告中称。“这样,我们可以在平稳中扩展。”除了 Sutskever,SSI 的联合创始人还有前 Apple 人工智能负责人 Daniel Gross 和之前在 OpenAI 工作过的 Daniel Levy。 去年,Sutskever 带头推动将 OpenAI 的 CEO Sam Altman 赶下台。,并暗示将启动一个新项目。Sutskever 离职后不久,,理由是安全过程已经“被闪亮的产品所取代”。OpenAI 的政策研究员 Gretchen Krueger 也在宣布离职时提到了安全问题。 随着 OpenAI 与苹果和微软的合作不断推进,我们可能不会很快看到 SSI 也这样做。在接受彭博社采访时,Sutskever 表示,SSI 的第一个产品将是安全的超级智能,在此之前公司“不会做任何其他事情”。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Ilya Sutskever,OpenAI 的联合创始人兼首席科学家,曾领导过针对 Sam Altman 的臭名昭著的失败政变,

Ilya Sutskever,OpenAI 的联合创始人兼首席科学家,曾领导过针对 Sam Altman 的臭名昭著的失败政变,但后来又改变了主意,现在正式离开该公司。 CEO Sam Altman 和 Sutskever 自己均发布了公告这一消息 Sam表示: Ilya和 OpenAI 即将分道扬镳。这对我来说非常悲伤;伊利亚无疑是我们这一代最伟大的头脑之一,是我们领域的引路人,也是一位亲密的朋友。他的才华和远见是众所周知的;他的温暖和同情心虽然不为人知,但同样重要。 如果没有他,OpenAI 不会有今天的成就。尽管他有自己想要从事的有意义的工作,我永远感激他在这里所做的一切,并致力于完成我们一起开始的使命。我很高兴这么长时间以来能够与这样一个真正非凡的天才近距离接触,他如此专注于为人类创造最好的未来。 Jakub 将成为我们的新首席科学家。雅各布也无疑是我们这一代最伟大的头脑之一;我很激动他能在这里接过接力棒。他管理了我们许多最重要的项目,我非常有信心他将带领我们快速且安全地向着确保人工通用智能(AGI)惠及每个人的使命迈进。 根据 OpenAI 的新闻发布,Jakub 指的是公司研究总监 Jakub Pachocki。发布称他一直在“领导 GPT-4 和 OpenAI Five 的开发,以及大规模强化学习和深度学习优化的基础研究。” 无论发生了什么,这似乎代表了 OpenAI 内部一段时间以来不断增长的裂痕。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Ilya Sutskever是OpenAI的Co-Founder和首席科学家。相比Sam Altman,他更低调,也更偏技术。连

Ilya Sutskever是OpenAI的Co-Founder和首席科学家。相比Sam Altman,他更低调,也更偏技术。连续听了他的三个访谈,收益颇多。尤其是三年前(2020年5月)他在Lex Fridman Podcast的那次访谈 - 当时GPT3都还没有发布,算得上是畅所欲言,聊出了很多干货,不少内容即便今天听也觉得印象深刻。剩下的两期是2023年他和黄仁勋的对谈以及2周前他做客斯坦福某个seminar的访谈。一些key takeways: 1. 从生物学上,理解神经网络和大脑的相似性 物理学中的理论是非常精确的,人们可以用其做出各种惊人的预测。相比之下,生物学要更加复杂,很难有好的预测性理论。机器学习则介于物理学和生物学之间。 本质上,深度学习是在参考人类大脑的运行方式。在Ilya看来,神经网络最重要的突破是反向传播算法,用数学方程来描述了学习的原理。根据目前神经科学的理解,大脑的学习规则的关键是电信号的时序 (Spike-timing dependent plasticity, STDP)。STDP机制根据神经元放电时序来调节突触强度,而神经网络的反向传播算法通过时间顺序的链式求导来调整权重,二者都依靠误差信号来改变网络结构,并且驱动学习。

封面图片

在首席科学家伊利亚·萨茨凯弗(Ilya Sutskever)表示阿尔特曼不会回来后,格雷格·布罗克曼(Greg Brockman

在首席科学家伊利亚·萨茨凯弗(Ilya Sutskever)表示阿尔特曼不会回来后,格雷格·布罗克曼(Greg Brockman)宣布,OpenAI的三名关键员工会跟随他和山姆·奥特曼(Sam Altman)加入Microsoft。 数十名员工在公司内部论坛宣布他们将离开公司。OpenAI 技术人员 Tao Xu 也在 X 上的帖子中宣布他将辞职。 公司内部出现越来越多的不满情绪,包括首席技术官米拉·穆拉蒂(Mira Murati)和首席运营官布拉德·莱特卡普(Brad Lightcap)在内的前任和现任员工在X上发表了协调一致的声明:“没有员工,OpenAI什么都不是 (OpenAI is nothing without its people) ”。

封面图片

OpenAI以泄密为由解雇两名研究人员 包括首席科学家盟友

OpenAI以泄密为由解雇两名研究人员 包括首席科学家盟友 阿申布伦纳曾是致力于确保人工智能社会安全的核心团队成员,也是OpenAI首席科学家伊利亚·苏茨凯弗(Ilya Sutskever)的盟友。去年秋天,苏茨凯弗曾参与推动首席执行官萨姆·奥特曼(Sam Altman)下台的行动,尽管最终未成功。而伊兹梅洛夫则是一名专注于推理研究的专家,也曾在安全团队中工作。目前尚不清楚这两名员工具体泄露了什么信息。但此次解雇标志着自奥特曼今年3月重返董事会以来,OpenAI人员变动的消息首次公开出现。此前,OpenAI的非营利性董事会曾就奥特曼去年11月被短暂解雇的风波进行了深入调查,并确认他没有不当行为。OpenAI近期通过出售员工股票实现了高达860亿美元的估值,并正在与谷歌、Anthropic等业界巨头激烈竞争,开发支持ChatGPT等前沿产品的下一代基础模型。值得一提的是,阿申布伦纳是OpenAI内部所谓超级对齐(Superalignment)团队的成员,该团队由苏茨凯弗于去年夏天组建,旨在开发控制和操纵先进人工智能(即所谓的超级智能)的技术,探索如何利用这种智能解决核聚变、星际殖民等人类面临的重大挑战。在阿申布伦纳和伊兹梅洛夫被解雇之前,OpenAI的员工就如何安全地开发人工智能存在明显的分歧。阿申布伦纳与有效利他主义运动有紧密联系,该运动强调优先解决人工智能可能带来的潜在风险,而不仅仅是追求短期利益或生产力的提升。苏茨凯弗作为OpenAI最大技术突破的功臣之一,曾在解雇奥特曼的原董事会中任职,并批评奥特曼沟通不够坦诚。然而,奥特曼重新掌舵后,苏茨凯弗退出了董事会,并在公开场合鲜少露面。阿申布伦纳是一位才华横溢的研究者,19岁便从哥伦比亚大学毕业。他曾在未来基金(Future Fund)工作,这是由著名加密货币交易所创始人山姆·班克曼-弗里德(Sam Bankman-Fried)创立的慈善基金,专注于资助能“改善人类长期前景”的创新项目。阿申布伦纳一年前加入了OpenAI。对于此次解雇事件及相关的置评请求,阿申布伦纳、伊兹梅洛夫以及苏茨凯弗的代理律师亚历克斯·温加滕(Alex Weingarten)均未作出回应。另外,值得注意的是,解雇奥特曼的一些原董事会成员与有效利他主义运动有着千丝万缕的联系。例如,塔莎·麦考利(Tasha McCauley)是Effective Ventures董事会的成员,而EffectiveVentures正是有效利他主义中心的母公司。海伦·托纳(Helen Toner)曾在专注于有效利他主义的开放慈善项目中担任重要职务。在奥特曼去年底重新担任首席执行官后,这两位也都离开了OpenAI的董事会。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人