听了 Ilya Sutskever (图中右下角)的访谈后,觉得他比 Sam Altman 更加坚定更加有信仰。

听了 Ilya Sutskever (图中右下角)的访谈后,觉得他比 Sam Altman 更加坚定更加有信仰。 本以为是黄仁勋和他对谈,结果基本是黄仁勋负责 prompt,他负责回复。 Dripped Out Technology Brothers: Mira Murati (CTO of OpenAI) + Sam Altman (CEO of OpenAI) + Greg Brockman (President of OpenAI) + Ilya Sutskever (Chief Scientist of OpenAI)

相关推荐

封面图片

OpenAI 已官宣:Sam Altman 重新担任首席执行官,Mira Murati 担任首席技术官,Greg Brockma

OpenAI 已官宣:Sam Altman 重新担任首席执行官,Mira Murati 担任首席技术官,Greg Brockman 担任总裁。 标签: #OpenAI 频道: @GodlyNews1 投稿: @Godlynewsbot

封面图片

Sam Altman 重返 OpenAI 担任首席执行官

Sam Altman 重返 OpenAI 担任首席执行官 由OpenAI此次宣布的“新董事会名单”看,除了Adam D'Angelo,原本主导了此次“宫变”的首席科学家Ilya Sutskever、Tasha McCauley和Helen Toner已经出局。

封面图片

Ilya Sutskever,OpenAI 的联合创始人兼首席科学家,曾领导过针对 Sam Altman 的臭名昭著的失败政变,

Ilya Sutskever,OpenAI 的联合创始人兼首席科学家,曾领导过针对 Sam Altman 的臭名昭著的失败政变,但后来又改变了主意,现在正式离开该公司。 CEO Sam Altman 和 Sutskever 自己均发布了公告这一消息 Sam表示: Ilya和 OpenAI 即将分道扬镳。这对我来说非常悲伤;伊利亚无疑是我们这一代最伟大的头脑之一,是我们领域的引路人,也是一位亲密的朋友。他的才华和远见是众所周知的;他的温暖和同情心虽然不为人知,但同样重要。 如果没有他,OpenAI 不会有今天的成就。尽管他有自己想要从事的有意义的工作,我永远感激他在这里所做的一切,并致力于完成我们一起开始的使命。我很高兴这么长时间以来能够与这样一个真正非凡的天才近距离接触,他如此专注于为人类创造最好的未来。 Jakub 将成为我们的新首席科学家。雅各布也无疑是我们这一代最伟大的头脑之一;我很激动他能在这里接过接力棒。他管理了我们许多最重要的项目,我非常有信心他将带领我们快速且安全地向着确保人工通用智能(AGI)惠及每个人的使命迈进。 根据 OpenAI 的新闻发布,Jakub 指的是公司研究总监 Jakub Pachocki。发布称他一直在“领导 GPT-4 和 OpenAI Five 的开发,以及大规模强化学习和深度学习优化的基础研究。” 无论发生了什么,这似乎代表了 OpenAI 内部一段时间以来不断增长的裂痕。 标签: #OpenAI 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Ilya Sutskever是OpenAI的Co-Founder和首席科学家。相比Sam Altman,他更低调,也更偏技术。连

Ilya Sutskever是OpenAI的Co-Founder和首席科学家。相比Sam Altman,他更低调,也更偏技术。连续听了他的三个访谈,收益颇多。尤其是三年前(2020年5月)他在Lex Fridman Podcast的那次访谈 - 当时GPT3都还没有发布,算得上是畅所欲言,聊出了很多干货,不少内容即便今天听也觉得印象深刻。剩下的两期是2023年他和黄仁勋的对谈以及2周前他做客斯坦福某个seminar的访谈。一些key takeways: 1. 从生物学上,理解神经网络和大脑的相似性 物理学中的理论是非常精确的,人们可以用其做出各种惊人的预测。相比之下,生物学要更加复杂,很难有好的预测性理论。机器学习则介于物理学和生物学之间。 本质上,深度学习是在参考人类大脑的运行方式。在Ilya看来,神经网络最重要的突破是反向传播算法,用数学方程来描述了学习的原理。根据目前神经科学的理解,大脑的学习规则的关键是电信号的时序 (Spike-timing dependent plasticity, STDP)。STDP机制根据神经元放电时序来调节突触强度,而神经网络的反向传播算法通过时间顺序的链式求导来调整权重,二者都依靠误差信号来改变网络结构,并且驱动学习。

封面图片

Ilya的新创业伙伴 是个技术加强版的Sam Altman?

Ilya的新创业伙伴 是个技术加强版的Sam Altman? SSI是一家纯研究机构,将通过在AI系统中嵌入工程突破来实现安全,而不是依赖临时加上的安全措施,近期没有销售AI产品或服务的打算。Ilya曾多次在公开场合表示,他的主要工作是弄清楚如何让“超级智能”安全可控。换句话说,SSI的成立的目的,就是Ilya希望在没有OpenAI、Google和Anthropic等竞争对手所面临的干扰下继续他的工作。安全的超级智能在某种程度上是对最初OpenAI“初心”的回归,OpenAI最初的目标也是开发安全且有益的人工智能,不受商业和竞争压力的干扰,确保AI技术的安全性和对人类的长期利益。然而,随着时间的推移,OpenAI和其他公司在商业化和竞争压力下,不得不平衡安全与市场需求。Ilya以及OpenAI对齐团队成员的离开,核心原因也是OpenAI内部对安全的优先级产生了不可调和的分歧,通过 SSI,他试图通过自己的公司解决这些问题。Daniel Gross在2018年参加YC的播客节目录制新的联创,技术加强版Sam Altman?SSI的另外两位联合创始人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下属,两人共同参与了多个重要的AI项目,他也是OpenAI优化团队的领导者,在GPT-4的架构和优化方面享有盛誉。而Daniel Gross的经历则更具戏剧色彩,Gross 1991年出生于以色列耶路撒冷,热爱编程的他在家乡度过了人生的前十八年,本来打算入伍加入以色列国防军,但在一次前往旧金山的入伍前旅行中,他陷入了硅谷的创业热潮。2010年Gross被Y-Combinator录取,获得资助,当时他是YC有史以来最年轻的创始人,他也因逃避以色列国防军服役,再未返回以色列。Gross随后推出了搜索引擎Greplin,后更名为 Cue。2013年Cue被苹果收购之后,Gross也加入苹果,领导人工智能工作。2017年Gross加入YC担任的合伙人,专注于人工智能,并创建了专门的“YC AI”计划。2021年,Daniel Gross与Github前CEO Nat Friedman成立了早期风险投资基金AI Grant。2023 年,AI Grant部署了自己的计算集群Andromeda,这是一个由 2512 个 H100 GPU 组成的超级计算机集群,供其投资组合中的初创公司使用。Andromeda可以在约10天内完成Llama 65B模型的训练作为投资人,Gross的投资组合可谓亮眼,他投资了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。Gross的投资组合显示了对科技行业整体发展趋势的全面理解,经常在具有颠覆性潜力的项目上下注。从投资选择看,Gross特别关注技术驱动的创新以及AI和软件领域,倾向于支持那些能够改变市场格局、具有高成长潜力的初创公司,特别是那些能够对人类日常生活和工作方式产生深远影响的创新解决方案的公司。在这家新成立的公司中,Ilya担任的角色是首席科学家,负责革命性突破,而Gross在某种意义上替代了Altman的角色。对比两人,我们也可以看到一些明显的共性和区别。Gross和Altman两人都“师出”Paul Graham,与YC颇有渊源,在技术创业和投资领域有丰富的经验,在硅谷拥有广泛的人际网络和资源,适合担当一家公司的头面人物。此外,相较于更加“长袖善舞”,跑遍全世界会见各地的立法者、监管者和投资人的Altman,Gross在气质上与Ilya更接近,两人都是技术天才型人物,他对技术的理解可能为公司在战略、技术方向和资源整合方面提供关键支持。Altman在OpenAI商业化上的野心路人皆知,而Gross与Ilya的合作关系可能更适合专注于AI的安全性和研究本身,Gross在商业与投融资方面的经验,也补足了Ilya的短板。所以Gross的加入,有点像是Ilya离开OpenAI之后,找到了一位新的Sam Altman,只是不知道Altman内心会作何感想?“Daniel Gross,别搞砸了”这并不是OpenAI第一次出现员工因为安全问题的分歧离去创办自己的AI公司。2021年,前OpenAI员工Dario和Daniela Amodei兄妹创办的Anthropic,也致力于比行业竞争对手更注重安全性,而Ilya的SSI看上去更加纯粹,也更具神秘感。在AI行业中,有两大对立阵营:谨慎派和创新派。一方遵循硅谷“快速行动,打破常规”的伦理,称为“有效加速主义”,而另一方则希望确保所开发的技术足够安全,在实验室环境中经过充分测试,并在释放具有颠覆性的AI技术之前设置适当的防护措施,被称为“有效利他主义”。两方都希望AI技术的利益能够惠及全球所有人。llya一直是人工智能领域的安全派,这一点和他的导师Geoffrey Hinton类似,Hinton从Google辞职,原因之一就是为了对AI安全提出警告,并且声称“对毕生工作感到后悔和恐惧”。近年来,llya的工作重点一直放在超级对齐上,去年llya在OpenAI内部创建了一个超级对齐团队,旨在确保未来的人工智能技术不会对人类造成伤害,他越来越担心AI可能变得危险,甚至可能毁灭人类,SSI的成立让他可以专注在避免这件事情的发生。llya表示,虽然大型语言模型在人工智能领域占据主导地位,并将在SSI中扮演重要角色,但他们的目标是开发更强大的系统。他想追求的系统将具有更广泛的用途和能力,就像一个能够自主开发技术的巨大超级数据中心,所以必须要确保安全。Vault-Tec背后隐藏着丰富的故事线和阴暗实验。Safe Superintelligence Inc这个名字,听上去就像是来自以核战争后的末日世界为背景的《辐射》系列游戏,不仅是因为Ilya提到了SSI要追求的是“核安全”级别的安全,游戏中经常涉及的一个话题也是科技激进发展带来的潜在风险和道德困境。这种使命感也与《辐射》中的公司相似,游戏中一家名为Vault-Tec的公司致力于保护人类在核战争中的生存,Safe Superintelligence Inc的名字也传达出一种明确的使命。正如在《辐射》中往往对公司背后的故事和目的披上一层神秘感一样,Safe Superintelligence Inc也给人留下广阔的想象空间。Vault-Tec公司在游戏中以其建造避难所而著称,这些避难所表面上是为了保护人类免受核战争的毁灭,但实际上往往隐藏着更加阴暗的目的和实验。即使是最具有前瞻性和保护目的的科技企业,也可能因为内部实验、决策或外界环境的变化而产生意想不到的后果。SSI使命是否能真正实现,或者是否会在实际操作中偏离初衷,仍然值得关注。这件事可能更多取决于Daniel Gross会不会成为又一个Sam Altman。 ... PC版: 手机版:

封面图片

为什么 OpenAI 董事会想要解雇 Sam Altman

为什么 OpenAI 董事会想要解雇 Sam Altman 《纽约客》发表长文,讲述了 OpenAI 董事会短暂解雇 CEO Sam Altman 的背后故事。文章称,董事会的部分成员发现 Altman 是一位令人感到不安的狡诈圆滑之辈。董事会成员、乔治城大学安全与新兴技术中心主任 Helen Toner 与人合著发表了一篇论文《Decoding Intentions》,其中温和的批评了 OpenAI 对 AI 的炒作。Altman 知道之后直接找上了 Toner,Toner 为自己辩护,之后还向董事会道歉。Altman 开始逐个与董事谈话讨论替换 Toner。当董事们互相交流谈话内容时,他们发现 Altman 不诚实的告诉其他人说他们支持替换 Toner。撒谎挑拨关系的手法 Altman 已经使用了好多年。因为他的战术风格令人畏惧,当四名董事 Toner、D’Angelo、Sutskever 和 Tasha McCauley 讨论解雇 Altman 时他们想要出其不意。如果 Altman 提前知道的话,他肯定会竭尽所能破坏董事会。董事会成员认为他们解雇 Altman 是为了履行其义务。Hugging Face 负责伦理的首席科学家 Margaret Mitchell 认为 Altman 重新担任 OpenAI CEO 会产生寒蝉效应,公司内部会有愈来愈少的人公开说话。来源 ,, 频道:@kejiqu 群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人